JP2016071800A - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP2016071800A JP2016071800A JP2014203411A JP2014203411A JP2016071800A JP 2016071800 A JP2016071800 A JP 2016071800A JP 2014203411 A JP2014203411 A JP 2014203411A JP 2014203411 A JP2014203411 A JP 2014203411A JP 2016071800 A JP2016071800 A JP 2016071800A
- Authority
- JP
- Japan
- Prior art keywords
- image
- variation
- determination
- determination unit
- learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】検出対象の物体の画像が含まれる画像を効果的に検出することを目的とする。
【解決手段】物体検出装置は、入力画像に対して画像変動処理を加えて変動画像を得る変動手段と、前記入力画像に検出対象の物体の画像が含まれるか否かを判別し、前記変動画像に前記物体の画像が含まれるか否かを判別する判別手段と、前記判別手段による判別の結果に基づいて、前記物体が検出されたか否かを判定する判定手段と、を有する。
【選択図】図1
【解決手段】物体検出装置は、入力画像に対して画像変動処理を加えて変動画像を得る変動手段と、前記入力画像に検出対象の物体の画像が含まれるか否かを判別し、前記変動画像に前記物体の画像が含まれるか否かを判別する判別手段と、前記判別手段による判別の結果に基づいて、前記物体が検出されたか否かを判定する判定手段と、を有する。
【選択図】図1
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、映像機器のインテリジェント化が普及しつつある。監視カメラに人体検出機能を搭載することで、人数カウント、お客様意図分析、異常動作検知、領域侵入検知等の機能を提供することができる。また、デジタルカメラ等の撮影装置により撮影された映像中の人物の位置を特定し追尾することによるカメラのフォーカス、露出を自動制御する機能が注目されている。人物以外に、犬、猫、花等の一般の物体にも注目して、カメラを自動制御する機能も普及している。
映像機器のインテリジェント化の基盤は、機械学習による物体検出技術である。機械学習は、大量の物体と非物体の学習サンプルから、物体と非物体を区別する特徴量を抽出し、認識モデルを作成する手法である。画像から物体を検出する際、以下のような処理が行われる。即ち、原画像のサイズをスケーリングしてピラミッド画像レイヤを作成する。次に、各ピラミッド画像レイヤについてラスタースキャンを行い、部分領域を抽出し、認識モデルに記述した各特徴量の判別器応答を組み合わせることで、異なるサイズの物体を検出することができる。
映像機器のインテリジェント化の基盤は、機械学習による物体検出技術である。機械学習は、大量の物体と非物体の学習サンプルから、物体と非物体を区別する特徴量を抽出し、認識モデルを作成する手法である。画像から物体を検出する際、以下のような処理が行われる。即ち、原画像のサイズをスケーリングしてピラミッド画像レイヤを作成する。次に、各ピラミッド画像レイヤについてラスタースキャンを行い、部分領域を抽出し、認識モデルに記述した各特徴量の判別器応答を組み合わせることで、異なるサイズの物体を検出することができる。
前記認識モデルを作成する際、Support Vector Machine、adaboost学習によるカスケード型の検出器の作成等は、代表的な手法である。Support Vector Machine及びadaboost学習を認識処理に応用する方法については、それぞれ非特許文献1及び非特許文献2にあげられている。
Support Vector Machine(SVM)においては、現在のスキャンウィンドウの各特徴量又は各特徴量の写像に重みを付けて総和を求め、物体らしさを表す尤度とする。求めた尤度を閾値と比較することで、物体であるか否かの判定が行われる。
SVM検出器の作成においては、大量の正例画像と負例画像とを用意し、正例画像と負例画像との特徴量を計算し、正例画像と負例画像とを最も分離できる特徴量の重みを回帰的に求めることで、物体と非物体とを分離できる閾値を決定する。
Support Vector Machine(SVM)においては、現在のスキャンウィンドウの各特徴量又は各特徴量の写像に重みを付けて総和を求め、物体らしさを表す尤度とする。求めた尤度を閾値と比較することで、物体であるか否かの判定が行われる。
SVM検出器の作成においては、大量の正例画像と負例画像とを用意し、正例画像と負例画像との特徴量を計算し、正例画像と負例画像とを最も分離できる特徴量の重みを回帰的に求めることで、物体と非物体とを分離できる閾値を決定する。
カスケード型の検出器は、複数の弱判別器が直列で連結されている。それぞれの弱判別器は、現在の部分領域の物体らしさの尤度を出力し、尤度と閾値とを比較し、物体であるかどうかを判定する。全ての弱判別器において、物体であると判別された部分領域は物体と判定される。
カスケード型の検出器の作成においては、大量の正例画像と負例画像とを用意し、正例画像と負例画像との候補特徴量プールを計算する。カスケード型の検出器における各弱判別器の学習の際、候補特徴量プールから、正例画像と負例画像とを最も分離できる特徴量を選び、閾値を決定する。そして、正しく判断できた正例画像と負例画像との重みを下げ、誤って判断した正例画像と負例画像との重みを上げて、次の弱判別器を学習する。予め定められた数の弱判別器を学習終わったら、bootstrapping技術を利用して負例画像を更新して、学習を続ける。
カスケード型の検出器の作成においては、大量の正例画像と負例画像とを用意し、正例画像と負例画像との候補特徴量プールを計算する。カスケード型の検出器における各弱判別器の学習の際、候補特徴量プールから、正例画像と負例画像とを最も分離できる特徴量を選び、閾値を決定する。そして、正しく判断できた正例画像と負例画像との重みを下げ、誤って判断した正例画像と負例画像との重みを上げて、次の弱判別器を学習する。予め定められた数の弱判別器を学習終わったら、bootstrapping技術を利用して負例画像を更新して、学習を続ける。
近年、検出器を高速化するための手法として、バイナリ特徴量を利用する手法が注目を浴びている。バイナリ特徴量は、部分領域中の複数の画素値又は画素値から得られる特徴の比較処理に基づき特徴量抽出を行った特徴量である。バイナリ特徴量は、高速である反面、明暗の揺らぎやボケに不安定のため誤検出が発生しやすい。
いずれの検出器の学習においても、次のような処理が行われている。即ち、正例画像に対して予め定められた画像変動処理を加え、処理した正例画像を元の正例画像に加えて、学習に用いることにより、正例画像に明暗の揺らぎやボケを加えて、変形の耐性を高める処理である。
いずれの検出器の学習においても、次のような処理が行われている。即ち、正例画像に対して予め定められた画像変動処理を加え、処理した正例画像を元の正例画像に加えて、学習に用いることにより、正例画像に明暗の揺らぎやボケを加えて、変形の耐性を高める処理である。
C.J.C.Burges "A Tutorial on Support Vector Machines for Pattern Recognition" Data Mining and Knowledge Discovery, vol.2, pp.121−168 (1998)
Bo Wu, Haizhou Ai, Chang Huang, Shihong Lao, "Fast Rotation Invariant Multi−View Face Detection Based on Real Adaboost", IEEE International Conference on Automatic Face and Gesture Recognition − FGR , pp. 79−84, 2004
松島 千佳、山内 悠嗣、山下 隆義、藤吉 弘亘、"Relational Binarized HOG特徴量とReal AdaBoostによるバイナリ選択と用いた物体検出"、画像の認識・理解シンポジウム(MIRU2010)、2010年7月
しかし、非特許文献1又は非特許文献2の検出器の学習において、膨大な数の負例画像を学習することは現実的には困難であり、誤検出を効果的に回避することができず、検出対象の物体が含まれる画像を効果的に検出できないという問題がある。
そこで、本発明は、検出対象の物体の画像が含まれる画像を効果的に検出することを目的とする。
そこで、本発明は、検出対象の物体の画像が含まれる画像を効果的に検出することを目的とする。
そこで、本発明の物体検出装置は、入力画像に対して画像変動処理を加えて変動画像を得る変動手段と、前記入力画像に検出対象の物体の画像が含まれるか否かを判別し、前記変動画像に前記物体の画像が含まれるか否かを判別する判別手段と、前記判別手段による判別の結果に基づいて、前記物体が検出されたか否かを判定する判定手段と、を有する。
本発明によれば、検出対象の物体の画像が含まれる画像を効果的に検出することができる。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
図1は、物体検出装置100のソフトウェア構成等の一例を示す図である。物体検出装置100は、情報処理装置の一例である。
物体検出装置100は、部分領域抽出部D101、画像変動部D102、物体判別部D103、判別結果判定部D104、を含む。また、入力画像I100は、物体検出装置100への入力であり、判別結果O105は、各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す物体検出装置100からの出力である。部分領域抽出部D101は、入力画像I100から判別処理を行う部分領域を抽出する。画像変動部D102は、部分領域抽出部D101により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D103は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。判別結果判定部D104は、物体判別部D103による判別結果に基づいて、検出対象の物体を検出したか否かを判定する。
図1は、物体検出装置100のソフトウェア構成等の一例を示す図である。物体検出装置100は、情報処理装置の一例である。
物体検出装置100は、部分領域抽出部D101、画像変動部D102、物体判別部D103、判別結果判定部D104、を含む。また、入力画像I100は、物体検出装置100への入力であり、判別結果O105は、各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す物体検出装置100からの出力である。部分領域抽出部D101は、入力画像I100から判別処理を行う部分領域を抽出する。画像変動部D102は、部分領域抽出部D101により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D103は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。判別結果判定部D104は、物体判別部D103による判別結果に基づいて、検出対象の物体を検出したか否かを判定する。
図2は、物体検出装置100のハードウェア構成の一例を示す図である。
CPU1001は、本実施形態の物体検出装置100における各種制御を実行する。
ROM1002は、物体検出装置100の立ち上げの際に実行されるブートプログラム、各種データ等を格納する。
RAM1003は、CPU1001が処理する制御プログラムを格納すると共に、CPU1001が各種制御を実行する際の作業領域を提供する。
キーボード1004、マウス1005は、ユーザに対して、各種入力操作環境を提供する。
外部記憶装置1006は、ハードディスク、フロッピー(登録商標)ディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ等で構成される。外部記憶装置1006は、制御プログラム、各種データ等を格納する。ただし、外部記憶装置1006は、ROM1002が制御プログラム、各種データ等を全て格納している場合、必ずしも必要な構成要素ではない。
CPU1001は、本実施形態の物体検出装置100における各種制御を実行する。
ROM1002は、物体検出装置100の立ち上げの際に実行されるブートプログラム、各種データ等を格納する。
RAM1003は、CPU1001が処理する制御プログラムを格納すると共に、CPU1001が各種制御を実行する際の作業領域を提供する。
キーボード1004、マウス1005は、ユーザに対して、各種入力操作環境を提供する。
外部記憶装置1006は、ハードディスク、フロッピー(登録商標)ディスク、光ディスク、磁気ディスク、光磁気ディスク、磁気テープ等で構成される。外部記憶装置1006は、制御プログラム、各種データ等を格納する。ただし、外部記憶装置1006は、ROM1002が制御プログラム、各種データ等を全て格納している場合、必ずしも必要な構成要素ではない。
表示器1007は、ディスプレイ等で構成され、物体検出装置100の出力結果等がユーザに対して表示される。
ネットワークインターフェース1008は、ネットワークとの接続に利用されるインターフェースである。
ビデオインターフェース1009は、撮像部との同軸ケーブル等を介した接続に利用されるインターフェースである。CPU1001は、ビデオインターフェース1009を介して、前記撮像部からフレーム画像の取り込み等を行うことができる。
また、バス1011は、物体検出装置100の各ハードウェア構成同士の接続に利用される。
CPU1001が、ROM1002又は外部記憶装置1006に記憶されたプログラムに基づき処理を実行することによって、前述した物体検出装置100のソフトウェア構成及び後述するフローチャートの処理が実現される。
ネットワークインターフェース1008は、ネットワークとの接続に利用されるインターフェースである。
ビデオインターフェース1009は、撮像部との同軸ケーブル等を介した接続に利用されるインターフェースである。CPU1001は、ビデオインターフェース1009を介して、前記撮像部からフレーム画像の取り込み等を行うことができる。
また、バス1011は、物体検出装置100の各ハードウェア構成同士の接続に利用される。
CPU1001が、ROM1002又は外部記憶装置1006に記憶されたプログラムに基づき処理を実行することによって、前述した物体検出装置100のソフトウェア構成及び後述するフローチャートの処理が実現される。
以下、図3のフローチャートを用いて本実施形態における処理の流れを詳細に説明する。図3は、検出処理の一例を示すフローチャートである。
S101において、物体検出装置100は、1枚の静止画又は動画の1フレーム画像である入力画像I100の入力を検知する。
S102において、部分領域抽出部D101は、入力画像I100に対して、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。図4は、部分領域抽出処理の一例を示す図である。部分領域抽出部D101は、前記ピラミッド画像群の各レイヤ−について、物体判別部D103が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S103において、物体判別部D103は、S102で抽出された部分領域の画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるか否か判別する。物体判別部D103は、S103の判別結果を、判別結果判定部D104に入力する。例として、特徴量は、Binary−HOG(B−HOG)特徴量とし、判別器は、adaboostで学習したカスケード型の判別器とする。また、物体判別部D103は、SVM判別器、又は、random tree等の判別器を含んでいてもよい。特徴量は、HOG特徴量、画素値等であってもよい。また、特徴量は、LBP(Local Binary Pattern)特徴量等、B−HOG特徴量以外のバイナリ特徴量であってもよい。バイナリ特徴量は、画像中の複数の特徴量同士の相互比較の比較結果、画像中の複数の特徴量と閾値との比較の比較結果等に基づいて、取得される特徴量である。バイナリ特徴量は、二値化された値で表される。
S101において、物体検出装置100は、1枚の静止画又は動画の1フレーム画像である入力画像I100の入力を検知する。
S102において、部分領域抽出部D101は、入力画像I100に対して、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。図4は、部分領域抽出処理の一例を示す図である。部分領域抽出部D101は、前記ピラミッド画像群の各レイヤ−について、物体判別部D103が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S103において、物体判別部D103は、S102で抽出された部分領域の画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるか否か判別する。物体判別部D103は、S103の判別結果を、判別結果判定部D104に入力する。例として、特徴量は、Binary−HOG(B−HOG)特徴量とし、判別器は、adaboostで学習したカスケード型の判別器とする。また、物体判別部D103は、SVM判別器、又は、random tree等の判別器を含んでいてもよい。特徴量は、HOG特徴量、画素値等であってもよい。また、特徴量は、LBP(Local Binary Pattern)特徴量等、B−HOG特徴量以外のバイナリ特徴量であってもよい。バイナリ特徴量は、画像中の複数の特徴量同士の相互比較の比較結果、画像中の複数の特徴量と閾値との比較の比較結果等に基づいて、取得される特徴量である。バイナリ特徴量は、二値化された値で表される。
図5は、B−HOG特徴量を示す図である。物体判別部D103は、B−HOG特徴量を求めるために、以下の処理を行う。まず、物体判別部D103は、[−1 0 1]のような差分フィルタを部分領域の画像のx方向とy方向とに適用し、各画素位置の勾配の強度と方向とを求め、勾配強度画像を得る。次に、物体判別部D103は、前記各画素位置の勾配の方向をn個のbinに量子化する。物体判別部D103は、勾配強度画像を予め定めた大きさWxWのセルに分割し、前記量子化したn個のbinにおける注目セルの各位置の勾配強度のヒストグラムを求める。物体判別部D103は、求めたヒストグラムを閾値(図5(5)のth)と比較することにより(前記閾値以上の値ならば1、前記閾値より小さい値ならば0とする)、B−HOG特徴量のバイナリコードを得る。本実施形態において、物体判別部D103は、量子化した勾配の方向は8個とし、1セルのB−HOGのバイナリコードは8ビットとなり、1byteで記憶できる。B−HOG特徴量の詳細については、非特許文献3にあげられている。
図6は、カスケード型の物体判別部D103のソフトウェア構成等の一例を示す図である。カスケード型判別モデルは、複数の判別器を含み、それぞれの判別器に閾値を設け、各判別器で計算した特徴量のスコアを前記閾値と比較する。前記各判別器は、それぞれにパラメータを保持し、前記パラメータに基づいて、判別処理を行うことで前記スコアを計算する。以下、前記パラメータを、判別パラメータとする。各判別器は、特徴量のスコアが閾値より低い場合、入力された正規化済みの局所領域の画像を前記物体の画像ではないと判別する。各判別器は、特徴量のスコアが閾値より高い場合、前記局所領域の画像を前記物体の画像と判別し、次の判別器に対して前記特徴量を出力する。引き続き後続の判別器は、前記局所領域の画像が前記物体の画像か否かを判別する。物体判別部D103は、最後の判別器nにより前記局所領域の画像が前記物体の画像と判別された場合、前記局所領域の画像を物体の画像と判定する。
S104において、画像変動部D102は、S102で抽出された部分領域の画像について、画像変動処理を施し、画像変動処理した部分領域の画像を生成する。画像変動処理の種類には、輝度変化、彩度変化、コントラスト変化、ノイズ付加、空間フィルタリング等の処理又は、前記複数の処理の組合せ等がある。輝度変化、彩度変化、コントラスト変化、ノイズ付加の処理は、単一の画素に対して演算を行うため高速である。空間フィルタリングの処理には、画像ボカシ、エッジ強調等がある。物体検出に使う特徴量としてB−HOG特徴量を用いる場合、HOGの強度が輝度変化に対して不安定であるという特性を利用すべく、S104で行う画像変動処理には、輝度変化を用いるのが効果的である。また、輝度変化は、簡単な演算で実行可能なため、処理が軽く、高速に実行できる。本実施形態では、S104で、輝度変化処理を施すこととする。
S105において、物体判別部D103は、S104で画像変動処理を施した部分領域の画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるか否か判別する。物体判別部D103は、S105の判別結果を、判別結果判定部D104に入力する。
検出対象の物体の画像が含まれる部分領域の画像は、画像変動処理を加えられたとしても、前記物体らしい領域が残っていれば、ほとんどの場合、物体判別部D103により再度前記物体の画像が含まれると判別される。更に、物体検出装置100は、学習の際に正例画像に対して画像変動部D102の画像変動処理を加えた画像を正例画像に加えて学習することで、前記画像を正例画像に加えずに学習した場合に比べ、前記画像変動処理による判別結果の影響を小さくできる。
一方、物体判別部D103が前記物体の画像が含まれない部分領域の画像を前記物体の画像と判別してしまう要因の多くは、偶然である。そのため、物体検出装置100は、前記物体の画像が含まれない部分領域の画像に画像変動処理を付加した後、再度、判別すると、前記物体の画像が含まれないと判別されることが多い。したがって、物体検出装置100は、前記部分領域の画像に前記物体の画像が含まれるか否かの判別結果と、画像変動を付加した前記部分領域の画像に前記物体の画像が含まれるか否かの判別結果と、を論理演算することにより、誤検出を大幅に低減できる。判別処理は、前記バイナリ特徴量を利用する場合、利用しない場合に比べて、誤検出の低減の効果が大きくなるという特性がある。本実施形態において、物体検出装置100は、前記特性を利用して検出対象の物体の画像ではない画像を効果的に拒絶する。
検出対象の物体の画像が含まれる部分領域の画像は、画像変動処理を加えられたとしても、前記物体らしい領域が残っていれば、ほとんどの場合、物体判別部D103により再度前記物体の画像が含まれると判別される。更に、物体検出装置100は、学習の際に正例画像に対して画像変動部D102の画像変動処理を加えた画像を正例画像に加えて学習することで、前記画像を正例画像に加えずに学習した場合に比べ、前記画像変動処理による判別結果の影響を小さくできる。
一方、物体判別部D103が前記物体の画像が含まれない部分領域の画像を前記物体の画像と判別してしまう要因の多くは、偶然である。そのため、物体検出装置100は、前記物体の画像が含まれない部分領域の画像に画像変動処理を付加した後、再度、判別すると、前記物体の画像が含まれないと判別されることが多い。したがって、物体検出装置100は、前記部分領域の画像に前記物体の画像が含まれるか否かの判別結果と、画像変動を付加した前記部分領域の画像に前記物体の画像が含まれるか否かの判別結果と、を論理演算することにより、誤検出を大幅に低減できる。判別処理は、前記バイナリ特徴量を利用する場合、利用しない場合に比べて、誤検出の低減の効果が大きくなるという特性がある。本実施形態において、物体検出装置100は、前記特性を利用して検出対象の物体の画像ではない画像を効果的に拒絶する。
S106において、判別結果判定部D104は、S103での判別結果とS105での判別結果との論理値についてAND論理演算を行い、最終の判定結果として出力する。判別結果判定部D104は、物体として検出した領域が重なる場合には、重複した前記領域を1つにまとめる処理、例えばmeanshiftアルゴリズムを適用する処理等を行う。
本実施形態において、S103の処理とS104及びS105の処理とは、並列して実行されるが、図7のように、処理のバランスを考えて、S103'を追加することも可能である。
S101の処理は、図3と同様である。
S102の処理は、図3と同様である。
S103'において、画像変動部D102は、S102で抽出された部分領域の画像のうち、半数について、画像変動処理を施す。
S103において、物体判別部D103は、S103'で画像変動処理を施した部分領域の画像及びS102で抽出された部分領域の画像のうちS103'で画像変動処理が加えられなかった画像について、以下の処理を行う。即ち、物体判別部D103は、特徴量を抽出し、前記特徴量を判別器に入力し、前記特徴量が抽出された画像に検出対象の物体の画像が含まれるか否か判別する。物体判別部D103は、S103の判別結果を、判別結果判定部D104に入力する。
S101の処理は、図3と同様である。
S102の処理は、図3と同様である。
S103'において、画像変動部D102は、S102で抽出された部分領域の画像のうち、半数について、画像変動処理を施す。
S103において、物体判別部D103は、S103'で画像変動処理を施した部分領域の画像及びS102で抽出された部分領域の画像のうちS103'で画像変動処理が加えられなかった画像について、以下の処理を行う。即ち、物体判別部D103は、特徴量を抽出し、前記特徴量を判別器に入力し、前記特徴量が抽出された画像に検出対象の物体の画像が含まれるか否か判別する。物体判別部D103は、S103の判別結果を、判別結果判定部D104に入力する。
S104において、画像変動部D102は、S102で抽出された部分領域の画像のうち、S103'で画像変動処理が加えられなかった部分領域の画像について画像変動処理を施す。
S105において、物体判別部D103は、S104で画像変動処理を施した部分領域の画像及びS102で抽出された部分領域の画像のうちS104で画像変動処理が加えられなかった画像について、以下の処理を行う。即ち、物体判別部D103は、特徴量を抽出し、前記特徴量を判別器に入力し、前記特徴量が抽出された画像に検出対象の物体の画像が含まれるか否か判別する。物体判別部D103は、S105の判別結果を、判別結果判定部D104に入力する。
S106において、判別結果判定部D104は、S103での判別結果とS105での判別結果との論理演算を行い、両方とも検出対象の物体の画像と判別されている場合、前記部分領域の画像を前記物体の画像と判別する。判別結果判定部D104は、両方とも検出対象の物体の画像と判別されている場合以外の場合、前記部分領域の画像に前記物体の画像が含まれないと判別する。
S105において、物体判別部D103は、S104で画像変動処理を施した部分領域の画像及びS102で抽出された部分領域の画像のうちS104で画像変動処理が加えられなかった画像について、以下の処理を行う。即ち、物体判別部D103は、特徴量を抽出し、前記特徴量を判別器に入力し、前記特徴量が抽出された画像に検出対象の物体の画像が含まれるか否か判別する。物体判別部D103は、S105の判別結果を、判別結果判定部D104に入力する。
S106において、判別結果判定部D104は、S103での判別結果とS105での判別結果との論理演算を行い、両方とも検出対象の物体の画像と判別されている場合、前記部分領域の画像を前記物体の画像と判別する。判別結果判定部D104は、両方とも検出対象の物体の画像と判別されている場合以外の場合、前記部分領域の画像に前記物体の画像が含まれないと判別する。
本実施形態において、物体検出装置100は、入力画像から部分領域の画像を抽出した後に、前記部分領域の画像に対して画像変動処理を施して、前記画像変動処理を施した部分領域の画像から特徴量を抽出し、前記特徴量を判別器に入力することとした。しかし、物体検出装置100は、画像に対して画像変動処理を施した後に、部分領域の画像を抽出し、前記部分領域の画像から特徴量を抽出し、前記特徴量を判別器に入力することとしてもよい。
本実施形態において、物体検出装置100は、入力画像から部分領域抽出部D101により抽出された画像と、前記画像に画像変動部D102の画像変動処理が加えられた画像と、に対して物体判別部D103の判別処理を行うこととした。しかし、物体検出装置100は、部分領域抽出部D101を有さずに以下の処理を行うこととしてもよい。即ち、物体検出装置100は、物体判別部D103の判別器に入力できるサイズの入力画像を受けつけ、前記入力画像と前記入力画像に画像変動部D102による画像変動処理が加えられた画像とに対して物体判別部D103の判別処理を行うこととしてもよい。
また、物体検出装置100は、画像変動部D102を有さずに、入力画像と、前記入力画像に画像変動処理が加えられた変動画像と、を入力として受け付けるようにしてもよい。その際、物体検出装置100は、前記入力画像と前記変動画像とから部分領域抽出部D101により抽出された画像に対して、物体判別部D103による判別処理を行う。
また、物体検出装置100は、部分領域抽出部D101及び画像変動部D102を有さず、物体判別部D103の判別器に入力できるサイズの入力画像と、前記入力画像に画像変動処理を加えた変動画像処理と、を入力として受け付けるということとしてもよい。その際、物体検出装置100は、前記入力画像と前記変動画像とに対して直接、物体判別部D103による判別処理を行う。
更に、本実施形態では、判別結果判定部D104は、部分領域の画像に対しての判別結果と、前記部分領域の画像に対して一つの画像変動処理を施した画像に対しての判別結果と、の論理演算を行い、最終的な判別結果を求めることとした。しかし、判別結果判定部D104は、前記部分領域の画像に対しての判別結果と、前記部分領域の画像に対して複数の異なる画像変動処理を施した画像に対しての判別結果と、の論理演算又は算術演算を行い、最終的な判別結果を求めることとしてもよい。
本実施形態において、物体検出装置100は、入力画像から部分領域抽出部D101により抽出された画像と、前記画像に画像変動部D102の画像変動処理が加えられた画像と、に対して物体判別部D103の判別処理を行うこととした。しかし、物体検出装置100は、部分領域抽出部D101を有さずに以下の処理を行うこととしてもよい。即ち、物体検出装置100は、物体判別部D103の判別器に入力できるサイズの入力画像を受けつけ、前記入力画像と前記入力画像に画像変動部D102による画像変動処理が加えられた画像とに対して物体判別部D103の判別処理を行うこととしてもよい。
また、物体検出装置100は、画像変動部D102を有さずに、入力画像と、前記入力画像に画像変動処理が加えられた変動画像と、を入力として受け付けるようにしてもよい。その際、物体検出装置100は、前記入力画像と前記変動画像とから部分領域抽出部D101により抽出された画像に対して、物体判別部D103による判別処理を行う。
また、物体検出装置100は、部分領域抽出部D101及び画像変動部D102を有さず、物体判別部D103の判別器に入力できるサイズの入力画像と、前記入力画像に画像変動処理を加えた変動画像処理と、を入力として受け付けるということとしてもよい。その際、物体検出装置100は、前記入力画像と前記変動画像とに対して直接、物体判別部D103による判別処理を行う。
更に、本実施形態では、判別結果判定部D104は、部分領域の画像に対しての判別結果と、前記部分領域の画像に対して一つの画像変動処理を施した画像に対しての判別結果と、の論理演算を行い、最終的な判別結果を求めることとした。しかし、判別結果判定部D104は、前記部分領域の画像に対しての判別結果と、前記部分領域の画像に対して複数の異なる画像変動処理を施した画像に対しての判別結果と、の論理演算又は算術演算を行い、最終的な判別結果を求めることとしてもよい。
検出対象の物体の画像が含まれる画像は、若干の画像変動があっても判別結果への影響が小さく、前記物体の画像が含まれない画像は、若干の画像変動がある場合に判別結果が大きく変わる特性を持つ。前記特性により、本実施形態のように判別対象画像と前記判別対象画像に画像変動処理を加えた変動画像とに対して判別処理を行うことで、物体検出装置100は、検出対象の物体の画像が含まれない画像に対する誤検出を効果的に判定できる。したがって、本実施形態の処理により、物体検出装置100は、検出対象の物体の画像が含まれない領域の画像を効果的に拒絶することができるようになる。
<実施形態2>
実施形態1における物体検出装置100は、入力画像から抽出した部分領域の画像、及び、部分領域の画像に画像変動処理が加えられた画像について並列に判別器を適用して、判別結果を判定するような構成であった。本実施形態において、まず、物体検出装置200は、入力画像について部分領域を抽出し判別処理を行い、前記部分領域の画像に検出対象の物体の画像が含まれるか否かを判別する。次に、物体検出装置200は、前記物体の画像と判別された部分領域の画像のみについて、画像変動処理を施し、再度判別処理を行う。物体検出装置200は、二回とも検出対象の物体の画像が含まれると判別した場合、前記部分領域を物体領域と判別する。
図8は、物体検出装置200のソフトウェア構成等の一例を示す図である。
物体検出装置200は、部分領域抽出部D201、画像変動部D202、物体判別部D203、を含む。また、入力画像I200は、物体検出装置200への入力であり、判別結果O205は、物体検出装置200からの出力である。判別結果O205は、各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す。部分領域抽出部D201は、入力画像I200から判別処理を行う部分領域を抽出する。画像変動部D202は、部分領域抽出部D201により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D203は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置200のハードウェア構成は、図2と同様である。
実施形態1における物体検出装置100は、入力画像から抽出した部分領域の画像、及び、部分領域の画像に画像変動処理が加えられた画像について並列に判別器を適用して、判別結果を判定するような構成であった。本実施形態において、まず、物体検出装置200は、入力画像について部分領域を抽出し判別処理を行い、前記部分領域の画像に検出対象の物体の画像が含まれるか否かを判別する。次に、物体検出装置200は、前記物体の画像と判別された部分領域の画像のみについて、画像変動処理を施し、再度判別処理を行う。物体検出装置200は、二回とも検出対象の物体の画像が含まれると判別した場合、前記部分領域を物体領域と判別する。
図8は、物体検出装置200のソフトウェア構成等の一例を示す図である。
物体検出装置200は、部分領域抽出部D201、画像変動部D202、物体判別部D203、を含む。また、入力画像I200は、物体検出装置200への入力であり、判別結果O205は、物体検出装置200からの出力である。判別結果O205は、各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す。部分領域抽出部D201は、入力画像I200から判別処理を行う部分領域を抽出する。画像変動部D202は、部分領域抽出部D201により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D203は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置200のハードウェア構成は、図2と同様である。
図9は、検出処理の一例を示すフローチャートである。
S201において、物体検出装置200は、1枚の静止画又は動画の1フレーム画像である入力画像I200の入力を検知する。
S202において、部分領域抽出部D201は、入力画像I200に対して、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。部分領域抽出部D201は、前記ピラミッド画像群の各レイヤ−について、物体判別部D203が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S203において、物体判別部D203は、S202で抽出された部分領域の画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるか否か判別する。
S204において、物体検出装置200は、S203で前記部分領域の画像に検出対象の物体の画像が含まれると判別された場合、S205の処理へ進む。物体検出装置200は、S203で前記部分領域の画像が前記物体の画像でないと判別された場合、S202の処理へ進む。
S201において、物体検出装置200は、1枚の静止画又は動画の1フレーム画像である入力画像I200の入力を検知する。
S202において、部分領域抽出部D201は、入力画像I200に対して、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。部分領域抽出部D201は、前記ピラミッド画像群の各レイヤ−について、物体判別部D203が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S203において、物体判別部D203は、S202で抽出された部分領域の画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるか否か判別する。
S204において、物体検出装置200は、S203で前記部分領域の画像に検出対象の物体の画像が含まれると判別された場合、S205の処理へ進む。物体検出装置200は、S203で前記部分領域の画像が前記物体の画像でないと判別された場合、S202の処理へ進む。
S205において、画像変動部D202は、S203で検出対象の物体の画像と判別された部分領域の画像について、画像変動処理を施し、画像変動処理した画像を生成する。
S206において、物体判別部D203は、S205で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S207において、物体検出装置200は、S206で判別対象の画像に検出対象の物体の画像が含まれると判別された場合、S208の処理へ進む。物体検出装置200は、前記判別対象の画像に検出対象の物体の画像が含まれないと判別された場合、S202の処理へ進む。
S208において、物体検出装置200は、S206での判別結果に基づいて、最終の判定結果を出力する。例えば、物体検出装置200は、S206での判別結果を最終判定結果として、そのまま出力する。
S206において、物体判別部D203は、S205で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S207において、物体検出装置200は、S206で判別対象の画像に検出対象の物体の画像が含まれると判別された場合、S208の処理へ進む。物体検出装置200は、前記判別対象の画像に検出対象の物体の画像が含まれないと判別された場合、S202の処理へ進む。
S208において、物体検出装置200は、S206での判別結果に基づいて、最終の判定結果を出力する。例えば、物体検出装置200は、S206での判別結果を最終判定結果として、そのまま出力する。
本実施形態において、物体検出装置200は、S204で検出対象の物体の画像を含む判別された部分領域の画像のみについて、画像変動処理を施し、画像変動処理を加えた画像に前記物体の画像が含まれるか否かを判別する処理を行う。物体検出装置200は、一枚の画像に対して物体の検出を行う場合、多くの部分領域が背景領域であるため、1回目の判別処理(S203、S204)で、部分領域の大部分を拒絶することができる。そのため、物体検出装置200は、2回目の判別処理(S206、S207)の対象となる部分領域を大幅に減らすことができる。したがって本実施形態の処理により、物体検出装置200は、実施形態1による効果に加えて、判別処理の軽減という効果を得ることができる。
<実施形態3>
実施形態1、2は、主に誤検出を低減することを目的とするが、本実施形態は、主に、検出対象の物体の画像ではない画像を早期に拒絶することを目的とする。本実施形態の物体判別部は、第1の強判別器で物体と判別した部分領域の画像について画像変動処理を加えられた画像について、もう一度、第1の強判別器で判別処理を行う。次に、前記物体判別部は、前記判別処理で再度物体と判別した場合のみ、前記部分領域の画像について第2の強判別器で判別処理を行い、物体か否かを判別する。
図10は、物体検出装置300のソフトウェア構成等の一例を示す図である。物体検出装置300は、部分領域抽出部D301、画像変動部D302、物体判別部D303、を含む。物体判別部D303は、強判別器1(D3031)、強判別器2(D3032)、を含む。強判別器1(D3031)と強判別器2(D3032)とは、判別処理に利用されるパラメータである判別パラメータが異なるものとする。また、入力画像I300は、物体検出装置300の入力であり、判別結果O305は、各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す物体検出装置300の出力である。部分領域抽出部D301は、入力画像I300から判別処理を行う部分領域を抽出する。画像変動部D302は、部分領域抽出部D301により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D303は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置300のハードウェア構成は、図2の物体検出装置100と同様である。
実施形態1、2は、主に誤検出を低減することを目的とするが、本実施形態は、主に、検出対象の物体の画像ではない画像を早期に拒絶することを目的とする。本実施形態の物体判別部は、第1の強判別器で物体と判別した部分領域の画像について画像変動処理を加えられた画像について、もう一度、第1の強判別器で判別処理を行う。次に、前記物体判別部は、前記判別処理で再度物体と判別した場合のみ、前記部分領域の画像について第2の強判別器で判別処理を行い、物体か否かを判別する。
図10は、物体検出装置300のソフトウェア構成等の一例を示す図である。物体検出装置300は、部分領域抽出部D301、画像変動部D302、物体判別部D303、を含む。物体判別部D303は、強判別器1(D3031)、強判別器2(D3032)、を含む。強判別器1(D3031)と強判別器2(D3032)とは、判別処理に利用されるパラメータである判別パラメータが異なるものとする。また、入力画像I300は、物体検出装置300の入力であり、判別結果O305は、各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す物体検出装置300の出力である。部分領域抽出部D301は、入力画像I300から判別処理を行う部分領域を抽出する。画像変動部D302は、部分領域抽出部D301により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D303は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置300のハードウェア構成は、図2の物体検出装置100と同様である。
以下、図11のフローチャートを用いて、本実施形態の詳細を説明する。図11は、検出処理の一例を示すフローチャートである。
S301において、物体検出装置300は、1枚の静止画又は動画の1フレーム画像である入力画像I300の入力を検知する。
S302において、部分領域抽出部D301は、入力画像I300に対して、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。部分領域抽出部D301は、前記ピラミッド画像群の各レイヤ−について、物体判別部D303が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S303において、物体判別部D303は、S302で抽出された部分領域の画像について、特徴量を抽出し、前記特徴量を強判別器1(D3031)に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるか否か判別する。
S304において、物体検出装置300は、S303で前記部分領域の画像に検出対象の物体の画像が含まれると判別された場合、S305の処理へ進む。物体検出装置300は、S303で前記部分領域の画像に検出対象の物体の画像が含まれないと判別された場合、S302の処理へ進む。
S301において、物体検出装置300は、1枚の静止画又は動画の1フレーム画像である入力画像I300の入力を検知する。
S302において、部分領域抽出部D301は、入力画像I300に対して、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。部分領域抽出部D301は、前記ピラミッド画像群の各レイヤ−について、物体判別部D303が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S303において、物体判別部D303は、S302で抽出された部分領域の画像について、特徴量を抽出し、前記特徴量を強判別器1(D3031)に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるか否か判別する。
S304において、物体検出装置300は、S303で前記部分領域の画像に検出対象の物体の画像が含まれると判別された場合、S305の処理へ進む。物体検出装置300は、S303で前記部分領域の画像に検出対象の物体の画像が含まれないと判別された場合、S302の処理へ進む。
S305において、画像変動部D302は、S303で物体と判断された部分領域の画像について、輝度変化、彩度変化、コントラスト変化、ノイズ付加、空間フィルタリング、複数の画像変動処理の組み合わせ等の画像変動処理を施す。
S306において、物体判別部D303は、S305で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を強判別器1(D3031)に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S307において、物体検出装置300は、S306で判別対象の画像に検出対象の物体の画像が含まれると判別された場合、S308の処理へ進む。物体検出装置300は、S306で判別対象の画像に検出対象の物体の画像が含まれないと判別された場合、S202の処理へ進む。
S308において、物体検出装置300は、S307で検出対象の物体の画像が含まれると判定された画像に画像変動処理が加えられる前の元のデータを記憶部から読み出す。
S306において、物体判別部D303は、S305で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を強判別器1(D3031)に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S307において、物体検出装置300は、S306で判別対象の画像に検出対象の物体の画像が含まれると判別された場合、S308の処理へ進む。物体検出装置300は、S306で判別対象の画像に検出対象の物体の画像が含まれないと判別された場合、S202の処理へ進む。
S308において、物体検出装置300は、S307で検出対象の物体の画像が含まれると判定された画像に画像変動処理が加えられる前の元のデータを記憶部から読み出す。
S309において、物体判別部D303は、S308で読み出した部分領域の画像について、特徴量を抽出し、前記特徴量を強判別器2(D3032)に入力し、前記部分領域の画像に検出対象の物体の画像が含まれるであるか否か判別する。
S310において、物体検出装置300は、S309で前記部分領域の画像に検出対象の物体の画像が含まれると判別された場合、S311の処理へ進む。物体検出装置300は、S309で前記部分領域の画像に検出対象の物体の画像が含まれないと判別された場合、S302の処理へ進む。
S311において、物体検出装置300は、S309での判別結果に基づいて、最終の判定結果を出力する。例えば、物体検出装置300は、S309での判別結果を、前記判定結果として、そのまま出力する。物体検出装置300は、前記判定結果に、前記部分領域が物体であるか否かの情報の他に、前記部分領域の入力画像における位置とサイズ、物体らしさを表す尤度、判別器の情報等のメタデータを付加することができる。
S310において、物体検出装置300は、S309で前記部分領域の画像に検出対象の物体の画像が含まれると判別された場合、S311の処理へ進む。物体検出装置300は、S309で前記部分領域の画像に検出対象の物体の画像が含まれないと判別された場合、S302の処理へ進む。
S311において、物体検出装置300は、S309での判別結果に基づいて、最終の判定結果を出力する。例えば、物体検出装置300は、S309での判別結果を、前記判定結果として、そのまま出力する。物体検出装置300は、前記判定結果に、前記部分領域が物体であるか否かの情報の他に、前記部分領域の入力画像における位置とサイズ、物体らしさを表す尤度、判別器の情報等のメタデータを付加することができる。
本実施形態において、物体検出装置300は、S308で元の部分領域の画像を読み出して、強判別器2(D3032)を適用し、検出対象の物体の画像が含まれるか否かを判別する。S308を省略して、画像変動処理を加えられた前記部分領域の画像に強判別器2(D3032)を適用し前記物体の画像が含まれるか否かを判別してもよい。
本実施形態の処理により、物体判別部D303は、判別処理の途中で(強判別器1(D3031)の処理の終了の段階で)、検出対象の物体の画像が含まれない領域を判別するため、早期に検出対象の物体の画像が含まれない画像を拒絶することができる。検出対象の物体の画像ではない画像を早期拒絶することで、検出の速度は、向上する。
本実施形態の処理により、物体判別部D303は、判別処理の途中で(強判別器1(D3031)の処理の終了の段階で)、検出対象の物体の画像が含まれない領域を判別するため、早期に検出対象の物体の画像が含まれない画像を拒絶することができる。検出対象の物体の画像ではない画像を早期拒絶することで、検出の速度は、向上する。
<実施形態4>
実施形態3において、物体検出装置300は、部分領域の画像と画像変動処理を加えられた前記部分領域の画像とにそれぞれ強判別器1を適用し、両方とも物体と判定した部分領域の画像について強判別器2で判別して、物体であるか否かを判別する。実施形態3の処理により、物体検出装置300は、検出対象の物体の画像ではない画像を早期拒絶できるが、誤検出の削減効果は、若干低下する。本実施形態では、物体検出装置400は、部分領域の画像と前記部分領域の画像に画像変動処理を加えた画像とに対して、強判別器1を適用し、両方とも検出対象の物体の画像が含まれると判別された場合、以下の処理を行う。即ち、物体検出装置400は、前記部分領域の画像と前記画像に画像変動処理を加えた画像とに強判別器2を適用し、検出対象の物体の画像が含まれるか否かを判別する。
図12は、物体検出装置のソフトウェア構成等の一例を示す図である。物体検出装置400は、部分領域抽出部D401、画像変動部D402、物体判別部D403、を含む。物体判別部D403は、強判別器1(D4031)、強判別器2(D4032)、を含む。強判別器1(D4031)と強判別器2(D4032)とは、判別処理に利用されるパラメータが異なるものとする。また、入力画像I400は、物体検出装置400の入力であり、判別結果O405は、各部分領域が物体であるか否かを表す物体検出装置400の出力である。部分領域抽出部D401は、入力画像I400から判別処理を行う部分領域を抽出する。画像変動部D402は、部分領域抽出部D401により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D403は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置400のハードウェア構成は、図2の物体検出装置100と同様である。
実施形態3において、物体検出装置300は、部分領域の画像と画像変動処理を加えられた前記部分領域の画像とにそれぞれ強判別器1を適用し、両方とも物体と判定した部分領域の画像について強判別器2で判別して、物体であるか否かを判別する。実施形態3の処理により、物体検出装置300は、検出対象の物体の画像ではない画像を早期拒絶できるが、誤検出の削減効果は、若干低下する。本実施形態では、物体検出装置400は、部分領域の画像と前記部分領域の画像に画像変動処理を加えた画像とに対して、強判別器1を適用し、両方とも検出対象の物体の画像が含まれると判別された場合、以下の処理を行う。即ち、物体検出装置400は、前記部分領域の画像と前記画像に画像変動処理を加えた画像とに強判別器2を適用し、検出対象の物体の画像が含まれるか否かを判別する。
図12は、物体検出装置のソフトウェア構成等の一例を示す図である。物体検出装置400は、部分領域抽出部D401、画像変動部D402、物体判別部D403、を含む。物体判別部D403は、強判別器1(D4031)、強判別器2(D4032)、を含む。強判別器1(D4031)と強判別器2(D4032)とは、判別処理に利用されるパラメータが異なるものとする。また、入力画像I400は、物体検出装置400の入力であり、判別結果O405は、各部分領域が物体であるか否かを表す物体検出装置400の出力である。部分領域抽出部D401は、入力画像I400から判別処理を行う部分領域を抽出する。画像変動部D402は、部分領域抽出部D401により抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D403は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置400のハードウェア構成は、図2の物体検出装置100と同様である。
以下、図13のフローチャートを用いて、本実施形態の詳細を説明する。図13は、検出処理の一例を示すフローチャートである。
S401からS410までの処理は、S301からS310までの処理と同様である。
S411において、画像変動部D402は、S409で物体の画像が含まれると判別された部分領域の画像について、画像変動処理を施す。S411で施す画像変動処理は、S405で加えられる画像変動処理と同じであってもよいし、異なる画像変動処理であってもよい。
S412において、物体判別部D403は、S411で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を強判別器1(D4031)に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S413において、物体判別部D403は、S411で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を強判別器2(D4032)に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S414において、物体検出装置400は、S413で判別対象の画像に検出対象の物体の画像が含まれると判別された場合、S415の処理へ進む。物体検出装置400は、S413で判別対象の画像に検出対象の物体の画像が含まれないと判別された場合、S402の処理へ進む。
S415において、物体検出装置400は、S413での判別結果に基づいて、最終の判定結果を出力する。例えば、物体検出装置400は、S413での判別結果を最終の判定結果として、そのまま出力する。物体検出装置400は、最終の判定結果に、部分領域の画像に検出対象の物体の画像が含まれるか否かの情報の他に、部分領域の入力画像における位置とサイズ、物体らしさの尤度、判別器の情報等のメタデータを付加することができる。
S401からS410までの処理は、S301からS310までの処理と同様である。
S411において、画像変動部D402は、S409で物体の画像が含まれると判別された部分領域の画像について、画像変動処理を施す。S411で施す画像変動処理は、S405で加えられる画像変動処理と同じであってもよいし、異なる画像変動処理であってもよい。
S412において、物体判別部D403は、S411で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を強判別器1(D4031)に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S413において、物体判別部D403は、S411で画像変動処理を加えられた画像について、特徴量を抽出し、前記特徴量を強判別器2(D4032)に入力し、前記画像に検出対象の物体の画像が含まれるか否か判別する。
S414において、物体検出装置400は、S413で判別対象の画像に検出対象の物体の画像が含まれると判別された場合、S415の処理へ進む。物体検出装置400は、S413で判別対象の画像に検出対象の物体の画像が含まれないと判別された場合、S402の処理へ進む。
S415において、物体検出装置400は、S413での判別結果に基づいて、最終の判定結果を出力する。例えば、物体検出装置400は、S413での判別結果を最終の判定結果として、そのまま出力する。物体検出装置400は、最終の判定結果に、部分領域の画像に検出対象の物体の画像が含まれるか否かの情報の他に、部分領域の入力画像における位置とサイズ、物体らしさの尤度、判別器の情報等のメタデータを付加することができる。
本実施形態では、物体検出装置400は、実施形態3の処理に加え、2つ目の判別器に対して、1つ目の判別器で検出対象の物体であると判別された領域の画像に画像変動処理を加えた領域を入力し、判別処理を行う。そのため、実施形態3の処理に比べて、誤検出の削減効果は、低下しない。
本実施形態の処理により、実施形態3同様の検出対象の物体の画像ではない画像を早期に拒絶することができるという効果に加え、誤検出の削減効果も維持することができるという効果が得られる。
本実施形態の処理により、実施形態3同様の検出対象の物体の画像ではない画像を早期に拒絶することができるという効果に加え、誤検出の削減効果も維持することができるという効果が得られる。
<実施形態5>
実施形態1〜4において、物体検出装置は、1枚の静止画像について部分領域の画像を抽出し、検出対象の物体であるか否かを判別する処理を行う。本実施形態では、物体検出装置500は、同一の視点から撮影された動画像から得られた時系列上で連続している複数のフレーム画像について、画像中で同一の位置にある部分領域を抽出する。物体検出装置500は、前記抽出した部分領域のうちの1つの部分領域の画像と、前記部分領域に対して時系列上で連続する部分領域の画像に対して画像変動処理を施した画像と、を物体判別部で判別し、判別結果に基づいて、前記物体を検出した否かを判定する。
図14は、物体検出装置500のソフトウェア構成等の一例を示す図である。物体検出装置500は、部分領域抽出部D501、画像変動部D502、物体判別部D503、結果記憶部D504、前後フレーム判別結果判定部D505、を含む。また、偶数フレーム画像I500と奇数フレーム画像I510とは、物体検出装置500の入力画像であり、判別結果O506は、現在フレームの各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す物体検出装置500の出力である。部分領域抽出部D501は、偶数フレーム画像I500又は奇数フレーム画像I510から判別処理を行う部分領域を抽出する。画像変動部D502は、部分領域抽出部D501により奇数フレーム画像I510から抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D503は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置500のハードウェア構成は、図2の物体検出装置100と同様である。
実施形態1〜4において、物体検出装置は、1枚の静止画像について部分領域の画像を抽出し、検出対象の物体であるか否かを判別する処理を行う。本実施形態では、物体検出装置500は、同一の視点から撮影された動画像から得られた時系列上で連続している複数のフレーム画像について、画像中で同一の位置にある部分領域を抽出する。物体検出装置500は、前記抽出した部分領域のうちの1つの部分領域の画像と、前記部分領域に対して時系列上で連続する部分領域の画像に対して画像変動処理を施した画像と、を物体判別部で判別し、判別結果に基づいて、前記物体を検出した否かを判定する。
図14は、物体検出装置500のソフトウェア構成等の一例を示す図である。物体検出装置500は、部分領域抽出部D501、画像変動部D502、物体判別部D503、結果記憶部D504、前後フレーム判別結果判定部D505、を含む。また、偶数フレーム画像I500と奇数フレーム画像I510とは、物体検出装置500の入力画像であり、判別結果O506は、現在フレームの各部分領域の画像に検出対象の物体の画像が含まれるか否かを表す物体検出装置500の出力である。部分領域抽出部D501は、偶数フレーム画像I500又は奇数フレーム画像I510から判別処理を行う部分領域を抽出する。画像変動部D502は、部分領域抽出部D501により奇数フレーム画像I510から抽出された部分領域の画像に対して画像変動処理を加える。物体判別部D503は、入力された画像に検出対象の物体の画像が含まれるか否かを判別する。
物体検出装置500のハードウェア構成は、図2の物体検出装置100と同様である。
以下、図15に示す本実施形態のフローチャートを用いて、詳細を説明する。図15は、検出処理の一例を示すフローチャートである。
S501において、物体検出装置500は、動画像の各フレームについて、S502から510までの処理を繰り返し適用するように、処理を制御する。
S502において、物体検出装置500は、偶数フレーム画像I500又は奇数フレーム画像I510の入力を検知する。
S503において、部分領域抽出部D501は、S502で受け付けた入力画像について、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。部分領域抽出部D501は、前記ピラミッド画像群の各レイヤ−について、物体判別部D503が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S501において、物体検出装置500は、動画像の各フレームについて、S502から510までの処理を繰り返し適用するように、処理を制御する。
S502において、物体検出装置500は、偶数フレーム画像I500又は奇数フレーム画像I510の入力を検知する。
S503において、部分領域抽出部D501は、S502で受け付けた入力画像について、図4に示すように、予め定められた倍率でピラミッド画像群を生成する。部分領域抽出部D501は、前記ピラミッド画像群の各レイヤ−について、物体判別部D503が利用する判別器への入力に対応する画像のサイズで、ラスタースキャンを行い、判別器領域を含めた各位置の部分領域の画像を抽出する。
S504において、物体検出装置500は、前記入力画像が奇数フレームであるか否かを判断する。物体検出装置500は、前記入力画像が奇数フレーム画像I510である場合、S505の処理へ進む。物体検出装置500は、前記入力画像が偶数フレーム画像I500である場合、S506の処理へ進む。
S505において、画像変動部D502は、S503で抽出された部分領域の画像について画像変動処理を施す。
S506において、物体判別部D503は、S503で抽出した部分領域の画像又はS505で画像変動処理を加えた画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記特徴量を抽出した画像に検出対象の物体の画像が含まれるか否か判別する。
S507において、物体検出装置500は、結果記憶部D504に、S506での判別結果を記憶する。物体検出装置500は、判別結果に対して、前記部分領域の入力画像中における位置とサイズ、尤度、判別器の情報、等のメタデータを付加することができる。
S505において、画像変動部D502は、S503で抽出された部分領域の画像について画像変動処理を施す。
S506において、物体判別部D503は、S503で抽出した部分領域の画像又はS505で画像変動処理を加えた画像について、特徴量を抽出し、前記特徴量を判別器に入力し、前記特徴量を抽出した画像に検出対象の物体の画像が含まれるか否か判別する。
S507において、物体検出装置500は、結果記憶部D504に、S506での判別結果を記憶する。物体検出装置500は、判別結果に対して、前記部分領域の入力画像中における位置とサイズ、尤度、判別器の情報、等のメタデータを付加することができる。
S508において、前後フレーム判別結果判定部D505は、同じ位置と同じサイズとの部分領域について、前後フレームともに検出対象の物体の画像が含まれると判定された場合、前記位置とサイズとの部分領域の画像に前記物体の画像が含まれると判定する。前後フレーム判別結果判定部D505は、S508の判定結果に対して、物体らしさを表す尤度、判別器の情報、を統合する。統合の方法は、例えば、高い方の尤度を前記判別結果のメタデータに保存し、前記尤度に対応する判別器の情報も前記メタデータに保存する。
S509において、物体検出装置500は、現在フレーム画像にS508で検出対象の物体の画像が含まれると判定されたすべての部分領域の画像を、入力画像の座標系に変換する。物体検出装置500は、互いに重なる入力画像の座標系に変換した部分領域についてサイズの差異、位置の差異に基づいてグルーピングする。代表的なグルーピング方法は、meanshiftがある。
S510において、物体検出装置500は、S509で統合された検出結果を出力する。
S511において、物体検出装置500は、S501と対応し、動画像のすべてのフレームについて、S502からS510までの処理を繰り返し適用するように、処理を制御する。
S509において、物体検出装置500は、現在フレーム画像にS508で検出対象の物体の画像が含まれると判定されたすべての部分領域の画像を、入力画像の座標系に変換する。物体検出装置500は、互いに重なる入力画像の座標系に変換した部分領域についてサイズの差異、位置の差異に基づいてグルーピングする。代表的なグルーピング方法は、meanshiftがある。
S510において、物体検出装置500は、S509で統合された検出結果を出力する。
S511において、物体検出装置500は、S501と対応し、動画像のすべてのフレームについて、S502からS510までの処理を繰り返し適用するように、処理を制御する。
本実施形態のS508において、物体検出装置500は、リアルタイム処理を行う場合、現在フレームにおける部分領域の判別結果は、前フレームの同じ部分領域の画像の判別結果と統合する。一方、リアルタイム処理を求めない場合、物体検出装置500は、S508において、現在フレームにおける部分領域の画像の判別結果は、後フレームの同じ部分領域の画像の判別結果と統合してもよい。
また、本実施形態において、物体検出装置500は、S505で加えられる画像変動処理を、部分領域抽出処理の前に、画像全体に対して加えてもよい。
本実施形態の処理により、物体検出装置500は、動画像に対して、検出対象の物体の画像が含まれない領域の画像を効果的に拒絶することができるようになる。
また、本実施形態において、物体検出装置500は、S505で加えられる画像変動処理を、部分領域抽出処理の前に、画像全体に対して加えてもよい。
本実施形態の処理により、物体検出装置500は、動画像に対して、検出対象の物体の画像が含まれない領域の画像を効果的に拒絶することができるようになる。
<実施形態6>
実施形態1〜5において、部分領域の画像に施す画像変動処理は、輝度変化、彩度変化、コントラスト変化、ノイズ付加、空間フィルタリング等のうち、一つ又は、複数の処理の組合せであるとした。
本実施形態において、図16に示すように、最適画像変動処理チューニング部600は、事前に用意した正例画像集合I601及び負例画像集合I602に基づいて、最適な画像変動処理と前記画像変動処理に対応するパラメータとをチューニングすることができる。図16は、最適画像変動処理チューニング部600のソフトウェア構成等の一例を示す図である。
候補処理方法選出部D601は、画像変動処理(輝度変化、彩度変化、コントラスト変化、ノイズ付加、空間フィルタリング等)の一つ又は複数の組合せを選んで、画像変動部D602に入力する。
パラメータ調整部D605は、候補処理方法選出部D601により選択された画像変動処理のパラメータを決定し、前記パラメータを画像変動部D602に入力する。
実施形態1〜5において、部分領域の画像に施す画像変動処理は、輝度変化、彩度変化、コントラスト変化、ノイズ付加、空間フィルタリング等のうち、一つ又は、複数の処理の組合せであるとした。
本実施形態において、図16に示すように、最適画像変動処理チューニング部600は、事前に用意した正例画像集合I601及び負例画像集合I602に基づいて、最適な画像変動処理と前記画像変動処理に対応するパラメータとをチューニングすることができる。図16は、最適画像変動処理チューニング部600のソフトウェア構成等の一例を示す図である。
候補処理方法選出部D601は、画像変動処理(輝度変化、彩度変化、コントラスト変化、ノイズ付加、空間フィルタリング等)の一つ又は複数の組合せを選んで、画像変動部D602に入力する。
パラメータ調整部D605は、候補処理方法選出部D601により選択された画像変動処理のパラメータを決定し、前記パラメータを画像変動部D602に入力する。
画像変動部D602は、前記画像変動処理と前記画像変動処理に対応したパラメータとを正例集合及び負例集合の各画像に適用し、前記画像変動処理を加えた処理画像を求める。
判別器D603は、画像変動部D602により求められた処理画像に基づいて、正例集合及び負例集合の各画像に前記画像変動処理を加えた処理画像にそれぞれ検出対象の物体の画像が含まれるか否かを判別する。判別器D603の判別処理は、画像変動処理の最適化のために行われる学習判別処理の一例である。
指標計算部D604は、正例の検出数と負例の誤検出数を求め、最適変動処理を決定するための指標を更新する。前記指標は、指標情報の一例である。例えば、最適変動処理を決定する指標は、式(1)を用いて計算され、判別器D603の判別性能の評価に利用される。
パラメータ調整部D605は、前記指標を最大化するように選択された画像変動処理のパラメータを繰り返し調整して、画像変動処理を加え、前記パラメータを最適化する。
指標計算部D604は、前記指標が最大化されたと判定した場合、パラメータ調整部D605により最適化されたパラメータと前記画像変動処理とを最適変動処理として出力する。最適変動処理は、決定画像変動処理の一例である。
数式(1)におけるA0は、元正例集合の検出数であり、A1は、画像変動正例集合の検出数であり、B0は、元負例集合の誤検出数であり、B1は、画像変動負例集合の誤検出数である。
判別器D603は、画像変動部D602により求められた処理画像に基づいて、正例集合及び負例集合の各画像に前記画像変動処理を加えた処理画像にそれぞれ検出対象の物体の画像が含まれるか否かを判別する。判別器D603の判別処理は、画像変動処理の最適化のために行われる学習判別処理の一例である。
指標計算部D604は、正例の検出数と負例の誤検出数を求め、最適変動処理を決定するための指標を更新する。前記指標は、指標情報の一例である。例えば、最適変動処理を決定する指標は、式(1)を用いて計算され、判別器D603の判別性能の評価に利用される。
パラメータ調整部D605は、前記指標を最大化するように選択された画像変動処理のパラメータを繰り返し調整して、画像変動処理を加え、前記パラメータを最適化する。
指標計算部D604は、前記指標が最大化されたと判定した場合、パラメータ調整部D605により最適化されたパラメータと前記画像変動処理とを最適変動処理として出力する。最適変動処理は、決定画像変動処理の一例である。
本実施形態の処理により、最適画像変動処理チューニング部600は、実施形態1〜5での判別対象領域に対して加えられる画像変動処理を最適化することができる。
<実施形態7>
本実施形態では、学習部700は、画像変動処理又は前記最適変動処理を用いて機械学習を行い、物体モデルを生成する。したがって、物体検出装置は、前記画像変動処理又は前記最適変動処理を付加した検出対象の物体の画像が含まれる部分領域の画像をより精度よく検出することができるようになる。
本実施形態では、学習部700は、画像変動処理又は前記最適変動処理を用いて機械学習を行い、物体モデルを生成する。したがって、物体検出装置は、前記画像変動処理又は前記最適変動処理を付加した検出対象の物体の画像が含まれる部分領域の画像をより精度よく検出することができるようになる。
図17は、学習部700の機能構成等の一例を示す図である。学習部700は、画像変動部1(D701)〜画像変動部n(D70n)、記憶部D713、機械学習部D714を含む。正例集合I701及び負例集合I702は、学習部700の入力であり、物体モデルO720は、学習部700の出力である。物体モデルO720は、画像が検出対象の物体であるか否かを判別する判別処理に利用される判別パラメータの一例である。正例集合I701は、正例学習画像群の一例である。負例集合I702は、負例学習画像群の一例である。
画像変動部1(D701)は、最適画像変動処理チューニング部600によりチューニングされた最適パラメータと最適変動処理とを格納している。画像変動部1(D701)は、正例集合I701内の画像に対して前記最適パラメータと前記最適変動処理とに基づく画像変動処理を適用し、正例集合1を作成する。正例集合1は、追加正例画像群の一例である。
画像変動部1(D701)は、最適画像変動処理チューニング部600によりチューニングされた最適パラメータと最適変動処理とを格納している。画像変動部1(D701)は、正例集合I701内の画像に対して前記最適パラメータと前記最適変動処理とに基づく画像変動処理を適用し、正例集合1を作成する。正例集合1は、追加正例画像群の一例である。
機械学習部D714は、画像変動部1(D701)により作成された正例集合1と、正例集合I701と、負例集合I702と、を入力として受付け、前記入力に基づいて、物体モデルO720を機械学習する。物体モデルO720は、判別パラメータの一例である。
学習部700は、機械学習部D714により学習された物体モデルO720を、最適画像変動処理チューニング部600に入力する。
最適画像変動処理チューニング部600は、最適パラメータと最適変動処理とを再度チューニングする。
画像変動部2(D702)は、最適画像変動処理チューニング部600により再度チューニングされた最適パラメータと最適変動処理とを格納する。画像変動部2(D702)は、正例集合I701内の画像に対して、前記最適パラメータと前記最適変動処理とに基づく画像変動処理を適用し、正例集合2を作成する。
機械学習部D714は、画像変動部1、2により作成された正例集合1、2と、正例集合I701と、負例集合I702とを入力として受け付け、前記入力に基づいて、再度、物体モデルO720を機械学習する。
学習部700は、機械学習部D714により学習された物体モデルO720を、最適画像変動処理チューニング部600に入力する。
最適画像変動処理チューニング部600は、最適パラメータと最適変動処理とを再度チューニングする。
画像変動部2(D702)は、最適画像変動処理チューニング部600により再度チューニングされた最適パラメータと最適変動処理とを格納する。画像変動部2(D702)は、正例集合I701内の画像に対して、前記最適パラメータと前記最適変動処理とに基づく画像変動処理を適用し、正例集合2を作成する。
機械学習部D714は、画像変動部1、2により作成された正例集合1、2と、正例集合I701と、負例集合I702とを入力として受け付け、前記入力に基づいて、再度、物体モデルO720を機械学習する。
なお、学習部700の画像変動部に格納される最適変動処理及び最適パラメータは、最適画像変動処理チューニング部600からの出力であるとしたが、予め設定されていてもよい。また、学習部700は、最適画像変動処理チューニング部600と連携を取りながら処理を繰り返すことで物体モデルを最適化することとした。しかし、学習部700は、最適画像変動処理チューニング部600と連携を取ることなく、前記予め設定されている前記最適変動処理及び前記最適パラメータに基づいて、1度だけ物体モデルを最適化する処理を行うこととしてもよい。
本実施形態の処理により、学習部700は、実施形態1〜6での判別対象領域の画像に検出対象の物体の画像が含まれるか否かを判別する判別処理に利用される判別パラメータを最適化することができる。物体検出装置は、学習部700によって物体モデルを繰り返し学習すると、前記物体の画像が含まれる部分領域の検出率を維持しながら、前記物体の画像が含まれない部分領域の誤検出を大幅に低減することができる。
本実施形態の処理により、学習部700は、実施形態1〜6での判別対象領域の画像に検出対象の物体の画像が含まれるか否かを判別する判別処理に利用される判別パラメータを最適化することができる。物体検出装置は、学習部700によって物体モデルを繰り返し学習すると、前記物体の画像が含まれる部分領域の検出率を維持しながら、前記物体の画像が含まれない部分領域の誤検出を大幅に低減することができる。
<実施形態8>
実施形態1〜7において、物体検出装置は、入力画像の部分領域の画像について画像変動処理を加えることとしたが、入力画像に対して画像変動処理を加えた変動入力画像の部分領域の画像に画像変動処理を加えることとしてもよい。さらに、物体検出装置は、入力画像から求められる特徴画像から部分領域を抽出し、前記部分領域の画像に対して画像変動を加えるようにしてもよい。
実施形態1〜7において、物体検出装置は、入力画像の部分領域の画像について画像変動処理を加えることとしたが、入力画像に対して画像変動処理を加えた変動入力画像の部分領域の画像に画像変動処理を加えることとしてもよい。さらに、物体検出装置は、入力画像から求められる特徴画像から部分領域を抽出し、前記部分領域の画像に対して画像変動を加えるようにしてもよい。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 物体検出装置、D103 物体判別部、1001 CPU
Claims (16)
- 入力画像に対して画像変動処理を加えて変動画像を得る変動手段と、
前記入力画像に検出対象の物体の画像が含まれるか否かを判別し、前記変動画像に前記物体の画像が含まれるか否かを判別する判別手段と、
前記判別手段による判別の結果に基づいて、前記物体が検出されたか否かを判定する判定手段と、
を有する情報処理装置。 - 前記判別手段は、前記入力画像の複数の特徴量同士の比較の結果に基づいて取得される二値化された特徴量に基づき、前記画像に前記物体の画像が含まれるか否かを判別する請求項1記載の情報処理装置。
- 前記判別手段は、前記入力画像に検出対象の物体の画像が含まれるか否かの判別と、前記変動画像に前記物体の画像が含まれるか否かの判別とを並列に行う請求項1又は2記載の情報処理装置。
- 前記変動手段は、前記入力画像に対して、輝度変化、彩度変化、コントラスト変化、ノイズ付加、空間フィルタリングのうち、少なくとも1つを含む画像変動処理を加える請求項3記載の情報処理装置。
- 前記判別手段により、前記入力画像に前記物体の画像が含まれると判別され、かつ前記変動画像に前記物体の画像が含まれると判別された場合に、前記判定手段は、前記物体が検出されたと判定する請求項1乃至4何れか1項記載の情報処理装置。
- 前記入力画像の部分領域の画像を抽出する抽出手段を更に有し、
前記判別手段は、前記抽出手段により抽出された前記部分領域の画像に検出対象の物体の画像が含まれるか否かを判別し、前記部分領域の画像に対して画像変動処理が加えられた変動画像に前記物体の画像が含まれるか否かを判別する請求項1乃至5何れか1項記載の情報処理装置。 - 前記判別手段は、前記入力画像に前記物体の画像が含まれると判別した場合に、前記変動画像に前記物体の画像が含まれるか否かを判別し、
前記判定手段は、前記判別手段により、前記変動画像に前記物体の画像が含まれると判別された場合に、前記物体が検出されたと判定する請求項1乃至6何れか1項記載の情報処理装置。 - 前記判別手段は、第1の判別パラメータに基づいて、前記入力画像に前記物体の画像が含まれるか否かを判別し、前記入力画像に前記物体の画像が含まれると判別した場合に、前記第1の判別パラメータに基づいて、前記変動画像に前記物体の画像が含まれるか否かを判別し、前記変動画像に前記物体の画像が含まれると判別した場合、第2の判別パラメータに基づいて、前記入力画像に前記物体の画像が含まれるか否かを判別し、
前記判定手段は、前記判別手段により、前記第2の判別パラメータに基づいて、前記入力画像に前記物体の画像が含まれると判別された場合、前記物体を検出したと判定する請求項1乃至7何れか1項記載の情報処理装置。 - 前記判別手段は、前記第2の判別パラメータに基づいて、前記入力画像に前記物体の画像が含まれると判別した場合、前記第2の判別パラメータに基づいて、前記変動画像に前記物体の画像が含まれるか否かを判別し、
前記判定手段は、前記判別手段により、前記第2の判別パラメータに基づいて、前記変動画像に前記物体の画像が含まれると判別された場合、前記物体を検出したと判定する請求項8記載の情報処理装置。 - 前記入力画像は連続する複数のフレーム画像を含み
前記判別手段は、1つ目のフレーム画像に前記物体の画像が含まれるか否かを判別し、2つ目のフレーム画像に対して画像変動処理が加えられた変動画像に前記物体の画像が含まれるか否かを判別する請求項1乃至9何れか1項記載の情報処理装置。 - 前記判別手段は、前記1つ目のフレーム画像に前記物体の画像が含まれるか否かを判別し、前記1つ目のフレーム画像と同一の視点から撮影され、時系列上で前記1つ目のフレーム画像と連続している前記2つ目のフレーム画像に対して画像変動処理が加えられた変動画像に前記物体の画像が含まれるか否かを判別する請求項10記載の情報処理装置。
- 画像変動処理の種類を決定し、指標情報に基づいて前記種類の画像変動処理に利用されるパラメータを決定する第1の決定手段と、
前記物体の画像を含む正例学習画像群、及び前記物体の画像を含まない負例学習画像群の中の画像に対して前記第1の決定手段により決定された種類とパラメータとに基づく画像変動処理を加えた画像に前記物体の画像が含まれるか否かを判別する学習判別手段と、
前記学習判別手段による判別結果に基づいて、前記指標情報を更新し、指標情報が最大となると判定した場合、前記第1の決定手段により決定された種類とパラメータとに基づく画像変動処理を決定画像変動処理に決定する第2の決定手段と、
を更に有し、
前記判別手段における画像変動処理は、前記第2の決定手段で決定された前記決定画像変動処理である請求項1乃至11何れか1項記載の情報処理装置。 - 前記物体の画像を含む正例学習画像群の中の全ての画像に対して画像変動処理を加え追加正例画像群を作成する作成手段と、
前記作成手段により作成された追加正例画像群、前記正例学習画像群、及び前記物体の画像を含まない負例学習画像群の中の画像に基づいて、画像に前記物体の画像が含まれるか否かの判別処理に利用されるパラメータである判別パラメータを機械学習する学習手段と、
を更に有し、
前記判別手段は、前記学習手段により機械学習された前記判別パラメータに基づいて、前記入力画像に前記物体の画像が含まれるか否かを判別する請求項1乃至12何れか1項記載の情報処理装置。 - 前記物体の画像を含む正例学習画像群の中の全ての画像に対して決定画像変動処理を加えた画像群を追加正例画像群に追加する追加手段と、
前記追加手段により画像を追加された前記追加正例画像群、前記正例学習画像群、及び前記物体の画像を含まない負例学習画像群の中の画像に基づいて、画像に前記物体の画像が含まれるか否かの判別に利用されるパラメータである判別パラメータを機械学習する学習手段と、
画像変動処理の種類を決定し、指標情報に基づいて前記種類の画像変動処理に利用されるパラメータを決定する第1の決定手段と、
前記正例学習画像群、及び前記負例学習画像群の中の画像に対して前記第1の決定手段により決定された種類とパラメータとに基づく画像変動処理を加えた画像に前記物体の画像が含まれるか否かを、前記学習手段で機械学習された前記判別パラメータに基づいて、判別する学習判別手段と、
前記学習判別手段による判別結果に基づいて、前記指標情報を更新し、指標情報が最大となると判定した場合、前記第1の決定手段により決定された種類とパラメータとに基づく画像変動処理を決定画像変動処理に決定する第2の決定手段と、
を更に有し、
前記判別手段は、前記学習手段により機械学習された前記判別パラメータに基づいて、前記入力画像に前記物体の画像が含まれるか否かを判別し、
前記判別手段における画像変動処理は、前記決定手段で決定された前記決定画像変動処理である請求項1乃至11何れか1項記載の情報処理装置。 - 入力画像に対して画像変動処理を加えて変動画像を得る変動ステップと、
前記入力画像に検出対象の物体の画像が含まれるか否かを判別し、前記変動画像に前記物体の画像が含まれるか否かを判別する判別ステップと、
前記判別ステップによる判別の結果に基づいて、前記物体が検出されたか否かを判定する判定ステップと、
を含む情報処理方法。 - コンピュータに、
入力画像に対して画像変動処理を加えて変動画像を得る変動ステップと、
前記入力画像に検出対象の物体の画像が含まれるか否かを判別し、前記変動画像に前記物体の画像が含まれるか否かを判別する判別ステップと、
前記判別ステップによる判別の結果に基づいて、前記物体が検出されたか否かを判定する判定ステップと、
を実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014203411A JP2016071800A (ja) | 2014-10-01 | 2014-10-01 | 情報処理装置、情報処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014203411A JP2016071800A (ja) | 2014-10-01 | 2014-10-01 | 情報処理装置、情報処理方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016071800A true JP2016071800A (ja) | 2016-05-09 |
Family
ID=55864779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014203411A Pending JP2016071800A (ja) | 2014-10-01 | 2014-10-01 | 情報処理装置、情報処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016071800A (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017223544A (ja) * | 2016-06-15 | 2017-12-21 | 三菱電機株式会社 | 目標識別装置 |
JP2020528623A (ja) * | 2017-08-31 | 2020-09-24 | 三菱電機株式会社 | 能動学習のシステム及び方法 |
JP2021012713A (ja) * | 2020-10-07 | 2021-02-04 | 三菱電機株式会社 | 目標識別装置 |
JP2022506905A (ja) * | 2018-11-05 | 2022-01-17 | エッジ ケース リサーチ,インコーポレイテッド | 知覚システムを評価するシステム及び方法 |
-
2014
- 2014-10-01 JP JP2014203411A patent/JP2016071800A/ja active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017223544A (ja) * | 2016-06-15 | 2017-12-21 | 三菱電機株式会社 | 目標識別装置 |
JP2020528623A (ja) * | 2017-08-31 | 2020-09-24 | 三菱電機株式会社 | 能動学習のシステム及び方法 |
JP2022506905A (ja) * | 2018-11-05 | 2022-01-17 | エッジ ケース リサーチ,インコーポレイテッド | 知覚システムを評価するシステム及び方法 |
JP7272533B2 (ja) | 2018-11-05 | 2023-05-12 | エッジ ケース リサーチ,インコーポレイテッド | 知覚システムを評価するシステム及び方法 |
JP2021012713A (ja) * | 2020-10-07 | 2021-02-04 | 三菱電機株式会社 | 目標識別装置 |
JP7028299B2 (ja) | 2020-10-07 | 2022-03-02 | 三菱電機株式会社 | 目標識別装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255352B (zh) | 目标检测方法、装置及系统 | |
CN109697416B (zh) | 一种视频数据处理方法和相关装置 | |
CN109117803B (zh) | 人脸图像的聚类方法、装置、服务器及存储介质 | |
US8358837B2 (en) | Apparatus and methods for detecting adult videos | |
CN111626371B (zh) | 一种图像分类方法、装置、设备及可读存储介质 | |
CN105184763B (zh) | 图像处理方法和装置 | |
US20110085728A1 (en) | Detecting near duplicate images | |
JP2012238175A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2014531097A (ja) | マルチレイヤ連結成分をヒストグラムと共に用いるテキスト検出 | |
JP2016015045A (ja) | 画像認識装置、画像認識方法及びプログラム | |
CN109190456B (zh) | 基于聚合通道特征和灰度共生矩阵的多特征融合俯视行人检测方法 | |
JP5290229B2 (ja) | 学習装置及び対象物検知装置 | |
CN111783665A (zh) | 一种动作识别方法、装置、存储介质和电子设备 | |
JP2016071800A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Mustafa et al. | Obscenity detection using haar-like features and gentle Adaboost classifier | |
US20120314939A1 (en) | Recognizing apparatus and method, program, and recording medium | |
WO2017101380A1 (zh) | 手识别方法、系统及装置 | |
Vijayalakshmi et al. | Performance evaluation of object detection techniques for object detection | |
JP5389723B2 (ja) | 対象物検知装置及びその学習装置 | |
JP3962517B2 (ja) | 顔面検出方法及びその装置、コンピュータ可読媒体 | |
JP2015165433A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
CN107315985B (zh) | 一种虹膜识别方法及终端 | |
He et al. | A Pedestrian Detection Method Using SVM and CNN Multistage Classification. | |
KR20210031444A (ko) | 데이터 프로그래밍에 기반한 레이블링 모델 생성 방법 및 장치 | |
CN108171149B (zh) | 一种人脸识别方法、装置、设备及可读存储介质 |