JP2011086183A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2011086183A
JP2011086183A JP2009239553A JP2009239553A JP2011086183A JP 2011086183 A JP2011086183 A JP 2011086183A JP 2009239553 A JP2009239553 A JP 2009239553A JP 2009239553 A JP2009239553 A JP 2009239553A JP 2011086183 A JP2011086183 A JP 2011086183A
Authority
JP
Japan
Prior art keywords
subject
image processing
image
characteristic
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009239553A
Other languages
English (en)
Other versions
JP5550301B2 (ja
Inventor
Ichiro Umeda
一郎 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009239553A priority Critical patent/JP5550301B2/ja
Priority to US12/899,713 priority patent/US8873839B2/en
Publication of JP2011086183A publication Critical patent/JP2011086183A/ja
Application granted granted Critical
Publication of JP5550301B2 publication Critical patent/JP5550301B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】学習に必要な被写体画像の数を削減することを目的とする。
【解決手段】被写体の特性である被写体特性を取得する特性取得手段204と、特性取得手段で取得された被写体特性に応じて、被写体の画像に対して画像処理を施し、複製被写体画像を生成する画像処理手段206と、画像処理手段で生成された複製被写体画像を用いてマッチング辞書を学習する学習手段209と、を有することによって課題を解決する。
【選択図】図2

Description

本発明は、画像処理装置、画像処理方法及びプログラムに関する。
従来、画像中から物体を検出する技術として、非特許文献1に開示される手法が知られている。このマッチング辞書の学習において、特許文献1に開示される手法が知られている。
特開2008−287378号公報
Viola and Jones, "Rapid object detection using boosted cascade of simple features", Computer Vision and Pattern Recognition, 2001
マッチング辞書の学習に必要な被写体画像数の削減、若しくは同一の被写体画像数での性能の向上が求められる。特許文献1は、ある被写体画像から被写体画像を鏡像反転及び微量の回転を施し複製被写体画像を生成する技術を開示している。しかしながら特許文献1の技術では鏡像対称でない画像については複製被写体画像が生成されず、結果として必要な被写体画像数を削減できていない問題があった。
本発明はこのような問題点に鑑みなされたもので、学習に必要な被写体画像の数を削減することを目的とする。
そこで、本発明は、被写体の特性である被写体特性を取得する特性取得手段と、前記特性取得手段で取得された被写体特性に応じて、被写体の画像に対して画像処理を施し、複製被写体画像を生成する画像処理手段と、前記画像処理手段で生成された複製被写体画像を用いてマッチング辞書を学習する学習手段と、を有する。
本発明によれば、学習に必要な被写体画像の数を削減することができる。
画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の機能構成等の一例を示す図である。 被写体画像の一例を示す図である。 背景画像群の一例を示す図である。 入力画像の一例を示す図である。 被写体特性の一例を示す図である。 被写体画像と被写体画像に画像処理を施した結果の一例を示す図である。 マッチング部による処理の一例を示すフローチャートである。 特性取得部の処理の一例を示すフローチャートである。 学習部の処理の一例を示すフローチャートである。 画像処理の一例を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
<実施形態1>
図1は、画像処理装置のハードウェア構成の一例を示す図である。
図1において、撮像素子101は、CCD、MOS、等で構成され、被写体像を光から電気信号に変換する。
信号処理回路102は、撮像素子101から得られた被写体像に関する時系列信号を処理しデジタル信号に変換する。
CPU103は、ROM104に格納されている制御プログラムを実行することにより、本装置全体の制御を行う。
ROM104は、CPU103が実行する制御プログラムや各種パラメータデータを格納する。CPU103が制御プログラムを実行することによって、後述する画像処理装置の機能及びフローチャートに係る各処理が実現される。
RAM105は、画像や各種情報を記憶する。また、RAM105は、CPU103のワークエリアやデータの一時待避領域として機能する。
ディスプレイ106は、例えば、LCDやCRTで構成される。なお、本実施形態では、後述するフローチャートの各ステップに対応する処理を、CPU103を用いてソフトウェアで実現することとするが、その処理の一部又は全部を電子回路等のハードウェアで実現するようにしてもよい。また、画像処理装置は、撮像素子101や信号処理回路102を省いて汎用PCを用いて実現してもよいし、画像処理専用装置として実現するようにしてもよい。また、ネットワーク又は各種記憶媒体を介して取得したソフトウェア(プログラム)をパーソナルコンピュータ等の処理装置(CPU、プロセッサ)にて実行してもよい。
図2は、画像処理装置の機能構成等の一例を示す図である。
本実施形態では被写体画像群201、背景画像群202、入力画像203を入力とする。
被写体画像群201は、マッチング辞書210が正例として学習するべき画像の集合である。この被写体画像の例を図3に示す。図3は、被写体画像の一例を示す図である。図3ではヒマワリの花を例示するが被写体の種別は問わない。従来、あるマッチング辞書210の学習に必要な被写体画像の数はその被写体の多様性に依存し、大きい多様性の網羅には多くの被写体画像数が必要であった。本実施形態の目的は、その被写体画像数を削減することであり、本実施形態の画像処理装置は、被写体画像の特性である被写体特性に応じた画像処理により被写体画像から多くの複製被写体画像を生成する。
背景画像群202は、マッチング辞書210が負例として学習するべき画像の集合である。背景画像群202の一例を図4に示す。図4は、背景画像群の一例を示す図である。背景画像群は、入力画像203のうち被写体を含まない領域を可能な範囲で網羅した画像であるべきである。しかしながら、背景画像群は、図4の様な画像から任意に切り出した部分画像の集合であってもよい。
入力画像203は任意の画像であり、マッチング部211は、前記画像にマッチング辞書210を適用する。入力画像203は、撮像素子101により取得される画像であってもよい。この画像の例を図5に示す。
図5は、入力画像の一例を示す図である。
特性取得部204は、学習対象となる被写体の被写体特性205を取得する。
被写体特性205は、被写体が持つ特性である。本実施形態が想定する被写体特性205の例を図6に示す。図6は、被写体特性の一例を示す図である。即ち、本実施形態では、被写体特性の一例として、回転対称性、鏡像対称性、平面性、ぶれ耐性、検出速度(検出速度性)の5種を用いて説明する。より具体的には、回転対称性とは、回転対称と見なせるか否か、鏡像対称性とは、鏡像対称と見なせるか否か、平面性とは、単一平面上に存在すると見なせるか否か、ぶれ耐性とは、ぶれ耐性が必要か否か、検出速度とは、高速に検出する必要があるか否か、である。更に被写体特性205は、それぞれの画像処理のパラメータの変更時の変更量等の他のパラメータを含んでもよいし、その他の特性を含んでもよい。
画像処理部206は、被写体画像群201に対し、被写体特性205に対応する画像処理を施し、複製被写体画像群207を生成する。本実施形態が想定する被写体特性と画像処理との対応を図6に示す。即ち、画像処理部206は、回転対称性を持つ場合に回転、鏡像対称性を持つ場合に鏡像反転、平面性を持つ場合に透視変換、ぶれ耐性を要する場合にぶれ合成、検出速度が必要な場合に縮小及びマージン付加、という画像処理を施す。なお、画像処理部206は、これらの画像処理を一つだけ実行してもよいし、任意の数、組み合わせて使用してもよい。
複製被写体画像群207は、被写体画像群201から被写体特性205に基づき画像処理部206により複製された画像群である。被写体画像が図3、即ち図7における701であり、被写体特性が図6の場合に、回転、鏡像反転、透視変換、ぶれ合成、縮小及びマージン付加、のそれぞれの処理により複製された画像を702〜706に示す。
画像処理パラメータ208は、画像処理部206の画像処理のそれぞれに用いられるパラメータを保存する。画像処理とそのパラメータとの対応を図6に示す。即ち、パラメータは、回転に対し回転角度、鏡像反転に対し反転するか否か、透視変換に対しその投射面の法線方向、ぶれ合成に対しぶれ量、縮小及びマージン付加に対して縮小率である。
学習部209は、背景画像群202を負例、複製被写体画像群207を正例としてマッチング辞書210を学習する。
マッチング辞書210は、画像処理装置が生成するマッチング辞書である。マッチング辞書210には辞書がマッチする画像の大きさ、マッチする画像の大きさに対する被写体の縮小率が含まれている。それぞれ図3の被写体画像における301、及び301と302との割合に相当する。なお、マッチング辞書210には、その他の情報が含まれていてもよい。
マッチング部211は、マッチング辞書210を入力画像203に適用し、マッチする領域を求める。図5を入力画像203とする場合に、図3を含む被写体画像群201から学習したマッチング辞書210を適用した結果を図5の501に示す。
マッチング部211による処理の一例を図8に示す。図8は、マッチング部による処理の一例を示すフローチャートである。マッチング部211は、入力画像203及びマッチング辞書210を入力とする。このフローチャートの処理は、例えば非特許文献1に示される様な、ピラミッド構造でサイズの、Window Shiftingで位置ずれの耐性を確保するテンプレートマッチング手法である。
まず、ステップS801で、マッチング部211は、入力画像の最大縮小率を求め、入力画像の縮小率の初期値とする。例えば、マッチング部211は、入力画像のサイズ502をマッチング辞書210のサイズ301で割ることによってこの値を求める。また、マッチング部211は、画像の縦横で異なる値が出る場合、どちらか一方を用いればよい。
次に、ステップS802で、マッチング部211は、マッチ領域の大きさ及び領域中の被写体の割合からピクセルステップ及び画像拡大率を求める。マッチ領域の大きさ及びマッチ領域中の被写体の大きさはそれぞれマッチング辞書210に記録されているとする。ピクセルステップはマッチ領域の大きさ301からマッチ領域中の被写体の大きさ302を引いたものである。画像拡大率はマッチ領域中の被写体の大きさ302のマッチ領域の大きさ301による商である。但しこれらの値は目安であり、マッチング部211は、求められる検出性能等によりピクセルステップの値は変化させてもよい。
ステップS803では、マッチング部211は、終了条件を満たすまでステップS804からステップS808までの処理を繰り返す。終了条件は、例えば実時間で処理する必要があるならば一定の時間内、或いは入力画像の縮小率が1を下回り縮小しなくなるまで、とするが、任意の終了条件を設けてもよい。このステップの処理は非特許文献1等に記載のPyramid構造の生成に相当する。
ステップS804では、マッチング部211は、ステップS801及びステップS809で設定される入力画像の縮小率に基づき入力画像を縮小し縮小画像を生成する。
次にステップS805及び806では、マッチング部211は、ステップS804で生成した縮小画像のそれぞれ上端及び左端から、ステップS802で求めたピクセルステップずつ矩形領域を移動させながら、ステップS807〜ステップS808を繰り返す。ここで矩形領域は縮小画像上に設定され、その左上点はステップS805及び506で定義され、そのサイズはマッチング辞書210と同サイズとする。このステップの処理は非特許文献1等に記載のWindow Shiftingに相当する。
ステップS807では、マッチング部211は、ステップS805及びステップS806で設定したマッチングウィンドウからその特徴量を取得する。この特徴量は画像処理部206にて施される各種の画像処理の前後で異なる特徴量を取得するものが望ましい。非特許文献1に記載のHaar like feature,或いはHistogram Oriented Gradient等が適する。
ステップS808では、マッチング部211は、ステップS807で得た特徴量が、マッチング辞書210にマッチするか否かを判定する。非特許文献1に記載のAdaboost, 或いはSupport Vector Machine等が適する。
ステップS809において、マッチング部211は、入力画像の縮小率に画像拡大率を積算し、入力画像の縮小率を減らす。即ち、マッチング部211は、より大きな画像に対してステップS805〜808を適用する。
ステップS803内のループを繰り返すうちに、一度でもステップS808においてマッチすると判断した場合、マッチング部211は、入力画像203にマッチング辞書210がマッチしたと判断する。一度もマッチすると判断しなかった場合、マッチング部211は、入力画像203にマッチング辞書210はマッチしないと判断する。
マッチング部211は、マッチするか否か、マッチする場合はその座標を出力する。
特性取得部204のフローチャートの処理を図9に示す。図9は、特性取得部の処理の一例を示すフローチャートである。
特性取得部204は、被写体画像群201及びマッチング辞書210を入力とする。また、特性取得部204は、被写体特性205を出力とする。
まず、ステップS901では、特性取得部204は、被写体画像群201に対応する被写体特性が事前に保存済みか否かを判断する。これは後述するステップS905で保存されるものである。特性取得部204は、事前に保存済みならばステップS902へ、そうでなければステップS903へ遷移する。
ステップS902では、特性取得部204は、保存済みの被写体特性を読み込み、特性取得部204の出力である被写体特性205とし、特性取得部204の処理を終了する。
ステップS903では、特性取得部204は、被写体画像群201中の任意の画像と学習済みのマッチング辞書210とを用いてマッチング部211を呼びだす。特性取得部204は、マッチするならステップS904へ、そうでなければステップS905へ遷移する。
ステップS904では、特性取得部204は、マッチング辞書210の学習に使用した被写体特性を取得し、特性取得部204の出力である被写体特性205とし、特性取得部204の処理を終了する。
ステップS905では、特性取得部204は、ユーザに被写体特性205の入力を促し、その結果を保存し、特性取得部204の処理を終了する。被写体特性205の入力手法は任意である。
次に、学習部209のフローチャートの一例を図10に示す。図10は、学習部の処理の一例を示すフローチャートである。
学習部209は、被写体画像群201、背景画像群202、被写体特性205を入力とする。また、学習部209は、マッチング辞書210を出力とする。
ステップS1001では、学習部209は、教師背景画像群、教師被写体画像群、検定用背景画像群、検定用教師画像群を生成する。より具体的に説明すると、学習部209は、被写体画像群201の一部を教師被写体画像群、残りを検定用被写体画像群とし、背景画像群202の一部を教師背景画像群、残りを検定用教師画像群とする。学習部209は、教師背景画像群及び教師被写体画像群をマッチング辞書210の学習に使用する。また、学習部209は、検定用背景画像群及び検定用教師画像群を学習したマッチング辞書210の性能の測定(又は検定)に使用する。
ステップS1002からステップS1008での処理で学習部209は、マッチング辞書210を学習する。
まず、ステップS1002では、学習部209は、ステップS1001で設定した教師背景画像群と教師被写体画像群から特徴量を求めマッチング辞書210を学習する。このステップの処理には一般的な物体検出器・物体認識器の学習手法、例えば非特許文献1に記載のViolaらによる手法が適用可能である。但し、このステップで使用される特徴量及び手法は、マッチング部211のステップS807にて使用される特徴量及びステップS808にて使用されるマッチング手法に対応した手法でなければならない。
次に、ステップS1003では、学習部209は、画像処理部206が用いる画像処理パラメータ208を初期化する。このステップの詳細は後述する。
次に、ステップS1004では、学習部209は、ステップS1009で求めるマッチング性能が閾値を下回るか、又はユーザが中断を指示するまで、ステップS1005からステップS1009までの処理を繰り返す。なお、ループの終了条件は他の任意の条件を設けてもよい。
次に、ステップS1005では、学習部209は、画像処理部206を用いて被写体特性205に基づき複製被写体画像群207を得る。
次に、ステップS1006では、学習部209は、マッチング部211を呼び出し、背景画像群202に対しステップS1002若しくはステップS1008で学習されたマッチング辞書210を適用する。その後、学習部209は、マッチした領域を教師背景画像群に追加する。背景画像群202の全ての部分領域は被写体画像を含まないため、学習部209は、マッチした全ての領域を教師背景画像群に追加してよい。
次に、ステップS1007では、学習部209は、マッチング部211を呼び出し、ステップS1005で得られた複製被写体画像群207中のそれぞれの画像に対し、ステップS1002若しくはステップS1008で学習されたマッチング辞書210を適用する。その後、学習部209は、マッチしなかった領域を教師被写体画像群に追加する。被写体画像候補群はその全てが被写体画像から画像処理で生成されたものである為、学習部209は、マッチしなかった全ての領域を教師被写体画像群に追加するべきである。
次に、ステップS1008では、学習部209は、ステップS1006で求めた教師背景画像群と、ステップS1007で求めた教師被写体画像群と、からマッチング辞書210を学習する。この学習の処理は、ステップS1002の処理と同一である。
次に、ステップS1009では、学習部209は、検定用背景画像群及び検定用被写体画像群のそれぞれの画像に対しマッチング部211を呼び出し、ステップS1008で学習したマッチング辞書210のマッチング性能を得る。この性能は、本実施形態では正答率及び正棄却率を想定しているが、学習部209は、その他の性能を測定しステップS1004におけるループの終了条件としてもよい。
ステップS1010では、学習部209は、ステップS1004においてループの終了と判断した場合、出力するマッチング辞書210を選択する。マッチング辞書210は、ループ内のどの時点で学習されたものかを問わない。性能が最良のものでもよいし、終了条件を満たしたもの、若しくは終了条件を満たさない最新のものでもよい。
ステップS1011では、学習部209は、マッチング辞書210にマッチ領域サイズ、マッチ領域中の被写体サイズを記録する。図7の複製被写体画像706において、マッチ領域サイズは707、マッチ領域中の被写体サイズは708である。被写体サイズ708は、被写体サイズ708に画像処理パラメータにおける縮小率を積算して求められる。これらの値は特に画像処理部206において縮小処理が施された場合に変動する。
ステップS1011で得られたマッチング辞書210が、学習部209の出力となる。
画像処理部206のフローチャートの例を図11に示す。図11は、画像処理の一例を示すフローチャートである。
画像処理部206は、被写体画像群201及び被写体特性205を入力とする。また、画像処理部206は、複製被写体画像群207を出力とする。画像処理部206は、画像処理パラメータ208を使用する。被写体特性205における、種類と対応する画像処理方法、そのパラメータ、及び初期値を図6に示す。
画像処理部206が呼び出される前に画像処理パラメータ208の初期化が必要である。このパラメータ初期化は、学習部209のステップS1003から呼び出される。より具体的に説明すると、パラメータ初期化では、回転処理の回転角度を0度に、鏡像反転するか否かを「しない」に、投射面の法線方向の傾き量を0度に、ぶれ合成量を0ピクセルに、縮小率を事前の規定値に設定する。
また、画像処理部206は、ステップS1101〜1104において画像処理パラメータ208を変化させる。ここで変化量は事前に設定されてもよいし、被写体特性の一部として事前に入力されてもよい。また、この変化は差分の増減、割合に基づく乗除、或いはその他の演算の結果等に基づくものであってもよい。
まず、ステップS1101で、画像処理部206は、被写体特性205において回転対称と見なせるか否かを判定し、回転対称と見なせないなら、回転角度を増加させる。
次に、ステップS1102で、画像処理部206は、被写体特性205において被写体が単一平面上に存在すると見なせるか否かを判定し、単一平面上に存在すると見なせる場合は、投射面の法線方向の傾き量を増やす。
次に、ステップS1103で、画像処理部206は、被写体特性205において被写体にぶれ耐性が必要か否かを判定し、ぶれ耐性が必要だと判断される場合はぶれ量を増やす。
次に、ステップS1104で、画像処理部206は、被写体特性205において被写体に高速検出が必要か否かを判定し、高速検出が必要と判定された場合は縮小率が必要な場合は縮小率を増やす。
次に、ステップS1105で、画像処理部206は、ステップS1106からステップS1113までの処理を、被写体画像群201に含まれる全ての画像について繰り返す。
まず、ステップS1106で、画像処理部206は、被写体特性205において回転対称か否かを判断する。画像処理部206は、回転対称であればステップS1107に、回転対称でないならステップS1108に遷移する。
ステップS1107で、画像処理部206は、被写体画像をランダムに回転し、複製被写体画像とする。ここで、それぞれ回転角度の異なる複数枚を複製被写体画像としてもよい。その後、画像処理部206は、ステップS1109に遷移する。
ステップS1108で、画像処理部206は、被写体画像を回転角度分だけ回転し、複製被写体画像とする。その後、画像処理部206は、ステップS1109に遷移する。被写体画像701を回転した例を702に示す。
ステップS1109で、画像処理部206は、被写体特性205において鏡像対称か否かを判定し、鏡像対称と見なせるなら、複製被写体画像を任意に左右反転(鏡像反転)する。ここで任意とは例えば乱数を発生し一定確率以上である、等でよい。被写体画像701を左右反転した例を703に示す。
ステップS1110で、画像処理部206は、投射面の法線の傾き量に基づき複製被写体画像に透視変換を施す。ここで、画像処理部206は、被写体画像平面と投射面がなす角度が投射面の法線方向の傾き量と等しい透視変換を複数生成し、複数枚の複製被写体画像を生成してもよい。被写体画像701に対し透視変換を施した画像を704に示す。
ステップS1111で、画像処理部206は、ぶれ量に基づき複製被写体画像にぶれを付加する。このとき、画像処理部206は、任意の方向にぶれを合成することで複数の複製被写体画像を生成してもよい。被写体画像701に対しぶれを付加した例を705に示す。
ステップS1112で、画像処理部206は、縮小率に基づき複製被写体画像を縮小し、その周囲にマージンを付加する。画像処理部206は、例えば被写体画像を701として、複製被写体画像のサイズ707を被写体画像701の被写体サイズ708と等しくし、縮小した被写体領域を複製被写体画像の矩形中の任意の位置に重ねた画像を生成する。このとき、画像処理部206は、重ねる位置を任意に変化させることで複数の複製被写体画像を生成してもよい。図7の701にマージンを付加した例を706に示す。
ステップS1113で、画像処理部206は、ステップS1106〜ステップS1112で作成された複製被写体画像を複製被写体画像群207に追加する。
以上の様に本実施形態によれば、被写体特性205に基づき、被写体画像群201に対して多数の複製被写体画像群207を生成することができる。結果として同一の被写体画像群から学習したマッチング辞書210の性能向上、或いは同じ性能のマッチング辞書210の学習に必要な被写体画像数の削減をすることができる。
更に、本実施形態によれば、被写体特性205により回転対称と見なせる、単一平面上に存在すると見なせる、とされる被写体画像群201については、任意の角度で回転することができる。これにより、鏡像反転のみに加え多くの複製被写体画像群207を生成することができる。
更に、本実施形態によれば、被写体特性205が平面上に存在するとされない被写体画像群201について透視変換でサンプルを生成することがない為、被写体画像群201から学習したマッチング辞書210の性能低下を防ぐことができる。
更に、本実施形態によれば、被写体特性205がぶれ耐性を要する被写体画像群201については、ぶれ画像を含む複製被写体画像群207から学習することができるため、入力画像203がぶれている場合のマッチング精度の向上が期待できる。
更に、本実施形態によれば、被写体特性205が高速に検出する必要がある被写体画像群201について、画像処理部206は、マッチング辞書210のサイズ707に比して被写体サイズ708を小さくした複製被写体画像群207を生成する。これによりマッチング部211のステップS802においてピクセルステップ及び画像拡大率が大きくなる。結果としてステップS803〜809におけるループ回数が減少し、マッチング部211の高速化が期待できる。更に、本実施形態によれば、物体検出等、単位時間当たりにマッチング部211を終了すればよい場合、ステップS803の終了条件を満たす範囲で大きな画像に対しマッチング可能である。したがって、結果として画像中に含まれるより小さな領域に対してマッチングを試みることができる。
更に、本実施形態によれば、学習部209は、ステップS1009で求めるマッチング性能がステップS1004に定義する条件を満たす範囲で複製被写体画像群207を生成、学習することができる。即ち、被写体特性205に対してマッチング性能を満たす範囲で剛健なマッチング辞書210を作成することができる。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、学習に必要な被写体画像の数を削減することができる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
103 CPU

Claims (9)

  1. 被写体の特性である被写体特性を取得する特性取得手段と、
    前記特性取得手段で取得された被写体特性に応じて、被写体の画像に対して画像処理を施し、複製被写体画像を生成する画像処理手段と、
    前記画像処理手段で生成された複製被写体画像を用いてマッチング辞書を学習する学習手段と、
    を有する、画像処理装置。
  2. 前記特性取得手段で取得された被写体特性に、被写体が回転対称と見なせる旨の回転対称性が含まれていた場合、前記画像処理手段は、前記被写体の画像をランダムに回転させる画像処理を施し、被写体が回転対称と見なせない旨の回転対称性が含まれていた場合、前記画像処理手段は、前記被写体の画像を、パラメータとして設定されている回転角度に基づいて回転させる画像処理を施す、請求項1記載の画像処理装置。
  3. 前記特性取得手段で取得された被写体特性に、被写体が鏡像対称と見なせる旨の鏡像対称性が含まれていた場合、前記画像処理手段は、前記被写体の画像を、パラメータとして設定されている反転させるか否かの情報に応じて鏡像反転させる画像処理を施す、請求項1又は2記載の画像処理装置。
  4. 前記特性取得手段で取得された被写体特性に、被写体が単一平面上に存在すると見なせる旨の平面性が含まれていた場合、前記画像処理手段は、前記被写体の画像を、パラメータとして設定されている投射面の法線方向の傾き量に基づいて透視変換させる画像処理を施す、請求項1乃至3何れか1項記載の画像処理装置。
  5. 前記特性取得手段で取得された被写体特性に、ぶれ耐性が必要である旨のぶれ耐性が含まれていた場合、前記画像処理手段は、前記被写体の画像に対して、パラメータとして設定されているぶれ量に基づいてぶれ合成する画像処理を施す、請求項1乃至4何れか1項記載の画像処理装置。
  6. 前記特性取得手段で取得された被写体特性に、高速に検出する必要がある旨の検出速度性が含まれていた場合、前記画像処理手段は、前記被写体の画像を、パラメータとして設定されている縮小率に基づいて縮小する画像処理を施す、請求項1乃至5何れか1項記載の画像処理装置。
  7. 前記学習手段は、前記画像処理手段で生成された複製被写体画像を用いてマッチング辞書のマッチング性能を検定し、前記マッチング性能に応じて前記画像処理手段で用いられるパラメータの設定を変更する、請求項2乃至6何れか1項記載の画像処理装置。
  8. 画像処理装置が実行する画像処理方法であって、
    被写体の特性である被写体特性を取得する特性取得ステップと、
    前記特性取得ステップで取得された被写体特性に応じて、被写体の画像に対して画像処理を施し、複製被写体画像を生成する画像処理ステップと、
    前記画像処理ステップで生成された複製被写体画像を用いてマッチング辞書を学習する学習ステップと、
    を有する、画像処理方法。
  9. コンピュータを、
    被写体の特性である被写体特性を取得する特性取得手段と、
    前記特性取得手段で取得された被写体特性に応じて、被写体の画像に対して画像処理を施し、複製被写体画像を生成する画像処理手段と、
    前記画像処理手段で生成された複製被写体画像を用いてマッチング辞書を学習する学習手段と、
    して機能させる、プログラム。
JP2009239553A 2009-10-16 2009-10-16 画像処理装置、画像処理方法及びプログラム Active JP5550301B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009239553A JP5550301B2 (ja) 2009-10-16 2009-10-16 画像処理装置、画像処理方法及びプログラム
US12/899,713 US8873839B2 (en) 2009-10-16 2010-10-07 Apparatus of learning recognition dictionary, and method of learning recognition dictionary

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009239553A JP5550301B2 (ja) 2009-10-16 2009-10-16 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011086183A true JP2011086183A (ja) 2011-04-28
JP5550301B2 JP5550301B2 (ja) 2014-07-16

Family

ID=43879323

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009239553A Active JP5550301B2 (ja) 2009-10-16 2009-10-16 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US8873839B2 (ja)
JP (1) JP5550301B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017109854A1 (ja) * 2015-12-22 2017-06-29 オリンパス株式会社 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
JP2018169672A (ja) * 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 教師画像を生成する方法、コンピュータおよびプログラム
JP2020085774A (ja) * 2018-11-29 2020-06-04 日本電気硝子株式会社 管ガラス検査方法、学習方法及び管ガラス検査装置
KR102185934B1 (ko) * 2020-06-07 2020-12-02 주식회사 플로이드 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법
JP7487683B2 (ja) 2021-02-16 2024-05-21 株式会社島津製作所 放射線画像生成方法および放射線画像撮影装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10175479B2 (en) * 2005-11-23 2019-01-08 Fusao Ishii High contrast projection screen
US8995771B2 (en) * 2012-04-30 2015-03-31 Microsoft Technology Licensing, Llc Identification of duplicates within an image space
EP2808828B1 (en) * 2013-05-31 2020-08-05 Omron Corporation Image matching method, image matching device, model template generation method, model template generation device, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546764A (ja) * 1991-08-12 1993-02-26 Fujitsu Ltd エツジ抽出システム
JPH0721367A (ja) * 1993-06-22 1995-01-24 Oyo Keisoku Kenkyusho:Kk 画像認識装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4266660B2 (ja) * 2003-02-18 2009-05-20 キヤノン株式会社 投射型表示光学系および投射型画像表示装置
JP4265237B2 (ja) * 2003-02-27 2009-05-20 ソニー株式会社 画像処理装置および方法、学習装置および方法、記録媒体、並びにプログラム
JP2007080178A (ja) * 2005-09-16 2007-03-29 Ricoh Co Ltd 画像処理装置
KR100931994B1 (ko) * 2006-07-12 2009-12-15 삼성전자주식회사 이미지처리장치 및 이미지처리방법
US8494297B2 (en) * 2007-04-05 2013-07-23 Adobe Systems Incorporated Automatic detection and mapping of symmetries in an image
JP2008287378A (ja) 2007-05-16 2008-11-27 Hitachi Omron Terminal Solutions Corp 画像識別学習装置及びそれを用いた印刷物識別装置
JP2009033469A (ja) * 2007-07-26 2009-02-12 Olympus Imaging Corp 撮像装置
JP2010272109A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546764A (ja) * 1991-08-12 1993-02-26 Fujitsu Ltd エツジ抽出システム
JPH0721367A (ja) * 1993-06-22 1995-01-24 Oyo Keisoku Kenkyusho:Kk 画像認識装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200600948012; 石田皓之 外4名: '携帯カメラ入力型文字認識におけるぼけやぶれに対処するための生成型学習法' 電子情報通信学会論文誌 情報・システム 第J89-D巻 第9号, 20060901, 第2055〜2064頁, 社団法人電子情報通信学会 *
JPN6013033713; 石田皓之 外4名: '携帯カメラ入力型文字認識におけるぼけやぶれに対処するための生成型学習法' 電子情報通信学会論文誌 情報・システム 第J89-D巻 第9号, 20060901, 第2055〜2064頁, 社団法人電子情報通信学会 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017109854A1 (ja) * 2015-12-22 2017-06-29 オリンパス株式会社 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
JPWO2017109854A1 (ja) * 2015-12-22 2018-10-11 オリンパス株式会社 学習画像自動選別装置、学習画像自動選別方法および学習画像自動選別プログラム
US10679358B2 (en) 2015-12-22 2020-06-09 Olympus Corporation Learning image automatic sorting device, learning image automatic sorting method, and learning image automatic sorting program
JP2018169672A (ja) * 2017-03-29 2018-11-01 三菱電機インフォメーションシステムズ株式会社 教師画像を生成する方法、コンピュータおよびプログラム
JP2020085774A (ja) * 2018-11-29 2020-06-04 日本電気硝子株式会社 管ガラス検査方法、学習方法及び管ガラス検査装置
JP7151426B2 (ja) 2018-11-29 2022-10-12 日本電気硝子株式会社 管ガラス検査方法、学習方法及び管ガラス検査装置
KR102185934B1 (ko) * 2020-06-07 2020-12-02 주식회사 플로이드 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법
WO2021251651A1 (ko) * 2020-06-07 2021-12-16 주식회사 플로이드 회전 대칭성 판단이 가능한 영상 분석 장치 및 방법
JP7487683B2 (ja) 2021-02-16 2024-05-21 株式会社島津製作所 放射線画像生成方法および放射線画像撮影装置

Also Published As

Publication number Publication date
JP5550301B2 (ja) 2014-07-16
US20110091097A1 (en) 2011-04-21
US8873839B2 (en) 2014-10-28

Similar Documents

Publication Publication Date Title
JP5550301B2 (ja) 画像処理装置、画像処理方法及びプログラム
Oh et al. Learning-based video motion magnification
CN108961303B (zh) 一种图像处理方法、装置、电子设备和计算机可读介质
CN108229526B (zh) 网络训练、图像处理方法、装置、存储介质和电子设备
Kakar et al. Exposing digital image forgeries by detecting discrepancies in motion blur
Yu et al. A unified learning framework for single image super-resolution
JP6647632B2 (ja) 機械学習用訓練データの生成
WO2014074959A1 (en) Real-time face detection using pixel pairs
JP2008033424A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
US20210118145A1 (en) Diagnostic imaging support system and diagnostic imaging apparatus
WO2019065703A1 (ja) 情報処理装置
CN108876716B (zh) 超分辨率重建方法及装置
WO2021218706A1 (zh) 文本识别方法、装置、设备及存储介质
JP2014170488A (ja) 推定顔生成装置、顔照合装置、推定顔生成方法及び推定顔生成プログラム
Zamani et al. Multiple-frames super-resolution for closed circuit television forensics
WO2019065702A1 (ja) 情報処理装置
JP6369143B2 (ja) 真贋評価装置及びプログラム
Ghosh et al. GSD-Net: compact network for pixel-level graphical symbol detection
JP2012169701A (ja) 画像処理装置、画像処理方法及びプログラム
JP7238510B2 (ja) 情報処理装置、情報処理方法及びプログラム
US10853919B2 (en) Image processing apparatus, image processing method, and program
Bora et al. Image forgery detection through motion blur estimates
WO2022113583A1 (ja) 情報処理装置、情報処理方法、及び記録媒体
US11636577B2 (en) Method and apparatus with blur estimation
CN116310959B (zh) 一种复杂场景下低质量摄像机画面识别方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121016

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130909

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140205

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140520

R151 Written notification of patent or utility model registration

Ref document number: 5550301

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151