JP2021149253A - 画像処理方法、画像処理プログラム、及び、画像処理装置 - Google Patents
画像処理方法、画像処理プログラム、及び、画像処理装置 Download PDFInfo
- Publication number
- JP2021149253A JP2021149253A JP2020046204A JP2020046204A JP2021149253A JP 2021149253 A JP2021149253 A JP 2021149253A JP 2020046204 A JP2020046204 A JP 2020046204A JP 2020046204 A JP2020046204 A JP 2020046204A JP 2021149253 A JP2021149253 A JP 2021149253A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- filter
- image data
- filters
- subregions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
【課題】検出フィルタを容易に生成することができる。【解決手段】第1の対象物を含む第1画像データの入力を受け付け、記憶部に記憶された第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、第1画像データから第1の対象物の部分領域をそれぞれ検出する。複数のフィルタそれぞれが検出した第1の対象物の部分領域それぞれの間の位置関係、及び、部分領域それぞれの大きさに関する情報に基づいて第1の対象物を検出する新たな検出フィルタを生成する。【選択図】図6
Description
本発明は、画像処理方法、画像処理プログラム、及び、画像処理装置に関する。
デバイスの高性能化、及び、ネットワークの高速化に伴い、映像及び音などのメディアを活用したサービスが注目を集めている。一方で、メディアを活用したサービスの開発及び導入には、時間及び費用がかかる。
メディアを活用したサービスの開発及び導入にかかる時間及び費用を低減するため、画像処理アプリケーションのブロック線図を組み合わせることでサービスを容易に作成することができる開発基盤が提案されている。
しかしながら、上記技術では、組み合わせる画像処理アプリケーションのブロック線図の選択に手間及び時間がかかる。
本発明は、1つの側面として、検出フィルタを容易に生成することを目的とする。
1つの実施形態では、第1の対象物を含む第1画像データの入力を受け付け、記憶部に記憶された第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、第1画像データから第1の対象物の部分領域をそれぞれ検出する。複数のフィルタそれぞれが検出した第1の対象物の部分領域それぞれの間の位置関係、及び、部分領域それぞれの大きさに関する情報に基づいて第1の対象物を検出する新たな検出フィルタを生成する。
本発明は、1つの側面として、検出フィルタを容易に生成することができる。
[第1実施形態]
以下、図面を参照して第1実施形態の一例を詳細に説明する。
図1に、画像処理装置10を例示する。画像処理装置10は、入力部11、領域選択部12、フィルタ抽出部13、第1検出部14、配列生成部15、フィルタ生成部16、及び、第2検出部17を含む。画像処理装置10は、さらに、画像データベース18、記憶部の一例である検出フィルタデータベース19A、抽出フィルタデータベース19B、及び合成フィルタデータベース19Cを含む。また、画像処理装置10は、表示装置20A及び選択装置20Bに接続されている。
入力部11は、例えば、画像データベース18から第1画像データの一例であるフィルタ生成画像データの入力を受け付ける。フィルタ生成画像データは、例えば、静止画像データであり、新たなフィルタを生成する際の基準となる画像データである。領域選択部12は、表示装置20Aの画面に入力したフィルタ生成画像を表示する。選択装置20Bは、ユーザから検出したい対象物を含む画像に含まれる対象物が存在する部分領域の指定を受け付け、領域選択部12は、指定された部分領域を対象物領域の画像として選択する。図2に、表示装置20Aの画面に表示された画像IM01及びユーザによって選択された対象物領域TA01の画像を例示する。
検出フィルタデータベース19Aには、複数の検出フィルタが格納されている。検出フィルタデータベースに格納されたフィルタの各々は、それぞれ異なる特徴を画像から検出する既存の検出フィルタである。
フィルタ抽出部13は、検出フィルタデータベース19Aに格納されている全ての検出フィルタに、対象物領域の画像を入力する。フィルタ抽出部13は、「検出」を出力した検出フィルタを抽出して、抽出フィルタデータベース19Bに格納し、「検出」を出力しない検出フィルタは抽出しない。即ち、フィルタ抽出部13は、対象物領域の画像に含まれる特徴を抽出する検出フィルタを抽出する。
図3の例は、検出フィルタデータベース19Aに含まれる全ての検出フィルタに対象物領域TA01の画像を入力した場合、「顔」検出フィルタ及び「青色」検出フィルタが「検出」を出力し、「顔」検出フィルタ及び「青色」検出フィルタが抽出される。抽出された「顔」検出フィルタ及び「青色」検出フィルタは抽出フィルタデータベース19Bに格納される。対象物領域TA01の画像は、青色のTシャツを着た人物が含まれている。
第1検出部14は、対象物領域の画像を抽出フィルタデータベース19Bに格納されている全ての検出フィルタに入力し、検出フィルタの各々で「検出」が出力された部分領域を取得する。例えば、抽出フィルタデータベース19Bに格納されている検出フィルタが「顔」検出フィルタ及び「青色」検出フィルタである場合、図3に例示するように、部分領域DA01及び部分領域DA02が取得される。部分領域DA01は、「顔」検出フィルタで検出された領域であり、部分領域DA02は、「青色」検出フィルタで検出された領域である。
配列生成部15は、第1検出部14で取得された複数の部分領域の間の位置関係、及び、部分領域それぞれの大きさに関する情報を特徴検出配列に格納する。例えば、対象物領域の画像を所定サイズのセルに分割し、第1検出部14で取得された部分領域と重複するセルに対応する特徴検出配列の要素に、当該部分領域を検出した検出フィルタを表す値を設定する。
セルのサイズは、ユーザによって、予め設定された画素数であってもよいし、画像のサイズによって予め設定されていてもよい。セルのサイズは、例えば、32画素×24画素であってもよいし、画像の高さの1/20の高さを有し、画像の幅の1/20の幅を有していてもよい。また、セルを使用することで、計算処理量を低減することができるが、セルのサイズを1画素×1画素にすることで、より精細な処理を行うようにしてもよい。
図4では、「顔」検出フィルタを表す代表値は「1」に設定され、「青色」検出フィルタを表す代表値は「2」に設定されている。代表値は、ユーザが予め設定していてもよいし、検出フィルタデータベース19Aに格納する際に自動的に割り当てるようにしてもよい。
フィルタ生成部16は、配列生成部15で生成した特徴検出配列、特徴検出配列に格納されている代表値に対応する検出フィルタのフィルタ名や検出フィルタに相当する合成フィルタのフィルタ名を組み合わせて、1つの合成フィルタを生成する。生成された合成フィルタは、合成フィルタデータベース19Cに登録される。検出フィルタのフィルタ名に代えて、検出フィルタを組み合わせてもよい。また、フィルタ生成部16は、合成フィルタのフィルタ名を検出フィルタデータベース19Aにも登録してもよい。
これにより、ユーザは、合成フィルタ以外の検出フィルタと同様に、意識することなく、合成フィルタを使用することができる。即ち、検出フィルタデータベース19Aの合成フィルタ名が選択された場合、画像処理装置10は、合成フィルタデータベース19Cの合成フィルタ名に対応する合成フィルタを使用する。
図5に示す例では、配列生成部15で生成した特徴検出配列AR01、「顔」検出フィルタ及び「青色」検出フィルタのフィルタ名、並びに、合成フィルタのフィルタ名「青い服を着た人」を組み合わせて合成フィルタを生成する。生成した合成フィルタを、合成フィルタデータベース19Cに登録する。合成フィルタのフィルタ名は、ユーザが設定してもよいし、例えば、合成フィルタに含まれる検出フィルタのフィルタ名に基づいて生成されてもよい。
第2検出部17は、合成フィルタを使用して対象物の検出を行う。第2検出部17は、合成フィルタデータベース19Cに格納されている合成フィルタに第2画像データに相当する被検出画像データを入力する。被検出画像データは、静止画像である。合成フィルタに含まれる検出フィルタ名で示される検出フィルタそれぞれによって取得される領域を使用して、特徴検出配列と同様に、対象物検出配列を生成する。第2検出部17は、生成した対象物検出配列と、合成フィルタに含まれる特徴検出配列と、を比較し、一致した場合「検出」を出力する。
例えば、対象物検出配列の一部が特徴検出配列の0以外の数値、即ち、代表値と完全に一致する場合に、一致と判定してもよいし、一定割合以上、例えば、80%以上一致する場合に、一致と判定してもよい。また、対象物検出配列の各々の代表値を示す領域の重心を結ぶ線及び当該線の両端の2つの代表値を示す領域の面積と、特徴検出配列の対応する2つの代表値を示す領域の重心を結ぶ線及び当該2つの代表値を示す領域の面積と、を比較する。双方が、所定の誤差で一致する場合に、一致と判定してもよい。
図6に例示するように、被検出画像IM02を「青い服を着た人」合成フィルタに入力した場合、「顔」検出フィルタで検出された領域DA03及び「青色」検出フィルタで検出された領域DA04、DA05が取得される。対象物検出配列は、合成フィルタ生成時と同一のセルサイズを使用して生成する。対象物検出配列の代表値である「1」及び「2」の配置は、特徴検出配列の代表値である「1」及び「2」の配置と一致する部分を有するため、「青い服を着た人」合成フィルタは「検出」を出力する。
一方、被検出画像IM03を「青い服を着た人」合成フィルタに入力した場合、「顔」検出フィルタで検出された領域DA06及び「青色」検出フィルタで検出された領域DA07が取得される。対象物検出配列の代表値である「1」及び「2」の配置は、特徴検出配列の代表値である「1」及び「2」の配置と一致する部分を有さないため、「検出」を出力しない。被検出画像IM03では、服の色が青ではなく赤であり、車の色は青い。車と顔との位置関係は、服と顔との位置関係とは異なるため「検出」は出力されない。即ち、誤検出されない。
画像処理装置10は、一例として、図7に示すように、CPU(Central Processing Unit)51、一次記憶部52、二次記憶部53、及び、外部インタフェース54を含む。CPU51は、ハードウェアであるプロセッサの一例である。CPU51、一次記憶部52、二次記憶部53、及び、外部インタフェース54は、バス59を介して相互に接続されている。
なお、プロセッサは、CPUには限定されず、例えば、GPU(Graphics Processing Unit)などであってもよい。また、プロセッサは、1つに限定されず、複数のプロセッサが含まれていてもよい。
一次記憶部52は、例えば、RAM(Random Access Memory)などの揮発性のメモリである。二次記憶部53は、例えば、HDD(Hard Disk Drive)、又はSSD(Solid State Drive)などの不揮発性のメモリである。
二次記憶部53は、プログラム格納領域53A及びデータ格納領域53Bを含む。プログラム格納領域53Aは、一例として、合成フィルタ生成プログラム及び対象物検出プログラムなどのプログラムを記憶している。データ格納領域53Bは、例えば、画像データベース18、検出フィルタデータベース19A、抽出フィルタデータベース19B及び合成フィルタデータベース19Cを格納する。
CPU51は、プログラム格納領域53Aから合成フィルタ登録プログラムを読み出して一次記憶部52に展開する。CPU51は、合成フィルタ生成プログラムをロードして実行することで、図1の入力部11、領域選択部12、フィルタ抽出部13、第1検出部14、配列生成部15、及び、フィルタ生成部16として動作する。また、CPU51は、対象物検出プログラムを読み出して一次記憶部52に展開する。CPU51は、対象物検出プログラムをロードして実行することで、図1の入力部11、及び、第2検出部17として動作する。
なお、合成フィルタ生成プログラム、対象物検出プログラムなどのプログラムは、外部サーバに記憶され、ネットワークを介して、一次記憶部52に展開されてもよい。また、合成フィルタ生成プログラム、対象物検出プログラムなどのプログラムは、DVD(Digital Versatile Disc)などの非一時的記録媒体に記憶され、記録媒体読込装置を介して、一次記憶部52に展開されてもよい。
外部インタフェース54には外部装置が接続され、外部インタフェース54は、外部装置とCPU51との間の各種情報の送受信を司る。図7の例では、外部インタフェース54に、外部記憶装置55A、選択装置20Bの一例であるマウス55B、及び表示装置20Aの一例であるディスプレイ55Cが接続されている。外部記憶装置55A、マウス55B及びディスプレイ55Cの内、何れかまたは全部は、画像処理装置10に内蔵されていてもよいし、ネットワークを介して、画像処理装置10と離隔した位置に配置されていてもよい。
画像データベース18、検出フィルタデータベース19A、抽出フィルタデータベース19B、及び、合成フィルタデータベース19Cの全部または何れかは、データ格納領域53Bではなく、外部記憶装置55Aに記憶されていてもよい。画像処理装置10は、専用装置であってもよいし、ワークステーション、パーソナルコンピュータ、またはタブレットであってもよい。
画像処理装置10は、単体に限定されず、ネットワークを介して接続された複数の装置であってもよい。即ち、合成フィルタ生成プログラム及び対象物検出プログラムなどのプログラムは、単体の画像処理装置10で実行されてもよいし、複数の画像処理装置10で分散して実行されてもよい。また、合成フィルタ生成プログラム及び対象物検出プログラムなどのプログラムは、クラウド上で実行されてもよい。
次に、合成フィルタ生成処理の概要について説明する。図8は、合成フィルタ生成処理の流れを例示する。CPU51は、ステップ101で、フィルタ生成画像データの入力を受け付け、ディスプレイ55Cの画面に、入力されたフィルタ生成画像を表示する。
CPU51は、ステップ102で、対象物領域の選択を受け付ける。詳細には、ユーザがディスプレイ55Cに表示されたフィルタ生成画像からマウス55Bで選択した領域を対象物領域として受け付ける。ユーザは、検出したい対象物を含む領域をマウス55Bで選択する。CPU51は、ステップ103で、検出フィルタを抽出する。詳細には、検出フィルタデータベース19Aに含まれる全ての検出フィルタに、対象物領域の画像部分を入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bに格納する。
CPU51は、ステップ104で、後述するように、複数の検出フィルタの各々で検出された部分領域それぞれの大きさ、及び、当該部分領域間の位置関係を表す特徴検出配列を生成する。CPU51は、ステップ105で、合成フィルタ情報を合成フィルタデータベース19Cに格納する。合成フィルタ情報は、合成フィルタのフィルタ名、合成フィルタで使用する検出フィルタのフィルタ名、及び、ステップ104で生成した特徴検出配列を含む。
図9は、図8のステップ104の特徴検出配列を生成する処理の流れを例示する。CPU51は、ステップ121で、対象物領域に含まれる画像部分を所定サイズのセルに分割する。CPU51は、ステップ122で、対象物領域に対応する特徴検出配列を記憶する記憶領域を、例えば、二次記憶部53のデータ格納領域53Bに確保し、セルの各々に対応する当該配列の要素の各々に「0」を設定する。
CPU51は、ステップ123で、抽出フィルタデータベース19Bの検出フィルタの1つに対象物領域の画像部分を入力し、「検出」を出力した部分領域を取得する。CPU51は、ステップ124で、セルの1つが、「検出」を出力した部分領域を含むか否かを判定する。ステップ124の判定が肯定された場合、CPU51は、ステップ125で、当該セルに対応する配列の要素に、当該検出フィルタに対応する代表値を設定し、ステップ126に進む。ステップ124の判定が否定された場合も、CPU51は、ステップ126に進み、ステップ126で、全てのセルの判定が完了したか否か判定する。
ステップ126の判定が否定された場合、CPU51は、ステップ124に戻り、別のセルについて、ステップ124〜ステップ126の処理を繰り返す。ステップ126の判定が肯定された場合、CPU51は、ステップ127で、抽出フィルタデータベース19Bに格納されている全ての検出フィルタについて処理が終了したか否か判定する。
ステップ127の判定が否定された場合、CPU51は、ステップ123に戻りステップ123〜127の処理を繰り返し、ステップ127の判定が肯定された場合、CPU51は、特徴検出配列を生成する処理を終了する。
次に、合成フィルタによる対象物検出処理の概要について説明する。図10は、合成フィルタによる対象物検出処理の流れを例示する。
CPU51は、ステップ141で、対象物被検出画像データの入力を受け付ける。CPU51は、ステップ142で、使用する合成フィルタの合成フィルタ情報を取得する。例えば、合成フィルタデータベース19Cに格納されている合成フィルタのフィルタ名一覧をディスプレイ55Cに表示し、ユーザに、マウス55Bで、使用する合成フィルタを選択させてもよい。
CPU51は、ステップ143で、後述するように、対象物検出配列を生成し、ステップ144で、ステップ142で取得した合成フィルタ情報に含まれる特徴検出配列と対象物検出配列とを比較する。
図11は、図10のステップ143の対象物検出配列を生成する処理の流れを例示する。CPU51は、ステップ161で、対象物被検出画像を所定サイズのセルに分割する。CPU51は、ステップ162で、要素の各々がセルの各々に対応する対象物検出配列を記憶する記憶領域を、例えば、二次記憶部53のデータ格納領域53Bに確保し、要素の各々に「0」を設定する。
CPU51は、ステップ163で、合成フィルタ情報に含まれる検出フィルタの1つに画像を入力し、「検出」を出力した部分領域を取得する。CPU51は、ステップ164で、セルの1つが、「検出」を出力した部分領域を含むか否かを判定する。ステップ164の判定が肯定された場合、CPU51は、ステップ165で、当該セルに対応する配列の要素に、当該検出フィルタに対応する代表値を設定し、ステップ166に進む。ステップ164の判定が否定された場合も、CPU51は、ステップ166に進み、ステップ166で、全てのセルの判定が完了したか否か判定する。
ステップ166の判定が否定された場合、CPU51は、ステップ164に戻り、別のセルについて、ステップ164〜ステップ166の処理を繰り返す。ステップ166の判定が肯定された場合、CPU51は、ステップ167で、合成フィルタ情報に含まれる全ての検出フィルタについて処理が終了したか否か判定する。
ステップ167の判定が否定された場合、CPU51は、ステップ163に戻り、別の検出フィルタを使用して、ステップ163〜ステップ167の処理を繰り返す。ステップ167の判定が肯定された場合、CPU51は、対象物検出配列を生成する処理を終了する。
図12は、図10のステップ144の配列を比較する処理の流れを例示する。CPU51は、ステップ181で、変数jに「0」を設定する。変数jは、対象物検出配列における特徴検出配列の縦方向の位置を表す。CPU51は、ステップ182で、変数iに「0」を設定する。変数iは、対象物検出配列における特徴検出配列の横方向の位置を表す。
CPU51は、ステップ183で、対象物検出配列の要素(i,j)を左上とし、要素(i+m,j+n)を右下とする矩形内の要素の代表値と、特徴検出配列の要素の代表値と、を各々比較する。mは、特徴検出配列の列数から1を引いた値であり、nは、特徴検出配列の行数から1を引いた値である。
CPU51は、ステップ184で、0以外の数値が全て一致したと判定された場合、ステップ185で、対象物検出配列の要素(i,j)を左上とし、要素(i+m,j+n)を右下とする矩形内の要素に対応する画像領域を、例えば、二次記憶部53のデータ格納領域53Bに、「検出」領域として格納し、ステップ186に進む。CPU51は、ステップ184の判定が否定された場合もステップ186に進み、変数iに1を加算する。
CPU51は、ステップ187で、変数iの値がMを超えたか否か判定する。Mは、対象物検出配列の列数から特徴検出配列の列数を引いた値である。ステップ187の判定が否定された場合、CPU51は、ステップ182に戻り、ステップ182〜ステップ187の処理を繰り返す。
ステップ187の判定が肯定されると、CPU51は、ステップ188で、変数jに1を加算する。CPU51は、ステップ189で、変数jの値がNを超えたか否か判定する。Nは、対象物検出配列の行数から特徴検出配列の行数を引いた値である。ステップ189の判定が否定された場合、CPU51は、ステップ182に戻り、変数iの値を「0」に設定し、ステップ182〜ステップ189の処理を繰り返す。
ステップ189の判定が肯定された場合、CPU51は、ステップ190で、対象物検出結果を出力して、配列を比較する処理を終了する。CPU51は、例えば、ディスプレイ55Cの画面に対象物被検出画像を表示し、ステップ185で格納した画像領域を、例えば、矩形で囲むなど、強調して表示する。
本実施形態では、第1の対象物を含む第1画像データの入力を受け付け、記憶部に記憶された第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、第1画像データから第1の対象物の部分領域をそれぞれ検出する。本実施形態では、複数のフィルタそれぞれが検出した第1の対象物の部分領域それぞれの間の位置関係、及び、部分領域それぞれの大きさに関する情報に基づいて第1の対象物を検出する新たな検出フィルタを生成する。
本実施形態では、検出フィルタを容易に生成することができる。
本実施形態では、第2画像データの入力を受け付け、予め対応付けて記憶された複数のフィルタそれぞれに基づいて、第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出する。本実施形態では、第2画像データに第2の対象物が存在するか判定する。複数のフィルタの情報に予め対応付けて記憶された複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の所定情報と、第2画像データから検出された対象物の部分領域それぞれの間の所定情報と、が一致する場合に、存在すると判定する。所定情報とは、位置関係、及び、部分領域それぞれの大きさに関する情報である。
本実施形態では、検出フィルタを容易に生成することができ、生成した検出フィルタを使用して、対象物を高い精度で検出することができる。
[第2実施形態]
以下、図面を参照して第2実施形態の一例を詳細に説明する。第1実施形態と同様の構成及び作用については、説明を省略する。
以下、図面を参照して第2実施形態の一例を詳細に説明する。第1実施形態と同様の構成及び作用については、説明を省略する。
第2実施形態では、図9のステップ123及び図11のステップ163で検出領域を取得する代わりに、領域絞り込み処理を行うことで検出領域を決定する。第2実施形態の領域絞り込み処理では、フィルタ生成画像または対象物被検出画像を分割して分割画像を生成し、生成した分割画像を検出フィルタに入力する。「検出」が出力された分割画像をさらに分割して分割画像を生成し、生成した分割画像を検出フィルタに入力することで、対象物が存在する領域を絞りこむ。
詳細には、図13の左端に例示する画像を検出フィルタに入力して「検出」が出力された場合、図13の左から2番目に例示するように、画像を4分割する。隣接する2つの分割領域を順に検出フィルタに入力して「検出」が出力された左から2番目と3番目の分割領域を、図13の左から3番目に例示するように、縦方向に4分割する。隣接する2つの分割領域を順に検出フィルタに入力して「検出」が出力された上から2番目と3番目の分割領域を、図13の右端に例示するように、横方向に4分割する。隣接する2つの分割領域を順に検出フィルタに入力して「検出」が出力された左から2番目と3番目の領域が、対象物が存在する領域であると判定する。
図14に、第2実施形態の領域絞り込み処理の流れを例示する。CPU51は、ステップ201で、画像をL個に分割する。Lは、例えば、4であってよい。CPU51は、ステップ202で、分割された画像の面積が所定の面積より広いか否かを判定する。所定の面積は、例えば、元の画像の面積の1/16であってよい。ステップ202の判定が否定された場合、CPU51は、領域絞り込み処理を終了する。
ステップ202の判定が肯定された場合、CPU51は、ステップ203で、隣接する2つの分割領域を検出フィルタに入力する。CPU51は、ステップ204で、検出フィルタが「検出」を出力したか否か判定する。ステップ204の判定が肯定された場合、CPU51は、ステップ205で、隣接する2つの分割領域のどの部分に対象物が存在するか判定するために、再帰的に、領域絞り込み処理を呼び出す。
ステップ204の判定が否定された場合、検出フィルタに入力された2つの隣接する分割画像には対象物が存在しないため、CPU51は、ステップ206で、全ての分割画像が処理されたか否か判定する。ステップ206の判定が否定された場合、CPU51は、ステップ203に戻り、別の分割画像について、ステップ203〜ステップ206の処理を繰り返す。
ステップ206の判定が肯定された場合、CPU51は、領域絞り込み処理を終了する。なお、隣接する2つの分割領域を検出フィルタに入力する代わりに、連続する3つの分割領域を検出フィルタに入力してもよいし、1つの分割領域を検出フィルタに入力するようにしてもよい。
本実施形態は、例えば、第1実施形態に適用することができる。本実施形態では、対象物の部分領域は、記憶部に記憶された複数のフィルタに基づいて、第1画像データを分割した画像データから対象物を検出することで、決定される。また、対象物の部分領域は、検出フィルタの情報に含まれる複数のフィルタに基づいて、第2画像データを分割した画像データから対象物を検出することで、決定される。
本実施形態によれば、検出領域を示さない、即ち、検出したか否かだけを出力する検出フィルタを、合成フィルタの生成に使用することができる。
[第3実施形態]
以下、図面を参照して第3実施形態の一例を詳細に説明する。第1実施形態及び第2実施形態と同様の構成及び作用については、説明を省略する。
以下、図面を参照して第3実施形態の一例を詳細に説明する。第1実施形態及び第2実施形態と同様の構成及び作用については、説明を省略する。
第3実施形態では、第2配列に相当する対象物検出配列を回転し、回転した対象物検出配列と第1配列に相当する特徴検出配列とを比較する。回転は、例えば、アフィン変換を使用することで行うことができる。
図15Aに例示する対象物被検出画像には、青い服を着た人が存在するが、当該画像データに対応する対象物検出配列は「青い服を着た人」合成フィルタに対応する特徴検出配列と一致しない。対象物被検出画像の人と、フィルタ生成画像の人と、の姿勢が異なるためである。この場合、図15Bに例示するように、対象物検出配列を回転することで、対象物検出配列と特徴検出配列とは一致し、「青い服を着た人」を検出することができる。
図16に、第3実施形態の配列を比較する処理の流れを例示する。ステップ181〜ステップ190の処理は、図12のステップ181〜190と同様であるため、説明を省略する。
CPU51は、ステップ191で、対象物検出配列をP度所定の方向に回転し、ステップ192で、回転角度が所定角度を超えたか否か判定する。P度は、例えば、1[°]であってよいし、所定角度は、例えば、360[°]であってよい。ステップ192の判定が否定された場合、CPU51は、ステップ181に戻り、ステップ181〜189、191、192の処理を繰り返す。ステップ192の判定が肯定された場合、CPU51は、ステップ190に進む。
本実施例では、対象物検出配列を回転する例について説明したが、対象物検出配列を回転せず、特徴検出配列を回転するようにしてもよい。第3実施形態は、第1実施形態及び第2実施形態に適用することができる。
本実施形態では、第1配列と第2配列との何れか一方を回転して一致する場合に、第2画像データに対象物が存在すると判定する。第1配列は、予め対応付けて記憶された複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、部分領域それぞれの大きさに関する情報を表す。第2配列は、第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、部分領域それぞれの大きさに関する情報を表す。
本実施形態では、合成フィルタを生成する際に使用するフィルタ生成画像に含まれる対象物の姿勢と対象物被検出画像に含まれる対象物の姿勢とが異なる場合であっても、対象物被検出画像に含まれる対象物を、合成フィルタを使用して検出することができる。
[第4実施形態]
以下、図面を参照して第4実施形態の一例を詳細に説明する。第1〜第3実施形態と同様の構成及び作用については、説明を省略する。
以下、図面を参照して第4実施形態の一例を詳細に説明する。第1〜第3実施形態と同様の構成及び作用については、説明を省略する。
第4実施形態では、特徴検出配列を拡大または縮小して、対象物検出配列と比較する。
図17に例示する対象物被検出画像には青い服を着た人が存在するが、当該画像データに対応する対象物検出配列は「青い服を着た人」合成フィルタに対応する特徴検出配列と一致しない。対象物被検出画像の人と、フィルタ生成画像の人と、の大きさ(撮影距離)が異なるためである。この場合、図17に例示するように、特徴検出配列を縮小することで、対象物被検出画像の青い服を着た人を、「青い服を着た人」合成フィルタを使用して、検出することができる。
図18に、第4実施形態の配列を比較する処理の流れを例示する。ステップ181〜ステップ190の処理は、図12のステップ181〜190の処理と同様であるため、説明を省略する。
CPU51は、ステップ196で、特徴検出配列をQ倍に縮小する。Q倍は、例えば、0.9倍であってもよいし、1.1倍であってもよい。CPU51は、ステップ197で、倍率が所定倍率を超えたか否か判定する。例えば、特徴検出配列を縮小する場合、倍率が元の倍率の0.5倍より小さいかを判定してもよいし、特徴検出配列を拡大する場合、倍率が元の倍率の2.0倍より大きいかを判定してもよい。ステップ197の判定が否定された場合、CPU51は、ステップ181に戻り、ステップ181〜189、196、197の処理を繰り返す。ステップ197の判定が肯定された場合、CPU51は、ステップ190に進む。
ステップ197で、倍率が所定倍率を超えたか否か判定する代わりに、特徴検出配列の縦または横方向の同じ代表値が連続する数が所定数、例えば、2より少ないか否か判定してもよいし、対象物検出配列の縦または横方向の画素数を超えたか否か判定してもよい。本実施形態では、特徴検出配列を拡大または縮小する例について説明したが、対象物検出配列を拡大または縮小してもよい。第4実施形態は、第1〜第3実施形態に適用することができる。
本実施形態では、第1配列及び第2配列の何れか一方を拡大または縮小して一致する場合に、第2画像データに対象物が存在すると判定する。
本実施形態では、合成フィルタを生成する際に使用したフィルタ生成画像に含まれる対象物と対象物被検出画像に含まれる対象物との大きさが異なる場合であっても、対象物被検出画像に含まれる対象物を、合成フィルタを使用して検出することができる。
[第5実施形態]
以下、図面を参照して第5実施形態の一例を詳細に説明する。第1〜第4実施形態と同様の構成及び作用については、説明を省略する。
以下、図面を参照して第5実施形態の一例を詳細に説明する。第1〜第4実施形態と同様の構成及び作用については、説明を省略する。
第5実施形態では、抽出フィルタデータベース19Bに格納されている検出フィルタから合成フィルタを生成するのに使用する検出フィルタをユーザが選択する。第5実施形態では、例えば、図19に例示するように、抽出フィルタデータベース19Bに格納されている検出フィルタを、表示装置に表示し、ユーザが、選択装置で選択した検出フィルタを、合成フィルタの生成に使用する。
図19の例では、「顔」検出フィルタ及び「青色」検出フィルタが選択されており、「顔」検出フィルタ及び「青色」検出フィルタが合成フィルタの生成に使用される。したがって、検出対象物領域を入力した「黒色」検出フィルタが「検出」を出力した場合であっても、「黒色」の検出が不要である場合、ユーザは、「黒色」検出フィルタを合成フィルタの生成から除外することができる。
第5実施形態では、図8のステップ103の検出フィルタを抽出する処理で、図20に例示する処理を実行する。CPU51は、ステップ201で、検出フィルタデータベース19Aに含まれる全ての検出フィルタに、対象物領域を入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bに格納する。CPU51は、ディスプレイ55Cに抽出フィルタデータベース19Bに格納されている検出フィルタのフィルタ名を表示する。CPU51は、ステップ202で、マウス55Bによるユーザの検出フィルタの選択を受け付け、ステップ203で、選択されなかったフィルタを抽出フィルタデータベース19Bから削除する。
本実施形態は、第1〜第4実施形態に適用することができる。本実施形態では、第1画像データから対象物を検出した複数のフィルタから少なくとも2つのフィルタを選択する。選択した少なくとも2つのフィルタそれぞれが検出した第1画像データに含まれる対象物の部分領域それぞれの間の位置関係、及び、部分領域それぞれの大きさに関する情報を対応付けて検出フィルタを生成する。
本実施形態によれば、検出が不要な特徴を検出する検出フィルタを合成フィルタの生成から除去することで、ユーザが所望する適切な合成フィルタを生成することができる。
[第6実施形態]
[第6実施形態]
以下、図面を参照して第6実施形態の一例を詳細に説明する。第1〜第5実施形態と同様の構成及び作用については、説明を省略する。
第6実施形態では、複数の検出フィルタで「検出」となるセルに対応する検出配列の要素に、複数の代表値が設定される。図21の例では、「顔」検出フィルタと「青色」検出フィルタの双方で「検出」となるセルには、「顔」検出フィルタの代表値である「1」と、「青色」検出フィルタの代表値である「2」と、が設定されている。
図22に、第6実施形態の特徴検出配列を生成する処理の流れを例示する。第6実施形態では、図9のステップ125のセルに代表値を設定する処理が、ステップ128のセルに代表値を設定または追記する処理と置き換えられている。即ち、第6実施形態では、CPU51は、ステップ124で、セルの1つが、「検出」を出力した領域の画像部分を含むか否かを判定する。ステップ124の判定が肯定された場合であって、当該セルに対応する配列の要素にまだ代表値が設定されていない場合、CPU51は、ステップ128で、当該要素に、当該検出フィルタに対応する代表値を設定する。当該セルに対応する配列の要素に既に代表値が設定されている場合、CPU51は、ステップ128で、当該要素に、当該検出フィルタに対応する代表値を追記する。
図12に例示する配列を比較する処理のステップ183において、対象物検出配列の要素の値と、対応する特徴検出配列の要素の値と、を比較する。その際に、特徴検出配列の要素の値が複数存在する場合、複数の値の何れかと、対象物検出配列の要素の値とが一致する場合、当該要素の値は一致していると判定することができる。したがって、より適切に対象物を検出することができる。
なお、図21の例では、特徴検出配列の1つの要素に設定される代表値が1個または2個であるが、3個以上の代表値が1つの要素に設定されてもよい。本実施形態は、第1〜第5実施形態に適用することができる。
本実施形態では、第1フィルタを使用して検出した第1画像データに含まれる対象物の部分領域と第2フィルタを使用して検出した前記第1画像に含まれる対象物の部分領域とは重複可能である。これにより、本実施形態では、より適切に対象物を検出することができる。
[第7実施形態]
以下、図面を参照して第7実施形態の一例を詳細に説明する。第1〜第6実施形態と同様の構成及び作用については、説明を省略する。
第7実施形態では、フィルタ生成画像として動画像を使用する。
第7実施形態では、図23に例示するように、図8のステップ101の画像入力を受け付ける処理を、ステップ111及び112と置き替える。CPU51は、ステップ111で、フィルタ生成画像として動画像の入力を受け付け、ディスプレイ55Cに、入力された動画像の所定数のフレームを表示する。例えば、5秒間隔のフレームを10フレーム表示してもよい。
CPU51は、ステップ112で、ユーザのマウス55Bによるフレームの選択を受け付け、当該フレームを図8のステップ101で入力を受け付けた静止画像であるフィルタ生成画像の代わりに使用する。
また、第7実施形態では、図24に例示するように、図10のステップ141をステップ146と置き替え、ステップ144の次に、ステップ147を追加する。CPU51は、ステップ146で、動画像の入力を受け付ける。動画像の1フレームを対象物被検出画像として使用して、ステップ142〜144の処理を実行し、ステップ147で、動画像の全てのフレームの処理が完了したか否か判定する。ステップ147の判定が否定された場合、CPU51は、ステップ143に戻り、ステップ143、144、147の処理を繰り返す。ステップ147の判定が肯定された場合、CPU51は、対象物検出処理を終了する。
第7実施形態は、第1〜第6実施形態に適用することができる。第7実施形態では、動画像データを使用して合成フィルタを生成することができ、また、生成した合成フィルタを使用して、動画像データから対象物を検出することができる。
[第8実施形態]
以下、図面を参照して第8実施形態の一例を詳細に説明する。第1〜第7実施形態と同様の構成及び作用については、説明を省略する。
以下、図面を参照して第8実施形態の一例を詳細に説明する。第1〜第7実施形態と同様の構成及び作用については、説明を省略する。
第8実施形態では、ユーザが選択する対象物領域の画像部分の情報から対象物を検出することが困難な場合に、適切な検出フィルタを抽出する。例えば、図25に例示するように、対象物が「指」である場合、ユーザは領域TA11を検出対象物領域として選択する。
しかしながら、「手」に付随することを条件として「指」を検出する「指」検出フィルタを使用する場合、「手」を含む領域TA12が対象物領域として選択されていないと、「指」を検出することができない。一方、「手」に付随する「指」を検出するために対象物領域として領域TA11より広い領域TA12を選択すると、不要な検出ファイルが抽出される。
第8実施形態では、図1のフィルタ抽出部13を図26に例示するフィルタ抽出部30と置き替える。フィルタ抽出部30は、選択領域消去部31、「検出」フィルタ抽出部32、及び、「未検出」フィルタ抽出部33を含む。
「検出」フィルタ抽出部32は、検出フィルタデータベース19Aに含まれる全ての検出フィルタにフィルタ生成画像データを入力する。「検出」フィルタ抽出部32は、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bに格納する。
図27に示す例では、「指」を含むフィルタ生成画像IM11を検出フィルタデータベース19Aに含まれる全ての検出フィルタに入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bに格納する。図27の例では、「指」検出フィルタ、「B」検出フィルタ、「D」検出フィルタが抽出フィルタデータベース19Bに格納される。
選択領域消去部32は、図28に例示するように、フィルタ生成画像からユーザによって選択された対象物領域TA11を消去して、対象物消去画像IM12を生成する。対象物領域の消去とは、例えば、対象物領域の全画素を同一の色、例えば、白(255、255、255)または黒(0、0、0)とすることであってもよいし、全画素の画素値を全画素の平均画素値、即ち、平均色としてもよい。または、既存の技術を使用して、対象物消去画像にブラーまたはモザイクをかけてもよい。
「未検出」フィルタ抽出部33は、対象物消去画像を抽出フィルタデータベース19Bに格納されている全ての検出フィルタに入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bから削除する。図28の例では、「B」検出フィルタが、抽出フィルタデータベース19Bから削除され、「指」検出フィルタ及び「D」検出フィルタが抽出フィルタデータベース19Bに残される。
第8実施形態では、図8のステップ103の検出フィルタを抽出する処理を図29に例示するステップ151〜153と置き替える。CPU51は、ステップ151で、検出フィルタデータベース19Aに含まれる全ての検出フィルタにフィルタ生成画像を入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bに格納する。CPU51は、ステップ152で、ユーザが選択した対象物領域をフィルタ生成画像から消去して、対象物消去画像を生成する。CPU51は、ステップ153で、対象物消去画像を、抽出フィルタデータベース19Bに格納されている全ての検出フィルタに入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bから削除する。即ち、「検出」を出力しない検出フィルタを抽出フィルタデータベース19Bに残す。
本実施形態では、ステップ151でフィルタ生成画像を使用して抽出した検出フィルタの全てを合成フィルタの生成に使用せず、不要な検出フィルタの使用を抑制することで、適切な合成フィルタを生成することができる。
本実施形態は、第1〜第7実施形態に適用することができる。本実施形態では、所定の条件を満たす場合に、複数のフィルタのそれぞれは、第1画像データに特徴が存在すると判定する。所定の条件は、記憶部に記憶された複数のフィルタのそれぞれが、第1画像データから複数のフィルタのそれぞれが検出する特徴を検出し、ユーザによって選択される対象物領域が第1画像データから消去された消去画像データから特徴を検出しない場合である。本実施形態では、不要な検出フィルタの抽出を抑制することで、適切な合成フィルタを生成することができる。
[第9実施形態]
以下、図面を参照して第9実施形態の一例を詳細に説明する。第1〜第8実施形態と同様の構成及び作用については、説明を省略する。
第9実施形態では、第8実施形態において、検出フィルタを抽出する前に、フィルタ生成画像のサイズを低減する。例えば、図30に例示するように、画像IM13において、例えば、エッジ検出により輪郭を抽出し、対象物領域TA12を含む手の輪郭OI01を残し、輪郭OI01の外側の画像を切り取ることで、画像IM13の画像サイズを低減して画像IM14を生成する。画像IM14を画像IM13の代わりにフィルタ生成画像として使用して、合成フィルタに含ませる検出フィルタを抽出する。
第9実施形態では、図31に例示するように、CPU51は、ステップ156でフィルタ生成画像から輪郭を抽出し、対象物領域を含む輪郭の外側を切り取ることで、サイズを低減した輪郭画像を生成する。ステップ157〜ステップ159は、図29のステップ151〜ステップ153に各々対応する。
CPU51は、ステップ157で、検出フィルタデータベース19Aに含まれる全ての検出フィルタに輪郭画像を入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bに格納する。CPU51は、ステップ158で、ユーザが選択した対象物領域を輪郭画像から消去して、対象物消去画像を生成する。CPU51は、ステップ159で、対象物消去画像を、抽出フィルタデータベース19Bに格納されている全ての検出フィルタに入力し、「検出」を出力した検出フィルタを抽出フィルタデータベース19Bから削除する。即ち、「検出」を出力しない検出フィルタを抽出フィルタデータベース19Bに残す。
本実施形態は、第1〜第8実施形態に適用することができる。本実施形態では、第1画像データに含まれる輪郭の外側部分を削除する。本実施形態では、合成フィルタを生成するために使用する検出フィルタを抽出するために検出フィルタに入力する画像データのサイズを低減することで、計算処理量を抑制することができる。
[第10実施形態]
[第10実施形態]
以下、図面を参照して第10実施形態の一例を詳細に説明する。第1〜第9実施形態と同様の構成及び作用については、説明を省略する。
第10実施形態では、対象物領域が所定面積より広い場合、まず、全ての検出フィルタに対象物領域を消去した対象物消去画像を入力して「検出」を出力しない検出フィルタを抽出する。次に、抽出した検出フィルタに検出対象物領域が消去されていない元のフィルタ生成画像を入力して「検出」を出力しない検出フィルタを除去する。
第10実施形態では、図32に例示するように、ステップ161で、対象物領域の面積が所定面積より広いか否か判定する。ステップ161の判定が肯定された場合、即ち、対象物領域の面積が所定面積より広い場合、CPU51は、ステップ162で、フィルタ生成画像から対象物を消去して対象物消去画像を生成する。CPU51は、ステップ163で、対象物消去画像を検出フィルタデータベース19Aの全ての検出フィルタに入力し、「検出」を出力しない検出フィルタを抽出フィルタデータベース19Bに格納する。
CPU51は、ステップ164で、フィルタ生成画像を抽出フィルタデータベース19Bの全ての検出フィルタに入力し、「検出」を出力しない検出フィルタを抽出フィルタデータベース19Bから削除する。即ち、「検出」を出力する検出フィルタを抽出フィルタデータベース19Bに残す。
ステップ161の判定が否定された場合、即ち、対象物領域が所定面積以下である場合、CPU51は、ステップ151〜153の処理を実行する。ステップ151〜153の処理は、図29と同様であるため、説明を省略する。
図33Aの例では、対象物が消去されていないフィルタ生成画像を検出フィルタに入力した場合、検出フィルタの内、70%の検出フィルタが「検出」を出力する。したがって、ステップ151〜153の順で処理を行う場合、ステップ153の処理で、70%の検出フィルタを使用する。
一方、図33Bの例では、対象物が消去された対象物消去画像を検出フィルタに入力した場合、検出フィルタの内、40%の検出フィルタが「検出」を出力しない。したがって、ステップ162〜164の順で処理を行う場合、ステップ164の処理で、40%の検出フィルタを使用する。即ち、処理する検出フィルタが30%少なくなる。対象物領域が大きくなるほど消去される面積が大きくなるため、「検出」を出力しない検出フィルタの割合は大きくなる。
本実施形態では、対象物領域の面積が所定面積よりも広い場合、ユーザによって選択される対象物領域が第1画像データから消去された消去画像データから特徴を検出しないフィルタのそれぞれが、前記第1画像データから特徴を検出するか否か判定する。
本実施形態は、第1〜第9実施形態に適用することができる。本実施形態によれば、処理対象となる検出フィルタの数を低減することで、計算処理量を低減することができる。
[第11実施形態]
以下、図面を参照して第11実施形態の一例を詳細に説明する。第1〜第10実施形態と同様の構成及び作用については、説明を省略する。
以下、図面を参照して第11実施形態の一例を詳細に説明する。第1〜第10実施形態と同様の構成及び作用については、説明を省略する。
第11実施形態では、抽出された検出フィルタの数に基づいて、検出物対象領域の面積を拡大または縮小する。
図34Aの例では、抽出された検出フィルタの数が所定数より多い場合に、対象物領域TA15を対象物領域TA16に縮小する。図34Bの例では、抽出された検出フィルタの数が所定数より少ない場合に、検出対象物領域TA17を対象物領域TA18に拡大する。
第11実施形態の検出フィルタを抽出する処理の流れを図35に例示する。ステップ151〜ステップ153は、図29と同様であるため、説明を省略する。
CPU51は、ステップ171で、抽出フィルタデータベース19Bに格納されている検出フィルタの数が第1所定数より多いか否か判定する。ステップ171の判定が肯定された場合、ステップ172で、抽出フィルタデータベース19Bを空にし、対象物領域を縮小し、ステップ152に戻る。
CPU51は、ステップ171の判定が否定された場合、ステップ173で、格納フィルタデータベース19Bに格納されている検出フィルタの数が、第1所定数より小さい第2所定数より少ないか否か判定する。CPU51は、ステップ173の判定が肯定された場合、抽出フィルタデータベース19Bを空にし、対象物領域を拡大し、ステップ152に戻る。CPU51は、ステップ173の判定が否定された場合、検出フィルタを抽出する処理を終了する。
本実施形態は、第1〜第10実施形態に適用することができる。本実施形態では、抽出される検出フィルタの数が多過ぎる、または、少な過ぎる場合に、適切な検出フィルタ数に調整することができる。
本実施形態では、第1画像データから特徴を検出したフィルタの数が所定数より多い場合、対象物領域を縮小し、第1画像データから特徴を検出したフィルタの数が所定数より少ない場合、対象物領域を拡大する。本実施形態では、合成フィルタの生成に使用する検出フィルタの数を調整することで、対象物を適切に検出する合成フィルタを生成することができる。
第1〜第11実施形態は、適宜組み合わせて適用することができる。図8〜12、14、16、18、20、22〜24、29、31、32、35のフローチャートは例示であり、処理の順序は適宜入れ替えることができる。
以上の各実施形態に関し、更に以下の付記を開示する。
(付記1)
コンピュータが、
第1の対象物を含む第1画像データの入力を受け付け、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出し、
前記複数のフィルタそれぞれが検出した前記第1の対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成する、
画像処理方法。
(付記2)
前記記憶部に記憶された前記複数のフィルタのそれぞれが、前記第1画像データから前記複数のフィルタのそれぞれが検出する対象物を検出し、ユーザによって選択される対象物を含む対象物領域が前記第1画像データから消去された消去画像データから対象物を検出しない場合に、前記複数のフィルタのそれぞれは、前記第1画像データから対象物を検出すると判定される、
付記1の画像処理方法。
(付記3)
第2画像データの入力を受け付け、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する、
画像処理方法。
(付記4)
予め対応付けて記憶された前記複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を回転して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記3の画像処理方法。
(付記5)
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を拡大または縮小して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記3または付記4の画像処理方法。
(付記6)
第1の対象物を含む第1画像データの入力を受け付け、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出し、
前記複数のフィルタそれぞれが検出した前記第1の対象物の前記部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成する、
処理をコンピュータに実行させる画像処理プログラム。
(付記7)
前記記憶部に記憶された前記複数のフィルタのそれぞれが、前記第1画像データから前記複数のフィルタのそれぞれが検出する対象物を検出し、ユーザによって選択される対象物を含む対象物領域が前記第1画像データから消去された消去画像データから対象物を検出しない場合に、前記複数のフィルタのそれぞれは、前記第1画像データから対象物を検出すると判定される、
付記6の画像処理プログラム。
(付記8)
第2画像データの入力を受け付け、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記9)
予め対応付けて記憶された前記複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を回転して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記8の画像処理プログラム。
(付記10)
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を拡大または縮小して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記8または付記9の画像処理プログラム。
(付記11)
第1の対象物を含む第1画像データの入力を受け付ける入力部と、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出する第1検出部と、
前記複数のフィルタそれぞれが検出した前記第1の対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成するフィルタ生成部と、
を含む画像処理装置。
(付記12)
前記記憶部に記憶された前記複数のフィルタのそれぞれが、前記第1画像データから前記複数のフィルタのそれぞれが検出する対象物を検出し、ユーザによって選択される対象物を含む対象物領域が前記第1画像データから消去された消去画像データから対象物を検出しない場合に、前記複数のフィルタのそれぞれは、前記第1画像データから対象物を検出すると判定される、
付記11の画像処理装置。
(付記13)
第2画像データの入力を受け付ける入力部と、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する第2検出部、
を含む画像処理装置。
(付記14)
予め対応付けて記憶された前記複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を回転して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記13の画像処理装置。
(付記15)
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を拡大または縮小して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記13または付記14の画像処理装置。
コンピュータが、
第1の対象物を含む第1画像データの入力を受け付け、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出し、
前記複数のフィルタそれぞれが検出した前記第1の対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成する、
画像処理方法。
(付記2)
前記記憶部に記憶された前記複数のフィルタのそれぞれが、前記第1画像データから前記複数のフィルタのそれぞれが検出する対象物を検出し、ユーザによって選択される対象物を含む対象物領域が前記第1画像データから消去された消去画像データから対象物を検出しない場合に、前記複数のフィルタのそれぞれは、前記第1画像データから対象物を検出すると判定される、
付記1の画像処理方法。
(付記3)
第2画像データの入力を受け付け、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する、
画像処理方法。
(付記4)
予め対応付けて記憶された前記複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を回転して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記3の画像処理方法。
(付記5)
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を拡大または縮小して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記3または付記4の画像処理方法。
(付記6)
第1の対象物を含む第1画像データの入力を受け付け、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出し、
前記複数のフィルタそれぞれが検出した前記第1の対象物の前記部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成する、
処理をコンピュータに実行させる画像処理プログラム。
(付記7)
前記記憶部に記憶された前記複数のフィルタのそれぞれが、前記第1画像データから前記複数のフィルタのそれぞれが検出する対象物を検出し、ユーザによって選択される対象物を含む対象物領域が前記第1画像データから消去された消去画像データから対象物を検出しない場合に、前記複数のフィルタのそれぞれは、前記第1画像データから対象物を検出すると判定される、
付記6の画像処理プログラム。
(付記8)
第2画像データの入力を受け付け、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する、
処理をコンピュータに実行させる画像処理プログラム。
(付記9)
予め対応付けて記憶された前記複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を回転して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記8の画像処理プログラム。
(付記10)
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を拡大または縮小して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記8または付記9の画像処理プログラム。
(付記11)
第1の対象物を含む第1画像データの入力を受け付ける入力部と、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出する第1検出部と、
前記複数のフィルタそれぞれが検出した前記第1の対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成するフィルタ生成部と、
を含む画像処理装置。
(付記12)
前記記憶部に記憶された前記複数のフィルタのそれぞれが、前記第1画像データから前記複数のフィルタのそれぞれが検出する対象物を検出し、ユーザによって選択される対象物を含む対象物領域が前記第1画像データから消去された消去画像データから対象物を検出しない場合に、前記複数のフィルタのそれぞれは、前記第1画像データから対象物を検出すると判定される、
付記11の画像処理装置。
(付記13)
第2画像データの入力を受け付ける入力部と、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する第2検出部、
を含む画像処理装置。
(付記14)
予め対応付けて記憶された前記複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を回転して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記13の画像処理装置。
(付記15)
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を拡大または縮小して一致する場合に、前記第2画像データに対象物が存在すると判定する、
付記13または付記14の画像処理装置。
10 画像処理装置
11 入力部
13 フィルタ抽出部
14 第1検出部
15 配列生成部
16 フィルタ生成部
51 CPU
52 一次記憶部
53 二次記憶部
11 入力部
13 フィルタ抽出部
14 第1検出部
15 配列生成部
16 フィルタ生成部
51 CPU
52 一次記憶部
53 二次記憶部
Claims (9)
- コンピュータが、
第1の対象物を含む第1画像データの入力を受け付け、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出し、
前記複数のフィルタそれぞれが検出した前記第1の対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成する、
画像処理方法。 - 第2画像データの入力を受け付け、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する、
画像処理方法。 - 第1の対象物を含む第1画像データの入力を受け付け、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出し、
前記複数のフィルタそれぞれが検出した前記第1の対象物の前記部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成する、
処理をコンピュータに実行させる画像処理プログラム。 - 前記記憶部に記憶された前記複数のフィルタのそれぞれが、前記第1画像データから前記複数のフィルタのそれぞれが検出する対象物を検出し、ユーザによって選択される対象物を含む対象物領域が前記第1画像データから消去された消去画像データから対象物を検出しない場合に、前記複数のフィルタのそれぞれは、前記第1画像データから対象物を検出すると判定される、
請求項3に記載の画像処理プログラム。 - 第2画像データの入力を受け付け、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、
前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する、
処理をコンピュータに実行させる画像処理プログラム。 - 予め対応付けて記憶された前記複数のフィルタの情報で示される対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を回転して一致する場合に、前記第2画像データに対象物が存在すると判定する、
請求項5に記載の画像処理プログラム。 - 前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第1配列と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報を表す第2配列と、の何れか一方を拡大または縮小して一致する場合に、前記第2画像データに対象物が存在すると判定する、
請求項5または請求項6に記載の画像処理プログラム。 - 第1の対象物を含む第1画像データの入力を受け付ける入力部と、
記憶部に記憶された前記第1の対象物に含まれる異なる特徴をそれぞれ検出するための複数のフィルタに基づいて、前記第1画像データから前記第1の対象物の部分領域をそれぞれ検出する第1検出部と、
前記複数のフィルタそれぞれが検出した前記第1の対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報に基づいて前記第1の対象物を検出する新たな検出フィルタを生成するフィルタ生成部と、
を含む画像処理装置。 - 第2画像データの入力を受け付ける入力部と、
予め対応付けて記憶された複数のフィルタそれぞれに基づいて、前記第2画像データから第2の対象物に含まれる異なる特徴を示す部分領域を検出し、前記複数のフィルタの情報に予め対応付けて記憶された前記複数のフィルタそれぞれに基づいて検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、前記第2画像データから検出された対象物の部分領域それぞれの間の位置関係、及び、前記部分領域それぞれの大きさに関する情報と、が一致する場合に、前記第2画像データに前記第2の対象物が存在すると判定する第2検出部、
を含む画像処理装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020046204A JP2021149253A (ja) | 2020-03-17 | 2020-03-17 | 画像処理方法、画像処理プログラム、及び、画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020046204A JP2021149253A (ja) | 2020-03-17 | 2020-03-17 | 画像処理方法、画像処理プログラム、及び、画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021149253A true JP2021149253A (ja) | 2021-09-27 |
Family
ID=77848795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020046204A Withdrawn JP2021149253A (ja) | 2020-03-17 | 2020-03-17 | 画像処理方法、画像処理プログラム、及び、画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021149253A (ja) |
-
2020
- 2020-03-17 JP JP2020046204A patent/JP2021149253A/ja not_active Withdrawn
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163198B (zh) | 一种表格识别重建方法、装置和存储介质 | |
JP4715267B2 (ja) | 画像における重要度の高い領域を判別する方法、装置及びプログラム | |
JP5035432B2 (ja) | 画像領域の高凝縮要約画像を生成する方法 | |
JP6435740B2 (ja) | データ処理システム、データ処理方法およびデータ処理プログラム | |
JP6768695B2 (ja) | 合成された絵を生成するための方法及び装置 | |
US6654506B1 (en) | Method for automatically creating cropped and zoomed versions of photographic images | |
CN105243395B (zh) | 一种人体图像比对方法和装置 | |
US20180232888A1 (en) | Removal of background information from digital images | |
US20220277502A1 (en) | Apparatus and method for editing data and program | |
JP6061502B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
TW201732733A (zh) | 圖片處理方法和裝置 | |
US10789769B2 (en) | Systems and methods for image style transfer utilizing image mask pre-processing | |
JP6132996B1 (ja) | 画像処理装置,画像処理方法,画像処理プログラム | |
JP2021149253A (ja) | 画像処理方法、画像処理プログラム、及び、画像処理装置 | |
US11037311B2 (en) | Method and apparatus for augmenting data in monitoring video | |
JP2020003879A (ja) | 情報処理装置、情報処理方法、透かし検出装置、透かし検出方法、及びプログラム | |
WO2019080257A1 (zh) | 电子装置、车祸现场全景图像展示方法和存储介质 | |
CN113167568B (zh) | 坐标计算装置、坐标计算方法和计算机可读记录介质 | |
Hashemı | Review of algorithms changing image size | |
JP4334981B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6922690B2 (ja) | 文字領域抽出プログラム、文字領域抽出装置及び文字領域抽出方法 | |
CN116584100A (zh) | 适合于覆盖媒体内容的图像空间检测 | |
JP7529761B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
JP7188478B2 (ja) | 検索装置、検索方法、およびプログラム | |
JP2005217721A (ja) | 静止画像生成装置および生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231025 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20231027 |