JP2006018707A - 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム - Google Patents
被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム Download PDFInfo
- Publication number
- JP2006018707A JP2006018707A JP2004197540A JP2004197540A JP2006018707A JP 2006018707 A JP2006018707 A JP 2006018707A JP 2004197540 A JP2004197540 A JP 2004197540A JP 2004197540 A JP2004197540 A JP 2004197540A JP 2006018707 A JP2006018707 A JP 2006018707A
- Authority
- JP
- Japan
- Prior art keywords
- identification
- subject
- discriminator
- image
- setting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【課題】 自由に撮影した画像中から、任意の範囲の変動をもつ所望の被写体を、極めて少ない検出漏れや誤検出で検出することができる。
【解決手段】 被写体識別装置10は、画像入力部11と統合識別器12から構成され、統合識別器12は、複数の識別器1〜Nと識別結果統合部13とを有し、統合識別器12は、被写体識別器設定装置20からの出力によって設定される。被写体識別器設定装置20は、画像データ蓄積部21、識別器仕様情報入力部22、識別器仕様テーブル23及び統合識別器設定部20から構成される。画像データ蓄積部21は、検出したい被写体の画像を蓄積し、識別器仕様情報入力部22は、識別器仕様情報を入力し、その情報に基づき、識別器仕様テーブル23を書き換え、統合識別器設定部24は、識別器仕様テーブル23に基づき、目的の被写体を識別する統合識別器12を設定する。
【選択図】 図1
【解決手段】 被写体識別装置10は、画像入力部11と統合識別器12から構成され、統合識別器12は、複数の識別器1〜Nと識別結果統合部13とを有し、統合識別器12は、被写体識別器設定装置20からの出力によって設定される。被写体識別器設定装置20は、画像データ蓄積部21、識別器仕様情報入力部22、識別器仕様テーブル23及び統合識別器設定部20から構成される。画像データ蓄積部21は、検出したい被写体の画像を蓄積し、識別器仕様情報入力部22は、識別器仕様情報を入力し、その情報に基づき、識別器仕様テーブル23を書き換え、統合識別器設定部24は、識別器仕様テーブル23に基づき、目的の被写体を識別する統合識別器12を設定する。
【選択図】 図1
Description
本発明は、画像に含まれる被写体を、精度よく識別するための被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラムに関するものである。
カメラ付き携帯電話やデジタルカメラの普及により、個人の扱う画像数は大きい。こうした画像中から目的とする被写体が写っている画像とそれ以外の画像に分類を行ったり、被写体の数による分類、検索を行うためには、画像中から目的の被写体のみを正確に検出する必要がある。
画像中から被写体を検出する画像処理の技術は、従来より研究されている。例えば、被写体の形状によるテンプレートを作成し、あるいは、被写体の形状を既定の形状に近似し、類似する形状をもつ被写体を検出する方法が知られている(例えば、特許文献1参照。)。
しかし、撮影環境が規定通りの条件下に設定されていない場合や、撮影角度により見え方の異なる被写体の場合、検出は困難である。
また、被写体の部位を検出する手法も提案されている。例えば、顔領域では、目、鼻、口等の顔部位を見つけることで顔領域を検出する方法がある(例えば、特許文献2参照。)。
さらに、顔と顔でないもの(以下、非顔と記述)を学習して顔を判別する方法(例えば、特許文献3参照。)が研究されており、予め検出したい被写体の向きごとに何らかの特徴を既定し、向きごとのデータを用意し、検出したい角度ごとに識別器を構成することによって、対応する手法が提案されている。
特開2001−052176号公報
特開平09−073544号公報
特開2003−044853号公報
しかし、単一の識別器によって有限の範囲の角度変動をもつ被写体を検出しようとすると、検出漏れや誤検出が発生し易くなるという問題があった。
本発明の目的は、ユーザが被写体の有無、被写体の数、撮影環境、撮像機器等によらず、自由に撮影した画像中から、任意の範囲の変動をもつ所望の被写体を、極めて少ない検出漏れや誤検出で検出することができる被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラムを提供することにある。
上記の課題を達成するために、本発明は、画像中から所定の被写体を識別する被写体識別装置において、識別対象となる画像を入力する画像入力手段と、入力された前記画像の中から所定の被写体を識別する複数の識別手段と、前記複数の識別手段の識別結果を統合する識別結果統合手段とを有することを特徴とする。
また、本発明は、前記複数の識別手段が、それぞれが前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手段であり、それぞれが前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手段毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されていることを特徴とする。
また、本発明は、前記複数の識別手段が、それぞれが前記所定の被写体の画像であって、前記識別手段毎に互いに撮影角度が異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されていることを特徴とする。
また、本発明は、前記複数の識別手段が、それぞれが前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手段毎に互いに画像サイズが異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されていることを特徴とする。
また、本発明は、画像中から所定の被写体を識別する被写体識別方法において、識別対象となる画像を入力する画像入力手順と、入力された前記画像の中から所定の被写体を識別する複数の識別手順と、前記複数の識別手順の識別結果を統合する識別結果統合手順とを有することを特徴とする。
また、本発明は、前記複数の識別手順が、それぞれが前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手順であり、それぞれが前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手順毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されていることを特徴とする。
また、本発明は、前記複数の識別手順が、それぞれが前記所定の被写体の画像であって、前記識別手順毎に互いに撮影角度が異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されていることを特徴とする。
また、本発明は、前記複数の識別手順が、それぞれが前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手順毎に互いに画像サイズが異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されていることを特徴とする。
また、本発明は、被写体識別方法における手順を、コンピュータに実行させるためのプログラムとしたことを特徴とする。
また、本発明は、識別対象となる画像を入力する画像入力手段と、入力された前記画像の中から所定の被写体を識別する複数の識別手段と、前記複数の識別手段の識別結果を統合する識別結果統合手段とを有する画像中から所定の被写体を識別する被写体識別装置における、前記複数の識別手段と前記識別結果統合手段とを設定する被写体識別器設定装置であって、前記所定の被写体を含む複数の画像を蓄積する画像データ蓄積手段と、前記複数の識別手段および前記識別結果統合手段を設定するための識別器仕様情報を入力する識別器仕様情報入力手段と、入力された前記識別器仕様情報を記憶する識別器仕様テーブルと、前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手段に蓄積された画像に基づき前記複数の識別手段と前記識別結果統合手段とを設定する統合識別器設定手段とを有することを特徴とする。
また、本発明は、前記識別器仕様テーブルは、前記複数の識別手段の利用個数を示す識別器利用個数と、利用する前記複数の識別手段のそれぞれの種類を表す識別器種別と、利用する前記複数の識別手段のそれぞれを構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手段において用いられる、利用する前記複数の識別手段を統合する関数の情報である識別結果統合関数情報とを記憶することを特徴とする。
また、本発明は、前記識別器種別に基づき前記複数の識別手段のそれぞれに対して設定される当該識別手段が実行すべき処理手順の情報を記憶する識別器設定情報記憶手段をさらに有することを特徴とする。
また、本発明は、前記複数の識別手段が、それぞれが前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手段であり、前記識別器設定変数情報は、前記複数の識別手段のそれぞれに対応する、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手段毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データに関する情報であり、前記統合識別器設定手段は、前記識別器設定変数情報に対応する学習データを前記画像データ蓄積手段から読出し、当該識別手段に学習させることを特徴とする。
また、本発明は、識別対象となる画像を入力する画像入力手順と、入力された前記画像の中から所定の被写体を識別する複数の識別手順と、前記複数の識別手順の識別結果を統合する識別結果統合手順とを有する画像中から所定の被写体を識別する被写体識別方法における、前記複数の識別手順と前記識別結果統合手順とを設定する被写体識別器設定方法であって、前記所定の被写体を含む複数の画像を蓄積する画像データ蓄積手順と、前記複数の識別手順および前記識別結果統合手順を設定するための識別器仕様情報を入力する識別器仕様情報入力手順と、入力された前記識別器仕様情報を記憶する識別器仕様テーブルと、前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手順に蓄積された画像に基づき前記複数の識別手順と前記識別結果統合手順とを設定する統合識別器設定手順とを有することを特徴とする。
また、本発明は、前記識別器仕様テーブルは、前記複数の識別手順の利用個数を示す識別器利用個数と、利用する前記複数の識別手順のそれぞれの種類を表す識別器種別と、利用する前記複数の識別手順のそれぞれを構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手順において用いられる、利用する前記複数の識別手順を統合する関数の情報である識別結果統合関数情報とを記憶することを特徴とする。
また、本発明は、前記識別器種別に基づき前記複数の識別手順のそれぞれに対して設定される当該識別手順が実行すべき処理手順の情報を記憶する識別器設定情報記憶手順をさらに有することを特徴とする。
また、本発明は、前記複数の識別手順が、それぞれが前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手順であり、前記識別器設定変数情報は、前記複数の識別手順のそれぞれに対応する、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手順毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データに関する情報であり、
前記統合識別器設定手順は、前記識別器設定変数情報に対応する学習データを前記画像データ蓄積手順から読出し、当該識別手順に学習させることを特徴とする。
前記統合識別器設定手順は、前記識別器設定変数情報に対応する学習データを前記画像データ蓄積手順から読出し、当該識別手順に学習させることを特徴とする。
また、本発明は、被写体識別器設定方法における手順を、コンピュータに実行させるためのプログラムとしたことを特徴とする。
以上説明したように、本発明によれば、ユーザが被写体の有無、被写体の数、撮影環境、撮像機器等によらず、自由に撮影した画像中から、任意の範囲の変動をもつ所望の被写体を、極めて少ない検出漏れや誤検出で検出することができる。
以下本発明の実施の形態を図面に基づいて説明する。図1は、本発明の実施の形態を示す被写体識別装置10、および被写体識別器設定装置20の概略構成を示す構成説明図である。
被写体識別装置10は、画像入力部(画像入力手段)11と統合識別器12から構成され、統合識別器12は、複数の識別器(識別手段)1,2…Nと識別結果統合部(識別結果統合手段)13とから構成される。統合識別器12における複数の識別器1,2…Nと識別結果統合部13は、被写体識別器設定装置20からの出力によって設定される。
画像入力部11が、識別対象となる画像の入力を受け、被写体識別器設定装置20の出力によって設定された統合識別器12は、画像入力部11が入力した画像の中から目的の被写体を識別器1,2…Nで識別し、その識別結果を、識別結果統合部13で統合して被写体検出結果を出力する。
被写体識別器設定装置20は、画像データ蓄積部(画像データ蓄積手段)21、識別器仕様情報入力部(識別器仕様情報入力手段)22、識別器仕様テーブル23、および統合識別器設定部(統合識別器設定手段)20から構成される。
画像データ蓄積部21は、検出したい被写体の画像を蓄積する。識別器仕様情報入力部22は、被写体識別装置10における複数の識別器1,2…Nおよび識別結果統合部13を設定するための情報である識別器仕様情報を入力し、入力された識別器仕様情報に基づき、識別器仕様テーブル23を書き換える。統合識別器設定部24は、識別器仕様テーブル23に基づき、目的の被写体を識別する統合識別器12を設定する。
識別器仕様テーブル23には、被写体を識別する複数の識別器1,2…Nを組み合わせて、統合した統合識別器12を設定するために必要な情報を記憶する。
識別器仕様テーブル23の例を詳しく説明するために、以下に具体的な例を述べる。
識別器仕様テーブル23には、統合識別器設定部24で組み合わせる個々の識別器1,2…Nの種類を示す識別器種別と、組み合わせる識別器1,2…Nの利用個数を示す識別器利用個数と、識別器1,2…Nを構成する変数を示す識別器構成変数情報と、識別器1,2…Nを統合する関数を示す識別結果統合関数情報とが記憶されている。
識別器種別は、具体的には、テンプレートマッチングや学習判別法等の、識別器1,2…Nの種類を示す識別器1,2…Nの種別である。
識別器利用個数は、統合識別器12を構成する際に、組み合わせる識別器1,2…Nの利用個数である。
識別器構成変数情報は、テンプレートマッチングのテンプレートや、学習判別法の学習データセット等の識別器1,2…Nを構成する変数の情報である。
識別結果統合関数情報は、識別器1,2…Nを統合する関数の情報である。
識別結果統合関数情報は、識別器1,2…Nを統合する関数の情報である。
画像データ蓄積部21は、検出したい被写体を含む画像群を蓄積している。
蓄積されている画像群は、順序関係をなすインデクスとなるような状態を表すパラメータで規定される変動について、検出したい被写体の取り得る変動の範囲を連続的にカバーした複数の画像を含んでいるものとする。
蓄積されている画像群は、順序関係をなすインデクスとなるような状態を表すパラメータで規定される変動について、検出したい被写体の取り得る変動の範囲を連続的にカバーした複数の画像を含んでいるものとする。
このパラメータは、具体的には、撮影された角度や画像中での大きさといったものであるとし、例えば、回転変動に対しては、検出したい被写体の一定の回転角度毎の画像を、取り得る回転変動の範囲をカバーできる枚数だけ蓄積してあるものとする。
識別器仕様情報は、入力された画像中から、目的とする被写体をどのように検出するかを示す情報であり、具体的には、識別器種別、識別器利用個数、識別器構成変数情報、識別結果統合関数情報等である。これらの識別器仕様情報に基づき、予め、識別器仕様テーブル23を作成しておく。なお、こうした識別器仕様情報は、予め初期値を設定しておき、目的に応じて変更するものとしてもよい。
統合識別器設定部24では、作成された識別器仕様テーブル23を元に識別器1,2…Nを設定し、統合して、目的とする被写体を検出する統合識別器12を設定する。識別器1,2…Nは、識別器仕様テーブル23の識別器種別に従い、同じく識別器仕様テーブル23の識別器構成変数情報から設定する。また、識別器1,2…Nをその利用個数、識別結果統合関数情報に従って組み合わせ、統合識別器12とする。
図2は、被写体識別装置10、および被写体識別器設定装置20における処理の流れを示す流れ線図であり、各処理ステップに相当する処理の動作の主体及び対象は、図1に示すブロック構成説明図に相当する処理手段、設定手段、蓄積手段、テーブルである。図2における各ステップの具体的な処理の流れは、以下の通りである。
ステップ1:識別対象となる画像を入力する、
ステップ2:入力された識別器仕様情報に基づき、識別器仕様テーブル23を作成する、
ステップ3:統合識別器設定部24が、識別器仕様テーブル23の設定値と画像データ蓄積部21の画像データに基づき、識別器を設定する、
ステップ4:統合識別器設定部24が、識別器仕様テーブル23の設定値に基づき、識別結果統合部13を設定する、
ステップ5:各識別器1,2…Nが、入力された画像の中から被写体を識別する、
ステップ6:識別結果統合部13が、各識別器1,2…Nの識別結果を統合する、
ステップ7:各識別器1,2…N、および識別結果統合部13の再調整を行う場合はステップ2へ、それ以外は処理を終了する。
ステップ1:識別対象となる画像を入力する、
ステップ2:入力された識別器仕様情報に基づき、識別器仕様テーブル23を作成する、
ステップ3:統合識別器設定部24が、識別器仕様テーブル23の設定値と画像データ蓄積部21の画像データに基づき、識別器を設定する、
ステップ4:統合識別器設定部24が、識別器仕様テーブル23の設定値に基づき、識別結果統合部13を設定する、
ステップ5:各識別器1,2…Nが、入力された画像の中から被写体を識別する、
ステップ6:識別結果統合部13が、各識別器1,2…Nの識別結果を統合する、
ステップ7:各識別器1,2…N、および識別結果統合部13の再調整を行う場合はステップ2へ、それ以外は処理を終了する。
図2の例では、識別結果により識別器仕様テーブル23の再調整を行う場合を想定しているが(ステップ7)、識別器仕様テーブル23の再調整を行わない場合には、ステップ1とステップ2〜4とを入れ替え、識別器1,2…Nおよび統合識別器12の設定を終えた後で、識別対象となる画像を入力するようにしても構わない。
本発明の実施の形態によれば、このように、識別器仕様情報に基づき、所望の識別器1,2…Nと統合識別器12とを設定することにより、検出したい被写体として、「カメラに向かって正面向きの人物のみを検出する」、「ある一定の大きさ以上の被写体領域のみを検出する」、等の検出条件を設定することができる。
図3は、被写体識別器設定装置20の概略構成を示し、図1による被写体識別器設定装置20における識別器仕様テーブル23を元に識別器を設定する構成についてさらに詳しく説明した構成説明図である。
統合識別器設定部24では、この識別器仕様テーブル23を元に統合識別器12を設定する。ここで、識別器種別の情報を元に識別器を設定するための情報は、識別器設定情報記憶部25に記憶されているものとする。例えば、学習識別器で判別関数を設定し、被写体であるか否かを判断する場合、学習識別器により判別関数を設定するための処理手順もしくはプログラムなどの情報は、識別器設定情報記憶部25に記憶されているものとする。
図4は、被写体識別器設定装置20の識別器仕様テーブル23の一例を示す説明図である。
識別器仕様テーブル23には、識別する被写体、識別器利用個数、識別器構成変数情報、識別器種別、識別結果統合関数情報が記憶されているものとする。これらの項目を既定とし、その値を可変なものとする。
識別器利用個数は、最終的な識別器1,2…Nである統合識別器12を設定するために、組み合わせる識別器1,2…Nの個数を示す。
識別器構成変数は、被写体を識別する際に用いる、検出したい被写体のうち、所望の検出条件に適合するものに共通する特徴(以下、共通特徴と記す)を示す。識別器1,2…Nとしてテンプレートマッチングを用いる場合には、被写体テンプレートとなり、学習判別型識別器を用いる場合には、被写体学習データのサイズ、あるいは学習する特徴量となる。
識別器種別は、識別器1,2…Nの種類を示す。具体例としては、テンプレートマッチングによる判別や、サポートベクターマシンによる学習判別手法(以下、SVMと記す)が挙げられる。(サポートベクターマシンについては、文献 "数理化学 No.444, JUNE 2000 赤穂ら" に詳しいので、詳細はこの文献を参照)ここで、指定する識別器1,2…Nは、学習による手法と、マッチングによる手法のように別種の組み合わせであってもよい。
また、識別器1,2…Nは、識別系の認識手法であれば、どのような手法を用いてもよく、これらの識別器1,2…Nを設定する処理手順もしくはプログラム等の情報は、識別器設定情報記憶部25に記憶されているものとする。
識別結果統合関数情報は、複数の識別器1,2…Nをどのように組み合わせるかの方法を示す。例えば、識別器利用個数が2つの場合、この2つの識別器の組み合わせ方を指定する。具体的には、2つの識別器の検出結果の論理積を取り、どちらの識別器からも検出された被写体のみを最終的な識別結果とする等の方法を指定する。
識別器利用個数が3つの場合には、2つの識別器の検出結果の論理和から、別の識別器の検出結果を引き、前の2つの識別器どちらかから検出された結果から、後の1つの識別器で検出された結果を除いた被写体を、最終的な検出結果とする等、3つの識別器の組み合わせ方を指定する。ここで、組み合わせ方は、各識別器からの結果の論理積、論理和、排他的論理和、論理差(否定)、あるいは論理演算以外の関数であってもよい。また、各識別器からの結果をそのまま用いてもよいし、識別器ごとの結果を重み付けして用いてもよい。
なお、識別器利用個数の値をN個とした場合には、識別器構成変数情報、識別器種別もN個となり、識別結果統合関数はN個の識別器を組み合わせる関数となる。
また、初期設定として、識別器種別をSVM、識別器利用個数を1個、識別器構成変数情報を被写体の正面向きのものを検出できる特徴とするテーブルをあらかじめ用意しておき、識別器仕様情報により、テーブルの各項目を書き換えるものとしてもよい。
図5は、画像データ蓄積部21に蓄積される画像群を、被写体を人物の顔とした例で一例を示した説明図である。
画像データ蓄積部21には、蓄積画像群として、人物の画像を蓄積しているものとする。また、識別器種別が被写体とそれ以外の2クラスを学習する学習型判別手法である場合など、被写体以外のデータが必要な場合には、人物以外の風景等の画像を蓄積していてもよい。さらに、ここでは人物を例に説明したが、対象とする被写体は、その姿勢変動による変化が連続的なものであれば、顔に限るものでなくてよい。
図6は、識別器仕様テーブル23の識別器構成変数情報を、被写体を人物の顔とした例で一例を示した説明図である。設定する識別器1,2…Nは、その仕様を識別器仕様テーブル23に記述された仕様を満たすものであるとする。
識別器仕様テーブル23に記憶される識別器構成変数情報は、あらかじめデフォルトで用意されていてもよいし、デフォルトで用意されているものをユーザからの識別器仕様情報入力により修正設定してもよいし、識別器仕様情報入力によりはじめて設定するものであってもよい。
識別器構成変数情報は、あらかじめ設定されているか、ユーザにより設定可能なものとする。例えば、検出したい被写体の各々により変化しない特徴、あるいは変化の少ない特徴を利用してもよい。例えば、被写体が人物である場合には、個人によらない部位特徴(濃淡情報や形状、配置)を利用する。
しかし、被写体によっては、形状は同じでも撮影角度によって、見え方が一定の形状のものと、撮影角度により、大きく見え方が異なるものとがある。
前者の場合、全領域のもつ特徴をそのまま使用できるが、後者の場合には、見え方が連続的に変化する特徴を利用する。検出角度を拡大する際には、こうした連続的に変化する特徴を段階的に使用する。
3次元物体が回転運動をするとき、回転軸が画像平面に平行な場合には、回転により見え方の変化量が少ない領域が存在する。よって、画像そのものを特徴として使用する場合には、画像中の被写体の領域のうち、撮影角度により、輝度値の変動が小さい領域を使用することができる。具体的には、検出対象が顔画像である場合は、左半面の目や口の形の形状は、多少の右回転変動による変動が小さい。また、頬の輝度値を基準としたときの目や口、鼻の輝度値の大きさも変化が少ない。
よって、画像データ蓄積部21の顔画像において、目と口の位置で正規化した顔の左半面領域を切り出して、大きさや輝度分布による正規化を行い、作成したテンプレートは前記特徴となる。したがって、例えば正面向きから右30度までの顔を検出したい場合には、被写人物の目、鼻、口を含む左反面をその特徴としてもよい。
こうした顔領域の大きさは、大きさの正規化の基準となり得る特徴点、例えば、目、眉、鼻、口の端点(以下、大きさを正規化することのできる特徴点と記述)等の存在を調べ、共通する特徴点のみが含まれるように、決定してもよい。
ここで、所望の範囲の変動の全てに対応できる共通特徴が存在しない場合には、当該範囲を複数に分割する。例えば、当該範囲が正面向き(0度)をはさんで、−15度〜30度という場合には、0度で分割し、−15度〜0度、0度〜30度というように分割する。
なお、ここでは、顔の部位の端点を利用した特徴点を例に説明したが、顔の領域輝度の空間周波数により領域を決定するなど、別の共通する特徴を抽出し、利用してもよい。
図7では、統合識別器設定部24で複数の識別器の組み合わせ方を設定する手法について説明する。
検出条件として、正面向き(0度)を含まない範囲の角度の顔を検出したい場合(例:図中「e」)において、「e」が検出可能な共通特徴で構成した1つの識別器のみでは、正面向き(0度)を含む「a」の範囲が検出されてしまう。
これは、図6の方法により共通特徴を抽出した場合、右10度では、例えば、図8における学習データサイズ2、右30度では同じく学習データサイズ3を用いるため、双方の共通特徴は、学習データサイズ1にも含まれるものとなってしまい、学習データサイズ1により検出できる顔も検出されるからである。
そこで、正面向きから回転角度の絶対値が大きい向きの顔までを検出できる識別器(図中「a」)の検出結果から、正面向きから回転角度の絶対値が小さい向きの顔を検出できる識別器(図中「c」)の検出結果を引き算する(論理差、否定を求める)関数を設定する。
このとき、「a」を検出する識別器として、正面向きから右30度までの共通特徴により識別器を構成してもよいし、右10度から右30度までの共通特徴により識別器を構成してもよい。
具体的には、正面向きから右30度までの共通特徴により識別器を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて正面向きの顔から切り出した顔領域の画像(図8の学習データサイズ3に切り出した正面向きの顔に相当)とを学習データセットとして学習させた識別器を構成すればよい。
また、右10度から右30度までの共通特徴により識別器を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて10度右横向きの顔から切り出した顔領域の画像(図8の学習データサイズ3に切り出した10度右横向きの顔に相当)とを学習データセットとして学習させた識別器を構成すればよい。
また、検出条件として、正面向き(0度)を含む範囲の角度の顔を検出したい場合(例:図中「f」)において、全範囲をカバーできる共通特徴が見つからない場合には、正面向きから角度が負の角度の顔を検出できる識別器(図中「c」)の検出結果と、正面向きから正の角度の顔を検出できる識別器(図中「d」)の検出結果を足し算する(論理和を求める)関数を設定する。(例えば、図8の学習データサイズ3の画像と、学習データサイズ3の左右逆向き画像からの共通特徴を得ることはできない。)
このような場合には、「c」を検出する識別器として、正面向きから右10度までの共通特徴により構成した識別器と、「d」を検出する識別器として、正面向きから左15度までの共通特徴により構成した識別器の2つの識別器から検出された領域全てを顔とする統合識別器12を設定すればよい。
このような場合には、「c」を検出する識別器として、正面向きから右10度までの共通特徴により構成した識別器と、「d」を検出する識別器として、正面向きから左15度までの共通特徴により構成した識別器の2つの識別器から検出された領域全てを顔とする統合識別器12を設定すればよい。
さらに、横向きの変動のみならず、縦向の変動に対応させるためには、同様に複数の識別器を組み合わせ、最終的には、横向きと縦向きの変動を含む顔を検出できる統合識別器12を設定することができる。
図9は、本発明による被写体識別器設定装置20の統合識別器設定部24における識別器の設定の例を示す説明図である。
顔画像を検出したい場合、例えば、学習により顔と非顔を分離する識別面を生成することにより、判別を行う識別器を設定するために、識別面を生成する方法としてサポートベクターマシーンによる手法を用いることを一例に説明する。
学習データとして、識別器仕様テーブル23により決定された特徴をもつ顔画像あるいはその画像情報を学習顔データとし、それ以外の領域から学習非顔データを作成することによって識別面を生成するとし、顔と判別する特徴量の閾値として、0以上の正の値を定義し、特徴量がこの閾値以上であれば顔と判定し、閾値未満であれば非顔と判定する。この閾値を大きくすると顔の検出率は下がる(再現率の低下)が、誤検出は減る(適合率の向上)。逆に小さくすれば、再現率が向上し、適合率は低下する。よって、この閾値は、既定値としてもよいし、装置の使用目的により可変としてユーザが調整できるようにしても良い。
また、ここで用いる学習データは、画像データ蓄積部21に予め蓄積されている画像を用いる。この画像データは後で追加できるようなものであってもよい。このとき、画像データ蓄積部21に蓄積された画像データから顔検出を行い、検出された領域の正誤を判断した上で、それぞれの領域を再学習データとして使用し、より検出精度の高い識別器を構成する手段を複数回講じてもよい。
また、学習には画像そのものを用いても良いし、画像から得られる特徴量を利用してもよい。例えば、学習データとして、学習画像の輝度値を平均0、分散1になるように正規化した後、その正規化した輝度値をベクトル化したものを用いても良いし、学習画像の顔データと非顔データの集合に対して主成分分析を行い、固有値と固有ベクトルとを求めた後に、固有値の大きい方からその固有値に対応する固有ベクトルを複数選択し、その選択された固有値に対応する固有ベクトルを特徴として学習データとしてもよい。
また、ここではSVMを用いた識別における説明を行ったが、識別器については、別の学習型の識別器を用いてもよいし、テンプレートマッチング等、別の識別手段を用いてもよい。テンプレートマッチングの場合には、学習データセットの代わりに、顔のテンプレートを1枚以上作成する。また、顔以外のテンプレートは作成しない。
図10は、被写体識別器設定装置20の統合識別器設定部24において、SVMを例として識別器を設定する時の学習の流れを示す流れ線図である。具体的なステップは以下の通りである。
ステップ1:画像データ蓄積部21に蓄積された顔と非顔の画像を学習データとした学習により識別器を構成し、
ステップ2:再学習により識別精度を向上させる場合はステップ3へ、それ以外は終了し、
ステップ3:ステップ1で構成した識別器により、画像データ蓄積部21に蓄積された画像から顔領域を検出し、
ステップ4:ステップ3で検出された領域を顔と非顔とに正しく分類し、分類された画像を学習データとし、ステップ1へ戻る。
ステップ2:再学習により識別精度を向上させる場合はステップ3へ、それ以外は終了し、
ステップ3:ステップ1で構成した識別器により、画像データ蓄積部21に蓄積された画像から顔領域を検出し、
ステップ4:ステップ3で検出された領域を顔と非顔とに正しく分類し、分類された画像を学習データとし、ステップ1へ戻る。
ここで、再学習を行う回数は規定していても良いし、可変としてもよい。また、再学習に使う画像は、予め画像データ蓄積部21にある画像を学習用と再学習用に分けておき、学習用とは異なる画像を使用するようにしてもよいし、同一の画像を複数回利用してもよい。
図11は、被写体識別器設定装置20の統合識別器設定部24における統合識別器12の設定処理の流れを示す流れ線図である。具体的なステップは以下の通りである。
ステップ1:識別器で検出された領域の、他の識別器における判別関数の値を算出する、
ステップ2:各識別器の判別関数の値の、最終的な判別値に対する寄与率に基づき、識別結果統合関数の値を求める、
ステップ3:識別結果統合関数の値が所定の閾値以上であればステップ4へ、閾値未満であればステップ5へ、
ステップ4:当該検出領域は顔であると判定し、検出結果とする、
ステップ5:当該検出領域は非顔であると判定し、検出結果とする。
ステップ2:各識別器の判別関数の値の、最終的な判別値に対する寄与率に基づき、識別結果統合関数の値を求める、
ステップ3:識別結果統合関数の値が所定の閾値以上であればステップ4へ、閾値未満であればステップ5へ、
ステップ4:当該検出領域は顔であると判定し、検出結果とする、
ステップ5:当該検出領域は非顔であると判定し、検出結果とする。
ここで、ステップ2で求める識別結果統合関数f(x,y)は、2つの識別器により得られた識別関数の値x、yから最終的な判別値を求める関数であり、例えば、
f(x,y)=ax+by
のように表される。このとき、
f(x,y)≧T1(T1:所定の閾値)
であれば、顔領域と判定する。
f(x,y)=ax+by
のように表される。このとき、
f(x,y)≧T1(T1:所定の閾値)
であれば、顔領域と判定する。
ここで、a、bはx、yの重み付けを決定する係数とし、識別結果統合関数情報としてユーザにより調整できる値であるとする。この重み付けは、各識別器の判別関数の値の、最終的な判別値に対する寄与率であるとする。この値は、入力された識別器仕様情報に基づいて識別結果統合関数情報として自動的に設定してもよいし、初期設定として、あるいはデフォルトで自動設定して後刻ユーザ設定により可変なものとしてもよい。
また、顔領域と判定するための条件としては、
f(x,y)≧T1かつx≧T2、y≧T3(T1、T2、T3:それぞれ所定の閾値)というように、x、yに対する条件を追加してもよい。さらに、識別結果統合関数f(x,y)は、2次以上の関数であってもよい。
f(x,y)≧T1かつx≧T2、y≧T3(T1、T2、T3:それぞれ所定の閾値)というように、x、yに対する条件を追加してもよい。さらに、識別結果統合関数f(x,y)は、2次以上の関数であってもよい。
図12〜図15は、被写体識別器設定装置20において識別器を組み合わせる際に、2つの識別器を用いた場合の組み合わせ方の例を示し、図4の識別結果統合関数をさらに詳しく説明した分布図で、この図12〜図15の分布図は、学習テンプレートサイズが異なる2つの識別器による顔検出の結果である。
学習テンプレートサイズが異なる2つの識別器では、共通特徴の違いのため、再学習の過程において、再学習画像データとして追加される画像データが異なる結果となる。そこで、再学習用画像データとして、顔を含まないデータを用意することにより、再学習における非顔の学習データセットが異なる2つの識別器を構成することができる。
このような学習データセットから構成した2つの識別器では、顔領域はどちらの識別器からも検出されるが、顔領域として誤って検出される非顔領域は識別器ごとに異なるものとなる。このような性質を利用することにより、検出したい顔の角度範囲を制御するだけでなく、以下で説明するように、誤検出を低減させることもできるようになる。
図12において、白色菱形記号は検出したい顔領域を示し、白色菱形記号及び黒色正方形記号は識別器1により検出された誤検出領域、白色菱形記号及び濃灰色三角形記号は識別器2により検出された誤検出領域であるとする。このように検出された領域のうち、できるだけ多くの白色菱形記号を識別結果とできるような検出結果統合処理を行う。
各識別器では、顔として検出する判別関数の最低値(以後閾値)は予め設定しておくものとする。設定の方法としては、例えばテスト画像を用いて作成した顔と非顔のサンプルの分布を調べ、KL展開した主軸に投影させる等の手段により、2種類を分類するために適当な閾値をデフォルトの値として定めておく。例えば、図12中のx軸およびy軸をデフォルトの値としてもよい。ただし、識別結果統合関数情報としてユーザ可変のものとしてもよい。
ここで、使用する識別器を、識別器1、識別器2とし、2つの識別器での判別関数からの値をそれぞれ、x、yとする。このとき、識別器1で検出された領域と識別器2で検出された領域において、ある一定の条件を満たした領域のみを検出領域として出力する。例えば、論理積をとり、図13に示したように、yの閾値1以上、かつxの閾値2以上である領域のみを顔としてもよい。
また、図14に示したように、識別器1で検出された領域の分布する主軸(KL展開した主軸:直線1)と識別器2で検出された領域の分布する主軸(KL展開した主軸:直線2)が、それぞれの閾値で直交する直線を定義し、直線3、直線4とした場合、直線3と直線4の線分の組み合わせにより、識別境界(識別結果統合関数f(x,y) )を設定(図14の点線)しても良いし、これらの線分を漸近線とする曲線により識別境界(図14の破線)としてもよい。
さらには、図14で示したような識別境界(識別結果統合関数f(x,y) )を設定し、一定値以上を示した領域を検出領域としてもよい。
以上の処理によって、図15で示したような単一の識別器使用時には検出漏れをしていた顔領域を検出したり、誤検出していた領域を削減したりすることができるようになる。
図16〜図18は、被写体識別器設定装置20における2つの識別器の組み合わせにより、検出を行った場合の結果の一例を示した説明図である。
2つの識別器の組み合わせにより、顔の向きを限定して検出を行う場合の例をSVMによる学習判別型の識別器を用いて示す。
2つの識別器は、識別器構成変数が異なると、遮蔽や顔の向きに対するロバスト性が異なる。学習データに用いる共通特徴としての大きさが大きいと遮蔽に強く、小さいと弱い。また、学習データが大きいと顔の向きに対する許容度が狭く、小さいと広い。
よって、遮蔽の少ない正面向きの顔のみを検出したい場合、正面向きの顔のみ検出できる識別器(図16)と顔が横向き30度まで検出可能な識別器(図17)とを組み合わせ、論理積をとることにより実現できる(図18)。
同様に、遮蔽があっても横向きであっても取りたい場合には、同様の識別器で論理和を取ればよい(図18)。
また、識別器を3つ以上組み合わせることにより、前髪や人物同士の重なり合い等で遮蔽された顔を検出するか否か等、さらに細かい検出条件も設定可能である。
以上では、顔画像を例に実施の形態を説明してきたが、本発明は、これらに限定されるものではない。本発明は、同様の共通特徴を選択することにより、回転その他の変動によって連続的に見え方が変化する対象に対し、適用可能である。
上述した、本発明の装置や方法は、コンピュータのプログラムで構成したり、あるいはフローチャートの処理ステップをコンピュータのプログラムで構成したりして、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータでその処理ステップを実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、フレキシブルディスクや、CD,DVD,MO,ROM、メモリカード、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。
また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。これらの記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。
なお、上記実施の形態で、図10及び図11に示した流れ線図において、図2で示したように、各ステップに相当する処理の動作の主体及び対象は、図1と図3に示した装置のブロックの構成説明図における各ブロックの構成に相当する処理手段、設定手段、蓄積手段及びテーブルを用いるハードウェア資源を利用している。
1〜N…識別器
10…被写体識別装置
11…画像入力部
12…統合識別器
13…識別結果統合部
20…被写体識別器設定装置
21…画像データ蓄積部
22…識別器仕様情報入力部
23…識別器仕様テーブル
24…統合識別器設定部
25…識別器設定情報記憶部
10…被写体識別装置
11…画像入力部
12…統合識別器
13…識別結果統合部
20…被写体識別器設定装置
21…画像データ蓄積部
22…識別器仕様情報入力部
23…識別器仕様テーブル
24…統合識別器設定部
25…識別器設定情報記憶部
Claims (18)
- 画像中から所定の被写体を識別する被写体識別装置において、
識別対象となる画像を入力する画像入力手段と、
入力された前記画像の中から所定の被写体を識別する複数の識別手段と、
前記複数の識別手段の識別結果を統合する識別結果統合手段と
を有することを特徴とする被写体識別装置。 - 前記複数の識別手段は、
それぞれが、前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手段であり、
それぞれが、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手段毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されている
ことを特徴とする請求項1に記載の被写体識別装置。 - 前記複数の識別手段は、それぞれが、
前記所定の被写体の画像であって、前記識別手段毎に互いに撮影角度が異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されている
ことを特徴とする請求項2に記載の被写体識別装置。 - 前記複数の識別手段は、
それぞれが、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手段毎に互いに画像サイズが異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されている
ことを特徴とする請求項2または3に記載の被写体識別装置。 - 画像中から所定の被写体を識別する被写体識別方法において、
識別対象となる画像を入力する画像入力手順と、
入力された前記画像の中から所定の被写体を識別する複数の識別手順と、
前記複数の識別手順の識別結果を統合する識別結果統合手順と
を有することを特徴とする被写体識別方法。 - 前記複数の識別手順は、
それぞれが、前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手順であり、
それぞれが、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手順毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されている
ことを特徴とする請求項5に記載の被写体識別方法。 - 前記複数の識別手順は、
それぞれが、前記所定の被写体の画像であって、前記識別手順毎に互いに撮影角度が異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されている
ことを特徴とする請求項6に記載の被写体識別方法。 - 前記複数の識別手順は、
それぞれが、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手順毎に互いに画像サイズが異なる画像を含む、1つ以上の画像に基づく学習データを学習することにより構成されている
ことを特徴とする請求項6または7に記載の被写体識別方法。 - 請求項5ないし8のいずれかに記載の被写体識別方法における手順を、コンピュータに実行させるためのプログラムとした
ことを特徴とする被写体識別プログラム。 - 識別対象となる画像を入力する画像入力手段と、
入力された前記画像の中から所定の被写体を識別する複数の識別手段と、
前記複数の識別手段の識別結果を統合する識別結果統合手段とを有する画像中から所定の被写体を識別する被写体識別装置における、
前記複数の識別手段と前記識別結果統合手段とを設定する被写体識別器設定装置であって、
前記所定の被写体を含む複数の画像を蓄積する画像データ蓄積手段と、
前記複数の識別手段および前記識別結果統合手段を設定するための識別器仕様情報を入力する識別器仕様情報入力手段と、
入力された前記識別器仕様情報を記憶する識別器仕様テーブルと、
前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手段に蓄積された画像に基づき前記複数の識別手段と前記識別結果統合手段とを設定する統合識別器設定手段と
を有することを特徴とする被写体識別器設定装置。 - 前記識別器仕様テーブルは、
前記複数の識別手段の利用個数を示す識別器利用個数と、
利用する前記複数の識別手段のそれぞれの種類を表す識別器種別と、
利用する前記複数の識別手段のそれぞれを構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手段において用いられる、利用する前記複数の識別手段を統合する関数の情報である識別結果統合関数情報と
を記憶することを特徴とする請求項10に記載の被写体識別器設定装置。 - 前記識別器種別に基づき前記複数の識別手段のそれぞれに対して設定される当該識別手段が実行すべき処理手順の情報を記憶する識別器設定情報記憶手段
をさらに有することを特徴とする請求項11に記載の被写体識別器設定装置。 - 前記複数の識別手段は、
それぞれが、前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手段であり、
前記識別器設定変数情報は、
前記複数の識別手段のそれぞれに対応する、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手段毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データに関する情報であり、
前記統合識別器設定手段は、
前記識別器設定変数情報に対応する学習データを前記画像データ蓄積手段から読出し、当該識別手段に学習させる
ことを特徴とする請求項10ないし12のいずれかに記載の被写体識別器設定装置。 - 識別対象となる画像を入力する画像入力手順と、
入力された前記画像の中から所定の被写体を識別する複数の識別手順と、
前記複数の識別手順の識別結果を統合する識別結果統合手順とを有する画像中から所定の被写体を識別する被写体識別方法における、
前記複数の識別手順と前記識別結果統合手順とを設定する被写体識別器設定方法であって、
前記所定の被写体を含む複数の画像を蓄積する画像データ蓄積手順と、
前記複数の識別手順および前記識別結果統合手順を設定するための識別器仕様情報を入力する識別器仕様情報入力手順と、
入力された前記識別器仕様情報を記憶する識別器仕様テーブルと、
前記識別器仕様テーブルに記憶された識別器仕様情報と前記画像データ蓄積手順に蓄積された画像に基づき前記複数の識別手順と前記識別結果統合手順とを設定する統合識別器設定手順と
を有することを特徴とする被写体識別器設定方法。 - 前記識別器仕様テーブルは、
前記複数の識別手順の利用個数を示す識別器利用個数と、
利用する前記複数の識別手順のそれぞれの種類を表す識別器種別と、
利用する前記複数の識別手順のそれぞれを構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手順において用いられる、利用する前記複数の識別手順を統合する関数の情報である識別結果統合関数情報と
を記憶することを特徴とする請求項14に記載の被写体識別器設定方法。 - 前記識別器種別に基づき前記複数の識別手順のそれぞれに対して設定される当該識別手順が実行すべき処理手順の情報を記憶する識別器設定情報記憶手順
をさらに有することを特徴とする請求項15に記載の被写体識別器設定方法。 - 前記複数の識別手順は、
それぞれが、前記所定の被写体の画像、もしくは前記所定の被写体の画像と該被写体以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別手順であり、
前記識別器設定変数情報は、
前記複数の識別手順のそれぞれに対応する、前記所定の被写体の画像、もしくは該被写体以外の画像であって、前記識別手順毎に互いに異なる画像を含む、1つ以上の画像に基づく学習データに関する情報であり、
前記統合識別器設定手順は、
前記識別器設定変数情報に対応する学習データを前記画像データ蓄積手順から読出し、当該識別手順に学習させる
ことを特徴とする請求項14ないし16のいずれかに記載の被写体識別器設定方法。 - 請求項14ないし17のいずれかに記載の被写体識別器設定方法における手順を、コンピュータに実行させるためのプログラムとした
ことを特徴とする被写体識別器設定プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004197540A JP2006018707A (ja) | 2004-07-05 | 2004-07-05 | 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004197540A JP2006018707A (ja) | 2004-07-05 | 2004-07-05 | 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006018707A true JP2006018707A (ja) | 2006-01-19 |
Family
ID=35792905
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004197540A Pending JP2006018707A (ja) | 2004-07-05 | 2004-07-05 | 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006018707A (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008052549A (ja) * | 2006-08-25 | 2008-03-06 | Hitachi Kokusai Electric Inc | 画像処理システム |
JP2008158776A (ja) * | 2006-12-22 | 2008-07-10 | Canon Inc | 特徴検出方法及び装置、プログラム、記憶媒体 |
WO2009004901A1 (ja) * | 2007-06-29 | 2009-01-08 | Olympus Corporation | 顔検出装置、デジタルカメラ及び顔検出プログラム |
JP2009181220A (ja) * | 2008-01-29 | 2009-08-13 | Chube Univ | 物体検出装置 |
JP2009237754A (ja) * | 2008-03-26 | 2009-10-15 | Seiko Epson Corp | オブジェクト検出方法、オブジェクト検出装置、印刷装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録した記録媒体 |
JP2010183505A (ja) * | 2009-02-09 | 2010-08-19 | Nikon Corp | 画像処理装置および画像処理プログラム、撮像装置 |
JP2011233974A (ja) * | 2010-04-23 | 2011-11-17 | Toshiba Corp | 電子機器及び画像処理プログラム |
JP2015015033A (ja) * | 2010-07-08 | 2015-01-22 | スピネラ アイピー ホールディングス,インコーポレーテッド | ビデオシーケンスにおけるショットチェンジ検出のためのシステム及び方法 |
JP2018152063A (ja) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 学習結果識別装置、学習結果識別方法、及びそのプログラム |
JP2020112937A (ja) * | 2019-01-09 | 2020-07-27 | 株式会社日立製作所 | 計算機および画像処理方法 |
-
2004
- 2004-07-05 JP JP2004197540A patent/JP2006018707A/ja active Pending
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008052549A (ja) * | 2006-08-25 | 2008-03-06 | Hitachi Kokusai Electric Inc | 画像処理システム |
JP2008158776A (ja) * | 2006-12-22 | 2008-07-10 | Canon Inc | 特徴検出方法及び装置、プログラム、記憶媒体 |
WO2009004901A1 (ja) * | 2007-06-29 | 2009-01-08 | Olympus Corporation | 顔検出装置、デジタルカメラ及び顔検出プログラム |
US20100103279A1 (en) * | 2007-06-29 | 2010-04-29 | Olympus Corporation | Face detection device, digital camera, and computer readable storage medium which stores a face detection program |
US8643738B2 (en) * | 2007-06-29 | 2014-02-04 | Olympus Corporation | Face detection device, digital camera, and computer readable storage medium which stores a face detection program |
JP2009181220A (ja) * | 2008-01-29 | 2009-08-13 | Chube Univ | 物体検出装置 |
JP2009237754A (ja) * | 2008-03-26 | 2009-10-15 | Seiko Epson Corp | オブジェクト検出方法、オブジェクト検出装置、印刷装置、オブジェクト検出プログラムおよびオブジェクト検出プログラムを記録した記録媒体 |
JP2010183505A (ja) * | 2009-02-09 | 2010-08-19 | Nikon Corp | 画像処理装置および画像処理プログラム、撮像装置 |
JP2011233974A (ja) * | 2010-04-23 | 2011-11-17 | Toshiba Corp | 電子機器及び画像処理プログラム |
JP2015015033A (ja) * | 2010-07-08 | 2015-01-22 | スピネラ アイピー ホールディングス,インコーポレーテッド | ビデオシーケンスにおけるショットチェンジ検出のためのシステム及び方法 |
JP2018152063A (ja) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | 学習結果識別装置、学習結果識別方法、及びそのプログラム |
JP2020112937A (ja) * | 2019-01-09 | 2020-07-27 | 株式会社日立製作所 | 計算機および画像処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220138490A1 (en) | Image processing apparatus, image processing method, and non-transitory computer-readable storage medium | |
US10810423B2 (en) | Iris liveness detection for mobile devices | |
WO2019218621A1 (zh) | 活体检测方法及装置、电子设备和存储介质 | |
US8787629B2 (en) | Image processing based on line-of-sight of a person | |
US8891819B2 (en) | Line-of-sight detection apparatus and method thereof | |
US7920725B2 (en) | Apparatus, method, and program for discriminating subjects | |
JP4619927B2 (ja) | 顔検出方法および装置並びにプログラム | |
JP5010905B2 (ja) | 顔認証装置 | |
US8254644B2 (en) | Method, apparatus, and program for detecting facial characteristic points | |
JP5588180B2 (ja) | パターン識別装置及びその制御方法 | |
JP6351243B2 (ja) | 画像処理装置、画像処理方法 | |
JP5241606B2 (ja) | オブジェクト識別装置及びオブジェクト識別方法 | |
JP2009230751A (ja) | 年令推定装置 | |
JP2006065447A (ja) | 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム | |
JP4647289B2 (ja) | 画像処理方法および装置並びにプログラム | |
US20150003681A1 (en) | Image processing apparatus and image processing method | |
JP2006018707A (ja) | 被写体識別装置、その識別方法とその識別プログラム、および被写体識別器設定装置、その設定方法とその設定プログラム | |
CN116071790A (zh) | 掌静脉图像质量评估方法、装置、设备及存储介质 | |
JP2007108990A (ja) | 顔検出方法および装置並びにプログラム | |
JP4708835B2 (ja) | 顔検出装置、顔検出方法、及び顔検出プログラム | |
JP2006018706A (ja) | 被写体識別器設定装置、その設定方法とその設定プログラム、および被写体識別装置、その識別方法とその識別プログラム | |
JP4816874B2 (ja) | パラメータ学習装置、パラメータ学習方法、およびプログラム | |
JP3962517B2 (ja) | 顔面検出方法及びその装置、コンピュータ可読媒体 | |
WO2015037973A1 (en) | A face identification method | |
JP4510562B2 (ja) | 円中心位置検出方法および装置並びにプログラム |