JP5710940B2 - 画像処理装置、画像処理方法及び画像処理プログラム - Google Patents

画像処理装置、画像処理方法及び画像処理プログラム Download PDF

Info

Publication number
JP5710940B2
JP5710940B2 JP2010251110A JP2010251110A JP5710940B2 JP 5710940 B2 JP5710940 B2 JP 5710940B2 JP 2010251110 A JP2010251110 A JP 2010251110A JP 2010251110 A JP2010251110 A JP 2010251110A JP 5710940 B2 JP5710940 B2 JP 5710940B2
Authority
JP
Japan
Prior art keywords
image
main subject
scene
feature amount
scene information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010251110A
Other languages
English (en)
Other versions
JP2012103859A (ja
Inventor
陽一 矢口
陽一 矢口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2010251110A priority Critical patent/JP5710940B2/ja
Priority to PCT/JP2011/070503 priority patent/WO2012063544A1/ja
Publication of JP2012103859A publication Critical patent/JP2012103859A/ja
Priority to US13/889,883 priority patent/US20130243323A1/en
Application granted granted Critical
Publication of JP5710940B2 publication Critical patent/JP5710940B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像から主要被写体を認識する画像処理装置及び画像処理方法、並びにコンピュータにそのような画像処理装置の手順を実行させるプログラムに関する。
種々の画像処理や画像認識に利用するため、画像中の被写体を認識する要望がある。
一般的には、画像と画像中に写った被写体を関連付けたもの(教師データ)を大量の画像について用意し、学習によって画像特徴量から被写体を推定する画像処理装置を構築する。
しかし、被写体は非常に多岐にわたるため、複数の被写体の画像特徴量が似通い、クラスタがオーバーラップしてしまうという状況が発生する。複数の被写体のクラスタがオーバーラップすると、それら複数の被写体の区別を判定することは困難である。
そこで、特許文献1では、顔検出処理における精度向上に関し、主要被写体から発せられる音声情報と主要被写体とを対応付け、辞書的に記録しておく手法を提案している。これは、撮影時に、主要被写体から発せられる音を集音し、画像情報だけでなく画像外情報である音声情報を併せて主要被写体検出を行うことで、主要被写体認識の精度向上を図っている。
特開2009−60394号公報
上記特許文献1の方法では、画像情報に加えて画像外情報を利用することで、主要被写体認識の精度向上を図っている。しかしながら、被写体自体の画像情報と画像外情報だけを利用しているため、画像情報も画像外情報も似通った別々の被写体の区別をすることはできない。
本発明は、上記の点に鑑みてなされたもので、被写体の画像情報や画像外情報だけでは区別できない別々の被写体を区別して、主要被写体を認識することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。
本発明の画像処理装置の一態様は、認識対象画像から主要被写体を認識する画像処理装置であり上記認識対象画像から計算される画像特徴量を生成する画像特徴量生成手段と画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得手段と上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識手段とシーン情報と該シーン情報に対して典型的な主要被写体との対応関係を蓄積しておくシーン・主要被写体対応関係蓄積手段と上記シーン認識手段で認識された上記シーン情報と、上記シーン・主要被写体対応関係蓄積手段に蓄積された上記対応関係とを利用して、主要被写体候補を推定する主要被写体認識手段とを備え、上記シーン・主要被写体対応関係蓄積手段は、各シーン情報に対して各被写体が主要被写体である確率を蓄積することを特徴とする。
また、本発明の画像処理装置の別の態様は、認識対象画像から主要被写体を認識する画像処理装置であり、上記認識対象画像から計算される画像特徴量を生成する画像特徴量生成手段と、画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得手段と、上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識手段と、シーン情報と該シーン情報に対して典型的な主要被写体との対応関係を蓄積しておくシーン・主要被写体対応関係蓄積手段と、上記シーン認識手段で認識された上記シーン情報と、上記シーン・主要被写体対応関係蓄積手段に蓄積された上記対応関係とを利用して、主要被写体候補を推定する主要被写体認識手段と、を備え、上記シーン認識手段は、複数のシーン情報に対して各シーンである確率を認識することを特徴とする。
また、本発明の画像処理装置の更に別の態様は、認識対象画像から主要被写体を認識する画像処理装置であり、上記認識対象画像から計算される画像特徴量を生成する画像特徴量生成手段と、画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得手段と、上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識手段と、シーン情報と該シーン情報に対して典型的な主要被写体との対応関係を蓄積しておくシーン・主要被写体対応関係蓄積手段と、上記シーン認識手段で認識された上記シーン情報と、上記シーン・主要被写体対応関係蓄積手段に蓄積された上記対応関係とを利用して、主要被写体候補を推定する主要被写体認識手段と、特徴量と被写体との対応関係を蓄積しておく特徴量・被写体対応関係蓄積手段と、上記主要被写体候補と、上記画像特徴量と、上記特徴量・被写体対応関係蓄積手段に蓄積された特徴量と被写体との対応関係とから、該画像の主要被写体を検出する主要被写体検出手段と、上記認識対象画像を複数領域に分割する画像分割手段と、上記画像分割手段によって分割された領域における上記画像特徴量生成手段によって取得された特徴量と、上記主要被写体検出手段によって検出された主要被写体の特徴量とから、上記領域の主要被写体らしさを推定する主要被写体らしさ推定手段と、上記領域の上記主要被写体らしさの分布から、上記認識対象画像上の主要被写体領域を検出する主要被写体領域検出手段と、を備えることを特徴とする。
また、本発明の画像処理方法の一態様は、認識対象画像から主要被写体を認識する画像処理方法であり上記認識対象画像から計算される画像特徴量を生成し画像以外の情報から得られる画像外特徴量を取得し上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行い予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記認識されたシーン情報とを利用して、主要被写体候補を推定することを備え、上記予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係は、各シーン情報に対して各被写体が主要被写体である確率であることを特徴とする。
また、本発明の画像処理方法の別の態様は、認識対象画像から主要被写体を認識する画像処理方法であり、上記認識対象画像から計算される画像特徴量を生成し、画像以外の情報から得られる画像外特徴量を取得し、上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行い、予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記認識されたシーン情報とを利用して、主要被写体候補を推定する、ことを備え、上記画像のシーン情報の認識は、複数のシーン情報に対して各シーンである確率を認識することであることを特徴とする。
また、本発明の画像処理方法の更に別の態様は、認識対象画像から主要被写体を認識する画像処理方法であり、上記認識対象画像から計算される画像特徴量を生成し、画像以外の情報から得られる画像外特徴量を取得し、上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行い、予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記認識されたシーン情報とを利用して、主要被写体候補を推定し、上記主要被写体候補と、上記画像特徴量と、予めに蓄積された特徴量と被写体との対応関係とから、該画像の主要被写体を検出し、上記認識対象画像を複数領域に分割し、上記分割された領域における上記取得された特徴量と、上記検出された主要被写体の特徴量とから、上記領域の主要被写体らしさを推定し、上記領域の上記主要被写体らしさの分布から、上記認識対象画像上の主要被写体領域を検出する、ことを特徴とする。
また、本発明の画像処理プログラムの一態様は主要被写体を認識する認識対象画像から計算される画像特徴量を生成する画像特徴量生成ステップと画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得ステップと上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識ステップと予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記シーン認識ステップで認識された上記シーン情報とを利用して、主要被写体候補を推定する主要被写体認識ステップとをコンピュータに発揮させ、上記予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係は、各シーン情報に対して各被写体が主要被写体である確率であることを特徴とする。
また、本発明の画像処理プログラムの別の態様は、主要被写体を認識する認識対象画像から計算される画像特徴量を生成する画像特徴量生成ステップと、画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得ステップと、上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識ステップと、予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記シーン認識ステップで認識された上記シーン情報とを利用して、主要被写体候補を推定する主要被写体認識ステップと、をコンピュータに発揮させ、上記シーン認識ステップは、複数のシーン情報に対して各シーンである確率を認識するステップであることを特徴とする。
また、本発明の画像処理プログラムの更に別の態様は、主要被写体を認識する認識対象画像から計算される画像特徴量を生成する画像特徴量生成ステップと、画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得ステップと、上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識ステップと、予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記シーン認識ステップで認識された上記シーン情報とを利用して、主要被写体候補を推定する主要被写体認識ステップと、上記主要被写体候補と、上記画像特徴量と、予め蓄積された特徴量と被写体との対応関係とから、該画像の主要被写体を検出する主要被写体検出ステップと、上記認識対象画像を複数領域に分割する画像分割ステップと、上記分割された領域における上記取得された特徴量と、上記検出された主要被写体の特徴量とから、上記領域の主要被写体らしさを推定する主要被写体らしさ推定ステップと、上記領域の上記主要被写体らしさの分布から、上記認識対象画像上の主要被写体領域を検出する主要被写体領域検出ステップと、をコンピュータに発揮させることを特徴とする。
本発明によれば、シーン情報を用いることで、被写体の画像情報や画像外情報だけでは区別できない別々の被写体を区別して、主要被写体を認識することができる画像処理装置、画像処理方法及び画像処理プログラムを提供することができる。
図1は、本発明の一実施形態に係る画像処理装置の構成例を示す図である。
図2は、図1の画像処理装置における演算部の動作を説明するためのフローチャートを示す図である。
以下、本発明を実施するための形態を図面を参照して説明する。
図1に示すように、本発明の一実施形態に係る画像処理装置は、画像入力部10、画像外情報入力部20、演算部30、記憶部40、及び制御部50を備える。
ここで、上記画像入力部10は、画像を入力するものであり、本画像処理装置がデジタルカメラや内視鏡装置等の撮影機能を備えた撮影機器に組み込まれる場合には、光学系や撮像素子(CMOSセンサやCCDセンサ)並びに該撮像素子の出力信号から画像データを生成する信号処理回路等を含む撮像部とすることができる。また、本画像処理装置をそのような撮影機器とは別体の装置として構成される場合には、画像を記録媒体やネットワークを介して読み込む画像読込部として構成される。勿論、本画像処理装置を撮影機器に組み込む場合であっても、上記画像入力部10は、当該撮影機器外から画像を読み込む画像読込部として構成しても構わない。
また、上記画像外情報入力部20は、画像以外の情報を入力するものであり、本画像処理装置が撮影機器に組み込まれる場合には、該撮影機器で撮影時に取得可能な情報を画像外情報として取得する情報取得部とすることができる。また、本画像処理装置をそのような撮影機器とは別体の装置として構成される場合には、上記画像入力部10から入力される画像に関連付けられた画像外情報を読み込む情報読込部として構成される。勿論、本画像処理装置を撮影機器に組み込む場合であっても、上記画像外情報入力部20は、当該撮影機器外から画像外情報を読み込む情報読込部として構成しても構わない。
ここで、画像外情報としては、撮影パラメータ、環境情報、時空間情報、センサ情報、webからの二次的情報、等を含む。撮影パラメータとしては、ISO、Flash、シャッタスピード、焦点距離、F値、等がある。環境情報としては、音声、温度、湿度、圧力、等がある。時空間情報としては、GPS情報、日時、等がある。センサ情報は、画像を撮影した撮影機器が備えるセンサから得られる情報であり、上記環境情報等と一部重複する。webからの二次的情報としては、時空間情報(位置情報)に基づいて取得される、気象情報やイベント情報等がある。上記画像外情報入力部20が入力する画像外情報は、必ずしも、これら全ての情報を含む必要が無いことは勿論である。
なお、上記撮影パラメータや時空間情報は、画像ファイルにExif情報として付加されている場合も有る。このような場合は、上記画像入力部10は、その画像ファイルから画像データのみを抽出するものとし、また、上記画像外情報入力部20は、その画像ファイルからExif情報を抽出するものとなる。
また、上記演算部30は、上記記憶部40の不図示ワーク領域に上記画像入力部10から入力された画像や上記画像外情報入力部20から入力された画像外情報を記憶させて、それら画像及び画像外情報を使用し、また、上記記憶部40に予め蓄積されているデータを使用して、上記画像入力部10から入力された画像から主要被写体を認識する演算等を行う。
なお、記憶部40は、特徴量とシーンとの対応関係を蓄積しておく特徴量・シーン対応関係蓄積部41と、シーン情報と該シーン情報に対して典型的な主要被写体との対応関係を蓄積しておくシーン・主要被写体対応関係蓄積手段としてのシーン・主要被写体対応関係蓄積部42と、特徴量と被写体との対応関係を蓄積しておく特徴量・被写体対応関係蓄積手段としての特徴量・被写体対応関係蓄積部43と、を有する。
また、演算部30は、画像特徴量算出部31、画像外特徴量算出部32、シーン認識部33、主要被写体認識部34、主要被写体検出部35、画像分割部36、主要被写体らしさ推定部37、及び主要被写体領域検出部38を有する。
画像特徴量算出部31は、上記画像入力部10によって入力された認識対象画像から計算される画像特徴量を生成する画像特徴量生成手段として機能する。画像外特徴量算出部32は、上記画像外情報入力部20によって入力された画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得手段として機能する。シーン認識部33は、画像特徴量算出部31によって取得された画像特徴量と、画像外特徴量算出部32によって取得された画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識手段として機能する。主要被写体認識部34は、認識されたシーン情報と、シーン・主要被写体対応関係蓄積部42に蓄積された対応関係とを利用して、主要被写体候補を推定する主要被写体認識手段として機能する。
さらに、主要被写体検出部35は、主要被写体認識部34によって認識された主要被写体候補と、画像特徴量算出部31によって取得された画像特徴量と、画像外特徴量算出部32によって取得された画像外特徴量と、特徴量・被写体対応関係蓄積部43に蓄積された対応関係とから、該画像の主要被写体を検出する主要被写体検出手段として機能する。
また、画像分割部36は、上記画像入力部10によって入力された認識対象画像を複数領域に分割する画像分割手段として機能する。主要被写体らしさ推定部37は、画像分割部36によって分割された各領域における上記画像特徴量算出部31によって取得された特徴量と、上記主要被写体検出部35によって検出された主要被写体の特徴量とから、上記領域の主要被写体らしさを推定する主要被写体らしさ推定手段として機能する。
主要被写体領域検出部38は、上記主要被写体らしさ推定部37によって推定された上記領域の上記主要被写体らしさの分布から、上記画像入力部10によって入力された認識対象画像上の主要被写体領域を検出する主要被写体領域検出手段として機能する。
そして、上記制御部50は、上記演算部30における各部の動作を制御する。
以下、図2を参照して、上記演算部30の動作を詳細に説明する。
まず、画像特徴量算出部31は、上記画像入力部10によって入力された画像から画像特徴量を算出する(ステップS11)。ここで、画像Iに関する画像特徴量をaとする。添え字iは、画像を識別するための通し番号である。画像Iは、画像の画素値を並べたベクトルである。画像特徴量aは、画像Iの画素値から各種演算によって求まる値を縦に並べたベクトルであり、例えば特開2008−140230号公報の手法を用いて求めることができる。
また、この画像特徴量の算出処理と並行して、画像外特徴量算出部32は、上記画像外情報入力部20によって入力された画像外情報から画像外特徴量を算出する(ステップS12)。ここで、画像外特徴量をbとする。画像外特徴量bは、画像に対応する各種情報を必要に応じて数値に変換または演算し、縦に並べたベクトルである。この画像外情報は、上述した通りのものである。
制御部50は、これら算出された画像特徴量aと画像外特徴量bとを縦に並べた以下のような特徴量fを生成して、記憶部40のワーク領域に記憶する。勿論、制御部50ではなく、該演算部30の一つの機能として、そのような特徴量fの生成機能を持たせても良い。
Figure 0005710940
ここで、記憶部40のシーン・主要被写体対応関係蓄積部42に記憶されるシーンと主要被写体の対応関係蓄積データについて、予め説明しておく。このシーンと主要被写体の対応関係蓄積データをR=[r … r]とする。また、rは、以下のようにシーンjと主要被写体の対応関係を表す縦ベクトルである。
Figure 0005710940
なお、jはシーンを識別するための分類番号であり、mは事前に用意したシーン候補の数である。例えば、「1:海水浴」、「2:ダイビング」、「3:飲み会」、…、「m:スキー」、と取り決めておく。以下、上記のシーン候補例を用いて説明する。シーンと主要被写体の対応関係蓄積データとは、各シーンに対する各被写体の主要被写体らしさを確率で表したベクトルである。kは事前に用意した主要被写体候補の数である。例えば、「1:人」、「2:魚」、「3:料理」、…、「k:花」、と取り決めておく。以下、上記の主要被写体候補例を用いて説明する。ベクトルの各次元が事前に決定した各被写体に対応し、該次元の要素が該被写体の主要被写体らしさを示す。シーンjの各主要被写体らしさが、「人:0.6」、「魚:0.4」、「料理:0.8」、…、「花:0」、である場合、rは以下のようになる。
Figure 0005710940
なお、シーンjにおいて各被写体が主要被写体となるか否かのみで表す場合には、確率は「1」又は「0」で表すこととなる。
シーン認識部33は、上記記憶部40のワーク領域に記憶された特徴量fを用いて、画像Iのシーン認識を行う(ステップS13)。このシーン認識方法については、特徴量・シーン対応関係蓄積部41に蓄積された対応関係を利用した一例を後述する。画像Iのシーン認識結果が各シーンについて確率として表される。例えば、「海水浴:0.9」、「ダイビング:0.1」、「飲み会:0.6」、…、「スキー:0.2」、というシーン認識結果が得られた場合、各シーンの確率を縦に並べたベクトルとして、以下のようなシーン認識結果Sが得られる。
Figure 0005710940
なお、シーンを該当・非該当のみで認識する場合には、確率は「1」又は「0」で表す。
主要被写体認識部34は、画像Iについての上記シーン認識部33によるシーン認識結果Sと、上記シーン・主要被写体対応関係蓄積部42に記憶されている上述したようなシーンと主要被写体の対応関係蓄積データRとを利用して、画像Iについての主要被写体確率ベクトルO=RSを算出する(ステップS14)。ここで、主要被写体確率ベクトルOは、各主要被写体候補が主要被写体である確率を表すベクトルである。例えば、以下のようにOが求まった場合、各主要被写体候補が主要被写体である確率は「人:0.7」、「魚:0.1」、「料理:0.2」、…、「花:0.5」、である。
Figure 0005710940
従って、確率が最も高い被写体候補である「人」が、主要被写体であると認識することができる。なお、このように確率が最も高い被写体候補を主要被写体と認識する他に、その主要被写体と認識された被写体候補の確率に近い値を持った被写体候補がある場合には、複数の被写体候補を主要被写体と認識するようにしても良い。
以上のように、画像特徴量と画像外特徴量とからシーン認識を行い、認識されたシーン情報に基づいて主要被写体を認識するようにしたことにより、被写体の画像情報や画像外情報だけでは区別が困難な被写体においても、シーン情報を加味することによって被写体を区別し、主要被写体を認識することが可能となる。
また、このようなシーン認識結果に基づいて認識された主要被写体に対し、更に特徴量を利用した認識手法を適用することで、より認識精度を向上させることができる。
即ち、主要被写体検出部35は、まず、上記記憶部40のワーク領域に記憶された特徴量fだけを利用した主要被写体の認識を行い、更に、その主要被写体認識結果と、上記のようにして主要被写体認識部34によって認識された主要被写体候補とから画像Iにおける主要被写体を検出する(ステップS15)。特徴量だけを利用した主要被写体認識方法については、特徴量・被写体対応関係蓄積部43に蓄積された対応関係を利用した一例を後述する。
特徴量だけを利用した主要被写体認識結果をD、主要被写体候補Oを利用した主要被写体認識結果をD’とするとき、主要被写体認識結果D’は、以下のように算出される。なお、主要被写体認識結果D,D’は、主要被写体候補Oと同じ形式のベクトルである。
Figure 0005710940
例えば、特徴量だけを利用した主要被写体認識結果D及び主要被写体候補Oが以下のようであったとする。
Figure 0005710940
この場合、特徴量だけを利用した主要被写体認識の結果Dは、第1要素と第k要素がともに「0.9」であり、ともに最大確率となる。つまり、被写体1が主要被写体であるのか、被写体kが主要被写体であるのかを区別できない。
これに対して、主要被写体認識結果D’は、以下のようになる。
Figure 0005710940
よって、この主要被写体認識の結果D’では、第1要素の「0.63」のみが最大確率となり、被写体1が主要被写体であると判定できる。
なお、この場合も、主要被写体と認識された被写体の確率に近い値を持った被写体がある場合には、複数の被写体を主要被写体と認識するようにしても良い。
また、本画像処理装置をデジタルカメラや内視鏡装置等の撮影機能を備えた撮影機器に組み込んだ場合、以上のような主要被写体の認識結果に基づいて、画像I中の何処にその主要被写体が存在するのかを検出すれば、オートフォーカス等の機能に利用できる。
そこで、画像分割部36は、上記記憶部40のワーク領域に記憶された入力画像を、例えば格子状に複数領域に分割する(ステップS16)。そして、主要被写体らしさ推定部37は、この画像分割部36によって格子状に分割された領域における上記画像特徴量算出部31によって取得された特徴量と、上記主要被写体検出部35によって検出された主要被写体の特徴量との類似度を計算して、主要被写体らしさ分布を算出する(ステップS17)。ここで、画像Iの分割された領域A(t)の特徴量をf(t)とする。また、主要被写体検出部35が検出した主要被写体について求めた平均特徴量をf(c)とする。主要被写体らしさ分布Jは、各領域A(t)についての主要被写体らしさj(t)を並べたベクトルである。各領域A(t)についての主要被写体らしさj(t)は、類似度j(t)=sim(f(t),f(c))として計算される。例えば、2つの特徴量f(t),f(c)のベクトル間距離の逆数として計算される。
主要被写体領域検出部38は、この主要被写体らしさ推定部37によって推定された主要被写体らしさ分布Jから、画像I上の主要被写体領域を検出する(ステップS18)。ここで、主要被写体領域は、画像Iの分割された領域A(t)の中から選択される、主要被写体領域要素A(t)の集合として表される。例えば、主要被写体らしさの閾値pを設定し、A(t)>pを満たすA(t)を主要被写体領域要素A(t)とする。
なお、主要被写体領域要素の集合が複数の連結領域に分かれていた場合、各連結領域を個別の主要被写体領域とする。
次に、上記シーン認識部33によるシーン認識方法の一例を説明する。
人間が各画像に付加したシーン特徴量をwとする。シーン特徴量とは、その画像が各シーンであるかどうかを表すベクトルである。ベクトルの各次元が事前に決定した各シーンに対応し、該次元の要素が「1」であるときは該シーンであることを示し、該次元の要素が「0」であるときは該シーンではないことを示す。例えば、「1:海水浴」、「2:ダイビング」、「3:飲み会」、…、「m:スキー」、と取り決めておき、画像Iのシーンが「海水浴」と「飲み会」である場合、wは以下のようになる。
Figure 0005710940
ここで、画像Iについて、認識処理に用いる特徴量をfとする。また、全教師画像数をnとする。特徴量・シーン対応関係蓄積部41には、以下のような、全教師画像について、認識処理に用いる特徴量を並べた行列F及びシーン特徴量を並べた行列Wが、それぞれ記憶されている。
Figure 0005710940
そして、シーン認識部33は、この特徴量・シーン対応関係蓄積部41に記憶されたデータより、認識処理に用いる特徴量fとシーン特徴量wの相関関係を学習する。具体的には、正準相関分析(CCA)を用いて、fの次元を削減するための行列Vを求める。正準相関分析では、2つのベクトル群fとwがあるとき、u=Vとvi=Vの相関が最も大きくなるようなV,Vを求める。ここでは、効果的に次元を削減するために、Vの1列目から所定の列数目までを切り出し、Vとしている。
この行列Vで特徴量fを変換し、次元を削減した特徴量をf’とする。即ち、f’=Vfとする。また、2枚の画像I,Iが与えられたとき、I,Iの次元削減特徴量間の類似度をsim(f’,f’)とする。例えば、2つの特徴量f’,f’のベクトル間距離の逆数をsim(f’,f’)とする。
シーン認識部33は、シーン認識したい入力画像Iと、全教師画像I(t=1,…,n)との間の類似度sim(f’,f’)を計算し、類似度の大きいほうから順に、所定の枚数(L枚)の教師画像Ip(k)(k=1,…,L)を抽出する。そして、抽出された教師画像のシーン特徴量wp(k)を積算し、抽出枚数Lで割って正規化する。ここで得られた行列Sを、入力画像Iのシーン認識結果とする。
なお、行列Vで特徴量fを変換し、次元を削減した特徴量をf’とする処理を行わずに、特徴量fを用いて類似度を計算するようにしても良い。
また、上記主要被写体検出部35における特徴量だけを利用した主要被写体認識方法は、シーンの代わりに主要被写体を認識対象とするだけで、このシーン認識部33によるシーン認識方法と同様であるので、その説明は省略する。但し、特徴量・シーン対応関係蓄積部41の代わりに、特徴量・被写体対応関係蓄積部43を利用することはいうまでもない。また、特徴量fの代わりに、画像特徴量aを用いても良い。
以上のように、本実施形態によれば、シーン情報を用いることで、被写体の画像情報や画像外情報だけでは区別できない別々の被写体を区別して、主要被写体を認識することができる。即ち、本実施形態の画像処理装置は、画像情報より生成した画像特徴量と、画像外情報より生成した画像外特徴量とから、画像自体のシーン情報を認識する(例えは、日時が夏かつ位置が海岸かつ水圧有→ダイビング、日時が金曜夜かつ室内かつ薄暗い→飲み会)。そして、シーン情報がわかると、各シーンに対して典型的な主要被写体が限定される(例えば、ダイビング→人や魚、飲み会→人や料理や酒)。よって、画像特徴量・画像外特徴量だけでは区別できない別々の被写体であっても、シーン情報を加味して区別することができる。
また、このようなシーン情報を用いて認識された主要被写体に対し、更に特徴量を利用した認識手法を適用することで、より認識精度を向上させることができる。
そして、それら主要被写体の認識結果に基づいて、画像中の何処にその主要被写体が存在するのかを検出することができる。
以上、一実施形態に基づいて本発明を説明したが、本発明は上述した一実施形態に限定されるものではなく、本発明の要旨の範囲内で種々の変形や応用が可能なことは勿論である。
例えば、上記一実施形態の画像処理装置の機能を実現するソフトウェアのプログラムをコンピュータに供給し、当該コンピュータがこのプログラムを実行することによって、上記機能を実現することも可能である。
10…画像入力部、 20…画像外情報入力部、 30…演算部、 31…画像特徴量算出部、 32…画像外特徴量算出部、 33…シーン認識部、 34…主要被写体認識部、 35…主要被写体検出部、 36…画像分割部、 37…推定部、 38…主要被写体領域検出部、 40…記憶部、 41…特徴量・シーン対応関係蓄積部、 42…シーン・主要被写体対応関係蓄積部、 43…特徴量・被写体対応関係蓄積部、 50…制御部。

Claims (12)

  1. 認識対象画像から主要被写体を認識する画像処理装置であり、
    上記認識対象画像から計算される画像特徴量を生成する画像特徴量生成手段と、
    画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得手段と、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識手段と、
    シーン情報と該シーン情報に対して典型的な主要被写体との対応関係を蓄積しておくシーン・主要被写体対応関係蓄積手段と、
    上記シーン認識手段で認識された上記シーン情報と、上記シーン・主要被写体対応関係蓄積手段に蓄積された上記対応関係とを利用して、主要被写体候補を推定する主要被写体認識手段と、
    を備え
    上記シーン・主要被写体対応関係蓄積手段は、各シーン情報に対して各被写体が主要被写体である確率を蓄積することを特徴とする画像処理装置。
  2. 認識対象画像から主要被写体を認識する画像処理装置であり、
    上記認識対象画像から計算される画像特徴量を生成する画像特徴量生成手段と、
    画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得手段と、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識手段と、
    シーン情報と該シーン情報に対して典型的な主要被写体との対応関係を蓄積しておくシーン・主要被写体対応関係蓄積手段と、
    上記シーン認識手段で認識された上記シーン情報と、上記シーン・主要被写体対応関係蓄積手段に蓄積された上記対応関係とを利用して、主要被写体候補を推定する主要被写体認識手段と、
    を備え、
    上記シーン認識手段は、複数のシーン情報に対して各シーンである確率を認識することを特徴とする画像処理装置。
  3. 認識対象画像から主要被写体を認識する画像処理装置であり、
    上記認識対象画像から計算される画像特徴量を生成する画像特徴量生成手段と、
    画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得手段と、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識手段と、
    シーン情報と該シーン情報に対して典型的な主要被写体との対応関係を蓄積しておくシーン・主要被写体対応関係蓄積手段と、
    上記シーン認識手段で認識された上記シーン情報と、上記シーン・主要被写体対応関係蓄積手段に蓄積された上記対応関係とを利用して、主要被写体候補を推定する主要被写体認識手段と、
    特徴量と被写体との対応関係を蓄積しておく特徴量・被写体対応関係蓄積手段と、
    上記主要被写体候補と、上記画像特徴量と、上記特徴量・被写体対応関係蓄積手段に蓄積された特徴量と被写体との対応関係とから、該画像の主要被写体を検出する主要被写体検出手段と、
    上記認識対象画像を複数領域に分割する画像分割手段と、
    上記画像分割手段によって分割された領域における上記画像特徴量生成手段によって取得された特徴量と、上記主要被写体検出手段によって検出された主要被写体の特徴量とから、上記領域の主要被写体らしさを推定する主要被写体らしさ推定手段と、
    上記領域の上記主要被写体らしさの分布から、上記認識対象画像上の主要被写体領域を検出する主要被写体領域検出手段と、
    を備えることを特徴とする画像処理装置。
  4. 特徴量と被写体との対応関係を蓄積しておく特徴量・被写体対応関係蓄積手段と、
    上記主要被写体候補と、上記画像特徴量と、上記特徴量・被写体対応関係蓄積手段に蓄積された特徴量と被写体との対応関係とから、該画像の主要被写体を検出する主要被写体検出手段と、
    を更に備えることを特徴とする請求項1又は2に記載の画像処理装置。
  5. 上記主要被写体認識手段は、1つの画像に対して複数種類の主要被写体を認識することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
  6. 上記主要被写体領域検出手段は、1種類の主要被写体に対して複数の主要被写体領域を検出することを特徴とする請求項に記載の画像処理装置。
  7. 認識対象画像から主要被写体を認識する画像処理方法であり、
    上記認識対象画像から計算される画像特徴量を生成し、
    画像以外の情報から得られる画像外特徴量を取得し、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行い、
    予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記認識されたシーン情報とを利用して、主要被写体候補を推定する、
    ことを備え、
    上記予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係は、各シーン情報に対して各被写体が主要被写体である確率であることを特徴とする画像処理方法。
  8. 認識対象画像から主要被写体を認識する画像処理方法であり、
    上記認識対象画像から計算される画像特徴量を生成し、
    画像以外の情報から得られる画像外特徴量を取得し、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行い、
    予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記認識されたシーン情報とを利用して、主要被写体候補を推定する、
    ことを備え、
    上記画像のシーン情報の認識は、複数のシーン情報に対して各シーンである確率を認識することであることを特徴とする画像処理方法。
  9. 認識対象画像から主要被写体を認識する画像処理方法であり、
    上記認識対象画像から計算される画像特徴量を生成し、
    画像以外の情報から得られる画像外特徴量を取得し、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行い、
    予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記認識されたシーン情報とを利用して、主要被写体候補を推定し、
    上記主要被写体候補と、上記画像特徴量と、予めに蓄積された特徴量と被写体との対応関係とから、該画像の主要被写体を検出し、
    上記認識対象画像を複数領域に分割し、
    上記分割された領域における上記取得された特徴量と、上記検出された主要被写体の特徴量とから、上記領域の主要被写体らしさを推定し、
    上記領域の上記主要被写体らしさの分布から、上記認識対象画像上の主要被写体領域を検出する、
    ことを特徴とする画像処理方法。
  10. 主要被写体を認識する認識対象画像から計算される画像特徴量を生成する画像特徴量生成ステップと、
    画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得ステップと、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識ステップと、
    予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記シーン認識ステップで認識された上記シーン情報とを利用して、主要被写体候補を推定する主要被写体認識ステップと、
    をコンピュータに発揮させ
    上記予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係は、各シーン情報に対して各被写体が主要被写体である確率であることを特徴とする画像処理プログラム。
  11. 主要被写体を認識する認識対象画像から計算される画像特徴量を生成する画像特徴量生成ステップと、
    画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得ステップと、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識ステップと、
    予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記シーン認識ステップで認識された上記シーン情報とを利用して、主要被写体候補を推定する主要被写体認識ステップと、
    をコンピュータに発揮させ、
    上記シーン認識ステップは、複数のシーン情報に対して各シーンである確率を認識するステップであることを特徴とする画像処理プログラム。
  12. 主要被写体を認識する認識対象画像から計算される画像特徴量を生成する画像特徴量生成ステップと、
    画像以外の情報から得られる画像外特徴量を取得する画像外特徴量取得ステップと、
    上記画像特徴量と上記画像外特徴量とから、該画像のシーン情報の認識を行うシーン認識ステップと、
    予め蓄積されたシーン情報と該シーン情報に対して典型的な主要被写体との対応関係と、上記シーン認識ステップで認識された上記シーン情報とを利用して、主要被写体候補を推定する主要被写体認識ステップと、
    上記主要被写体候補と、上記画像特徴量と、予め蓄積された特徴量と被写体との対応関係とから、該画像の主要被写体を検出する主要被写体検出ステップと、
    上記認識対象画像を複数領域に分割する画像分割ステップと、
    上記分割された領域における上記取得された特徴量と、上記検出された主要被写体の特徴量とから、上記領域の主要被写体らしさを推定する主要被写体らしさ推定ステップと、
    上記領域の上記主要被写体らしさの分布から、上記認識対象画像上の主要被写体領域を検出する主要被写体領域検出ステップと、
    をコンピュータに発揮させることを特徴とする画像処理プログラム。
JP2010251110A 2010-11-09 2010-11-09 画像処理装置、画像処理方法及び画像処理プログラム Expired - Fee Related JP5710940B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2010251110A JP5710940B2 (ja) 2010-11-09 2010-11-09 画像処理装置、画像処理方法及び画像処理プログラム
PCT/JP2011/070503 WO2012063544A1 (ja) 2010-11-09 2011-09-08 画像処理装置、画像処理方法及び記録媒体
US13/889,883 US20130243323A1 (en) 2010-11-09 2013-05-08 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010251110A JP5710940B2 (ja) 2010-11-09 2010-11-09 画像処理装置、画像処理方法及び画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2012103859A JP2012103859A (ja) 2012-05-31
JP5710940B2 true JP5710940B2 (ja) 2015-04-30

Family

ID=46050700

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010251110A Expired - Fee Related JP5710940B2 (ja) 2010-11-09 2010-11-09 画像処理装置、画像処理方法及び画像処理プログラム

Country Status (3)

Country Link
US (1) US20130243323A1 (ja)
JP (1) JP5710940B2 (ja)
WO (1) WO2012063544A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6006112B2 (ja) * 2012-12-28 2016-10-12 オリンパス株式会社 画像処理装置、画像処理方法及びプログラム
CN105740777B (zh) * 2016-01-25 2019-06-25 联想(北京)有限公司 信息处理方法及装置
JP7049983B2 (ja) * 2018-12-26 2022-04-07 株式会社日立製作所 物体認識装置および物体認識方法
WO2021152961A1 (ja) * 2020-01-30 2021-08-05 富士フイルム株式会社 表示方法
WO2021200185A1 (ja) * 2020-03-31 2021-10-07 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
CN113190973A (zh) * 2021-04-09 2021-07-30 国电南瑞科技股份有限公司 风光荷多阶段典型场景的双向优化方法、装置、设备及存储介质
JP2023084461A (ja) * 2021-12-07 2023-06-19 キヤノン株式会社 主被写体判定装置、撮像装置、主被写体判定方法、及びプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6545743B1 (en) * 2000-05-22 2003-04-08 Eastman Kodak Company Producing an image of a portion of a photographic image onto a receiver using a digital image of the photographic image
US7212668B1 (en) * 2000-08-18 2007-05-01 Eastman Kodak Company Digital image processing system and method for emphasizing a main subject of an image
JP2008166963A (ja) * 2006-12-27 2008-07-17 Noritsu Koki Co Ltd 画像濃度補正方法とこの方法を実施する画像処理ユニット
JP4848965B2 (ja) * 2007-01-26 2011-12-28 株式会社ニコン 撮像装置
JP4254873B2 (ja) * 2007-02-16 2009-04-15 ソニー株式会社 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP4877074B2 (ja) * 2007-05-29 2012-02-15 セイコーエプソン株式会社 画像処理装置、画像処理方法、および、コンピュータプログラム
JP4453721B2 (ja) * 2007-06-13 2010-04-21 ソニー株式会社 画像撮影装置及び画像撮影方法、並びにコンピュータ・プログラム
JP4896838B2 (ja) * 2007-08-31 2012-03-14 カシオ計算機株式会社 撮像装置、画像検出装置及びプログラム
JP5223663B2 (ja) * 2008-12-25 2013-06-26 株式会社ニコン 撮像装置

Also Published As

Publication number Publication date
US20130243323A1 (en) 2013-09-19
JP2012103859A (ja) 2012-05-31
WO2012063544A1 (ja) 2012-05-18

Similar Documents

Publication Publication Date Title
JP5710940B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5567853B2 (ja) 画像認識装置および方法
JP6639113B2 (ja) 画像認識装置、画像認識方法及びプログラム
JP4241763B2 (ja) 人物認識装置及びその方法
JP6494253B2 (ja) 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP5554984B2 (ja) パターン認識方法およびパターン認識装置
US9330325B2 (en) Apparatus and method for reducing noise in fingerprint images
EP2309454B1 (en) Apparatus and method for detecting motion
JP6521626B2 (ja) 被写体追跡装置、方法およびプログラム
JP6025557B2 (ja) 画像認識装置、その制御方法及びプログラム
JP5648452B2 (ja) 画像処理プログラムおよび画像処理装置
KR101891439B1 (ko) 영상 기반의 dtw를 이용한 기침하는 돼지 탐지 방법 및 장치
KR20060121503A (ko) 무인 감시 로봇에서 중요 얼굴 추적 장치 및 방법
JP5278307B2 (ja) 画像処理装置及び方法、並びにプログラム
JP2011071925A (ja) 移動体追尾装置および方法
US10140503B2 (en) Subject tracking apparatus, control method, image processing apparatus, and image pickup apparatus
JP5995610B2 (ja) 被写体認識装置及びその制御方法、撮像装置、表示装置、並びにプログラム
JP2009009206A (ja) 画像中の輪郭抽出方法及びその画像処理装置
JP4781248B2 (ja) 撮像装置、撮像装置の制御方法、プログラム及び記録媒体
JP2022048077A (ja) 画像処理装置およびその制御方法
JP2008148262A (ja) 撮像装置及び撮像装置の制御方法、プログラム及び記憶媒体
KR101422549B1 (ko) 얼굴 인식 방법 및 그 시스템
WO2017208423A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN113691731B (zh) 一种处理方法、装置和电子设备
JP2006174022A (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R151 Written notification of patent or utility model registration

Ref document number: 5710940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees