JP2006139418A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2006139418A
JP2006139418A JP2004326994A JP2004326994A JP2006139418A JP 2006139418 A JP2006139418 A JP 2006139418A JP 2004326994 A JP2004326994 A JP 2004326994A JP 2004326994 A JP2004326994 A JP 2004326994A JP 2006139418 A JP2006139418 A JP 2006139418A
Authority
JP
Japan
Prior art keywords
image
image processing
probability
region
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004326994A
Other languages
English (en)
Other versions
JP4664047B2 (ja
Inventor
Takayasu Yamaguchi
高康 山口
Hiroshi Aono
博 青野
Setsuyuki Hongo
節之 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2004326994A priority Critical patent/JP4664047B2/ja
Publication of JP2006139418A publication Critical patent/JP2006139418A/ja
Application granted granted Critical
Publication of JP4664047B2 publication Critical patent/JP4664047B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別する画像処理装置及び画像処理方法を提供する。
【解決手段】画像処理サーバ1は、任意の数の領域に分割された撮影画像の各領域において、撮影対象が写る確率を推定する確率推定手段30と、推定された確率を元に、各領域における画像の表現方法を変更する表現変更手段31と、変更された表現方法を用いて、特徴ベクトルを抽出する特徴量抽出手段13と、抽出された各領域における特徴ベクトルを組み合わせることにより、撮影画像全体の特徴ベクトルを作成する特徴ベクトル作成手段32と、撮影画像全体の特徴ベクトルを元に、画像の学習、又は判別の少なくとも一方を行う手段12、15とを備える。
【選択図】図2

Description

本発明は、撮影画像から撮影画像に含まれる撮影対象を学習、又は判別する画像処理装置及び画像処理方法に関する。
従来、撮影画像から当該撮影画像に含まれる撮影対象を判別する際に用いられる特徴量には様々なものがある。色の特徴量や形状(構図)の特徴量などが、その例である。近年、これら複数の画像特徴量を組み合わせて高次元特徴量を作成し、撮影対象の判別を行う方法が提案されている(例えば、特許文献1参照)。これらの手法においては、画像から特徴量を抽出する際に、画面全体もしくは画面中の特定の認識領域に対して、一定の次元数を用いて特徴量が抽出されている。
特開2003−289551号公報(「0089」〜「0091」段落、図10)
しかしながら、撮影対象を画像中央部に位置するように対象を撮影すると、画像の縁の部分には対象以外の背景が写ることが多く、縁の部分の背景の影響で、特徴量に含まれるノイズが多くなる。このため、特徴量を用いた判別の正解率が低下する。
そこで、本発明は、上記の課題に鑑み、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別する画像処理装置及び画像処理方法を提供することを目的とする。
上記目的を達成するため、本発明の第1の特徴は、撮影画像から撮影画像に含まれる撮影対象の学習、又は判別の少なくとも一方を行う画像処理装置であって、(a)任意の数の領域に分割された撮影画像の各領域において、撮影対象が写る確率を推定する確率推定手段と、(b)確率推定手段によって推定された確率を元に、各領域における画像の表現方法を変更する表現変更手段と、(c)表現変更手段によって変更された表現方法を用いて、特徴ベクトルを抽出する特徴量抽出手段と、(d)特徴量抽出手段によって抽出された各領域における特徴ベクトルを組み合わせることにより、撮影画像全体の特徴ベクトルを作成する特徴ベクトル作成手段と、(e)撮影画像全体の特徴ベクトルを元に、撮影画像の学習、又は判別の少なくとも一方を行う手段とを備える画像処理装置であることを要旨とする。
第1の特徴に係る画像処理装置によると、領域毎の表現を変化させることにより、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。
又、第1の特徴に係る画像処理装置の確率推定手段は、撮影対象の大きさに関する事前情報を元に、撮影対象が撮影画像中に写る各領域の統計量を求めて、確率を推定してもよい。
この画像処理装置によると、撮影対象の大きさに応じて、確率を推定することができる。
又、第1の特徴に係る画像処理装置の表現変更手段は、各領域から得られる特徴ベクトルの頻度、あるいは、特徴ベクトルの次元数を用いて、画像の表現方法を変更してもよい。
この画像処理装置によると、特徴ベクトルの情報を用いて、画像の表現方法を変更することができる。
又、第1の特徴に係る画像処理装置において、学習、又は判別の少なくとも一方を行う撮影対象を、撮影を行った端末装置の位置情報及び撮影対象の位置情報により選択してもよい。
この画像処理装置によると、端末装置の位置情報と撮影対象の位置情報から、処理が必要な撮影対象を絞り込むことができる。
本発明の第2の特徴は、撮影画像から撮影画像に含まれる撮影対象の学習、又は判別の少なくとも一方を行う画像処理方法であって、(a)任意の数の領域に分割された撮影画像の各領域において、撮影対象が写る確率を推定するステップと、(b)推定された確率を元に、各領域における画像の表現方法を変更するステップと、(c)変更された表現方法を用いて、特徴ベクトルを抽出するステップと、(d)抽出された各領域における特徴ベクトルを組み合わせることにより、撮影画像全体の特徴ベクトルを作成するステップと、(e)撮影画像全体の特徴ベクトルを元に、撮影対象の学習、又は判別の少なくとも一方を行うステップとを含む画像処理方法であることを要旨とする。
第2の特徴に係る画像処理方法によると、領域毎の表現を変化させることにより、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。
本発明によると、ノイズの少ない特徴量を抽出し、撮影画像から撮影画像に含まれる撮影対象を正しく判別する画像処理装置及び画像処理方法を提供することができる。
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。
(画像処理システム)
本実施形態に係る画像処理システムは、図1に示すように、ユーザの入力を受け付けて画像処理サーバ1(画像処理装置)に処理を依頼し、画像処理サーバ1での処理結果を出力する端末装置2a、2b、2cと、通信ネットワーク(移動通信網、LAN、インターネット等)3を介して、端末装置2a、2b、2cからの処理依頼を受け付けて処理を行い、端末装置2a、2b、2cに処理結果を送信する画像処理サーバ1とを備える。
ユーザは、端末装置2a、2b、2cを、学習モードと判別モードの2種類のモードを切り換えて使用することができる。「学習モード」とは、既知である撮影対象を撮影し、この撮影画像と撮影対象を特定する情報を画像処理サーバ1へ送信することにより、画像処理サーバ1が撮影画像を学習するモードである。一方、「判別モード」とは、未知である撮影対象を撮影し、この撮影画像を画像処理サーバ1へ送信することにより、画像処理サーバ1が撮影対象を判別し、判別結果を、端末装置2a、2b、2cへ送信するモードである。
学習モードである場合、画像処理サーバ1は、端末装置2a、2b、2cから受信した、登録対象情報、登録対象関連情報、撮影対象を撮影した撮影画像から、撮影対象のグルーピングを行い、各撮影対象情報及び画像を記憶する。ここで、「登録対象情報」とは、撮影画像に写っている撮影対象を特定するための情報である。又、「登録対象関連情報」とは、撮影対象の位置情報、撮影対象に関連する情報(名称、URLなど)などである。
判別モードである場合、画像処理サーバ1は、端末装置2a、2b、2cの位置情報と、端末装置2a、2b、2cから受信した撮影画像が撮影された位置に近い、予め登録された撮影対象の登録対象情報、登録対象関連情報などを取り出し、撮影画像に含まれる撮影対象を確率的に判別する。又、画像処理サーバ1は、判別結果となる複数の撮影対象の候補と、各候補が撮影対象である確率と、それら撮影対象に関連する情報を端末装置2a、2b、2cに送信する。
画像処理サーバ1は、図2に示すように、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、演算装置16と、記憶装置17と、重み付け手段18と、確率推定手段30と、表現変更手段31と、特徴ベクトル作成手段32とを備える。
通信手段11は、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、端末装置2a、2b、2cから、撮影画像及び撮影対象の情報を受信する。又、通信手段11は、判別モードである場合、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、端末装置2a、2b、2cへ撮影対象の情報及び判別結果を送信する。
確率推定手段30は、任意の数の領域に分割された撮影画像の各領域において、撮影対象が写る確率を推定する。この各領域における確率は、後に詳述するが、例えば、図13や図16に示すような値となる。このような確率を推定する際、確率推定手段30は、例えば、図10に示すような、撮影対象の大きさに関する事前情報を元に、撮影対象が撮影画像中に写る各領域の統計量を求めて、確率を推定する。尚、撮影対象の大きさに関する事前情報は、記憶装置17に予め登録されていてもよい。又、予め、撮影対象の大きさに関する事前情報が登録されていなくても、確率推定手段30は、図11〜図13に示すような、後に詳述する方法を用いて、確率を推定することができる。
表現変更手段31は、確率推定手段30によって推定された確率を元に、各領域における画像の表現方法を変更する。又、表現変更手段31は、例えば、各領域から得られる特徴ベクトルの頻度、あるいは、特徴ベクトルの次元(あるいは、特徴ベクトルの頻度と特徴ベクトルの次元の両方)を用いて、画像の表現方法を変更する。この変更方法については、後に詳述する。
特徴量抽出手段13は、任意の数の領域に分割された撮影画像の各領域において、撮影対象を判別する際の指標となる特徴量(特徴ベクトル)を抽出する。このとき、特徴量抽出手段13は、表現変更手段31によって変更された表現方法を用いて、特徴ベクトルを抽出する。
特徴ベクトル作成手段32は、特徴量抽出手段13によって抽出された各領域における特徴ベクトルを組み合わせることにより、撮影画像全体の特徴ベクトルを作成する。
又、特徴量抽出手段13は、例えば、撮影画像の任意の領域毎に、均等色空間で表現された撮影画像の信号を量子化し、均等色空間における各軸の量子化レベルの値の頻度を色ヒストグラムとして抽出する。ここで、「色空間」には、均等色空間(L*、a*、b*空間)、RGB色空間、CMYK色空間、L*、u*、v*空間、YUV空間、XYZ空間などの様々な色空間が含まれる。そして、特徴量抽出手段13は、任意の領域毎の色ヒストグラムを結合し、撮影画像全体の特徴量を抽出する。即ち、特徴量抽出手段13は、既知の撮影画像1枚毎に、次元数(V)分の要素を有する撮影画像全体の特徴量(x)を抽出する。特徴量(x)は、一定の要素数を有するベクトルである。以下の説明において、x、x’は、ベクトルである。又、lを既知の撮影対象の番号、nを撮影画像毎に付与した番号、vを特徴量の次元の番号とすると、複数の既知の撮影対象に属する撮影画像の特徴量Xは、各要素x(l) (n,v)からなるマトリクスで表される。
学習手段15(パラメータ算出手段)は、式(1)を用いて、特徴量抽出手段13によって抽出された特徴量に基づいて、学習パラメータΘを算出する。Vを特徴量の最大次元、Lを既知の撮影対象の数とすると、学習パラメータΘは、各要素θ(v,l)をV×L個並べたマトリクスである。
Figure 2006139418
式(1)において、lは既知の撮影対象の番号、Lは既知の撮影対象の数、N(l)はl番目の既知の撮影対象に対する撮影画像の数、vは特徴量の次元の番号、Vは特徴量の最大次元数、x(l) (n,v)はl番目の既知の撮影対象に属するn番目の撮影画像のv番目の次元の特徴量、γは任意の値、θ(v,l)はl番目の既知の撮影対象に属する特徴量のv番目の次元における学習パラメータである。
上記の説明において、v、l、n(小文字)は変数であり、V、L、N(大文字)は固定値である。又、x、x’(小文字)は、ベクトルであり、X及びΘ(大文字)は、マトリクスである。
具体的には、学習手段15(パラメータ算出手段)は、式(1)を用いて、l番目の既知の撮影対象に属する特徴量のv番目の次元の学習パラメータθ (v,l)を算出する。
判別手段12は、判別モードの際に受信した撮影画像について、式(2)を用いて、学習手段15(パラメータ算出手段)によって算出された学習パラメータを用いることにより、未知の撮影対象を判別する。
Figure 2006139418
式(2)において、x’(v)は未知の撮影対象が含まれる撮影画像のv番目の次元の特徴量、F(l)は未知の撮影対象がl番目の既知の撮影対象に属する度合いを示す判別値である。
具体的には、判別手段12は、l番目の既知の撮影対象に属する特徴量のv番目の次元の学習パラメータθ (v,l)を用いて、未知の撮影対象が含まれる撮影画像に属する特徴量x’が、l番目の既知の撮影対象に属する度合いを示すF(l)の値を算出する。ここで、F(l)の値が大きいほど、未知の撮影対象は、l番目の既知の撮影対象である確率が高いと判断する。
このように、式(2)によるF(l)の算出をL回行えば、F(l)の値に応じて、未知の撮影対象がL種類の撮影対象のどれに属するかを順位付けて判別することができる。
登録手段14は、演算装置16を介して記憶装置17に撮影画像毎の特徴量や学習パラメータを登録する。
重み付け手段18は、任意の領域毎の色ヒストグラムに、任意の重みを掛け合わせる。特徴量抽出手段13は、重み付け手段18によって、重みを掛け合わされた任意の領域毎の色ヒストグラムを結合する。任意の重みは、例えば、任意の領域毎の色ヒストグラムの頻度の値の合計値の逆数とすることができる。
演算装置16は、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、記憶装置17、重み付け手段18の動作を制御する。
又、本発明の実施の形態に係る画像処理サーバ1は、処理制御装置(CPU)を有し、通信手段11、判別手段12、特徴量抽出手段13、登録手段14、学習手段15、重み付け手段18、確率推定手段30、表現変更手段31、特徴ベクトル作成手段32などをモジュールとしてCPUに内蔵する構成とすることができる。これらのモジュールは、パーソナルコンピュータ等の汎用コンピュータにおいて、所定のプログラム言語を利用するための専用プログラムを実行することにより実現することができる。
又、記憶装置17は、複数の撮影画像の特徴量、複数の撮影画像それぞれに基づいて算出された複数の所定の学習パラメータ、撮影画像データ、登録対象情報、登録対象関連情報、判定値、撮影対象の大きさに関する事前情報などを保存する記録媒体である。記録媒体は、例えば、RAM、ROM、ハードディスク、フレキシブルディスク、コンパクトディスク、ICチップ、カセットテープなどが挙げられる。このような記録媒体によれば、撮影画像データ、学習パラメータ、登録対象情報などの保存、運搬、販売などを容易に行うことができる。
端末装置2a、2b、2cは、学習モードと判別モードの2種類のモードを切り換えることができる。
学習モードである場合、端末装置2a、2b、2cは、搭載されたカメラによって、既知の撮影対象を撮影する。端末装置2a、2b、2cは、予めユーザによって登録された登録対象情報と登録対象関連情報とともに、撮影画像を画像処理サーバ1に送信する。又、画像処理サーバ1は、学習処理を行う撮影対象を、撮影を行った端末装置2の位置情報及び登録対象関連情報に含まれる撮影対象の位置情報により選択する。
一方、判別モードである場合、端末装置2a、2b、2cは、搭載されたカメラによって、未知の撮影対象を撮影する。端末装置2a、2b、2cは、登録対象関連情報とともに、撮影画像を画像処理サーバ1に送信する。又、画像処理サーバ1は、判別処理を行う撮影対象を、撮影を行った端末装置2の位置情報及び登録対象関連情報に含まれる撮影対象の位置情報により選択する。そして、端末装置2a、2b、2cは、画像処理サーバ1から判別結果となる複数の撮影対象の候補と、各候補が撮影対象である確率と、それら撮影対象に関連する情報を受信し、上述したF(l)の値を元に「登録対象情報」と「登録対象関連情報」を順位付けて、ユーザに提示する。ユーザは、それら順位付けされた候補の中から所望のデータを簡単に取り出すことができる。
端末装置2は、図3に示すように、入力手段21と、通信手段22と、出力手段23と、撮影手段24と、測位手段25と、演算装置26と、記憶装置27とを備える。
通信手段22は、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、画像処理サーバ1へ、撮影画像及び撮影対象の情報を送信する。又、通信手段22は、判別モードである場合、通信ネットワーク3(移動通信網、LAN、インターネット等)を介し、画像処理サーバ1から、撮影対象の情報及び判別結果を受信する。
撮影手段24は、具体的には、搭載されたカメラなどを指し、対象を撮影し、撮影画像を取得する。
測位手段25は、端末装置2の位置や撮影対象の位置を測位する。測位手段25は、例えば、GPS、基地局との連動、超音波、電子コンパスなどを組み合わせて測位を行ってもよい。
入力手段21は、タッチパネル、キーボード、マウス、携帯電話のボタン等の機器を指す。入力手段21から入力操作が行われると対応するキー情報が演算装置26に伝達される。出力手段23は、モニタなどの画面を指し、液晶表示装置(LCD)、発光ダイオード(LED)パネル、エレクトロルミネッセンス(EL)パネル等が使用可能である。
演算装置26は、入力手段21と、通信手段22と、出力手段23と、撮影手段24と、測位手段25と、記憶装置27の動作を制御する。又、演算装置26は、入力手段21から入力されたキー情報などによって、学習モードと判別モードを切り換える切換手段として動作する。
記憶装置27は、撮影画像、登録対象情報、登録対象関連情報などを保存する記録媒体である。
(画像処理方法)
次に、本実施形態に係る画像処理方法について、図4〜21を用いて説明する。
まず、撮影画像の登録方法について、図4を用いて説明する。
(イ)まず、ステップS101において、端末装置2は、学習モードにおいて既知の登録対象を撮影し、その撮影画像を取得する。
(ロ)次に、ステップS102において、端末装置2は、登録対象情報を入力し、ステップS103において、端末装置2は、登録対象関連情報を入力する。登録対象情報及び登録対象関連情報の入力は、撮影前に予め行っていても構わない。例えば、撮影した画像が図9に示すような洋菓子店舗の場合、「登録対象情報」として、“ケーキ屋”などを入力し、「登録対象関連情報」として、“AAA洋菓子店”、AAA洋菓子店の住所、AAA洋菓子店のURLなどを入力する。
(ハ)次に、ステップS104において、端末装置2は、登録対象を撮影した地点の位置情報、測位誤差、撮影時刻、可能であれば撮影対象までの距離や方向を取得し、登録対象関連情報に含めて記憶する。
(ニ)次に、ステップS105において、端末装置2は、画像処理サーバ1に登録対象情報、登録対象関連情報、撮影画像データを送信する。
(ホ)次に、ステップS106において、画像処理サーバ1は、登録対象情報、登録対象関連情報、撮影画像データを受信する。そして、ステップS107において、画像処理サーバ1は、登録画像の特徴量を抽出する。この特徴量の抽出方法は、後に詳述する。
(へ)次に、ステップS108において、画像処理サーバ1は、登録対象情報、登録対象関連情報、登録対象画像、特徴量及び画像処理サーバ1での登録時刻を記憶装置17に記憶する。
次に、撮影対象を学習する方法について、図5を用いて説明する。
(イ)まず、ステップS201において、画像処理サーバ1は、記憶装置17から登録対象情報、登録対象関連情報、撮影画像データ、特徴量を読み出す。
(ロ)次に、ステップS202において、画像処理サーバ1は、登録対象関連情報に含まれる位置情報による対象のグルーピングを行って撮影対象を絞り込む。後述する撮影対象の判別時に随時学習を行う場合は、端末装置2から端末装置2の位置情報を受信して、検索範囲内にある撮影対象を学習する。ここで、「検索範囲」とは、判別対象を中心として半径が(測位誤差)+(対象までの距離)以内のエリアを指す。又、ここで用いる位置情報は、任意の位置を受け付けることが可能である。例えば、予め判別が行われそうな位置を用いて学習を行っても良いし、端末の位置情報を用いて判別する際に随時学習を行っても良い。
(ハ)次に、ステップS203において、画像処理サーバ1は、撮影対象の学習を行う。具体的には、上述した式(1)を用いて学習パラメータの算出を行う。
(ニ)次に、ステップS204において、画像処理サーバ1は、対象の学習結果(学習パラメータ)を記憶する。
次に、撮影対象を判別する方法について、図6を用いて説明する。
(イ)まず、ステップS301において、端末装置2は、判別モードにおいて未知の撮影対象を撮影し、撮影画像を取得する。次に、ステップS302において、端末装置2は、未知の撮影対象に関する登録対象関連情報を取得する。
(ロ)次に、ステップS303において、端末装置2は、画像処理サーバ1に登録対象関連情報及び撮影画像データを送信する。次に、ステップS304において、画像処理サーバ1は、登録対象関連情報及び撮影画像データを受信する。次に、ステップS305において、画像処理サーバ1は、撮影画像の特徴量を抽出する。この特徴量の抽出方法は、後に詳述する。
(ハ)次に、ステップS306において、画像処理サーバ1は、判別対象の絞り込みを行う。次に、ステップS307において、画像処理サーバ1は、検索範囲の学習が完了しているか否か判断する。完了している場合は、ステップS308の処理に進み、完了していない場合は、ステップS309の処理に進む。
(ニ)ステップS309において、画像処理サーバ1は、図5のステップS203において説明した学習を行う。そして、ステップS308において、画像処理サーバ1は、撮影画像の特徴量と学習パラメータを用いて対象判別を確率的に行う。具体的には、具体的には、上述した式(2)を用いて判定値を求め、判別候補となる撮影画像を求める。
(ホ)次に、ステップS310において、画像処理サーバ1は、判別結果の候補に関する登録対象情報及び登録対象関連情報を記憶装置17から読み出し、登録対象情報、登録対象関連情報、判別結果を端末装置2に送信する。そして、ステップS311において、端末装置2は、登録対象情報、登録対象関連情報、判別結果を受信する。
(へ)次に、ステップS312において、端末装置2は、確率的な判別結果を元に登録対象情報と登録対象関連情報に優先度をつけて(例えば、確率の高い候補を画面の上部に表示するなど)ユーザに提示する。これにより、ユーザは未知の撮影対象に関連したURL等のアドレスを元にして、ネットワークから更に撮影対象に関連する情報を引き出すことができる。
図6に示す判別処理によると、例えば、ユーザが、端末装置2によって未知の撮影対象である店舗Aを撮影し、その撮影画像を画像処理サーバ1へ送信すると、画像処理サーバ1が店舗Aを判別し、店舗Aの名称、URL等を端末装置2に送信することができる。このため、端末装置2は、撮影画像からその撮影対象に関する情報を容易に得ることができる。
次に、図4のステップS107及び図6のステップS305における特徴量の抽出方法の詳細について、図7を用いて説明する。
(イ)まず、ステップS401において、画像処理サーバ1は、端末装置2に搭載したカメラによって撮影対象の撮影画像を取得する。ここでは、図9に示す画像を取得したことを例にとり説明する。この取得した画像は、カメラや端末装置2の機能によりホワイトバランス等の一般的な画像補正を行われていてもよい。
(ロ)次に、ステップS402において、画像処理サーバ1は、取得画像にノイズ除去の画像補正処理を施す。尚、画像補正処理は、必ずしも必要ではなく、状況に応じて施せばよい。
(ハ)次に、ステップS403において、画像処理サーバ1は、特徴量の抽出を行う。
ステップS403における、特徴量の抽出方法の詳細を図8を用いて説明する。
(イ)まず、ステップS501において、画像処理サーバ1は、撮影画像を格子状にI×J分割する。領域の分割方法として、図9では、格子状に分割したものを示したが、放射状でも円形状でもよく、分割形状はこれに限らない。又、領域は等分割されなくてもよい。
(ロ)次に、ステップS502において、画像処理サーバ1は、各領域に対象が写っている確率を推定する。画像の各領域において対象が写る確率を推定するには、撮影の条件と対象の大きさのデータを元に画像の各領域において対象が写る確率を推定することができる。例えば、「撮影対象を撮影画像の中央に、撮影画像の領域一杯に撮影する」という撮影条件を設定し、3個の撮影対象の大きさのデータがあった場合、3個の撮影対象の大きさの縦横比から、画像中に対象が写る頻度を求める。撮影画像の各領域において撮影対象が写る頻度を撮影対象の大きさのデータ数で割ることで、画像の各領域において対象が写る確率を求める。
具体的な計算例を以下に示す。図10に示すように、3つの対象に関するサイズが与えられているとする。すると、各対象は図11のように画像中に写ることが想定される(ここでは、説明を簡単にする為、撮影画像の縦横比は1の場合について説明する)。
又、各対象の各領域における頻度は、図12に示すようになる。ここで、図13に示すように、対象の総数で頻度を割った値を、各領域における対象の写る確率とみなすことができる。
上記は、対象のサイズが既知であるとした場合の例を述べたが、例えば対象を撮影した画像に写っている領域を元に、同様の計算方法で対象が写る範囲の確率を求めても良い。
更に、対象に関するデータが無い場合には、何かしらの分布を用いて、重み付けを行っても良い。図14〜16を用いて、3×3領域に分割した場合に、画面中央部の領域の確率が高くなるように、標準二次元正規分布を用いて(二次元正規分布等、他の分布でも構わない)、各領域の次元数を決定し、値を調節する方法を述べる。まず、図14は、中心の領域を0とし、この中心領域からの距離を各領域毎に表したものである。図15は、各領域の値に対して、所定の関数を用いて変換した結果である。ここで、用いた累積分布関数値は、
Figure 2006139418
である。ここで、rは、図14に示す距離マトリクス、μ=0、σ=1として計算した。
そして、図16に示す正規化累積分布関数値を、画像の各領域に対象が写る確率とみなす。図16では、各領域の合計値(画面全体)を1として正規化を行った例であるが、図13に示すように、画面の中央領域を1として正規化しても構わない。画面の中央には撮影対象が存在する確率が非常に高いため、図13に示す正規化も有用である。
(ハ)次に、ステップS503において、確率に基づいて、次元数や頻度を変更する際の重みを決定する。このとき、ステップS502において推定した確率をそのまま重みとして用いてもよい。ステップS504において、次元数を変更するか否か判断し、変更する場合は、ステップS505において、重みに基づいて次元数を変更し、変更しない場合は、ステップS506において、次元数を固定とする。
ここで、次元数を変更する方法について述べる。次元数を変更する場合は、画像の各領域に対象が写る確率に応じて、量子化のビット数を変えることで、画像の各領域から抽出する特徴ベクトルの次元数を変える。図17では、図16に示す確率を元に、量子化ビット数を算出し、色空間と量子化ビット数をかけることで、次元数を算出している。このようにして算出した次元数に応じて、図18に示すように、色ヒストグラムの次元数を変更する。例えば、図19に示すように、撮影画像の中央部と、周囲と、中央部と周囲の間で、色ヒストグラムの次元数を変更する場合について説明する。図19では、中央部では9次元、周囲では3次元、中央部と周囲の間では、6次元の次元数としている。中央部には撮影対象が存在する確率が高いため、中央部の次元数を上げている。
(ニ)次に、ステップS507において、画像処理サーバ1は、領域毎に、画像を視覚的に均等な空間である均等色空間(L*、a*、b*)で表現する。ここで、撮影画像を格子状にI×J分割した場合、i,j番目の領域における次元数をVi,jとする。例えば、各分割領域における次元数は、図18のように示される。そして、i,j番目の領域における各領域のVi,j次元で、特徴量(特徴量は色ヒストグラム、周波数、画素値等でも構わない)を抽出する。本実施形態では、色ヒストグラムで抽出したとして話を進める。各領域の色ヒストグラムは、Vi,j次元の特徴量(Vi,j個の要素を有するベクトル値)として表される。ステップS508において、画像処理サーバ1は、均等色空間における各軸を独立に、次元数に基づいた量子化を行う。そして、ステップS509において、画像処理サーバ1は、L*、a*、b*の量子化レベルの値の頻度を算出する。
(ホ)次に、ステップS510において、画像処理サーバ1は、頻度の調整を行うか否か判断し、調整を行う場合はステップS511に進み、重みに基づいた頻度の調整を行い、調整を行わない場合は、ステップS512に進む。
ここで、ステップS511において、頻度を調整する場合は、画像の各領域から画像の各領域の次元数によって抽出した特徴ベクトルの値に、画像の各領域に対象が写る確率の値をかける。例えば、図20に示すように、撮影画像の中央部と、周囲と、中央部と周囲の間で、色ヒストグラムの頻度を調整する。図20では、中央部、周囲、中央部と周囲の間では、すべて6次元であるが、各領域において、頻度を増加したり、減少したりする。中央部には撮影対象が存在する確率が高いため、中央部に近いほど、頻度を増加している。
尚、次元数の変更、頻度の調整は、どちらか一方を行ってもよく、両方を行ってもよい。両方を行った場合は、図21に示すように、各領域毎に次元数が変化し、かつ、領域毎に頻度を調整することとなる。
(へ)次に、ステップS513において、画像処理サーバ1は、上記の次元数と頻度を調節した、画像の各領域のヒストグラムを結合し、撮影画像全体の特徴ベクトルを抽出する。例えば、ステップS501において、撮影画像を格子状にI×J分割した場合、i,j番目の領域における次元数をVi,jとする。各領域の特徴量を結合して、全ての領域の特徴量を結合した特徴量の次元Vは、
Figure 2006139418
で表される。
図18に示す結果の場合は、全体のヒストグラムは、45次元+27次元×4ブロック+15次元×4ブロック=213次元ベクトルとなる。
(ト)次に、ステップS514において、全体のヒストグラム(213次元ベクトル)を正規化する。尚、正規化処理は、必ずしも必要ではなく、状況に応じて施せばよい。
(作用及び効果)
本実施形態に係る画像処理サーバ1(画像処理装置)及び画像処理方法によると、通常、撮影対象は画像中央部に位置することを利用し、対象が映っている可能性の高い画像中央部の表現(次元数や頻度)を高めて、背景が映っている可能性が低い画像の周囲の表現(次元数や頻度)を低下させることで、より対象の情報を含み、かつノイズの少ない画像特徴量を抽出することができる。このため、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。
又、画像処理サーバ1の確率推定手段30は、撮影対象の大きさに関する事前情報を元に、撮影対象が撮影画像中に写る各領域の統計量を求めて、確率を推定することができる。
又、画像処理サーバ1の表現変更手段31は、各領域から得られる特徴ベクトルの頻度、あるいは、特徴ベクトルの次元数を用いて、画像の表現方法を変更することができる。
又、画像処理サーバ1において、学習、又は判別の少なくとも一方を行う撮影対象を、撮影を行った端末装置2の位置情報及び撮影対象の位置情報により選択することができる。このため、撮影対象の位置情報から、処理が必要な撮影対象を絞り込むことができる。
又、上述した式(1)及び式(2)は、いわゆるNB(ナイーブ・ベイズ)の手法であり、未知の撮影対象が既知の撮影対象に該当する確率を、複数の既知の撮影対象それぞれに算出することができ、かつ、処理速度が早いという利点を有する。
(その他の実施の形態)
本発明は上記の実施の形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
例えば、上述した実施形態において、NB(ナイーブ・ベイズ)の手法を用いて、学習パラメータを取得し、未知の撮影対象を判別する例を示した。しかし、NBに限らず、他のベイズ手法やSVM(サポート・ベクター・マシン)、kNN(kニアレスト・ネイバー)、LVQ(ラーニング・ベクター・クォンタイゼーション)などの他のアルゴリズムを用いて、学習パラメータを取得し、未知の撮影対象を判別しても構わない。
又、実施形態に係る画像処理サーバ1は、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、重み付け手段18と、確率推定手段30と、表現変更手段31と、特徴ベクトル作成手段32とをモジュールとしてCPUに内蔵する構成とすることができると説明したが、それらが二つあるいはそれ以上のCPUに分かれていても構わない。その際はそれらのCPU間でデータのやりとりが行えるようにバスなどで装置間を接続しているとする。
このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
本発明の実施の形態に係る画像処理システムの構成ブロック図である。 本発明の実施の形態に係る画像処理サーバの構成ブロック図である。 本発明の実施の形態に係る端末装置の構成ブロック図である。 本発明の実施の形態に係る登録処理を示すフローチャートである。 本発明の実施の形態に係る学習処理を示すフローチャートである。 本発明の実施の形態に係る判別処理を示すフローチャートである。 本発明の実施の形態に係る特徴量抽出処理を示すフローチャートである。 図7のステップS403の詳細を示すフローチャートである。 本発明の実施の形態に係る撮影画像の一例である。 本発明の実施の形態に係る撮影対象の大きさの一例である。 本発明の実施の形態に係る撮影画像に占める撮影対象の範囲を示す図である。 本発明の実施の形態に係る撮影対象の各領域における頻度を示す図である。 図12において、データ数で正規化した確率を示す図である。 本発明の実施の形態に係る撮影画像の各領域の距離マトリクスを示す図である。 本発明の実施の形態に係る撮影画像の各領域の累積分布関数値を示す図である。 本発明の実施の形態に係る撮影画像の各領域の正規化累積分布関数値を示す図である。 本発明の実施の形態に係る撮影画像の各領域の次元数を示す図である。 本発明の実施の形態に係る撮影画像の各領域における特徴ベクトルの次元数を示す図である。 本発明の実施の形態に係る撮影画像の各領域における色ヒストグラムの次元数変更を説明するための図である。 本発明の実施の形態に係る撮影画像の各領域における色ヒストグラムの頻度調整を説明するための図である。 本発明の実施の形態に係る撮影画像の各領域における色ヒストグラムの次元数変更及び頻度調整を説明するための図である。
符号の説明
1 画像処理サーバ
2 端末装置
3 通信ネットワーク
11 通信手段
12 判別手段
13 特徴量抽出手段
14 登録手段
15 学習手段
16 演算装置
17 記憶装置
18 重み付け手段
21 入力手段
22 通信手段
23 出力手段
24 撮影手段
25 測位手段
26 演算装置
27 記憶装置
30 確率推定手段
31 表現変更手段
32 特徴ベクトル作成手段

Claims (6)

  1. 撮影画像から該撮影画像に含まれる撮影対象の学習、又は判別の少なくとも一方を行う画像処理装置であって、
    任意の数の領域に分割された撮影画像の各領域において、前記撮影対象が写る確率を推定する確率推定手段と、
    前記確率推定手段によって推定された確率を元に、前記各領域における画像の表現方法を変更する表現変更手段と、
    前記表現変更手段によって変更された表現方法を用いて、特徴ベクトルを抽出する特徴量抽出手段と、
    前記特徴量抽出手段によって抽出された前記各領域における特徴ベクトルを組み合わせることにより、前記撮影画像全体の特徴ベクトルを作成する特徴ベクトル作成手段と、
    前記撮影画像全体の特徴ベクトルを元に、撮影対象の学習、又は判別の少なくとも一方を行う手段と
    を備えることを特徴とする画像処理装置。
  2. 前記確率推定手段は、前記撮影対象の大きさに関する事前情報を元に、前記撮影対象が前記撮影画像中に写る各領域の統計量を求めて、確率を推定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記表現変更手段は、前記各領域から得られる特徴ベクトルの頻度を用いて、画像の表現方法を変更することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記表現変更手段は、前記各領域から得られる特徴ベクトルの次元数を用いて、画像の表現方法を変更することを特徴とする請求項1又は2に記載の画像処理装置。
  5. 学習、又は判別の少なくとも一方を行う前記撮影対象を、撮影を行った端末装置の位置情報及び前記撮影対象の位置情報により選択することを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
  6. 撮影画像から該撮影画像に含まれる撮影対象の学習、又は判別の少なくとも一方を行う画像処理方法であって、
    任意の数の領域に分割された撮影画像の各領域において、前記撮影対象が写る確率を推定するステップと、
    前記推定された確率を元に、前記各領域における画像の表現方法を変更するステップと、
    前記変更された表現方法を用いて、特徴ベクトルを抽出するステップと、
    前記抽出された前記各領域における特徴ベクトルを組み合わせることにより、前記撮影画像全体の特徴ベクトルを作成するステップと、
    前記撮影画像全体の特徴ベクトルを元に、撮影対象の学習、又は判別の少なくとも一方を行うステップと
    を含むことを特徴とする画像処理方法。

JP2004326994A 2004-11-10 2004-11-10 画像処理装置及び画像処理方法 Expired - Fee Related JP4664047B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004326994A JP4664047B2 (ja) 2004-11-10 2004-11-10 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004326994A JP4664047B2 (ja) 2004-11-10 2004-11-10 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2006139418A true JP2006139418A (ja) 2006-06-01
JP4664047B2 JP4664047B2 (ja) 2011-04-06

Family

ID=36620218

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004326994A Expired - Fee Related JP4664047B2 (ja) 2004-11-10 2004-11-10 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP4664047B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101615A (ja) * 2011-11-09 2013-05-23 Canon Inc 色ヒストグラムに基づき画像領域を記述する方法およびシステム
US10121089B2 (en) 2012-09-24 2018-11-06 Nec Corporation Object information extraction apparatus, object information extraction program, and object information extraction method
CN112639869A (zh) * 2018-08-30 2021-04-09 株式会社Ntt数据Ccs 作物生长阶段判定系统的服务器装置、生长阶段判定方法以及程序

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06350989A (ja) * 1993-06-04 1994-12-22 Fuji Photo Film Co Ltd 画像データ圧縮処理方法
JPH1091634A (ja) * 1996-08-15 1998-04-10 Hewlett Packard Co <Hp> 写真画像検索システム
JPH11127306A (ja) * 1997-10-22 1999-05-11 Nikon Corp 結像点検出装置
JPH11213158A (ja) * 1998-01-29 1999-08-06 Canon Inc 画像処理装置及びその方法、コンピュータ可読メモリ
JP2000163569A (ja) * 1998-11-30 2000-06-16 Mitsubishi Electric Corp 画質改善方法及び画質改善装置
JP2001134765A (ja) * 1999-11-09 2001-05-18 Canon Inc 画像検索方法及び装置
JP2002312792A (ja) * 2001-04-13 2002-10-25 Sony Corp 画像処理装置および画像処理方法、記録媒体、並びにプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06350989A (ja) * 1993-06-04 1994-12-22 Fuji Photo Film Co Ltd 画像データ圧縮処理方法
JPH1091634A (ja) * 1996-08-15 1998-04-10 Hewlett Packard Co <Hp> 写真画像検索システム
JPH11127306A (ja) * 1997-10-22 1999-05-11 Nikon Corp 結像点検出装置
JPH11213158A (ja) * 1998-01-29 1999-08-06 Canon Inc 画像処理装置及びその方法、コンピュータ可読メモリ
JP2000163569A (ja) * 1998-11-30 2000-06-16 Mitsubishi Electric Corp 画質改善方法及び画質改善装置
JP2001134765A (ja) * 1999-11-09 2001-05-18 Canon Inc 画像検索方法及び装置
JP2002312792A (ja) * 2001-04-13 2002-10-25 Sony Corp 画像処理装置および画像処理方法、記録媒体、並びにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013101615A (ja) * 2011-11-09 2013-05-23 Canon Inc 色ヒストグラムに基づき画像領域を記述する方法およびシステム
US10121089B2 (en) 2012-09-24 2018-11-06 Nec Corporation Object information extraction apparatus, object information extraction program, and object information extraction method
CN112639869A (zh) * 2018-08-30 2021-04-09 株式会社Ntt数据Ccs 作物生长阶段判定系统的服务器装置、生长阶段判定方法以及程序
US11935282B2 (en) 2018-08-30 2024-03-19 Ntt Data Ccs Corporation Server of crop growth stage determination system, growth stage determination method, and storage medium storing program

Also Published As

Publication number Publication date
JP4664047B2 (ja) 2011-04-06

Similar Documents

Publication Publication Date Title
US20170178291A1 (en) Image Cropping Suggestion Using Multiple Saliency Maps
JP5159515B2 (ja) 画像処理装置およびその制御方法
US7720851B2 (en) Active context-based concept fusion
CN112529951A (zh) 扩展景深图像的获取方法、装置及电子设备
JP5279654B2 (ja) 画像追尾装置、画像追尾方法、及びコンピュータプログラム
US20080019575A1 (en) Digital image cropping using a blended map
US9058655B2 (en) Region of interest based image registration
US20160267339A1 (en) Image processing apparatus and method of generating face image
US20100290673A1 (en) Image processing device, electronic instrument, and information storage medium
US11600003B2 (en) Image processing apparatus and control method for an image processing apparatus that extract a region of interest based on a calculated confidence of unit regions and a modified reference value
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP2014068264A (ja) 画像処理装置、画像処理方法、及びプログラム
CN111598065A (zh) 深度图像获取方法及活体识别方法、设备、电路和介质
CN113283485A (zh) 目标检测方法及其模型的训练方法和相关装置及介质
JP6121302B2 (ja) 姿勢パラメータ推定装置、姿勢パラメータ推定システム、姿勢パラメータ推定方法、およびプログラム
JP6511950B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4664047B2 (ja) 画像処理装置及び画像処理方法
JP5739239B2 (ja) 撮影支援システム及び撮像装置
CN111753796A (zh) 图像中关键点的识别方法、装置、电子设备及存储介质
JP4741804B2 (ja) 画像処理装置及び画像処理方法
JP2023065024A (ja) 検索処理装置、検索処理方法及びプログラム
JP4769416B2 (ja) 画像処理装置及び画像処理方法
CN113284199A (zh) 图像灰度区域确定方法、电子设备及服务器
JP5206300B2 (ja) プログラム、カメラ、画像処理装置および画像の合焦度算出方法
JP2008158626A (ja) テンプレート作成装置,テンプレート作成方法,その方法を実装したテンプレート作成プログラム,そのプログラムを格納した記憶媒体と、テンプレートマッチング装置,テンプレートマッチング方法,その方法を実装したテンプレートマッチングプログラム,そのプログラムを格納した記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100701

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101012

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110106

R150 Certificate of patent or registration of utility model

Ref document number: 4664047

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140114

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees