JP4741804B2 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP4741804B2
JP4741804B2 JP2004050489A JP2004050489A JP4741804B2 JP 4741804 B2 JP4741804 B2 JP 4741804B2 JP 2004050489 A JP2004050489 A JP 2004050489A JP 2004050489 A JP2004050489 A JP 2004050489A JP 4741804 B2 JP4741804 B2 JP 4741804B2
Authority
JP
Japan
Prior art keywords
image
feature amount
image processing
target
unknown
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004050489A
Other languages
English (en)
Other versions
JP2005242592A (ja
Inventor
高康 山口
節之 本郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2004050489A priority Critical patent/JP4741804B2/ja
Publication of JP2005242592A publication Critical patent/JP2005242592A/ja
Application granted granted Critical
Publication of JP4741804B2 publication Critical patent/JP4741804B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮影画像から撮影画像に含まれる未知の撮影対象を判別する画像処理装置及び画像処理方法に関する。
従来、撮影画像から当該撮影画像に含まれる撮影対象を判別する際に用いられる特徴量には様々なものがある。色の特徴量や形状(構図)の特徴量などが、その例である。近年、これら複数の画像特徴量を組み合わせて高次元特徴量を作成し、撮影対象の判別を行う方法が提案されている(例えば、特許文献1参照)。
特開2003−289551号公報(「0089」〜「0091」段落、図10)
しかしながら、複数の画像特徴量を組み合わせることにより、特徴量の次元が高くなると、その次元数に応じて計算処理量が大きくなっていた。
そこで、本発明は、上記の課題に鑑み、画像特徴量の次元数を低く抑え、計算処理量を小さくし、撮影画像から撮影画像に含まれる撮影対象を正しく判別する画像処理装置及び画像処理方法を提供することを目的とする。
上記目的を達成するため、本発明の第1の特徴は、撮影画像から撮影画像に含まれる未知の撮影対象を判別する画像処理装置であって、(イ)撮影画像の任意の領域毎に、色空間で表現された撮影画像の信号を量子化し、色空間における各軸の量子化レベルの値の頻度を色ヒストグラムとして抽出する第1の特徴量抽出手段と、(ロ)任意の領域毎の色ヒストグラムを結合し、撮影画像全体の特徴量を抽出する第2の特徴量抽出手段と、(ハ)撮影画像全体の特徴量に基づいて、未知の撮影対象を判別する判別手段とを備える画像処理装置であることを要旨とする。ここで、「色空間」には、均等色空間(L*、a*、b*空間)、RGB色空間、CMYK色空間、L*、u*、v*空間、YUV空間、XYZ空間などの様々な色空間が含まれる。
第1の特徴に係る画像処理装置によると、画像特徴量の次元数を低く抑え、計算処理量を小さくし、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。ここで、「次元数」とは、ベクトルである、特徴量の各要素数をいう。
又、第1の特徴に係る画像処理装置は、任意の領域毎の色ヒストグラムに、任意の重みを掛け合わせる重み付け手段を更に備え、第2の特徴量抽出手段は、重みを掛け合わされた任意の領域毎の色ヒストグラムを結合してもよい。この画像処理装置によると、各領域で抽出した特徴量のベクトルの大きさについてバランスを取ることができる。
又、任意の重みは、任意の領域毎の色ヒストグラムの次元の値の合計値の逆数であってもよい。この画像処理装置によると、ベクトルを正規化して結合を行うことができる。
又、第1の特徴に係る画像処理装置は、複数の撮影画像全体の特徴量それぞれに基づいて算出された複数の所定のパラメータを記憶する記憶手段と、所定のパラメータを算出するパラメータ算出手段とを更に備え、判別手段は、所定のパラメータを用いることにより、未知の撮影対象を判別してもよい。この画像処理装置によると、特徴量を用いて算出されたパラメータを用いて、未知の撮影対象の判別を行うことができる。
又、lを既知の撮影対象の番号、Lを既知の撮影対象の数、N(l)をl番目の既知の撮影対象に対する撮影画像の数、vを特徴量の次元の番号、Vを特徴量の最大次元数、x(l) (n,v)をl番目の既知の撮影対象に属するn番目の撮影画像のv番目の次元の特徴量、γを任意の値、θ(v,l)をl番目の既知の撮影対象に属する特徴量のv番目の次元における所定パラメータ、x’(v)を未知の撮影対象が含まれる撮影画像のv番目の次元の特徴量、F(l)を前記未知の撮影対象がl番目の既知の撮影対象に属する度合いを示す判別値として、第1の特徴に係る画像処理装置のパラメータ算出手段は、以下の式によって、所定のパラメータを算出し、
Figure 0004741804
判別手段は、以下の式によって得られた判別値が最も大きい撮影画像を、撮影対象として認識してもよい。
Figure 0004741804
この画像処理装置によると、特徴量を用いて算出されたパラメータを用いて、判別値を算出し、未知の撮影対象の判別を行うことができる。又、式(1)及び式(2)は、いわゆるNB(ナイーブ・ベイズ)の手法であり、未知の撮影対象が既知の撮影対象に該当する確率を、複数の既知の撮影対象それぞれに算出することができ、かつ、処理速度が早いという利点を有する。
本発明の第2の特徴は、撮影画像から撮影画像に含まれる未知の撮影対象を判別する画像処理方法であって、(イ)撮影画像の任意の領域毎に、色空間で表現された撮影画像の信号を量子化し、色空間における各軸の量子化レベルの値の頻度を色ヒストグラムとして抽出する第1の特徴量抽出ステップと、(ロ)任意の領域毎の色ヒストグラムを結合し、撮影画像全体の特徴量を抽出する第2の特徴量抽出ステップと、(ハ)撮影画像全体の特徴量に基づいて、未知の撮影対象を判別するステップとを含む画像処理方法であることを要旨とする。
第2の特徴に係る画像処理方法によると、画像特徴量の次元数を低く抑え、計算処理量を小さくし、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。
本発明によると、画像特徴量の次元数を低く抑え、計算処理量を小さくし、撮影画像から撮影画像に含まれる撮影対象を正しく判別する画像処理装置及び画像処理方法を提供することができる。
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には、同一又は類似の符号を付している。ただし、図面は模式的なものであることに留意すべきである。
(画像処理システム)
本実施形態に係る画像処理システムは、図1に示すように、ユーザの入力を受け付けて画像処理サーバ1(画像処理装置)に処理を依頼し、画像処理サーバ1での処理結果を出力する端末装置2a、2b、2cと、通信ネットワーク(インターネット等)3を介して、端末装置2a、2b、2cからの処理依頼を受け付けて処理を行い、端末装置2a、2b、2cに処理結果を送信する画像処理サーバ1とを備える。
ユーザは、端末装置2a、2b、2cを、学習モードと判別モードの2種類のモードを切り換えて使用することができる。「学習モード」とは、既知である撮影対象を撮影し、この撮影画像と撮影対象を特定する情報を画像処理サーバ1へ送信することにより、画像処理サーバ1が撮影画像を学習するモードである。一方、「判別モード」とは、未知である撮影対象を撮影し、この撮影画像を画像処理サーバ1へ送信することにより、画像処理サーバ1が撮影対象を判別し、判別結果を、端末装置2a、2b、2cへ送信するモードである。
学習モードである場合、画像処理サーバ1は、端末装置2a、2b、2cから受信した、撮影対象に関する情報や撮影対象を撮影した撮影画像から撮影対象のグルーピングを行い、各撮影対象情報及び画像を記憶する。
判別モードである場合、画像処理サーバ1は、端末装置2a、2b、2cの位置情報と、端末装置2a、2b、2cから受信した撮影画像が撮影された位置に近い、予め登録された撮影対象の情報を取り出し、撮影画像に含まれる撮影対象を確率的に判別する。又、画像処理サーバ1は、判別結果となる複数の撮影対象の候補と、各候補が撮影対象である確率と、それら撮影対象に関連する情報を端末装置2a、2b、2cに送信する。
画像処理サーバ1は、図2に示すように、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、演算装置16と、記憶装置17と、重み付け手段18とを備える。
通信手段11は、通信ネットワーク3(インターネット等)を介し、端末装置2a、2b、2cから、撮影画像及び撮影対象の情報を受信する。又、通信手段11は、判別モードである場合、通信ネットワーク3(インターネット等)を介し、端末装置2a、2b、2cへ撮影対象の情報及び判別結果を送信する。
特徴量抽出手段13は、撮影対象を判別する際の指標となる特徴量を抽出する。具体的には、特徴量抽出手段13は、撮影画像の任意の領域毎に、均等色空間で表現された撮影画像の信号を量子化し、均等色空間における各軸の量子化レベルの値の頻度を色ヒストグラムとして抽出する。そして、特徴量抽出手段13は、任意の領域毎の色ヒストグラムを結合し、撮影画像全体の特徴量を抽出する。即ち、特徴量抽出手段13は、既知の撮影画像1枚毎に、次元数(V)分の要素を有する撮影画像全体の特徴量(x)を抽出する。特徴量(x)は、一定の要素数を有するベクトルである。以下の説明において、x、x’は、ベクトルである。
又、複数の既知の撮影対象に属する撮影画像の特徴量をXで表す。lを既知の撮影対象の番号、nを撮影画像毎に付与した番号、vを特徴量の次元の番号とすると、特徴量Xは、各要素x(l) (n,v)からなるマトリクスで表される。
学習手段15(パラメータ算出手段)は、式(1)を用いて、特徴量抽出手段13によって抽出された特徴量に基づいて、学習パラメータΘを算出する。Vを特徴量の最大次元、Lを既知の撮影対象の数とすると、学習パラメータΘは、各要素θ(v,l)をV×L個並べたマトリクスである。
Figure 0004741804
式(1)において、lは既知の撮影対象の番号、Lは既知の撮影対象の数、N(l)はl番目の既知の撮影対象に対する撮影画像の数、vは特徴量の次元の番号、Vは特徴量の最大次元数、x(l) (n,v)はl番目の既知の撮影対象に属するn番目の撮影画像のv番目の次元の特徴量、γは任意の値、θ(v,l)はl番目の既知の撮影対象に属する特徴量のv番目の次元における学習パラメータである。
上記の説明において、v、l、n(小文字)は変数であり、V、L、N(大文字)は固定値である。又、x、x’(小文字)は、ベクトルであり、X及びΘ(大文字)は、マトリクスである。
具体的には、学習手段15(パラメータ算出手段)は、式(1)を用いて、l番目の既知の撮影対象に属する特徴量のv番目の次元の学習パラメータθ (v,l)を算出する。
判別手段12は、判別モードの際に受信した撮影画像について、式(2)を用いて、学習手段15(パラメータ算出手段)によって算出された学習パラメータを用いることにより、未知の撮影対象を判別する。
Figure 0004741804
式(2)において、x’(v)は未知の撮影対象が含まれる撮影画像のv番目の次元の特徴量、F(l)は前記未知の撮影対象がl番目の既知の撮影対象に属する度合いを示す判別値である。
具体的には、判別手段12は、l番目の既知の撮影対象に属する特徴量のv番目の次元の学習パラメータθ (v,l)を用いて、未知の撮影対象が含まれる撮影画像に属する特徴量x’が、l番目の既知の撮影対象に属する度合いを示すF(l)の値を算出する。ここで、F(l)の値が大きいほど、未知の撮影対象は、l番目の既知の撮影対象である確率が高いと判断する。
このように、式(2)によるF(l)の算出をL回行えば、F(l)の値に応じて、未知の撮影対象がL種類の撮影対象のどれに属するかを順位付けて判別することができる。
登録手段14は、演算装置16を介して記憶装置17に撮影画像毎の特徴量や学習パラメータを登録する。
重み付け手段18は、任意の領域毎の色ヒストグラムに、任意の重みを掛け合わせる。特徴量抽出手段13は、重み付け手段18によって、重みを掛け合わされた任意の領域毎の色ヒストグラムを結合する。任意の重みは、例えば、任意の領域毎の色ヒストグラムの次元の値の合計値の逆数とすることができる。
演算装置16は、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、記憶装置17、重み付け手段18の動作を制御する。
又、本発明の実施の形態に係る画像処理サーバ1は、処理制御装置(CPU)を有し、通信手段11、判別手段12、特徴量抽出手段13、登録手段14、学習手段15、重み付け手段18などをモジュールとしてCPUに内蔵する構成とすることができる。これらのモジュールは、パーソナルコンピュータ等の汎用コンピュータにおいて、所定のプログラム言語を利用するための専用プログラムを実行することにより実現することができる。又、記憶装置17は、複数の撮影画像の特徴量、複数の撮影画像それぞれに基づいて算出された複数の所定の学習パラメータ、撮影画像データ、登録対象情報、登録対象関連情報、判定値などを保存する記録媒体である。記録媒体は、例えば、RAM、ROM、ハードディスク、フレキシブルディスク、コンパクトディスク、ICチップ、カセットテープなどが挙げられる。このような記録媒体によれば、撮影画像データ、学習パラメータ、登録対象情報などの保存、運搬、販売などを容易に行うことができる。
端末装置2a、2b、2cは、学習モードと判別モードの2種類のモードを切り換えることができる。
学習モードである場合、端末装置2a、2b、2cは、搭載されたカメラによって、既知の撮影対象を撮影する。端末装置2a、2b、2cは、予めユーザによって登録された登録対象情報と登録対象関連情報とともに、撮影画像を画像処理サーバ1に送信する。ここで、「登録対象情報」とは、撮影画像に写っている撮影対象を特定するための情報である。又、「登録対象関連情報」とは、撮影対象の位置情報、撮影対象に関連する情報(名称、URLなど)などである。
判別モードである場合、端末装置2a、2b、2cは、搭載されたカメラによって、未知の撮影対象を撮影する。端末装置2a、2b、2cは、位置情報とともに、撮影画像を画像処理サーバ1に送信する。そして、端末装置2a、2b、2cは、画像処理サーバ1から判別結果となる複数の撮影対象の候補と、各候補が撮影対象である確率と、それら撮影対象に関連する情報を受信し、上述したF(l)の値を元に「登録対象情報」と「登録対象関連情報」を順位付けて、ユーザに提示する。ユーザは、それら順位付けされた候補の中から所望のデータを簡単に取り出すことができる。
端末装置2は、図3に示すように、入力手段21と、通信手段22と、出力手段23と、撮影手段24と、測位手段25と、演算装置26と、記憶装置27とを備える。
通信手段22は、通信ネットワーク3(インターネット)を介し、画像処理サーバ1へ、撮影画像及び撮影対象の情報を送信する。又、通信手段22は、判別モードである場合、通信ネットワーク3(インターネット)を介し、画像処理サーバ1から、撮影対象の情報及び判別結果を受信する。
撮影手段24は、具体的には、搭載されたカメラなどを指し、対象を撮影し、撮影画像を取得する。
測位手段25は、端末装置2の位置や撮影対象の位置を測定する。
入力手段21は、タッチパネル、キーボード、マウス等の機器を指す。入力手段21から入力操作が行われると対応するキー情報が演算装置26に伝達される。出力手段23は、モニタなどの画面を指し、液晶表示装置(LCD)、発光ダイオード(LED)パネル、エレクトロルミネッセンス(EL)パネル等が使用可能である。
演算装置26は、入力手段21と、通信手段22と、出力手段23と、撮影手段24と、測位手段25と、記憶装置27の動作を制御する。又、演算装置26は、入力手段21から入力されたキー情報などによって、学習モードと判別モードを切り換える切換手段として動作する。
記憶装置27は、撮影画像、登録対象情報、登録対象関連情報などを保存する記録媒体である。
(画像処理方法)
次に、本実施形態に係る画像処理方法について、図4〜9を用いて説明する。
まず、撮影画像の登録方法について、図4を用いて説明する。
(イ)まず、ステップS101において、端末装置2は、学習モードにおいて既知の登録対象を撮影し、その画像を取得する。
(ロ)次に、ステップS102において、端末装置2は、登録対象情報を入力し、ステップS103において、端末装置2は、登録対象関連情報を入力する。登録対象情報及び登録対象関連情報の入力は、撮影前に予め行っていても構わない。例えば、撮影した画像が図9に示すような洋菓子店舗の場合、「登録対象情報」として、“ケーキ屋”などを入力し、「登録対象関連情報」として、“AAA洋菓子店”、AAA洋菓子店の住所、AAA洋菓子店のURLなどを入力する。
(ハ)次に、ステップS104において、端末装置2は、登録対象を撮影した地点の位置情報、測位誤差、撮影時刻、可能であれば撮影対象までの距離や方向を取得する。
(ニ)次に、ステップS105において、端末装置2は、画像処理サーバ1に登録対象情報、登録対象関連情報、位置情報、取得画像データを送信する。
(ホ)次に、ステップS106において、画像処理サーバ1は、登録対象情報、登録対象関連情報、位置情報、取得画像を送信する。そして、ステップS107において、画像処理サーバ1は、登録画像の特徴量を抽出する。この特徴量の抽出方法は、後に詳述する。
(へ)次に、ステップS108において、画像処理サーバ1は、登録対象情報、登録対象関連情報、登録対象画像、特徴量及び画像処理サーバ1での登録時刻を記憶装置17に記憶する。
次に、撮影対象を学習する方法について、図5を用いて説明する。
(イ)まず、ステップS201において、画像処理サーバ1は、記憶装置17から撮影対象情報、撮影対象関連情報、取得画像データ、特徴量を読み出す。
(ロ)次に、ステップS202において、画像処理サーバ1は、位置情報による対象のグルーピングを行って対象を絞り込む。後述する撮影対象の判別時に随時学習を行う場合は、端末装置2から端末装置2の位置情報を受信して、検索範囲内にある撮影対象を学習する。ここで、「検索範囲」とは、判別対象を中心として半径が(測位誤差)+(対象までの距離)以内のエリアを指す。又、ここで用いる位置情報は、任意の位置を受け付けることが可能である。例えば、予め判別が行われそうな位置を用いて学習を行っても良いし、端末の位置情報を用いて判別する際に随時学習を行っても良い。
(ハ)次に、ステップS203において、画像処理サーバ1は、対象の学習を行う。具体的には、上述した式(1)を用いて学習パラメータの算出を行う。
(ニ)次に、ステップS204において、画像処理サーバ1は、対象の学習結果(学習パラメータ)を記憶する。
次に、撮影対象を判別する方法について、図6を用いて説明する。
(イ)まず、ステップS301において、端末装置2は、判別モードにおいて未知の判別対象を撮影し、画像を取得する。次に、ステップS302において、端末装置2は、判別対象関連情報(判別対象の位置情報、その測位誤差、対象までの距離等)を取得する。
(ロ)次に、ステップS303において、端末装置2は、画像処理サーバ1に判別対象関連情報及び判別画像を送信する。次に、ステップS304において、画像処理サーバ1は、判別対象関連情報及び判別画像を受信する。次に、ステップS305において、画像処理サーバ1は、判別画像の特徴量を抽出する。この特徴量の抽出方法は、後に詳述する。
(ハ)次に、ステップS306において、画像処理サーバ1は、判別対象の絞り込みを行う。次に、ステップS307において、画像処理サーバ1は、検索範囲の学習が完了しているか否か判断する。完了している場合は、ステップS308の処理に進み、完了していない場合は、ステップS309の処理に進む。
(ニ)ステップS309において、画像処理サーバ1は、図5のステップS203において説明した学習を行う。そして、ステップS308において、画像処理サーバ1は、判別画像の特徴量と学習パラメータを用いて対象判別を確率的に行う。具体的には、具体的には、上述した式(2)を用いて判定値を求め、判別候補となる撮影画像を求める。
(ホ)次に、ステップS310において、画像処理サーバ1は、判別結果の候補に関する撮影対象情報及び撮影対象関連情報を記憶装置17から読み出し、撮影対象情報、撮影対象関連情報、判別結果を端末装置2に送信する。
(へ)次に、ステップS310において、端末装置2は、確率的な判別結果を元に撮影対象情報と撮影対象関連情報に優先度をつけて(例えば、確率の高い候補を画面の上部に表示するなど)ユーザに提示する。これにより、ユーザは未知の登録対象に関連したURL等のアドレスを元にして、ネットワークからさらに対象に関連する情報を引き出すことができる。
図6に示す判別処理によると、例えば、ユーザが、端末装置2によって未知の撮影対象である店舗Aを撮影し、その撮影画像を画像処理サーバ1へ送信すると、画像処理サーバ1が店舗Aを判別し、店舗Aの名称、URL等を端末装置2に送信することができる。このため、端末装置2は、撮影画像からその撮影対象に関する情報を容易に得ることができる。
次に、図4のステップS107及び図6のステップS305における特徴量の抽出方法の詳細について、図7を用いて説明する。
(イ)まず、ステップS401において、画像処理サーバ1は、端末装置2に搭載したカメラによって対象の撮影画像を取得する。ここでは、図9に示す画像を取得したことを例にとり説明する。この取得した画像は、カメラや端末装置2の機能によりホワイトバランス等の一般的な画像補正を行われていてもよい。
(ロ)次に、ステップS402において、画像処理サーバ1は、取得画像にノイズ除去の画像補正処理を施す。この補正画像に対して、ステップS403において、撮影画像を任意の領域に分割し、領域毎の色ヒストグラムを抽出する。各領域の色ヒストグラムは、Vc次元の特徴量(Vc個の要素を有するベクトル値)として表される。領域の分割方法として、図9では、格子状に分割したものを示したが、放射状でも円形状でもよく、分割形状はこれに限らない。又、領域は等分割されなくてもよい。色ヒストグラムの抽出方法については、後に詳述する。
(ハ)次に、ステップS404において、任意の領域毎の色ヒストグラムを結合し、撮影画像全体の特徴量を抽出する。特徴量は、一定の要素数を有するベクトル値である。例えば、各領域の色ヒストグラムがVc次元、領域分割数がSであるとき、両者の特徴量を結合した特徴量の次元VがV=S×Vcとなるように、独立の次元として結合を行う。例えば、図9に示す撮影画像は、縦4×横6=24領域に分割されているので、各領域の色ヒストグラムが24次元であると、画像領域全体の特徴量は、24×24=576次元となる。
次に、図7のステップS403における色ヒストグラムの抽出方法の詳細について、図8を用いて説明する。
(イ)まず、ステップS501において、画像処理サーバ1は、任意の領域毎に、補正画像を視覚的に均等な空間である均等色空間(L*、a*、b*)で表現する。
(ロ)次に、ステップS502において、画像処理サーバ1は、均等色空間における各軸を独立に等間隔で量子化を行う。
(ハ)次に、ステップS503において、L*、a*、b*の量子化レベルの値の頻度を色ヒストグラムとする。例えば、L*、a*、b*の3軸の量子化レベルを8とした場合には、色ヒストグラムは、24(=3×8)次元(上述したVc次元)の特徴量となる。このとき、色ヒストグラムには、色の3原色の割合や各ピクセルの輝度値が含まれる。例えば、図9に示す撮影画像は、縦4×横6=24領域に分割されているので、24個の領域毎に、24次元の特徴量が算出される。
(ニ)次に、ステップS504において、任意の領域毎の色ヒストグラムに、任意の重みを掛け合わせる。任意の重みは、例えば、任意の領域毎の色ヒストグラムの次元の値の合計値の逆数とすることができる。各領域は等分割されているとは限らないので、重みとして、上記の合計値の逆数を掛け合わせることにより、色ヒストグラムを正規化することができる。その他、撮影画像の中心に近い領域に大きな重みを掛け合わせるなど、掛け合わせる重みは、実情に即したものを適宜選択することとする。
(作用及び効果)
本実施形態に係る画像処理装置及び画像処理方法によると、撮影画像の任意の領域毎に、色ヒストグラムを抽出し、それらを結合した特徴量に基づいて、撮影対象を判別することができる。このため、画像特徴量の次元数を低く抑え、計算処理量を小さくし、撮影画像から撮影画像に含まれる撮影対象を正しく判別することができる。
例えば、図9に示す撮影画像が100ピクセル×100ピクセルの画像であるとする。この撮影画像に対して、従来の輝度値及び色の特徴量を結合する処理を行う。具体的には、各ピクセルの輝度値を特徴量として、100×100=10,000次元を算出し、色の特徴量として、L*、a*、b*の3軸の量子化レベルを8とした場合に、3×8=24次元を算出する。これらを結合すると、撮影画像全体の特徴量は、10,000+24=10,024次元となる。一方、本実施形態において説明したように、図9に示す撮影画像を縦4×横6=24領域に分割し、領域毎に色ヒストグラムを抽出すると、L*、a*、b*の3軸の量子化レベルを8とした場合には、領域毎の色ヒストグラムは、24(=3×8)次元となる。これらを結合すると、撮影画像全体の特徴量は、24次元×24領域=576次元となる。このように、本実施形態によると、大幅に画像特徴量の次元数を低く抑え、計算処理量を小さくすることができる。
又、本実施形態に係る画像処理装置及び画像処理方法によると、任意の領域毎の色ヒストグラムに任意の重みを掛け合わせ、この重みを掛け合わされた色ヒストグラムを結合することにより特徴量を抽出することができる。このため、各領域で抽出した特徴量のベクトルの大きさについてバランスを取ることができる。
又、任意の重みは、任意の領域毎の色ヒストグラムの次元の値の合計値の逆数とすることができる。このため、ベクトルを正規化して結合を行うことができる。
又、本実施形態に係る画像処理装置及び画像処理方法によると、複数の撮影画像全体の特徴量それぞれに基づいて算出された複数の所定のパラメータを用いることにより、未知の撮影対象を判別することができる。このため、特徴量を用いて算出されたパラメータを用いて、未知の撮影対象の判別を行うことができる。
又、本実施形態に係る画像処理装置及び画像処理方法によると、上述した式(1)を用いて、所定のパラメータを算出し、式(2)によって得られた判別値が最も大きい撮影画像を、撮影対象として認識することができる。式(1)及び式(2)は、いわゆるNB(ナイーブ・ベイズ)の手法であり、未知の撮影対象が既知の撮影対象に該当する確率を、複数の既知の撮影対象それぞれに算出することができ、かつ、処理速度が早いという利点を有する。
(その他の実施の形態)
本発明は上記の実施の形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
例えば、上述した実施形態において、NB(ナイーブ・ベイズ)の手法を用いて、学習パラメータを取得し、未知の撮影対象を判別する例を示した。しかし、NBに限らず、他のベイズ手法やSVM(サポート・ベクター・マシン)、kNN(kニアレスト・ネイバー)、LVQ(ラーニング・ベクター・クォンタイゼーション)などの他の学習アルゴリズムを用いて、学習パラメータを取得し、未知の撮影対象を判別しても構わない。
又、実施形態に係る画像処理サーバ1は、通信手段11と、判別手段12と、特徴量抽出手段13と、登録手段14と、学習手段15と、重み付け手段18とをモジュールとしてCPUに内蔵する構成とすることができると説明したが、それらが二つあるいはそれ以上のCPUに分かれていても構わない。その際はそれらのCPU間でデータのやりとりが行えるようにバスなどで装置間を接続しているとする。
このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。
本発明の実施の形態に係る画像処理システムの構成ブロック図である。 本発明の実施の形態に係る画像処理サーバの構成ブロック図である。 本発明の実施の形態に係る端末装置の構成ブロック図である。 本発明の実施の形態に係る登録処理を示すフローチャートである。 本発明の実施の形態に係る学習処理を示すフローチャートである。 本発明の実施の形態に係る判別処理を示すフローチャートである。 本発明の実施の形態に係る特徴量抽出処理を示すフローチャートである。 図7のステップS403の詳細を示すフローチャートである。 本発明の実施の形態に係る撮影画像の一例である。
符号の説明
1 画像処理サーバ
2 端末装置
11 通信手段
12 対象判別手段
13 特徴量抽出手段
14 登録手段
15 学習手段
16 演算装置
17 記憶装置
18 重み付け手段
21 入力手段
22 通信手段
23 出力手段
24 撮影手段
25 測位手段
26 演算装置
27 記憶装置

Claims (6)

  1. 撮影画像から該撮影画像に含まれる未知の撮影対象を判別する画像処理装置であって、
    前記撮影画像全体を構成する複数の領域毎に、前記複数の領域のそれぞれを構成する複数のピクセルについて、色空間を構成する複数の軸毎の値を複数の量子化レベルで量子化し、前記複数の量子化レベルのそれぞれにおいて前記複数の軸毎に量子化された値の頻度を色ヒストグラムとして抽出する特徴量抽出手段と、
    前記撮影画像全体について、前記複数の領域毎に抽出された前記色ヒストグラムを結合し、前記色ヒストグラムの結合である結合特徴量を抽出する第2の特徴量抽出手段と、
    複数種類の既知の撮影対象に対応する前記結合特徴量と前記撮影画像全体に対応する前記結合特徴量との比較によって、前記未知の撮影対象が前記複数種類の既知の撮影対象のどれに属するかを順位付けて判別する判別手段とを備え
    前記複数種類の既知の撮影対象に対応する前記結合特徴量は、グルーピングされた撮影画像の学習によって構成されることを特徴とする画像処理装置。
  2. 前記複数の領域毎に抽出された前記色ヒストグラムに、任意の重みを掛け合わせる重み付け手段を更に備え、
    前記第2の特徴量抽出手段は、前記任意の重みを掛け合わされた前記色ヒストグラムを結合することを特徴とする請求項1に記載の画像処理装置。
  3. 前記任意の重みは、前記複数の領域毎に定められており、前記色ヒストグラムの度数の合計値の逆数であり、
    前記色ヒストグラムの度数の合計値は、前記複数の領域毎のピクセル数と前記複数の量子化レベルの数との乗算結果であることを特徴とする請求項2に記載の画像処理装置。
  4. 前記任意の重み付けは、前記複数の領域毎に定められており、前記撮影画像の中心に近いほど大きな値を有することを特徴とする請求項2に記載の画像処理装置。
  5. lを前記複数種類の既知の撮影対象を識別する番号、Lを前記複数の既知の撮影対象の数、N(l)をl番目の既知の撮影対象に対する複数の撮影画像の数、vを前記結合特徴量の次元を識別する番号、Vを前記結合特徴量の最大次元数、x(l) (n,v)を前記l番目の既知の撮影対象に属するn番目の撮影画像に対応するv番目の結合特徴量、γ(l)を前記l番目の既知の撮影対象に対応するスムージング係数、x’(v)を前記未知の撮影対象が含まれる前記撮影画像に対応する前記v番目の結合特徴量とした場合に、
    前記l番目の既知の撮影対象に対応する前記v番目の結合特徴量θ(v,l)は、以下の式によって算出され、
    Figure 0004741804
    前記未知の撮影対象が前記l番目の既知の撮影対象に属するかを順位付けるための判別値F(l)は、以下の式によって算出され、
    Figure 0004741804
    前記判別手段は、前記判別値F(l)に基づいて、前記未知の撮影対象が前記複数種類の既知の撮影対象のどれに属するかを順位付けて判別することを特徴とする請求項1乃至請求項3のいずれかに記載の画像処理装置。
  6. 撮影画像に含まれる未知の撮影対象を判別する画像処理方法であって、
    前記撮影画像全体を構成する複数の領域毎に、前記任意の領域のそれぞれを構成する複数のピクセルについて、色空間を構成する複数の軸毎の値を複数の量子化レベルで量子化し、前記複数の量子化レベルのそれぞれにおいて前記複数の軸毎に量子化された値の頻度を色ヒストグラムとして抽出する第1の特徴量抽出ステップと、
    前記撮影画像全体について、前記色ヒストグラムを結合し、前記色ヒストグラムの結合である結合特徴量を抽出する第2の特徴量抽出ステップと、
    複数種類の既知の撮影対象に対応する前記結合特徴量と前記撮影画像全体に対応する前記結合特徴量との比較によって、前記未知の撮影対象が前記複数種類の既知の撮影対象のどれに属するかを順位付けて判別する判別ステップとを備え
    前記複数種類の既知の撮影対象に対応する前記結合特徴量は、グルーピングされた撮影画像の学習によって構成されることを特徴とする画像処理方法。
JP2004050489A 2004-02-25 2004-02-25 画像処理装置及び画像処理方法 Expired - Fee Related JP4741804B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004050489A JP4741804B2 (ja) 2004-02-25 2004-02-25 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004050489A JP4741804B2 (ja) 2004-02-25 2004-02-25 画像処理装置及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2005242592A JP2005242592A (ja) 2005-09-08
JP4741804B2 true JP4741804B2 (ja) 2011-08-10

Family

ID=35024282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004050489A Expired - Fee Related JP4741804B2 (ja) 2004-02-25 2004-02-25 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP4741804B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5693162B2 (ja) * 2010-11-09 2015-04-01 キヤノン株式会社 画像処理システム、撮像装置、画像処理装置及びそれらの制御方法、プログラム
JP2014085802A (ja) * 2012-10-23 2014-05-12 Pioneer Electronic Corp 特徴量抽出装置、特徴量抽出方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5546475A (en) * 1994-04-29 1996-08-13 International Business Machines Corporation Produce recognition system
JP2002042134A (ja) * 2000-07-21 2002-02-08 Ricoh Co Ltd 画像特徴量比較方法および画像特徴量比較装置
JP4769416B2 (ja) * 2003-12-02 2011-09-07 株式会社エヌ・ティ・ティ・ドコモ 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2005242592A (ja) 2005-09-08

Similar Documents

Publication Publication Date Title
WO2021012484A1 (zh) 基于深度学习的目标跟踪方法、装置及计算机可读存储介质
JP4902562B2 (ja) 撮像装置、画像処理装置、制御方法およびプログラム
US20060153472A1 (en) Blurring correction method and imaging device
US20100322510A1 (en) Sky detection system used in image extraction device and method using sky detection system
WO2010016175A1 (ja) 対象検出装置および対象検出方法
CN103024422B (zh) 图像处理装置和图像处理方法
JP2019192082A (ja) 学習用サーバ、不足学習用画像収集支援システム、及び不足学習用画像推定プログラム
US20120052473A1 (en) Learning apparatus, learning method, and computer program product
CN116824203A (zh) 基于神经网络的青光眼的识别装置和识别方法
JP2018084861A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP4478087B2 (ja) 画像処理装置および方法,ならびに画像処理プログラム
JP4741804B2 (ja) 画像処理装置及び画像処理方法
JP2008236276A (ja) カメラ装置
JP4769416B2 (ja) 画像処理装置及び画像処理方法
JP4664047B2 (ja) 画像処理装置及び画像処理方法
JP7451465B2 (ja) 学習方法、プログラム及び画像処理装置
CN111639651A (zh) 一种基于全连接层特征提取的船只检索方法及装置
JP6855175B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2020047082A (ja) 情報処理装置、情報処理方法及びプログラム
US20210401327A1 (en) Imaging apparatus, information processing apparatus, image processing system, and control method
JPWO2022145294A5 (ja)
US20030161535A1 (en) Image processing method and apparatus, program, and storage medium
JP4515964B2 (ja) 画像補正装置および方法,ならびに画像補正プログラム
CN113284199A (zh) 图像灰度区域确定方法、电子设备及服务器
JP2004242099A (ja) 色歪み補正方法、色歪み補正装置、携帯端末、プログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100202

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100212

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20100319

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

R150 Certificate of patent or registration of utility model

Ref document number: 4741804

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees