JPH09171552A - 画像認識装置 - Google Patents
画像認識装置Info
- Publication number
- JPH09171552A JPH09171552A JP1145596A JP1145596A JPH09171552A JP H09171552 A JPH09171552 A JP H09171552A JP 1145596 A JP1145596 A JP 1145596A JP 1145596 A JP1145596 A JP 1145596A JP H09171552 A JPH09171552 A JP H09171552A
- Authority
- JP
- Japan
- Prior art keywords
- similarity
- feature
- small area
- foreground
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 認識対象画像パターン内の類似性が低く、無
地の部分を含んでいる場合でも、高精度に認識し得る画
像認識装置を提供する。 【解決手段】 画像入力部1で生成された画像データ
は、小領域抽出部2で複数の小領域に分割される。特徴
抽出部3は、各小領域から特徴を抽出する。フォアグラ
ウンド類似度マップ作成部4、バックグラウンド類似度
マップ作成部5は、抽出された特徴を用いて、各小領域
ごとに認識対象画像パターンのフォアグラウンド部分、
バックグラウンド部分との類似度を計算して、フォアグ
ランド類似度マップ、バックグランド類似度マップを作
成する。認識部6は、作成された2つの類似度マップに
おける類似度の分布と、お互いの相関関係により、入力
された画像に認識対象画像パターンが含まれているか否
かを認識する。
地の部分を含んでいる場合でも、高精度に認識し得る画
像認識装置を提供する。 【解決手段】 画像入力部1で生成された画像データ
は、小領域抽出部2で複数の小領域に分割される。特徴
抽出部3は、各小領域から特徴を抽出する。フォアグラ
ウンド類似度マップ作成部4、バックグラウンド類似度
マップ作成部5は、抽出された特徴を用いて、各小領域
ごとに認識対象画像パターンのフォアグラウンド部分、
バックグラウンド部分との類似度を計算して、フォアグ
ランド類似度マップ、バックグランド類似度マップを作
成する。認識部6は、作成された2つの類似度マップに
おける類似度の分布と、お互いの相関関係により、入力
された画像に認識対象画像パターンが含まれているか否
かを認識する。
Description
【0001】
【発明の属する技術分野】本発明は、画像の認識装置に
関し、特に画像に含まれる特定パターンを認識する画像
認識装置に関するものである。
関し、特に画像に含まれる特定パターンを認識する画像
認識装置に関するものである。
【0002】
【従来の技術】一般に、画像に含まれる認識対象画像パ
ターンを認識するためには、画像のどこにどのような向
きで認識対象画像パターンの候補が存在するのかを調査
する必要がある。認識対象画像パターンの候補を抽出す
る技術として、例えば、特開平5−225344号公報
や特開平6−44365号公報に示されているように、
各カテゴリ内で共通する特徴的な基準点を設定し、画像
中からこの基準点を探索することで認識対象画像パター
ンの候補を抽出する方法がある。しかし、この方法では
あらかじめ認識対象画像パターン内に存在するような特
徴的な基準点を設定する必要があり、この設定方法も認
識対象画像パターンにより変化するため、あまり汎用的
とは言えない。
ターンを認識するためには、画像のどこにどのような向
きで認識対象画像パターンの候補が存在するのかを調査
する必要がある。認識対象画像パターンの候補を抽出す
る技術として、例えば、特開平5−225344号公報
や特開平6−44365号公報に示されているように、
各カテゴリ内で共通する特徴的な基準点を設定し、画像
中からこの基準点を探索することで認識対象画像パター
ンの候補を抽出する方法がある。しかし、この方法では
あらかじめ認識対象画像パターン内に存在するような特
徴的な基準点を設定する必要があり、この設定方法も認
識対象画像パターンにより変化するため、あまり汎用的
とは言えない。
【0003】この問題を解決する一つの方法として、例
えば、特願平7−93527号に示したような、与えら
れた画像を小領域に分割し、各小領域ごとに認識対象画
像パターンとの類似度を算出して類似度マップを作成
し、各小領域ごとの類似度の分布状態から与えられた画
像が認識対象画像パターンを含んでいるか否かを判断す
る画像認識方法および装置がある。この手法を用いるこ
とにより、複雑な背景を持つ画像パターンなども認識す
ることが容易になる。また、最終的な認識を類似度の分
布により行うため、局所的な変動を吸収できるという利
点がある。
えば、特願平7−93527号に示したような、与えら
れた画像を小領域に分割し、各小領域ごとに認識対象画
像パターンとの類似度を算出して類似度マップを作成
し、各小領域ごとの類似度の分布状態から与えられた画
像が認識対象画像パターンを含んでいるか否かを判断す
る画像認識方法および装置がある。この手法を用いるこ
とにより、複雑な背景を持つ画像パターンなども認識す
ることが容易になる。また、最終的な認識を類似度の分
布により行うため、局所的な変動を吸収できるという利
点がある。
【0004】しかしながら、特願平7−93527号で
示されている手法は、小領域の類似度を算出する際に認
識対象画像パターン全体をほぼ一様と見なしているた
め、認識対象画像パターン内における特異性が極端に低
いと類似する小領域の全体集合が増加する。そのため、
類似度が高いと判断される小領域が多くなってしまい、
類似度の分布状態による認識の精度が低下してしまう。
特に、認識対象画像パターンに無地の領域がある程度以
上含まれている場合、与えられた画像に含まれる無地の
部分も識対象画像パターンとの類似度が高いと判断され
てしまい、認識精度の低下を招く危険性がある。
示されている手法は、小領域の類似度を算出する際に認
識対象画像パターン全体をほぼ一様と見なしているた
め、認識対象画像パターン内における特異性が極端に低
いと類似する小領域の全体集合が増加する。そのため、
類似度が高いと判断される小領域が多くなってしまい、
類似度の分布状態による認識の精度が低下してしまう。
特に、認識対象画像パターンに無地の領域がある程度以
上含まれている場合、与えられた画像に含まれる無地の
部分も識対象画像パターンとの類似度が高いと判断され
てしまい、認識精度の低下を招く危険性がある。
【0005】
【発明が解決しようとする課題】本発明は、上述した事
情に鑑みてなされたもので、認識対象画像パターン内の
類似性が低い場合、特に認識対象画像パターン内に無地
の部分を含んでいる場合でも、高精度に認識し得る画像
認識装置を提供することを目的とするものである。
情に鑑みてなされたもので、認識対象画像パターン内の
類似性が低い場合、特に認識対象画像パターン内に無地
の部分を含んでいる場合でも、高精度に認識し得る画像
認識装置を提供することを目的とするものである。
【0006】
【課題を解決するための手段】請求項1に記載の発明
は、画像認識装置において、入力された画像を量子化し
画像データを生成する画像入力手段と、該画像入力手段
により生成された前記画像データから複数の小領域を抽
出する小領域抽出手段と、該小領域抽出手段により得ら
れた各小領域から特徴を抽出する特徴抽出手段と、該特
徴抽出手段により抽出された特徴を用いて前記小領域抽
出手段により得られた各小領域ごとに認識対象画像パタ
ーンのフォアグラウンド部分との類似度を計算しフォア
グラウンド類似度マップを作成するフォアグラウンド類
似度マップ作成手段と、前記特徴抽出手段により抽出さ
れた特徴を用いて前記小領域抽出手段により得られた各
小領域ごとに前記認識対象画像パターンのバックグラウ
ンド部分との類似度を計算しバックグラウンド類似度マ
ップを作成するバックグラウンド類似度マップ作成手段
と、前記フォアグラウンド類似度マップ作成手段により
作成された前記フォアグラウンド類似度マップおよび前
記バックグラウンド類似度マップ作成手段により作成さ
れた前記バックグラウンド類似度マップにおける類似度
の分布状態および前記フォアグラウンド類似度マップと
前記バックグラウンド類似度マップの相関関係から入力
された画像に認識対象画像パターンが含まれているか否
かを認識する認識手段を有することを特徴とするもので
ある。
は、画像認識装置において、入力された画像を量子化し
画像データを生成する画像入力手段と、該画像入力手段
により生成された前記画像データから複数の小領域を抽
出する小領域抽出手段と、該小領域抽出手段により得ら
れた各小領域から特徴を抽出する特徴抽出手段と、該特
徴抽出手段により抽出された特徴を用いて前記小領域抽
出手段により得られた各小領域ごとに認識対象画像パタ
ーンのフォアグラウンド部分との類似度を計算しフォア
グラウンド類似度マップを作成するフォアグラウンド類
似度マップ作成手段と、前記特徴抽出手段により抽出さ
れた特徴を用いて前記小領域抽出手段により得られた各
小領域ごとに前記認識対象画像パターンのバックグラウ
ンド部分との類似度を計算しバックグラウンド類似度マ
ップを作成するバックグラウンド類似度マップ作成手段
と、前記フォアグラウンド類似度マップ作成手段により
作成された前記フォアグラウンド類似度マップおよび前
記バックグラウンド類似度マップ作成手段により作成さ
れた前記バックグラウンド類似度マップにおける類似度
の分布状態および前記フォアグラウンド類似度マップと
前記バックグラウンド類似度マップの相関関係から入力
された画像に認識対象画像パターンが含まれているか否
かを認識する認識手段を有することを特徴とするもので
ある。
【0007】前記フォアグラウンド類似度マップ作成手
段および前記バックグラウンド類似度マップ作成手段
は、例えば、請求項2に記載の発明のように、学習用の
認識対象画像パターンから抽出された小領域において予
め定められた閾値以上のエッジ強度を持つ画素が予め定
められた割合以上含まれている小領域をフォアグラウン
ド、これ以外の小領域をバックグラウンドとして、予め
統計的手法により結合係数行列を算出しておき、前記特
徴抽出手段により抽出された特徴ベクトルから類似度を
算出するように構成することができる。
段および前記バックグラウンド類似度マップ作成手段
は、例えば、請求項2に記載の発明のように、学習用の
認識対象画像パターンから抽出された小領域において予
め定められた閾値以上のエッジ強度を持つ画素が予め定
められた割合以上含まれている小領域をフォアグラウン
ド、これ以外の小領域をバックグラウンドとして、予め
統計的手法により結合係数行列を算出しておき、前記特
徴抽出手段により抽出された特徴ベクトルから類似度を
算出するように構成することができる。
【0008】あるいは、前記フォアグラウンド類似度マ
ップ作成手段および前記バックグラウンド類似度マップ
作成手段は、請求項3に記載の発明のように、学習用の
認識対象画像パターンから抽出された小領域中の画素値
の分散が予め定められた閾値以上の小領域をフォアグラ
ウンド、これ以外の小領域をバックグラウンドとして、
予め統計的手法により結合係数行列を算出しておき、前
記特徴抽出手段により抽出された特徴ベクトルから類似
度を算出するように構成することができる。
ップ作成手段および前記バックグラウンド類似度マップ
作成手段は、請求項3に記載の発明のように、学習用の
認識対象画像パターンから抽出された小領域中の画素値
の分散が予め定められた閾値以上の小領域をフォアグラ
ウンド、これ以外の小領域をバックグラウンドとして、
予め統計的手法により結合係数行列を算出しておき、前
記特徴抽出手段により抽出された特徴ベクトルから類似
度を算出するように構成することができる。
【0009】請求項4に記載の発明は、画像処理装置に
おいて、入力された画像を量子化し画像データを生成す
る画像入力手段と、該画像入力手段により生成された前
記画像データから複数の小領域を抽出する小領域抽出手
段と、該小領域抽出手段により得られた各小領域から特
徴を抽出する特徴抽出手段と、該特徴抽出手段により抽
出された特徴を用いて前記小領域抽出手段により得られ
た小領域ごとに予め設定しておいた複数の基準特徴との
類似度を計算し複数の類似度マップを作成する類似度マ
ップ作成手段と、該類似度マップ作成手段により作成さ
れた複数の類似度マップにおける類似度の分布状態およ
び複数の類似度マップの間の相関関係から入力された画
像に認識対象画像パターンが含まれているか否かを認識
する認識手段とを具備することを特徴とするものであ
る。
おいて、入力された画像を量子化し画像データを生成す
る画像入力手段と、該画像入力手段により生成された前
記画像データから複数の小領域を抽出する小領域抽出手
段と、該小領域抽出手段により得られた各小領域から特
徴を抽出する特徴抽出手段と、該特徴抽出手段により抽
出された特徴を用いて前記小領域抽出手段により得られ
た小領域ごとに予め設定しておいた複数の基準特徴との
類似度を計算し複数の類似度マップを作成する類似度マ
ップ作成手段と、該類似度マップ作成手段により作成さ
れた複数の類似度マップにおける類似度の分布状態およ
び複数の類似度マップの間の相関関係から入力された画
像に認識対象画像パターンが含まれているか否かを認識
する認識手段とを具備することを特徴とするものであ
る。
【0010】前記類似度マップ作成手段における基準特
徴としては、例えば、請求項5に記載の発明のように、
前記小領域抽出手段により学習用の認識対象画像パター
ンから抽出された各小領域を該小領域の持つエッジ強度
により複数に分類し、この分類された小領域の各グルー
プから算出した特徴を用いることができる。あるいは、
請求項6に記載の発明のように、前記小領域抽出手段に
より学習用の認識対象画像パターンから抽出された各小
領域を該小領域の持つ色相や彩度により複数に分類し、
この分類された小領域の各グループから算出した特徴を
用いることができる。
徴としては、例えば、請求項5に記載の発明のように、
前記小領域抽出手段により学習用の認識対象画像パター
ンから抽出された各小領域を該小領域の持つエッジ強度
により複数に分類し、この分類された小領域の各グルー
プから算出した特徴を用いることができる。あるいは、
請求項6に記載の発明のように、前記小領域抽出手段に
より学習用の認識対象画像パターンから抽出された各小
領域を該小領域の持つ色相や彩度により複数に分類し、
この分類された小領域の各グループから算出した特徴を
用いることができる。
【0011】
【発明の実施の形態】図1は、本発明の画像認識装置の
第1の実施の形態を示すブロック図である。図中、1は
画像入力部、2は小領域抽出部、3は特徴抽出部、4は
フォアグラウンド類似度マップ作成部、5はバックグラ
ウンド類似度マップ作成部、6は認識部である。
第1の実施の形態を示すブロック図である。図中、1は
画像入力部、2は小領域抽出部、3は特徴抽出部、4は
フォアグラウンド類似度マップ作成部、5はバックグラ
ウンド類似度マップ作成部、6は認識部である。
【0012】画像入力部1は、入力された画像を量子化
し、画像データを生成する。小領域抽出部2は、画像入
力部1で生成された画像データから、複数の小領域を抽
出する。特徴抽出部3は、小領域抽出部2で抽出された
各小領域ごとに、その小領域の特徴を抽出する。フォア
グラウンド類似度マップ作成部4は、特徴抽出部3で抽
出された特徴を用いて各小領域ごとに認識対象画像パタ
ーンのフォアグラウンド部分との類似度を計算し、フォ
アグラウンド類似度マップを作成する。バックグラウン
ド類似度マップ作成部5は、同じく特徴抽出部3にて抽
出された特徴を用いて各小領域ごとに認識対象画像パタ
ーンのバックグラウンド部分との類似度を計算し、バッ
クグラウンド類似度マップを作成する。認識部6は、フ
ォアグラウンド類似度マップ作成部4で作成されたフォ
アグラウンド類似度マップにおける類似度の分布状態、
バックグラウンド類似度マップ作成部5で作成されたバ
ックグラウンド類似度マップにおける類似度の分布状
態、および、両者の相関関係から、入力された画像に認
識対象画像パターンが含まれているか否かを認識する。
し、画像データを生成する。小領域抽出部2は、画像入
力部1で生成された画像データから、複数の小領域を抽
出する。特徴抽出部3は、小領域抽出部2で抽出された
各小領域ごとに、その小領域の特徴を抽出する。フォア
グラウンド類似度マップ作成部4は、特徴抽出部3で抽
出された特徴を用いて各小領域ごとに認識対象画像パタ
ーンのフォアグラウンド部分との類似度を計算し、フォ
アグラウンド類似度マップを作成する。バックグラウン
ド類似度マップ作成部5は、同じく特徴抽出部3にて抽
出された特徴を用いて各小領域ごとに認識対象画像パタ
ーンのバックグラウンド部分との類似度を計算し、バッ
クグラウンド類似度マップを作成する。認識部6は、フ
ォアグラウンド類似度マップ作成部4で作成されたフォ
アグラウンド類似度マップにおける類似度の分布状態、
バックグラウンド類似度マップ作成部5で作成されたバ
ックグラウンド類似度マップにおける類似度の分布状
態、および、両者の相関関係から、入力された画像に認
識対象画像パターンが含まれているか否かを認識する。
【0013】画像入力部1は、認識したい画像を入力と
し、量子化された画像データを生成し、小領域抽出部2
に与える。小領域抽出部2は、与えられた画像データか
ら複数の小領域を抽出し、特徴抽出部3に与える。特徴
抽出部3は、与えられた複数の小領域から特徴抽出を行
ない、各小領域に対応する特徴ベクトルを生成し、フォ
アグラウンド類似度マップ作成部4およびバックグラウ
ンド類似度マップ作成部5に与える。フォアグラウンド
類似度マップ作成部4は、与えられた各小領域に対応す
る特徴ベクトルを用いて対応する小領域と認識対象画像
パターンのフォアグラウンド部分との類似度を算出し、
フォアグラウンド類似度マップを作成する。バックグラ
ウンド類似度マップ作成部5は、与えられた各小領域に
対応する特徴ベクトルを用いて対応する小領域と認識対
象画像パターンのバックグラウンド部分との類似度を算
出し、バックグラウンド類似度マップを作成する。そし
て、認識部6は、このフォアグラウンド類似度マップお
よびバックグラウンド類似度マップ上の類似度の分布お
よび両者の相関関係を用いて、入力された画像が認識対
象画像パターンを含んでいるか否かを認識する。
し、量子化された画像データを生成し、小領域抽出部2
に与える。小領域抽出部2は、与えられた画像データか
ら複数の小領域を抽出し、特徴抽出部3に与える。特徴
抽出部3は、与えられた複数の小領域から特徴抽出を行
ない、各小領域に対応する特徴ベクトルを生成し、フォ
アグラウンド類似度マップ作成部4およびバックグラウ
ンド類似度マップ作成部5に与える。フォアグラウンド
類似度マップ作成部4は、与えられた各小領域に対応す
る特徴ベクトルを用いて対応する小領域と認識対象画像
パターンのフォアグラウンド部分との類似度を算出し、
フォアグラウンド類似度マップを作成する。バックグラ
ウンド類似度マップ作成部5は、与えられた各小領域に
対応する特徴ベクトルを用いて対応する小領域と認識対
象画像パターンのバックグラウンド部分との類似度を算
出し、バックグラウンド類似度マップを作成する。そし
て、認識部6は、このフォアグラウンド類似度マップお
よびバックグラウンド類似度マップ上の類似度の分布お
よび両者の相関関係を用いて、入力された画像が認識対
象画像パターンを含んでいるか否かを認識する。
【0014】図2は、本発明の画像認識装置の第1の実
施の形態を実現する第1の構成例を示すブロック図であ
る。図中、11はカラー原稿入力処理部、12はL* a
* b* 画像データ記憶メモリ、13は正方領域位置算出
処理部、14は局所自己相関特徴抽出処理部、15は傾
き特徴抽出処理部、16はバックグラウンド類似度マッ
プ作成処理部、17はフォアグラウンド類似度マップ作
成処理部、18は類似度マップ記憶メモリ、19は認識
処理部である。この例では、入力される画像はカラー画
像であるものとする。
施の形態を実現する第1の構成例を示すブロック図であ
る。図中、11はカラー原稿入力処理部、12はL* a
* b* 画像データ記憶メモリ、13は正方領域位置算出
処理部、14は局所自己相関特徴抽出処理部、15は傾
き特徴抽出処理部、16はバックグラウンド類似度マッ
プ作成処理部、17はフォアグラウンド類似度マップ作
成処理部、18は類似度マップ記憶メモリ、19は認識
処理部である。この例では、入力される画像はカラー画
像であるものとする。
【0015】カラー原稿入力処理部11では、スキャナ
および既存の色空間変換処理手段などを用いて、入力対
象のカラー原稿を入力し、量子化して多階調のL* a*
b*カラー画像データ(CIEのL* a* b* 色空間上
の3要素L* ,a* ,b* で表わされる画像データ)を
生成する。ここでは入力対象を原稿としたので入力手段
としてスキャナを用いたが、入力対象によっては屋外等
の風景をビデオカメラなどにより入力してもよい。ある
いは、計算機を用いて描画された画像などでもよい。入
力される画像は、一旦記憶装置に格納しておき、認識処
理時に読み出すように構成することができる。
および既存の色空間変換処理手段などを用いて、入力対
象のカラー原稿を入力し、量子化して多階調のL* a*
b*カラー画像データ(CIEのL* a* b* 色空間上
の3要素L* ,a* ,b* で表わされる画像データ)を
生成する。ここでは入力対象を原稿としたので入力手段
としてスキャナを用いたが、入力対象によっては屋外等
の風景をビデオカメラなどにより入力してもよい。ある
いは、計算機を用いて描画された画像などでもよい。入
力される画像は、一旦記憶装置に格納しておき、認識処
理時に読み出すように構成することができる。
【0016】L* a* b* 画像データ記憶メモリ12
は、カラー原稿入力処理部11により入力されたL* a
* b* カラー画像データを記憶する。このとき、L* a
* b*画像データ記憶メモリ12の容量を節約するため
に、カラー原稿入力処理部11で入力対象の原稿全体を
読み込むのではなく、正方領域位置算出処理部13や局
所自己相関特徴抽出処理部14、傾き特徴抽出処理部1
5の処理が可能な部分のみを読み込み、その読み込まれ
たL* a* b* カラー画像データをL* a* b*画像デ
ータ記憶メモリ12に記憶するようにしてもよい。
は、カラー原稿入力処理部11により入力されたL* a
* b* カラー画像データを記憶する。このとき、L* a
* b*画像データ記憶メモリ12の容量を節約するため
に、カラー原稿入力処理部11で入力対象の原稿全体を
読み込むのではなく、正方領域位置算出処理部13や局
所自己相関特徴抽出処理部14、傾き特徴抽出処理部1
5の処理が可能な部分のみを読み込み、その読み込まれ
たL* a* b* カラー画像データをL* a* b*画像デ
ータ記憶メモリ12に記憶するようにしてもよい。
【0017】正方領域位置算出処理部13では、L* a
* b* 画像データ記憶メモリ12に記憶されているL*
a* b* カラー画像データ、もしくはその一部から、局
所自己相関特徴抽出処理部14および傾き特徴抽出処理
部15において特徴抽出の対象となる複数の小領域の位
置の計算を行なう。図3は、本発明の画像認識装置の第
1の実施の形態を実現する第1の構成例における正方領
域抽出の一例の説明図である。正方領域位置算出処理部
13では、図3に破線で示すような等間隔の格子線を仮
定し、その格子点を重心とするあらかじめ定められた長
さの辺を持つ正方形を小領域とし、その各小領域の位置
を計算する。具体的には、L* a* b*カラー画像デー
タの横方向の画素数をW、縦方向の画素数をH、横方向
に並ぶ正方領域の数をNx 、正方領域の一辺の画素数を
sとするとき、
* b* 画像データ記憶メモリ12に記憶されているL*
a* b* カラー画像データ、もしくはその一部から、局
所自己相関特徴抽出処理部14および傾き特徴抽出処理
部15において特徴抽出の対象となる複数の小領域の位
置の計算を行なう。図3は、本発明の画像認識装置の第
1の実施の形態を実現する第1の構成例における正方領
域抽出の一例の説明図である。正方領域位置算出処理部
13では、図3に破線で示すような等間隔の格子線を仮
定し、その格子点を重心とするあらかじめ定められた長
さの辺を持つ正方形を小領域とし、その各小領域の位置
を計算する。具体的には、L* a* b*カラー画像デー
タの横方向の画素数をW、縦方向の画素数をH、横方向
に並ぶ正方領域の数をNx 、正方領域の一辺の画素数を
sとするとき、
【数1】 により縦方向の正方領域の数Ny を算出する。あるい
は、L* a* b* カラー画像データの横方向の画素数を
W、縦方向の画素数をH、おおよその格子線の間隔を
B、正方領域の一辺の長さをsとするとき、
は、L* a* b* カラー画像データの横方向の画素数を
W、縦方向の画素数をH、おおよその格子線の間隔を
B、正方領域の一辺の長さをsとするとき、
【数2】 により水平方向の正方領域の数Nx と垂直方向の正方領
域の数Ny を算出する。そして、
域の数Ny を算出する。そして、
【数3】 により正方領域fij(i=1,・・・,Nx ,j=1,
・・・,Ny )の左上の座標Pij,(i=1,・・・,
Nx ,j=1,・・・,Ny )を算出することができ
る。但し、この算出された座標はL* a* b* カラー画
像データの左上の画素データの座標を(0,0)とし、
横方向は右に行くほど、縦方向は下に行くほど増加する
ものとする。
・・・,Ny )の左上の座標Pij,(i=1,・・・,
Nx ,j=1,・・・,Ny )を算出することができ
る。但し、この算出された座標はL* a* b* カラー画
像データの左上の画素データの座標を(0,0)とし、
横方向は右に行くほど、縦方向は下に行くほど増加する
ものとする。
【0018】局所自己相関特徴抽出処理部14において
は、正方領域位置算出処理部13で抽出された正方領域
から色情報およびその隣接関係を特徴量として抽出し、
各正方領域に対応する特徴ベクトルを生成する。従来ま
でに多くの特徴量が提案されているが、例えば、栗田
多喜夫ほか,「印象語による絵画データベースの検
索」,情報処理学会論文誌,Vol.33,No.1
1,1992(以下、「文献1」と称する)に示されて
いるカラー画像に対する1次までの局所自己相関特徴を
修正した特徴量を用いることができる。
は、正方領域位置算出処理部13で抽出された正方領域
から色情報およびその隣接関係を特徴量として抽出し、
各正方領域に対応する特徴ベクトルを生成する。従来ま
でに多くの特徴量が提案されているが、例えば、栗田
多喜夫ほか,「印象語による絵画データベースの検
索」,情報処理学会論文誌,Vol.33,No.1
1,1992(以下、「文献1」と称する)に示されて
いるカラー画像に対する1次までの局所自己相関特徴を
修正した特徴量を用いることができる。
【0019】以下に、この例における局所自己相関特徴
抽出処理部14で使用した特徴量について詳細に説明す
る。ここで、特徴抽出の対象となる正方領域をf(x,
y)=[L(x,y),a(x,y),b(x,y)]
T ,1≦x,y≦sとする。ただし、L(x,y),a
(x,y),b(x,y)は、それぞれ、画素(x,
y)におけるL* ,a* ,b* 成分を表わし、0≦L
(x,y)≦1,−1≦a(x,y),b(x,y)≦
1に正規化されているものとする。また、AT は行列A
の転置行列を表わす。
抽出処理部14で使用した特徴量について詳細に説明す
る。ここで、特徴抽出の対象となる正方領域をf(x,
y)=[L(x,y),a(x,y),b(x,y)]
T ,1≦x,y≦sとする。ただし、L(x,y),a
(x,y),b(x,y)は、それぞれ、画素(x,
y)におけるL* ,a* ,b* 成分を表わし、0≦L
(x,y)≦1,−1≦a(x,y),b(x,y)≦
1に正規化されているものとする。また、AT は行列A
の転置行列を表わす。
【0020】L* a* b* カラー画像データに対する0
次の自己相関は、文献1にあるように、
次の自己相関は、文献1にあるように、
【数4】 のように表わされる。また、1次の自己相関は、変位方
向をr=(rx ,ry )とすると、
向をr=(rx ,ry )とすると、
【数5】 のように表わされる。
【0021】図4は、1次の局所自己相関の変位パター
ンの説明図である。この1次の自己相関の式では、変位
方向rの取り方により無数の特徴を得ることができる。
ここでは、上述の文献1にも示されているように、図4
(A)〜(E)に示す平行移動により重複しない5つの
変位方向について1次の自己相関を算出するものとす
る。ただし、図4(A)に示す変位方向r=(0,0)
の場合には、σlaとσalのように組合せが同じものはそ
の値も等しくなるので、どちらか一方で代表させる。従
って、0次の自己相関特徴が3つ、1次の自己相関特徴
でかつ変位方向r=(0,0)の場合が6つ、それ以外
の1次の自己相関特徴が4つの変位方向に対して9つず
つ算出でき、合計45次元の特徴ベクトルVCij を抽出
することができる。
ンの説明図である。この1次の自己相関の式では、変位
方向rの取り方により無数の特徴を得ることができる。
ここでは、上述の文献1にも示されているように、図4
(A)〜(E)に示す平行移動により重複しない5つの
変位方向について1次の自己相関を算出するものとす
る。ただし、図4(A)に示す変位方向r=(0,0)
の場合には、σlaとσalのように組合せが同じものはそ
の値も等しくなるので、どちらか一方で代表させる。従
って、0次の自己相関特徴が3つ、1次の自己相関特徴
でかつ変位方向r=(0,0)の場合が6つ、それ以外
の1次の自己相関特徴が4つの変位方向に対して9つず
つ算出でき、合計45次元の特徴ベクトルVCij を抽出
することができる。
【0022】傾き特徴抽出処理部15では、正方領域位
置算出処理部13で抽出された正方領域から線の傾き方
向とその強度についての特徴を抽出する。この線の傾き
特徴は、例えば、H.Tamuraほか,“Textu
ral FeaturesCorresponding
to Visual Perception”,IE
EE Transactions on System
s, Man, and Cybernetics,V
ol.SMC−8,No.6,June 1978に示
されている方法により算出した、局所的な線の傾きの方
向とその強度を用いることができる。
置算出処理部13で抽出された正方領域から線の傾き方
向とその強度についての特徴を抽出する。この線の傾き
特徴は、例えば、H.Tamuraほか,“Textu
ral FeaturesCorresponding
to Visual Perception”,IE
EE Transactions on System
s, Man, and Cybernetics,V
ol.SMC−8,No.6,June 1978に示
されている方法により算出した、局所的な線の傾きの方
向とその強度を用いることができる。
【0023】具体的には、まず、正方領域内の明度成分
(L* 成分)に対して、局所的な線の傾きの強さと方向
を次の式により算出する。
(L* 成分)に対して、局所的な線の傾きの強さと方向
を次の式により算出する。
【数6】 ここで、ΔH とΔV はそれぞれ水平方向と垂直方向の差
分である。図5は、1次微分オペレータの一例の説明図
である。上述の式中の水平方向の差分△H は、図5
(A)に示すような1次微分オペレータにより計算する
ことができる。同様に、垂直方向の差分△V は、図5
(B)に示すような1次微分オペレータにより計算する
ことができる。
分である。図5は、1次微分オペレータの一例の説明図
である。上述の式中の水平方向の差分△H は、図5
(A)に示すような1次微分オペレータにより計算する
ことができる。同様に、垂直方向の差分△V は、図5
(B)に示すような1次微分オペレータにより計算する
ことができる。
【0024】各小領域内のすべての明度成分について、
線の傾きの強さと方向を算出して線の傾き強度のマップ
g(x,y),(1≦x,y≦s)および線の傾き方向
のマップd(x,y),(1≦x,y≦s)からf’
(x,y)=[g(x,y),d(x,y)]T を作成
する。これを用いて、0次の自己相関および1次の自己
相関を次式によって計算する。
線の傾きの強さと方向を算出して線の傾き強度のマップ
g(x,y),(1≦x,y≦s)および線の傾き方向
のマップd(x,y),(1≦x,y≦s)からf’
(x,y)=[g(x,y),d(x,y)]T を作成
する。これを用いて、0次の自己相関および1次の自己
相関を次式によって計算する。
【数7】 この場合も変位方向rは図4に示した5つとする。この
式によって1次までの自己相関特徴ベクトルVtij ,
(i=1,・・・,Nx ,j=1,・・・,Ny )を抽
出する。このとき、0次の自己相関特徴が2つ、r=
(0,0)の場合の1次の自己相関特徴が3つ、それ以
外の4方向の1次の自己相関特徴がそれぞれ4つずつ得
られるので、得られる自己相関特徴ベクトルVtij は2
1次元のベクトルとなる。
式によって1次までの自己相関特徴ベクトルVtij ,
(i=1,・・・,Nx ,j=1,・・・,Ny )を抽
出する。このとき、0次の自己相関特徴が2つ、r=
(0,0)の場合の1次の自己相関特徴が3つ、それ以
外の4方向の1次の自己相関特徴がそれぞれ4つずつ得
られるので、得られる自己相関特徴ベクトルVtij は2
1次元のベクトルとなる。
【0025】バックグラウンド類似度マップ作成処理部
16では、局所自己相関特徴抽出処理部14で生成され
た正方領域fijに対応する特徴ベクトルVcij を基に、
各正方領域が認識対象画像パターンのバックグラウンド
部分にどの程度類似しているかを算出し、バックグラウ
ンド類似度マップを作成する。作成されたバックグラウ
ンド類似度マップは、類似度マップ記憶メモリ18に記
憶される。
16では、局所自己相関特徴抽出処理部14で生成され
た正方領域fijに対応する特徴ベクトルVcij を基に、
各正方領域が認識対象画像パターンのバックグラウンド
部分にどの程度類似しているかを算出し、バックグラウ
ンド類似度マップを作成する。作成されたバックグラウ
ンド類似度マップは、類似度マップ記憶メモリ18に記
憶される。
【0026】ここでは、主成分分析によりあらかじめ結
合係数行列Ab を算出しておき、
合係数行列Ab を算出しておき、
【数8】 により、判別特徴ベクトルyijを求める。ここで、説明
変量にあたるベクトルxijとして、正方領域fijに対応
する特徴ベクトルVcij を用いる。これによって、局所
自己相関特徴抽出処理部14で抽出した特徴空間X上の
特徴ベクトルxij=Vcij を、認識対象画像パターンの
バックグラウンド部分に類似しているか否かを判別する
ために適した判別特徴空間Yに写像して、判別特徴ベク
トルyij,(i=1,・・・,Nx ,j=1,・・・,
Ny )を算出することができる。
変量にあたるベクトルxijとして、正方領域fijに対応
する特徴ベクトルVcij を用いる。これによって、局所
自己相関特徴抽出処理部14で抽出した特徴空間X上の
特徴ベクトルxij=Vcij を、認識対象画像パターンの
バックグラウンド部分に類似しているか否かを判別する
ために適した判別特徴空間Yに写像して、判別特徴ベク
トルyij,(i=1,・・・,Nx ,j=1,・・・,
Ny )を算出することができる。
【0027】次に、結合係数行列Ab とともにあらかじ
め算出しておいた代表ベクトルRbとの距離Dbij から
め算出しておいた代表ベクトルRbとの距離Dbij から
【数9】 なる式を用いてバックグラウンド類似度マップS
b (i,j)を作成する。ただし、Lb は主成分分析を
用いて算出しておく結合係数行列Ab を用いてあらかじ
め定めておく閾値である。
b (i,j)を作成する。ただし、Lb は主成分分析を
用いて算出しておく結合係数行列Ab を用いてあらかじ
め定めておく閾値である。
【0028】図6は、本発明の画像認識装置の第1の実
施の形態における2次元の判別特徴空間における諸値の
説明図である。このバックグラウンド類似度マップSb
(i,j)の値は、判別特徴ベクトルyijと代表ベクト
ルRb との距離Dbij がLbよりも大きいとき、すなわ
ち、図6において点線で示した円より外側に判別特徴ベ
クトルyijが伸びている場合には、0となる。また、距
離Dbij がLb 以内の場合、すなわち、点線で示した円
内に判別特徴ベクトルyijが収まる場合には、その距離
Dbij に逆比例した値が求められる。ここで、判別特徴
ベクトルyijが代表ベクトルRb と一致する場合を1、
円の周上を0となるように正規化している。
施の形態における2次元の判別特徴空間における諸値の
説明図である。このバックグラウンド類似度マップSb
(i,j)の値は、判別特徴ベクトルyijと代表ベクト
ルRb との距離Dbij がLbよりも大きいとき、すなわ
ち、図6において点線で示した円より外側に判別特徴ベ
クトルyijが伸びている場合には、0となる。また、距
離Dbij がLb 以内の場合、すなわち、点線で示した円
内に判別特徴ベクトルyijが収まる場合には、その距離
Dbij に逆比例した値が求められる。ここで、判別特徴
ベクトルyijが代表ベクトルRb と一致する場合を1、
円の周上を0となるように正規化している。
【0029】このようにして求められたバックグラウン
ド類似度マップSb (i,j)の値は、代表ベクトルR
b との近さを示すことになる。代表ベクトルRb を認識
対象画像データのバックグラウンド部分を基に求めてお
けば、バックグラウンド類似度マップSb (i,j)の
値は、認識対象画像データのバックグラウンド部分と入
力された画像データのとの正方領域fijにおける類似度
を示すことになる。
ド類似度マップSb (i,j)の値は、代表ベクトルR
b との近さを示すことになる。代表ベクトルRb を認識
対象画像データのバックグラウンド部分を基に求めてお
けば、バックグラウンド類似度マップSb (i,j)の
値は、認識対象画像データのバックグラウンド部分と入
力された画像データのとの正方領域fijにおける類似度
を示すことになる。
【0030】フォアグラウンド類似度マップ作成処理部
17では、局所自己相関特徴抽出処理部14および傾き
特徴抽出処理部15で生成された正方領域fijに対応す
る特徴ベクトルVcij とVtij を基に、各正方領域が認
識対象画像パターンのフォアグラウンド部分にどの程度
類似しているかを算出し、フォアグラウンド類似度マッ
プを作成する。作成されたフォアグラウンド類似度マッ
プは、類似度マップ記憶メモリ18に記憶される。
17では、局所自己相関特徴抽出処理部14および傾き
特徴抽出処理部15で生成された正方領域fijに対応す
る特徴ベクトルVcij とVtij を基に、各正方領域が認
識対象画像パターンのフォアグラウンド部分にどの程度
類似しているかを算出し、フォアグラウンド類似度マッ
プを作成する。作成されたフォアグラウンド類似度マッ
プは、類似度マップ記憶メモリ18に記憶される。
【0031】この場合も、主成分分析によりあらかじめ
結合係数行列Af を算出しておき、
結合係数行列Af を算出しておき、
【数10】 により、判別特徴ベクトルy’ijを求める。ここで、説
明変量にあたるベクトルx’ijとして、正方領域fijに
対応する特徴ベクトルVcij とVtij を用いる。これに
よって、局所自己相関特徴抽出処理部14および傾き特
徴抽出処理部15で抽出した特徴空間X’上の特徴ベク
トルx’ij=(Vcij ,Vtij )を、認識対象画像パタ
ーンのフォアグラウンド部分に類似しているか否かを判
別するために適した判別特徴空間Y’に写像して、新た
な判別特徴ベクトルy’ij,(i=1,・・・,Nx ,
j=1,・・・,Ny )を算出することができる。
明変量にあたるベクトルx’ijとして、正方領域fijに
対応する特徴ベクトルVcij とVtij を用いる。これに
よって、局所自己相関特徴抽出処理部14および傾き特
徴抽出処理部15で抽出した特徴空間X’上の特徴ベク
トルx’ij=(Vcij ,Vtij )を、認識対象画像パタ
ーンのフォアグラウンド部分に類似しているか否かを判
別するために適した判別特徴空間Y’に写像して、新た
な判別特徴ベクトルy’ij,(i=1,・・・,Nx ,
j=1,・・・,Ny )を算出することができる。
【0032】以下、バックグラウンド類似度マップ作成
処理部16と同様にして、結合係数行列Af とともにあ
らかじめ算出しておいた代表ベクトルRf との距離D
fij から、
処理部16と同様にして、結合係数行列Af とともにあ
らかじめ算出しておいた代表ベクトルRf との距離D
fij から、
【数11】 により、フォアグラウンド類似度マップSf (i,j)
を作成する。ただし、Lf は主成分分析を用いて算出し
ておく結合係数行列Af を用いてあらかじめ定めておく
閾値である。
を作成する。ただし、Lf は主成分分析を用いて算出し
ておく結合係数行列Af を用いてあらかじめ定めておく
閾値である。
【0033】認識処理部19では、類似度マップ記憶メ
モリ18に記憶されているフォアグラウンド類似度マッ
プとバックグラウンド類似度マップ上の類似度の分布お
よび両者の相関関係から、入力されたカラー原稿に認識
対象が含まれているか否かを認識し、その結果を認識結
果として出力する。この認識処理の方法としては種々の
方法が存在するが、ここでは、類似度マップ記憶メモリ
18に記憶されている2つの類似度マップの局所自己相
関特徴を抽出し、これをあらかじめ主成分分析により算
出しておいた結合係数行列Aを用いて、類似度を算出す
るために適した空間に写像して、類似度を求める方法に
ついて述べる。
モリ18に記憶されているフォアグラウンド類似度マッ
プとバックグラウンド類似度マップ上の類似度の分布お
よび両者の相関関係から、入力されたカラー原稿に認識
対象が含まれているか否かを認識し、その結果を認識結
果として出力する。この認識処理の方法としては種々の
方法が存在するが、ここでは、類似度マップ記憶メモリ
18に記憶されている2つの類似度マップの局所自己相
関特徴を抽出し、これをあらかじめ主成分分析により算
出しておいた結合係数行列Aを用いて、類似度を算出す
るために適した空間に写像して、類似度を求める方法に
ついて述べる。
【0034】まず、M(i,j)=[Sb (i,j),
Sf (i,j)],(i=1,・・・,Nx ,j=1,
・・・,Ny )とし、以下に示す式からそれぞれ0次と
1次の自己相関特徴ベクトルを抽出する。
Sf (i,j)],(i=1,・・・,Nx ,j=1,
・・・,Ny )とし、以下に示す式からそれぞれ0次と
1次の自己相関特徴ベクトルを抽出する。
【数12】 その結果、21次元の特徴ベクトルuが得られる。
【0035】次に、主成分分析によりあらかじめ結合係
数行列Aを算出しておき、
数行列Aを算出しておき、
【数13】 により、判別特徴ベクトルvを求める。ここで、説明変
量は上述の特徴ベクトルuである。これにより、特徴ベ
クトルuは結合係数行列Aによって判別に適した判別空
間に写像され、判別特徴ベクトルvとなる。
量は上述の特徴ベクトルuである。これにより、特徴ベ
クトルuは結合係数行列Aによって判別に適した判別空
間に写像され、判別特徴ベクトルvとなる。
【0036】判別特徴ベクトルvと、予め算出しておい
た代表ベクトルRとの距離Dから、
た代表ベクトルRとの距離Dから、
【数14】 により、与えられた画像と認識対象画像パターンとの類
似度Sが得られる。なお、Lはあらかじめ定めておく閾
値である。
似度Sが得られる。なお、Lはあらかじめ定めておく閾
値である。
【0037】このようにして求められた類似度Sそのも
のあるいは類似度Sに基づいて計算された値を認識結果
として出力したり、類似度Sと所定の閾値とを比較し、
認識対象画像パターンの存在の有無を認識結果として出
力することができる。
のあるいは類似度Sに基づいて計算された値を認識結果
として出力したり、類似度Sと所定の閾値とを比較し、
認識対象画像パターンの存在の有無を認識結果として出
力することができる。
【0038】この例では、抽出した正方領域と認識対象
画像パターンとの類似度を求めるために主成分分析を用
いたが、これに限るわけではなく、それぞれのステップ
において、他の統計的手法(例えば、正準分析等)や、
例えばニューラルネットワークなどを用いることも可能
である。
画像パターンとの類似度を求めるために主成分分析を用
いたが、これに限るわけではなく、それぞれのステップ
において、他の統計的手法(例えば、正準分析等)や、
例えばニューラルネットワークなどを用いることも可能
である。
【0039】図7は、本発明の画像認識装置の第1の実
施の形態を実現する第2の構成例を示すブロック図であ
る。21はカラー原稿入力処理部、22はL* a* b*
画像データ記憶メモリ、23は正方領域位置算出処理
部、24は分類特徴抽出処理部、25はフォアグラウン
ド特徴ベクトル抽出処理部、26はバックグラウンド特
徴ベクトル抽出処理部、27はフォアグラウンド主成分
分析処理部、28はバックグラウンド主成分分析処理部
である。上述の第1の構成例では、結合係数行列や代表
ベクトルなどを予め算出されているものとして認識処理
を行なっている。この第2の構成例では、これらのあら
かじめ算出しておくべき結合係数行列やそれぞれに対応
する代表ベクトルおよび閾値を算出する方法について、
一例を説明する。
施の形態を実現する第2の構成例を示すブロック図であ
る。21はカラー原稿入力処理部、22はL* a* b*
画像データ記憶メモリ、23は正方領域位置算出処理
部、24は分類特徴抽出処理部、25はフォアグラウン
ド特徴ベクトル抽出処理部、26はバックグラウンド特
徴ベクトル抽出処理部、27はフォアグラウンド主成分
分析処理部、28はバックグラウンド主成分分析処理部
である。上述の第1の構成例では、結合係数行列や代表
ベクトルなどを予め算出されているものとして認識処理
を行なっている。この第2の構成例では、これらのあら
かじめ算出しておくべき結合係数行列やそれぞれに対応
する代表ベクトルおよび閾値を算出する方法について、
一例を説明する。
【0040】カラー原稿入力処理部21では、認識対象
画像パターンを持つ小領域の類似度学習用原稿を入力
し、量子化して多階調のL* a* b* カラー画像データ
を生成する。類似度学習用原稿の入力は、例えばスキャ
ナやビデオカメラなどを用いることができる。あるい
は、認識対象画像パターンが計算機上で描画されたもの
であってもよい。必要に応じて、色空間変換処理等が施
される。カラー原稿入力処理部21により入力されたL
* a* b* カラー画像データは、L* a* b* 画像デー
タ記憶メモリ22に記憶される。
画像パターンを持つ小領域の類似度学習用原稿を入力
し、量子化して多階調のL* a* b* カラー画像データ
を生成する。類似度学習用原稿の入力は、例えばスキャ
ナやビデオカメラなどを用いることができる。あるい
は、認識対象画像パターンが計算機上で描画されたもの
であってもよい。必要に応じて、色空間変換処理等が施
される。カラー原稿入力処理部21により入力されたL
* a* b* カラー画像データは、L* a* b* 画像デー
タ記憶メモリ22に記憶される。
【0041】正方領域位置算出処理部23では、L* a
* b* 画像データ記憶メモリ22に記憶されているL*
a* b* カラー画像データから、フォアグラウンド特徴
ベクトル抽出処理部25およびバックグラウンド特徴ベ
クトル抽出処理部26において特徴抽出の対象となる複
数の小領域の位置の計算を行なう。ここでは、上述の第
1の構成例で述べた正方領域位置算出処理部13と同様
の処理を行うことにより、小領域の位置を算出すること
ができる。あるいは、適当な乱数を用いて小領域を抽出
し、その位置を算出してもよい。
* b* 画像データ記憶メモリ22に記憶されているL*
a* b* カラー画像データから、フォアグラウンド特徴
ベクトル抽出処理部25およびバックグラウンド特徴ベ
クトル抽出処理部26において特徴抽出の対象となる複
数の小領域の位置の計算を行なう。ここでは、上述の第
1の構成例で述べた正方領域位置算出処理部13と同様
の処理を行うことにより、小領域の位置を算出すること
ができる。あるいは、適当な乱数を用いて小領域を抽出
し、その位置を算出してもよい。
【0042】分類特徴抽出処理部24では、対象となる
小領域をフォアグラウンド特徴ベクトル抽出処理部25
あるいはバックグラウンド特徴ベクトル抽出処理部26
のいずれかに処理を振り分けるための特徴を抽出する。
抽出する特徴として、ここでは、上述の第1の構成例に
おける傾き特徴抽出処理部15で抽出した特徴と同様の
線の傾きの強度を用いる。具体的には、L* a* b* 画
像データ記憶メモリ22に記憶されているL* a* b*
カラー画像データの明度成分(L* 成分)から
小領域をフォアグラウンド特徴ベクトル抽出処理部25
あるいはバックグラウンド特徴ベクトル抽出処理部26
のいずれかに処理を振り分けるための特徴を抽出する。
抽出する特徴として、ここでは、上述の第1の構成例に
おける傾き特徴抽出処理部15で抽出した特徴と同様の
線の傾きの強度を用いる。具体的には、L* a* b* 画
像データ記憶メモリ22に記憶されているL* a* b*
カラー画像データの明度成分(L* 成分)から
【数15】 を適用して、それぞれの正方領域に対応する線の傾きの
強度gを求め、線の傾きの強度のマップG(u,v),
(1≦u≦w,1≦v≦h)を作成する。ただし、この
マップ中の値は0以上1以下に正規化されているものと
する。また、ΔHとΔV はそれぞれ水平方向と垂直方向
の差分であり、例えば、図5に示したような1次微分オ
ペレータを用いて算出することができる。
強度gを求め、線の傾きの強度のマップG(u,v),
(1≦u≦w,1≦v≦h)を作成する。ただし、この
マップ中の値は0以上1以下に正規化されているものと
する。また、ΔHとΔV はそれぞれ水平方向と垂直方向
の差分であり、例えば、図5に示したような1次微分オ
ペレータを用いて算出することができる。
【0043】図8は、本発明の画像認識装置の第1の実
施の形態を実施する第2の構成例におけるフォアグラウ
ンド特徴ベクトル抽出処理部およびバックグラウンド特
徴ベクトル抽出処理部の動作の一例を示すフローチャー
トである。まず、S31において、分類特徴抽出処理部
24で作成した線の傾き強度のマップG(u,v)から
処理対象となる小領域に対応する領域を抽出して、部分
マップG’(x,y),(1≦x,y≦s)を作成す
る。ただし、sは小領域(正方形)の一辺の大きさであ
る。
施の形態を実施する第2の構成例におけるフォアグラウ
ンド特徴ベクトル抽出処理部およびバックグラウンド特
徴ベクトル抽出処理部の動作の一例を示すフローチャー
トである。まず、S31において、分類特徴抽出処理部
24で作成した線の傾き強度のマップG(u,v)から
処理対象となる小領域に対応する領域を抽出して、部分
マップG’(x,y),(1≦x,y≦s)を作成す
る。ただし、sは小領域(正方形)の一辺の大きさであ
る。
【0044】次に、S32において、部分マップG’
(x,y)の要素のうち、あらかじめ定めた閾値Tm以
上の要素をカウントし、その数をCとする。この閾値T
mは、0≦Tm≦1の値であり、認識対象により適当な
値を設定する必要がある。例えば、Tm=0.05とす
ることができる。
(x,y)の要素のうち、あらかじめ定めた閾値Tm以
上の要素をカウントし、その数をCとする。この閾値T
mは、0≦Tm≦1の値であり、認識対象により適当な
値を設定する必要がある。例えば、Tm=0.05とす
ることができる。
【0045】次に、S33において、S32で算出した
カウント数Cがあらかじめ定めた閾値Tr以上であるな
らば、対象の小領域はフォアグラウンド特徴ベクトル抽
出処理部25で処理するものとしてS34へ進む。ま
た、閾値Trより小さい場合には、対象の小領域はバッ
クグラウンド特徴ベクトル抽出処理部26で処理するも
のとしてS36へ進む。ここで、閾値Trは、0≦Tr
≦s2 となる値であり、認識対象により適当な値を設定
する必要がある。例えば、Tr=0.8s2 とすること
ができる。
カウント数Cがあらかじめ定めた閾値Tr以上であるな
らば、対象の小領域はフォアグラウンド特徴ベクトル抽
出処理部25で処理するものとしてS34へ進む。ま
た、閾値Trより小さい場合には、対象の小領域はバッ
クグラウンド特徴ベクトル抽出処理部26で処理するも
のとしてS36へ進む。ここで、閾値Trは、0≦Tr
≦s2 となる値であり、認識対象により適当な値を設定
する必要がある。例えば、Tr=0.8s2 とすること
ができる。
【0046】S33で対象の小領域がフォアグラウンド
特徴ベクトル抽出処理部25で処理するものであると判
断された場合は、色情報とテクスチャ情報の両方を用い
る。ここでは、S34において、図2における局所自己
相関特徴抽出処理部14により色情報に当たる特徴ベク
トル(45次元)を、また、傾き特徴抽出処理部15に
よりテクスチャ情報に当たる特徴ベクトル(21次元)
を抽出する。これらの処理の詳細については、上述の第
1の構成例において述べたとおりである。従って、フォ
アグラウンド特徴ベクトル抽出処理部25による処理の
結果、1つの小領域について66次元の特徴ベクトルが
得られることになる。得られた特徴ベクトルは、S35
において、フォアグラウンドの特徴ベクトルとしてメモ
リに記憶される。
特徴ベクトル抽出処理部25で処理するものであると判
断された場合は、色情報とテクスチャ情報の両方を用い
る。ここでは、S34において、図2における局所自己
相関特徴抽出処理部14により色情報に当たる特徴ベク
トル(45次元)を、また、傾き特徴抽出処理部15に
よりテクスチャ情報に当たる特徴ベクトル(21次元)
を抽出する。これらの処理の詳細については、上述の第
1の構成例において述べたとおりである。従って、フォ
アグラウンド特徴ベクトル抽出処理部25による処理の
結果、1つの小領域について66次元の特徴ベクトルが
得られることになる。得られた特徴ベクトルは、S35
において、フォアグラウンドの特徴ベクトルとしてメモ
リに記憶される。
【0047】また、S33で対象の小領域がバックグラ
ウンド特徴ベクトル抽出処理部26で処理するものであ
ると判断された場合は、テクスチャは存在しないと見な
し、色情報のみを用いる。ここでは、S36において、
図2における局所自己相関特徴抽出処理部14により色
情報に当たる特徴ベクトル(45次元)を抽出する。従
って、バックグラウンド特徴ベクトル抽出処理部26に
よる処理の結果、1つの小領域について45次元の特徴
ベクトルが得られることになる。得られた特徴ベクトル
は、S37において、バックグラウンドの特徴ベクトル
としてメモリに記憶される。
ウンド特徴ベクトル抽出処理部26で処理するものであ
ると判断された場合は、テクスチャは存在しないと見な
し、色情報のみを用いる。ここでは、S36において、
図2における局所自己相関特徴抽出処理部14により色
情報に当たる特徴ベクトル(45次元)を抽出する。従
って、バックグラウンド特徴ベクトル抽出処理部26に
よる処理の結果、1つの小領域について45次元の特徴
ベクトルが得られることになる。得られた特徴ベクトル
は、S37において、バックグラウンドの特徴ベクトル
としてメモリに記憶される。
【0048】S38において、すべての小領域の処理が
完了したか否かを判断し、未処理の小領域が存在する場
合にはS31へ戻る。このようにして、上述の処理をす
べての小領域に対して行い、フォアグラウンドと判断さ
れた小領域に対する特徴ベクトル群とバックグラウンド
と判断された小領域に対する特徴ベクトル群を生成す
る。
完了したか否かを判断し、未処理の小領域が存在する場
合にはS31へ戻る。このようにして、上述の処理をす
べての小領域に対して行い、フォアグラウンドと判断さ
れた小領域に対する特徴ベクトル群とバックグラウンド
と判断された小領域に対する特徴ベクトル群を生成す
る。
【0049】フォアグラウンド主成分分析処理部27で
は、フォアグラウンド特徴ベクトル抽出処理部25で生
成されたフォアグラウンドの特徴ベクトル群から主成分
分析を行ない、判別に適した特徴空間に写像する結合係
数行列Af を算出する。この主成分分析は既存の手法を
用いる。また、この判別に適した特徴空間における代表
ベクトルRf は、フォアグラウンドの特徴ベクトル群を
結合係数行列Af により写像してできる判別特徴ベクト
ル群を平均することで算出する。さらに、判別特徴ベク
トル群と代表ベクトルRf との距離を算出し、最も大き
な距離を閾値L f とする。
は、フォアグラウンド特徴ベクトル抽出処理部25で生
成されたフォアグラウンドの特徴ベクトル群から主成分
分析を行ない、判別に適した特徴空間に写像する結合係
数行列Af を算出する。この主成分分析は既存の手法を
用いる。また、この判別に適した特徴空間における代表
ベクトルRf は、フォアグラウンドの特徴ベクトル群を
結合係数行列Af により写像してできる判別特徴ベクト
ル群を平均することで算出する。さらに、判別特徴ベク
トル群と代表ベクトルRf との距離を算出し、最も大き
な距離を閾値L f とする。
【0050】バックグラウンド主成分分析処理部28
は、主成分分析の対象がバックグラウンドの特徴ベクト
ル群であることを除いて、フォアグラウンド主成分分析
処理部27での処理と同様である。これにより、結合係
数行列Ab 、代表ベクトルRb、閾値Lb を算出する。
は、主成分分析の対象がバックグラウンドの特徴ベクト
ル群であることを除いて、フォアグラウンド主成分分析
処理部27での処理と同様である。これにより、結合係
数行列Ab 、代表ベクトルRb、閾値Lb を算出する。
【0051】上述の一連の処理により、第1の構成例で
述べた認識処理で用いる、結合係数行列や代表ベクト
ル、閾値など、あらかじめ定めるべき値を算出すること
ができる。
述べた認識処理で用いる、結合係数行列や代表ベクト
ル、閾値など、あらかじめ定めるべき値を算出すること
ができる。
【0052】なお、この例では、フォアグラウンドとバ
ックグラウンドとを分類するために、線の傾き特徴を用
いたが、他の特徴を用いることもできる。例えば、小領
域内に存在する画素値の分散を計算し、あらかじめ定め
た閾値と比較して分類するように構成してもよい。
ックグラウンドとを分類するために、線の傾き特徴を用
いたが、他の特徴を用いることもできる。例えば、小領
域内に存在する画素値の分散を計算し、あらかじめ定め
た閾値と比較して分類するように構成してもよい。
【0053】また、この第2の構成例では、第1の構成
例に合わせて、認識処理で必要となる諸値を主成分分析
によって求めた。第1の構成例において、他の統計的手
法など、他の特徴抽出手法を用いる場合には、用いた手
法に合わせて認識対象画像データを処理しておくことが
必要である。例えば、ニューラルネットワークを用いる
のであれば、学習用の画像データを用いてニューラルネ
ットワークに学習させればよい。
例に合わせて、認識処理で必要となる諸値を主成分分析
によって求めた。第1の構成例において、他の統計的手
法など、他の特徴抽出手法を用いる場合には、用いた手
法に合わせて認識対象画像データを処理しておくことが
必要である。例えば、ニューラルネットワークを用いる
のであれば、学習用の画像データを用いてニューラルネ
ットワークに学習させればよい。
【0054】上述の例では、入力される画像としてカラ
ー画像を想定したが、白黒画像でも同様にしてフォアグ
ランドとバックグランドを分類し、それぞれの類似度を
計算して認識処理を行なうことが可能である。
ー画像を想定したが、白黒画像でも同様にしてフォアグ
ランドとバックグランドを分類し、それぞれの類似度を
計算して認識処理を行なうことが可能である。
【0055】図9は、本発明の画像認識装置の第2の実
施の形態を示すブロック図である。図中、図1と同様の
部分には同じ符号を付して説明を省略する。7は類似度
マップ作成部である。上述の第1の実施の形態では、線
の傾き特徴という1つの基準特徴を用いて類似度マップ
を作成したが、本発明はこれに限らず、色相や彩度等の
特徴など、種々の基準となる特徴をも用いるなど、複数
の基準特徴を用いて類似度マップを作成し、画像の認識
を行なうことができる。この第2の実施の形態では、こ
のような複数の基準特徴を用いる構成について説明す
る。
施の形態を示すブロック図である。図中、図1と同様の
部分には同じ符号を付して説明を省略する。7は類似度
マップ作成部である。上述の第1の実施の形態では、線
の傾き特徴という1つの基準特徴を用いて類似度マップ
を作成したが、本発明はこれに限らず、色相や彩度等の
特徴など、種々の基準となる特徴をも用いるなど、複数
の基準特徴を用いて類似度マップを作成し、画像の認識
を行なうことができる。この第2の実施の形態では、こ
のような複数の基準特徴を用いる構成について説明す
る。
【0056】類似度マップ作成部7は、特徴抽出部3で
抽出された特徴を用いて各小領域ごとに認識画像パター
ンに予め設定された複数の基準特徴との類似度を計算
し、各基準特徴に対応する類似度マップを作成する。認
識部6は、類似度マップ作成部4で作成された複数の類
似度マップにおける類似度の分布状態、および、複数の
類似度マップ間の相関関係から、入力された画像に認識
対象画像パターンが含まれているか否かを認識する。
抽出された特徴を用いて各小領域ごとに認識画像パター
ンに予め設定された複数の基準特徴との類似度を計算
し、各基準特徴に対応する類似度マップを作成する。認
識部6は、類似度マップ作成部4で作成された複数の類
似度マップにおける類似度の分布状態、および、複数の
類似度マップ間の相関関係から、入力された画像に認識
対象画像パターンが含まれているか否かを認識する。
【0057】上述の第1の実施の形態と同様に、画像入
力部1は、認識したい画像を入力とし、量子化された画
像データを生成して小領域抽出部2に与え、小領域抽出
部2は、与えられた画像データから複数の小領域を抽出
し、特徴抽出部3に与える。特徴抽出部3は、与えられ
た複数の小領域から特徴抽出を行ない、各小領域に対応
する特徴ベクトルを生成し、類似度マップ作成部7に与
える。類似度マップ作成部7は、与えられた各小領域に
対応する特徴ベクトルを用いて対応する小領域と認識対
象画像パターンに対して設定された複数の基準特徴との
類似度を算出し、各基準特徴ごとに類似度マップを作成
し、認識部6に与える。そして、認識部6は、これらの
類似度マップ上の類似度の分布状態およびこれらの相関
関係を用いて、入力された画像が認識対象画像パターン
を含んでいるか否かを認識する。
力部1は、認識したい画像を入力とし、量子化された画
像データを生成して小領域抽出部2に与え、小領域抽出
部2は、与えられた画像データから複数の小領域を抽出
し、特徴抽出部3に与える。特徴抽出部3は、与えられ
た複数の小領域から特徴抽出を行ない、各小領域に対応
する特徴ベクトルを生成し、類似度マップ作成部7に与
える。類似度マップ作成部7は、与えられた各小領域に
対応する特徴ベクトルを用いて対応する小領域と認識対
象画像パターンに対して設定された複数の基準特徴との
類似度を算出し、各基準特徴ごとに類似度マップを作成
し、認識部6に与える。そして、認識部6は、これらの
類似度マップ上の類似度の分布状態およびこれらの相関
関係を用いて、入力された画像が認識対象画像パターン
を含んでいるか否かを認識する。
【0058】図10は、本発明の画像認識装置の第2の
実施の形態を実現する第1の実施例を示すブロック図で
ある。図中、図2と同様の部分には同じ符号を付して説
明を省略する。41はエッジ特徴抽出処理部、42は類
似度マップ作成処理部、43は基準特徴辞書である。こ
の例では、入力される画像はカラー画像であるものとす
る。
実施の形態を実現する第1の実施例を示すブロック図で
ある。図中、図2と同様の部分には同じ符号を付して説
明を省略する。41はエッジ特徴抽出処理部、42は類
似度マップ作成処理部、43は基準特徴辞書である。こ
の例では、入力される画像はカラー画像であるものとす
る。
【0059】エッジ特徴抽出処理部41は、上述の第1
の実施の形態における傾き特徴抽出処理部15と同様で
あり、正方領域位置算出処理部13で抽出された正方領
域からエッジ方向とエッジ強度についての特徴を抽出す
る。具体的には、正方領域内の明度成分(L* 成分)に
対して、局所的なエッジ強度gとエッジ方向dを求め、
エッジ強度のマップg(x,y),(1≦x,y≦s)
およびエッジ方向のマップd(x,y),(1≦x,y
≦s)を作成する。
の実施の形態における傾き特徴抽出処理部15と同様で
あり、正方領域位置算出処理部13で抽出された正方領
域からエッジ方向とエッジ強度についての特徴を抽出す
る。具体的には、正方領域内の明度成分(L* 成分)に
対して、局所的なエッジ強度gとエッジ方向dを求め、
エッジ強度のマップg(x,y),(1≦x,y≦s)
およびエッジ方向のマップd(x,y),(1≦x,y
≦s)を作成する。
【0060】局所自己相関特徴抽出処理部14において
は、正方領域位置算出処理部13で抽出された正方領域
の持つ特徴量を抽出し、各正方領域に対応する特徴ベク
トルを生成する。ここでは、上述の文献1に示されてい
るカラー画像に対する1次までの局所自己相関特徴を修
正、拡張した特徴量を用いることとする。
は、正方領域位置算出処理部13で抽出された正方領域
の持つ特徴量を抽出し、各正方領域に対応する特徴ベク
トルを生成する。ここでは、上述の文献1に示されてい
るカラー画像に対する1次までの局所自己相関特徴を修
正、拡張した特徴量を用いることとする。
【0061】以下に、この例における局所自己相関特徴
抽出処理部14で抽出する特徴量について詳細に説明す
る。ここで、特徴抽出の対象となる正方領域中のL* 成
分、a* 成分、b* 成分をそれぞれ、l(x,y),a
(x,y),b(x,y),(1≦x,y≦s)とし、
特徴抽出の対象をM(x,y)=[l(x,y),a
(x,y),b(x,y),g(x,y),d(x,
y)]T とする。但し、0≦l(x,y),g(x,
y),d(x,y)≦1,−1≦a(x,y),b
(x,y)≦1に正規化されているものとする。
抽出処理部14で抽出する特徴量について詳細に説明す
る。ここで、特徴抽出の対象となる正方領域中のL* 成
分、a* 成分、b* 成分をそれぞれ、l(x,y),a
(x,y),b(x,y),(1≦x,y≦s)とし、
特徴抽出の対象をM(x,y)=[l(x,y),a
(x,y),b(x,y),g(x,y),d(x,
y)]T とする。但し、0≦l(x,y),g(x,
y),d(x,y)≦1,−1≦a(x,y),b
(x,y)≦1に正規化されているものとする。
【0062】L* a* b* カラー画像データに対する0
次の自己相関は
次の自己相関は
【数16】 のように表わされる。また、1次の自己相関は、変位方
向をt=(tx ,ty )とすると、
向をt=(tx ,ty )とすると、
【数17】 のように表わされる。
【0063】この1次の自己相関の式では、変位方向t
の取り方により無数の特徴を得ることができる。ここで
は、上述の文献1にも示されているように、前述の図4
(A)〜(E)に示す重複しない5つの変位方向につい
て1次の自己相関を算出するものとする。但し、図4
(A)に示す変位方向t=(0,0)の場合には、σla
とσalのように組合せが同じものはその値も等しくなる
ので、どちらか一方で代表させる。したがって、0次の
自己相関特徴が5個、1次の自己相関特徴でかつ変位方
向t=(0,0)の場合が15個、前記以外の1次の自
己相関特徴が4つの変位方向に対して25個づつ算出で
き、合計120次元の特徴ベクトルuij,(i=1,・
・・,Nx,j=1,・・・,Ny)を抽出することが
できる。
の取り方により無数の特徴を得ることができる。ここで
は、上述の文献1にも示されているように、前述の図4
(A)〜(E)に示す重複しない5つの変位方向につい
て1次の自己相関を算出するものとする。但し、図4
(A)に示す変位方向t=(0,0)の場合には、σla
とσalのように組合せが同じものはその値も等しくなる
ので、どちらか一方で代表させる。したがって、0次の
自己相関特徴が5個、1次の自己相関特徴でかつ変位方
向t=(0,0)の場合が15個、前記以外の1次の自
己相関特徴が4つの変位方向に対して25個づつ算出で
き、合計120次元の特徴ベクトルuij,(i=1,・
・・,Nx,j=1,・・・,Ny)を抽出することが
できる。
【0064】基準特徴辞書43には、類似度マップ作成
処理部42で用いる複数の基準特徴を登録しておく。例
えば、予め設定した複数の基準特徴を最もよく分離する
判別特徴空間に特徴ベクトルを写像するような結合係数
行列と、その判別特徴空間において各基準特徴に対応す
る判別特徴ベクトルが占める空間を登録しておくことが
できる。
処理部42で用いる複数の基準特徴を登録しておく。例
えば、予め設定した複数の基準特徴を最もよく分離する
判別特徴空間に特徴ベクトルを写像するような結合係数
行列と、その判別特徴空間において各基準特徴に対応す
る判別特徴ベクトルが占める空間を登録しておくことが
できる。
【0065】類似度マップ作成処理部42では、局所自
己相関特徴抽出処理部14で生成された正方領域fijに
対応する特徴ベクトルuijを基に、各正方領域が基準特
徴辞書43に登録されている各基準特徴にどの程度類似
しているかを示す尺度である類似度を算出し、この類似
度を2次元空間上に配列することで、各基準特徴に対応
する類似度マップを作成する。この類似度マップは、類
似度マップ記憶メモリ18に記憶される。
己相関特徴抽出処理部14で生成された正方領域fijに
対応する特徴ベクトルuijを基に、各正方領域が基準特
徴辞書43に登録されている各基準特徴にどの程度類似
しているかを示す尺度である類似度を算出し、この類似
度を2次元空間上に配列することで、各基準特徴に対応
する類似度マップを作成する。この類似度マップは、類
似度マップ記憶メモリ18に記憶される。
【0066】ここでは、基準特徴辞書43に正準分析を
用いて算出した予め設定したK個の基準特徴を最もよく
分離するN次元の判別特徴空間Yに特徴ベクトルを写像
するような結合係数行列AT と、判別特徴空間Yにおい
て各基準特徴が占める空間の重心Gk =(Gk1,・・
・,GkN),(k=1,・・・,K)と、各軸方向の半
径Rk =(Rk1,・・・,RkN),(k=1,・・・,
K)が登録されているとして説明を行なう。
用いて算出した予め設定したK個の基準特徴を最もよく
分離するN次元の判別特徴空間Yに特徴ベクトルを写像
するような結合係数行列AT と、判別特徴空間Yにおい
て各基準特徴が占める空間の重心Gk =(Gk1,・・
・,GkN),(k=1,・・・,K)と、各軸方向の半
径Rk =(Rk1,・・・,RkN),(k=1,・・・,
K)が登録されているとして説明を行なう。
【0067】まず、基準特徴辞書43に登録されている
結合係数行列AT を用いて、
結合係数行列AT を用いて、
【数18】 により、正方領域fijに対応する局所自己相関特徴抽出
処理部14で抽出した特徴空間上の特徴ベクトルu
ijを、認識対象画像パターンの予め設定された基準特徴
に類似しているか否かを判別するために適した判別特徴
空間Yに写像して、判別特徴ベクトルvij,(i=1,
・・・,Nx ,j=1,・・・,Ny )を算出すること
ができる。
処理部14で抽出した特徴空間上の特徴ベクトルu
ijを、認識対象画像パターンの予め設定された基準特徴
に類似しているか否かを判別するために適した判別特徴
空間Yに写像して、判別特徴ベクトルvij,(i=1,
・・・,Nx ,j=1,・・・,Ny )を算出すること
ができる。
【0068】次に、基準特徴辞書43に登録されている
基準特徴kの重心ベクトルGk =(Gk1,・・・,
GkN)と各軸方向の半径Rk =(Rk1,・・・,RkN)
から
基準特徴kの重心ベクトルGk =(Gk1,・・・,
GkN)と各軸方向の半径Rk =(Rk1,・・・,RkN)
から
【数19】 なる式を用いて、各基準特徴ごとに類似度マップS
k (i,j),(k=1,・・・,K,i=1,・・
・,Nx ,j=1,・・・,Ny )を算出し、類似度マ
ップ記憶メモリ18に記憶する。ここで、判別特徴ベク
トル vij=(vij1 ,・・・,vijN ),(i=1,
・・・,Nx ,j=1,・・・,Ny )である。
k (i,j),(k=1,・・・,K,i=1,・・
・,Nx ,j=1,・・・,Ny )を算出し、類似度マ
ップ記憶メモリ18に記憶する。ここで、判別特徴ベク
トル vij=(vij1 ,・・・,vijN ),(i=1,
・・・,Nx ,j=1,・・・,Ny )である。
【0069】図11は、本発明の画像認識装置の第2の
実施の形態における2次元の判別特徴空間Y(N=2)
における諸値の説明図である。ただし、基準特徴の数は
3個としている。類似度マップSk (i,j)の値は、
判別特徴ベクトルvijが図11において点線で示した基
準特徴kに対応する楕円領域の外部にある場合には0と
なる。また、基準特徴kに対応する点線で示した楕円領
域の内部にある場合に正の値を取り、重心Gk に近いほ
ど大きな値となる。ここでは、判別特徴ベクトルvijが
重心Gk に一致する場合を1、楕円の周上に存在する場
合を0となるようにしている。
実施の形態における2次元の判別特徴空間Y(N=2)
における諸値の説明図である。ただし、基準特徴の数は
3個としている。類似度マップSk (i,j)の値は、
判別特徴ベクトルvijが図11において点線で示した基
準特徴kに対応する楕円領域の外部にある場合には0と
なる。また、基準特徴kに対応する点線で示した楕円領
域の内部にある場合に正の値を取り、重心Gk に近いほ
ど大きな値となる。ここでは、判別特徴ベクトルvijが
重心Gk に一致する場合を1、楕円の周上に存在する場
合を0となるようにしている。
【0070】認識処理部19では、類似度マップ記憶メ
モリ18に記憶されている複数の類似度マップ上の類似
度の分布およびこれらの相関関係から、入力されたカラ
ー原稿に認識対象が含まれているか否かを認識し、その
結果を認識結果として出力する。この認識処理の方法と
しては種々の方法が存在するが、ここでは、類似度マッ
プ作成処理部42で3個の類似度マップが作成されたも
のとして、類似度マップ記憶メモリ18に記憶されてい
るこれらの類似度マップから局所自己相関特徴を抽出
し、これを予め正準分析により算出しておいた結合係数
行列A’を用いて、類似度を算出するために適した判別
特徴空間Y’に写像して類似度を求める方法について述
べる。
モリ18に記憶されている複数の類似度マップ上の類似
度の分布およびこれらの相関関係から、入力されたカラ
ー原稿に認識対象が含まれているか否かを認識し、その
結果を認識結果として出力する。この認識処理の方法と
しては種々の方法が存在するが、ここでは、類似度マッ
プ作成処理部42で3個の類似度マップが作成されたも
のとして、類似度マップ記憶メモリ18に記憶されてい
るこれらの類似度マップから局所自己相関特徴を抽出
し、これを予め正準分析により算出しておいた結合係数
行列A’を用いて、類似度を算出するために適した判別
特徴空間Y’に写像して類似度を求める方法について述
べる。
【0071】まず、M’(i,j)=[S1 (i,
j),S2 (i,j),S3 (i,j)]T ,(i=
1,・・・,Nx ,j=1,・・・,Ny )とし、以下
に示す式からそれぞれ0次と1次の自己相関特徴ベクト
ルを抽出する。
j),S2 (i,j),S3 (i,j)]T ,(i=
1,・・・,Nx ,j=1,・・・,Ny )とし、以下
に示す式からそれぞれ0次と1次の自己相関特徴ベクト
ルを抽出する。
【数20】 その結果、3次元の0次自己相関特徴ベクトルと42次
元の1次自己相関特徴ベクトルが得られ、合計45次元
の特徴ベクトルUが得られる。
元の1次自己相関特徴ベクトルが得られ、合計45次元
の特徴ベクトルUが得られる。
【0072】次に、正準分析により特徴ベクトルUを認
識対象画像パターンを含む画像と含まない画像とを最も
よく判別するような判別空間Y’(N’次元空間)に写
像する結合係数行列A’を予め算出しておき、
識対象画像パターンを含む画像と含まない画像とを最も
よく判別するような判別空間Y’(N’次元空間)に写
像する結合係数行列A’を予め算出しておき、
【数21】 により、判別特徴ベクトルVを算出する。また、判別空
間Y’における認識対象画像パターンを含む画像に対応
する空間の重心G’と各軸方向の半径R’を予め算出し
ておき、
間Y’における認識対象画像パターンを含む画像に対応
する空間の重心G’と各軸方向の半径R’を予め算出し
ておき、
【数22】 を用いることにより、与えられた画像と認識対象画像パ
ターンとの類似度S’が得られる。
ターンとの類似度S’が得られる。
【0073】このようにして求められた類似度S’その
ものあるいは類似度S’に基づいて計算された値を認識
結果として表示したり、類似度S’と所定の閾値とを比
較し、認識対象画像パターンの存在の有無を認識結果と
して出力することができる。
ものあるいは類似度S’に基づいて計算された値を認識
結果として表示したり、類似度S’と所定の閾値とを比
較し、認識対象画像パターンの存在の有無を認識結果と
して出力することができる。
【0074】この例では、類似度を求めるために正準分
析を用いたが、これに限るわけではなく、それぞれのス
テップにおいて、上述の第1の実施の形態と同様の主成
分分析などの他の統計的手法や、例えばニューラルネッ
トワークなどを用いるなど、種々の手法を用いることが
可能である。
析を用いたが、これに限るわけではなく、それぞれのス
テップにおいて、上述の第1の実施の形態と同様の主成
分分析などの他の統計的手法や、例えばニューラルネッ
トワークなどを用いるなど、種々の手法を用いることが
可能である。
【0075】図12は、本発明の画像認識装置の第2の
実施の形態を実現する第2の構成例を示すブロック図で
ある。図中、図7と同様の部分には同じ符号を付して説
明を省略する。51は特徴ベクトル抽出処理部、52は
小領域分類特徴抽出処理部、53は小領域分類処理部、
54は正準分析処理部、55は基準特徴空間算出処理部
である。上述の第1の構成例では、結合係数行列と各基
準特徴特徴が判別特徴空間Yにおいて占める空間の重心
および各軸方向の半径は、予め算出されて基準特徴辞書
43に登録されているものとして、認識処理を行なって
いる。この第2の構成例では、これらの予め算出してお
くべき結合係数行列Aと各基準特徴が判別特徴空間Yに
おいて占める空間の重心Gk および各軸方向の半径Rk
を算出する方法の一例について説明する。
実施の形態を実現する第2の構成例を示すブロック図で
ある。図中、図7と同様の部分には同じ符号を付して説
明を省略する。51は特徴ベクトル抽出処理部、52は
小領域分類特徴抽出処理部、53は小領域分類処理部、
54は正準分析処理部、55は基準特徴空間算出処理部
である。上述の第1の構成例では、結合係数行列と各基
準特徴特徴が判別特徴空間Yにおいて占める空間の重心
および各軸方向の半径は、予め算出されて基準特徴辞書
43に登録されているものとして、認識処理を行なって
いる。この第2の構成例では、これらの予め算出してお
くべき結合係数行列Aと各基準特徴が判別特徴空間Yに
おいて占める空間の重心Gk および各軸方向の半径Rk
を算出する方法の一例について説明する。
【0076】特徴ベクトル抽出処理部51は、正方領域
位置算出処理部23で抽出した複数の小領域から正準分
析を行なうための特徴ベクトルを抽出する。ここでは、
上述の第1の構成例で述べたエッジ特徴抽出処理部41
と局所自己相関特徴抽出処理部14と同様の処理を行な
うことにより、各小領域に対応する特徴ベクトルを抽出
することができる。
位置算出処理部23で抽出した複数の小領域から正準分
析を行なうための特徴ベクトルを抽出する。ここでは、
上述の第1の構成例で述べたエッジ特徴抽出処理部41
と局所自己相関特徴抽出処理部14と同様の処理を行な
うことにより、各小領域に対応する特徴ベクトルを抽出
することができる。
【0077】小領域分類特徴抽出処理部52では、小領
域分類処理部26で小領域を分類する際に用いる特徴を
抽出する。ここでは、上述の第1の構成例で述べたエッ
ジ特徴抽出処理部41と同様の処理を行なって小領域内
のエッジ強度マップg(x,y)を算出する。また、小
領域分類処理部25で小領域を分類するために特徴ベク
トル抽出処理部51で算出した特徴をそのまま用いる場
合には、小領域分類特徴抽出処理部52を省略した構成
とすることもできる。
域分類処理部26で小領域を分類する際に用いる特徴を
抽出する。ここでは、上述の第1の構成例で述べたエッ
ジ特徴抽出処理部41と同様の処理を行なって小領域内
のエッジ強度マップg(x,y)を算出する。また、小
領域分類処理部25で小領域を分類するために特徴ベク
トル抽出処理部51で算出した特徴をそのまま用いる場
合には、小領域分類特徴抽出処理部52を省略した構成
とすることもできる。
【0078】小領域分類処理部53では、認識対象画像
パターンに対して適当と考えられる複数の基準特徴ごと
に小領域を分類する処理を行なう。ここでは、上述の第
1の構成例におけるエッジ特徴抽出処理部41で抽出し
た各小領域に対応するエッジ強度マップg(x,y),
(1≦x,y≦s)を用いて分類を行なう。
パターンに対して適当と考えられる複数の基準特徴ごと
に小領域を分類する処理を行なう。ここでは、上述の第
1の構成例におけるエッジ特徴抽出処理部41で抽出し
た各小領域に対応するエッジ強度マップg(x,y),
(1≦x,y≦s)を用いて分類を行なう。
【0079】まず、エッジ強度マップg(x,y)の要
素のうち、予め定めた閾値Tm 以上の要素をカウント
し、その数をCとする。この閾値Tm は認識対象により
適当な値を設定する必要がある。例えば、Tm =0.0
5とすることができる。
素のうち、予め定めた閾値Tm 以上の要素をカウント
し、その数をCとする。この閾値Tm は認識対象により
適当な値を設定する必要がある。例えば、Tm =0.0
5とすることができる。
【0080】次に、前述のカウント数Cの値により、対
応する小領域がどの基準特徴に属するかを決定する。こ
こでは、各基準特徴ごとに適当なカウント数の範囲を設
定しておき、各小領域を分類する。図13は、本発明の
画像認識装置の第2の実施の形態を実現する第2の構成
例における小領域分類処理部で用いる基準特徴とエッジ
強度から算出した値との関係の一例の説明図である。但
し、s2 は1つの小領域が持つ画素の総数である。ま
た、前述の認識対象画像パターンをエッジ強度に基づい
て設定した基準特徴とは別に、認識対象画像パターンを
含まない画像から抽出した小領域に対応する特徴ベクト
ルを新たなもう1つの基準特徴として追加することもで
きる。
応する小領域がどの基準特徴に属するかを決定する。こ
こでは、各基準特徴ごとに適当なカウント数の範囲を設
定しておき、各小領域を分類する。図13は、本発明の
画像認識装置の第2の実施の形態を実現する第2の構成
例における小領域分類処理部で用いる基準特徴とエッジ
強度から算出した値との関係の一例の説明図である。但
し、s2 は1つの小領域が持つ画素の総数である。ま
た、前述の認識対象画像パターンをエッジ強度に基づい
て設定した基準特徴とは別に、認識対象画像パターンを
含まない画像から抽出した小領域に対応する特徴ベクト
ルを新たなもう1つの基準特徴として追加することもで
きる。
【0081】正準分析処理部54では、小領域分類処理
部53で基準特徴ごとに分類された小領域に対応する特
徴ベクトルから、正準分析を行なって、これらを最もよ
く分離する判別特徴空間に写像する結合係数行列を算出
する。ここでは、K個の基準特徴を設定し、基準特徴k
に関する特徴ベクトルの総数をnk ,(k=1,・・
・,K)、特徴ベクトルをxk m,(k=1,・・・,
K,m=1,・・・,nk)とするとき、
部53で基準特徴ごとに分類された小領域に対応する特
徴ベクトルから、正準分析を行なって、これらを最もよ
く分離する判別特徴空間に写像する結合係数行列を算出
する。ここでは、K個の基準特徴を設定し、基準特徴k
に関する特徴ベクトルの総数をnk ,(k=1,・・
・,K)、特徴ベクトルをxk m,(k=1,・・・,
K,m=1,・・・,nk)とするとき、
【数23】 によって、クラス間分散共分散行列ΣB およびクラス間
分散共分散行列ΣW を算出する。そして、
分散共分散行列ΣW を算出する。そして、
【数24】 に示す一般化固有値問題を解くことにより、結合係数行
列AT を算出する。但し、Iは単位行列である。
列AT を算出する。但し、Iは単位行列である。
【0082】基準特徴空間算出処理部55では、認識対
象画像パターンに対して設定した基準特徴が判別特徴空
間上で占める空間を決定する。ここでは、基準特徴kに
関する特徴ベクトルxk mを
象画像パターンに対して設定した基準特徴が判別特徴空
間上で占める空間を決定する。ここでは、基準特徴kに
関する特徴ベクトルxk mを
【数25】 によって、判別特徴空間へ写像し、基準特徴kに関する
判別特徴ベクトルyk m,(k=1,・・・,K,m=
1,・・・,nk )を算出する。そして、以下の式によ
り、基準特徴kが判別特徴空間上で占める空間の重心G
k ,(k=1,・・・,K)と各軸方向の半径Rk ,
(k=1,・・・,K)を算出することができる。
判別特徴ベクトルyk m,(k=1,・・・,K,m=
1,・・・,nk )を算出する。そして、以下の式によ
り、基準特徴kが判別特徴空間上で占める空間の重心G
k ,(k=1,・・・,K)と各軸方向の半径Rk ,
(k=1,・・・,K)を算出することができる。
【数26】
【0083】上述の一連の処理により、第1の構成例で
述べた認識処理で用いる結合係数行列や基準特徴に関す
るパラメータなどの予め定めるべき値を算出することが
できる。
述べた認識処理で用いる結合係数行列や基準特徴に関す
るパラメータなどの予め定めるべき値を算出することが
できる。
【0084】なお、この例では、認識対象画像パターン
がエッジの強い部分と弱い部分とを持っていると仮定し
て、小領域分類特徴抽出処理部52においてエッジ強度
マップを抽出したが、認識対象画像パターンに応じて他
の特徴を抽出することもできる。例えば、認識対象画像
パターン内のエッジ強度はあまり変化しないが色や鮮や
かさに変化がある場合には、L* a* b* 画像データの
a* ,b* の値から各画素の色相や彩度を計算して、こ
れらの値により小領域を分類することができる。もちろ
ん、これらを組み合せてもよい。また、エッジ強度が閾
値Tm 以上の画素の数によってのみ分類するのではな
く、小領域内で最も多いエッジ強度の値から基準特徴を
決定することもできる。
がエッジの強い部分と弱い部分とを持っていると仮定し
て、小領域分類特徴抽出処理部52においてエッジ強度
マップを抽出したが、認識対象画像パターンに応じて他
の特徴を抽出することもできる。例えば、認識対象画像
パターン内のエッジ強度はあまり変化しないが色や鮮や
かさに変化がある場合には、L* a* b* 画像データの
a* ,b* の値から各画素の色相や彩度を計算して、こ
れらの値により小領域を分類することができる。もちろ
ん、これらを組み合せてもよい。また、エッジ強度が閾
値Tm 以上の画素の数によってのみ分類するのではな
く、小領域内で最も多いエッジ強度の値から基準特徴を
決定することもできる。
【0085】また、この第2の構成例では、第1の構成
例に合わせて、認識処理で必要となる諸値を正準分析に
よって求めた。第1の構成例において、他の手法により
類似度を算出する場合には、用いた手法に合わせて認識
対象画像データを処理しておく必要がある。例えば、ニ
ューラルネットワークを用いるのであれば、学習用の画
像データを用いてニューラルネットワークに学習させれ
ばよい。
例に合わせて、認識処理で必要となる諸値を正準分析に
よって求めた。第1の構成例において、他の手法により
類似度を算出する場合には、用いた手法に合わせて認識
対象画像データを処理しておく必要がある。例えば、ニ
ューラルネットワークを用いるのであれば、学習用の画
像データを用いてニューラルネットワークに学習させれ
ばよい。
【0086】上述の例では、入力される画像としてカラ
ー画像を想定したが、グレイスケールやモノクロの画像
についても同様にして複数の基準特徴を設定し、それぞ
れの類似度を計算して認識処理を行なうことが可能であ
る。
ー画像を想定したが、グレイスケールやモノクロの画像
についても同様にして複数の基準特徴を設定し、それぞ
れの類似度を計算して認識処理を行なうことが可能であ
る。
【0087】
【発明の効果】以上の説明から明らかなように、本発明
によれば、フォアグラウンド部分との類似度マップとバ
ックグラウンド部分の類似度マップを作成し、この2つ
のマップを使用して全体の類似度を認識するので、認識
対象画像パターンが一様でなくても、フォアグランド部
分とバックグランド部分とを自動的に分類して、特徴抽
出および認識を行なう。従って、種々の画像パターンに
対して高い精度での認識が可能となる。特に、認識対象
画像パターンに無地の部分が含まれていた場合、無地の
部分はバックグラウンドと判断されて、その他の部分と
は異なる認識処理が行われ、最終的にはフォアグラウン
ド部分とバックグラウンド部分の相関関係をも考慮した
認識処理を行うので、無地の部分のみが類似した画像を
与えられても、正確な認識が可能になるという効果があ
る。
によれば、フォアグラウンド部分との類似度マップとバ
ックグラウンド部分の類似度マップを作成し、この2つ
のマップを使用して全体の類似度を認識するので、認識
対象画像パターンが一様でなくても、フォアグランド部
分とバックグランド部分とを自動的に分類して、特徴抽
出および認識を行なう。従って、種々の画像パターンに
対して高い精度での認識が可能となる。特に、認識対象
画像パターンに無地の部分が含まれていた場合、無地の
部分はバックグラウンドと判断されて、その他の部分と
は異なる認識処理が行われ、最終的にはフォアグラウン
ド部分とバックグラウンド部分の相関関係をも考慮した
認識処理を行うので、無地の部分のみが類似した画像を
与えられても、正確な認識が可能になるという効果があ
る。
【0088】また、本発明によれば、複数の基準特徴に
対応する類似度マップを作成し、これらの類似度マップ
を使用して全体の類似度を認識するように構成すること
もできる。これにより、認識対象画像パターンが一様で
なくとも自動的に分類されて、特徴抽出および認識が行
なわれる。したがって、種々の画像パターンに対して高
い精度での認識が可能となるという効果がある。
対応する類似度マップを作成し、これらの類似度マップ
を使用して全体の類似度を認識するように構成すること
もできる。これにより、認識対象画像パターンが一様で
なくとも自動的に分類されて、特徴抽出および認識が行
なわれる。したがって、種々の画像パターンに対して高
い精度での認識が可能となるという効果がある。
【図面の簡単な説明】
【図1】 本発明の画像認識装置の第1の実施の形態を
示すブロック図である。
示すブロック図である。
【図2】 本発明の画像認識装置の第1の実施の形態を
実現する第1の構成例を示すブロック図である。
実現する第1の構成例を示すブロック図である。
【図3】 本発明の画像認識装置の第1の実施の形態を
実現する第1の構成例における正方領域抽出の一例の説
明図である。
実現する第1の構成例における正方領域抽出の一例の説
明図である。
【図4】 1次の局所自己相関の変位パターンの説明図
である。
である。
【図5】 1次微分オペレータの一例の説明図である。
【図6】 本発明の画像認識装置の第1の実施の形態に
おける2次元の判別特徴空間における諸値の説明図であ
る。
おける2次元の判別特徴空間における諸値の説明図であ
る。
【図7】 本発明の画像認識装置の第1の実施の形態を
実現する第2の構成例を示すブロック図である。
実現する第2の構成例を示すブロック図である。
【図8】 本発明の画像認識装置の第1の実施の形態を
実施する第2の構成例におけるフォアグラウンド特徴ベ
クトル抽出処理部およびバックグラウンド特徴ベクトル
抽出処理部の動作の一例を示すフローチャートである。
実施する第2の構成例におけるフォアグラウンド特徴ベ
クトル抽出処理部およびバックグラウンド特徴ベクトル
抽出処理部の動作の一例を示すフローチャートである。
【図9】 本発明の画像認識装置の第2の実施の形態を
示すブロック図である。
示すブロック図である。
【図10】 本発明の画像認識装置の第2の実施の形態
を実現する第1の実施例を示すブロック図である。
を実現する第1の実施例を示すブロック図である。
【図11】 本発明の画像認識装置の第2の実施の形態
における2次元の判別特徴空間Y(N=2)における諸
値の説明図である。
における2次元の判別特徴空間Y(N=2)における諸
値の説明図である。
【図12】 本発明の画像認識装置の第2の実施の形態
を実現する第2の構成例を示すブロック図である。
を実現する第2の構成例を示すブロック図である。
【図13】 本発明の画像認識装置の第2の実施の形態
を実現する第2の構成例における小領域分類処理部で用
いる基準特徴とエッジ強度から算出した値との関係の一
例の説明図である。
を実現する第2の構成例における小領域分類処理部で用
いる基準特徴とエッジ強度から算出した値との関係の一
例の説明図である。
1…画像入力部、2…小領域抽出部、3…特徴抽出部、
4…フォアグラウンド類似度マップ作成部、5…バック
グラウンド類似度マップ作成部、6…認識部、7…類似
度マップ作成部、11…カラー原稿入力処理部、12…
L* a* b* 画像データ記憶メモリ、13…正方領域位
置算出処理部、14…局所自己相関特徴抽出処理部、1
5…線の傾き特徴抽出処理部、16…バックグラウンド
類似度マップ作成処理部、17…フォアグラウンド類似
度マップ作成処理部、18…類似度マッップ記憶メモ
リ、19…認識処理部、21…カラー原稿入力処理部、
22…L* a* b* 画像データ記憶メモリ、23…正方
領域位置算出処理部、24…分類特徴抽出処理部、25
…フォアグラウンド特徴ベクトル抽出処理部、26…バ
ックグラウンド特徴ベクトル抽出処理部、27…フォア
グラウンド主成分分析処理部、28…バックグラウンド
主成分分析処理部、41…エッジ特徴抽出処理部、42
…類似度マップ作成処理部、43…基準特徴辞書、51
…特徴ベクトル抽出処理部、52…小領域分類特徴抽出
処理部、53…小領域分類処理部、54…正準分析処理
部、55…基準特徴空間算出処理部。
4…フォアグラウンド類似度マップ作成部、5…バック
グラウンド類似度マップ作成部、6…認識部、7…類似
度マップ作成部、11…カラー原稿入力処理部、12…
L* a* b* 画像データ記憶メモリ、13…正方領域位
置算出処理部、14…局所自己相関特徴抽出処理部、1
5…線の傾き特徴抽出処理部、16…バックグラウンド
類似度マップ作成処理部、17…フォアグラウンド類似
度マップ作成処理部、18…類似度マッップ記憶メモ
リ、19…認識処理部、21…カラー原稿入力処理部、
22…L* a* b* 画像データ記憶メモリ、23…正方
領域位置算出処理部、24…分類特徴抽出処理部、25
…フォアグラウンド特徴ベクトル抽出処理部、26…バ
ックグラウンド特徴ベクトル抽出処理部、27…フォア
グラウンド主成分分析処理部、28…バックグラウンド
主成分分析処理部、41…エッジ特徴抽出処理部、42
…類似度マップ作成処理部、43…基準特徴辞書、51
…特徴ベクトル抽出処理部、52…小領域分類特徴抽出
処理部、53…小領域分類処理部、54…正準分析処理
部、55…基準特徴空間算出処理部。
Claims (6)
- 【請求項1】 入力された画像を量子化し画像データを
生成する画像入力手段と、該画像入力手段により生成さ
れた前記画像データから複数の小領域を抽出する小領域
抽出手段と、該小領域抽出手段により得られた各小領域
から特徴を抽出する特徴抽出手段と、該特徴抽出手段に
より抽出された特徴を用いて前記小領域抽出手段により
得られた各小領域ごとに認識対象画像パターンのフォア
グラウンド部分との類似度を計算しフォアグラウンド類
似度マップを作成するフォアグラウンド類似度マップ作
成手段と、前記特徴抽出手段により抽出された特徴を用
いて前記小領域抽出手段により得られた各小領域ごとに
前記認識対象画像パターンのバックグラウンド部分との
類似度を計算しバックグラウンド類似度マップを作成す
るバックグラウンド類似度マップ作成手段と、前記フォ
アグラウンド類似度マップ作成手段により作成された前
記フォアグラウンド類似度マップおよび前記バックグラ
ウンド類似度マップ作成手段により作成された前記バッ
クグラウンド類似度マップにおける類似度の分布状態お
よび前記フォアグラウンド類似度マップと前記バックグ
ラウンド類似度マップの相関関係から入力された画像に
認識対象画像パターンが含まれているか否かを認識する
認識手段を有することを特徴とする画像認識装置。 - 【請求項2】 前記フォアグラウンド類似度マップ作成
手段および前記バックグラウンド類似度マップ作成手段
は、学習用の認識対象画像パターンから抽出された小領
域において予め定められた閾値以上のエッジ強度を持つ
画素が予め定められた割合以上含まれている小領域をフ
ォアグラウンド、これ以外の小領域をバックグラウンド
として、予め統計的手法により結合係数行列を算出して
おき、前記特徴抽出手段により抽出された特徴ベクトル
から類似度を算出することを特徴とする請求項1に記載
の画像認識装置。 - 【請求項3】 前記フォアグラウンド類似度マップ作成
手段および前記バックグラウンド類似度マップ作成手段
は、学習用の認識対象画像パターンから抽出された小領
域中の画素値の分散が予め定められた閾値以上の小領域
をフォアグラウンド、これ以外の小領域をバックグラウ
ンドとして、予め統計的手法により結合係数行列を算出
しておき、前記特徴抽出手段により抽出された特徴ベク
トルから類似度を算出することを特徴とする請求項1に
記載の画像認識装置。 - 【請求項4】 入力された画像を量子化し画像データを
生成する画像入力手段と、該画像入力手段により生成さ
れた前記画像データから複数の小領域を抽出する小領域
抽出手段と、該小領域抽出手段により得られた各小領域
から特徴を抽出する特徴抽出手段と、該特徴抽出手段に
より抽出された特徴を用いて前記小領域抽出手段により
得られた小領域ごとに予め設定しておいた複数の基準特
徴との類似度を計算し複数の類似度マップを作成する類
似度マップ作成手段と、該類似度マップ作成手段により
作成された複数の類似度マップにおける類似度の分布状
態および複数の類似度マップの間の相関関係から入力さ
れた画像に認識対象画像パターンが含まれているか否か
を認識する認識手段とを具備することを特徴とする画像
認識装置。 - 【請求項5】 前記類似度マップ作成手段における基準
特徴として、前記小領域抽出手段により学習用の認識対
象画像パターンから抽出された各小領域を該小領域の持
つエッジ強度により複数に分類し、この分類された小領
域の各グループから算出した特徴を用いることを特徴と
する請求項4に記載の画像認識装置。 - 【請求項6】 前記類似度マップ作成手段における基準
特徴として、前記小領域抽出手段により学習用の認識対
象画像パターンから抽出された各小領域を該小領域の持
つ色相や彩度により複数に分類し、この分類された小領
域の各グループから算出した特徴を用いることを特徴と
する請求項4に記載の画像認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1145596A JPH09171552A (ja) | 1995-10-18 | 1996-01-26 | 画像認識装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP7-269638 | 1995-10-18 | ||
JP26963895 | 1995-10-18 | ||
JP1145596A JPH09171552A (ja) | 1995-10-18 | 1996-01-26 | 画像認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH09171552A true JPH09171552A (ja) | 1997-06-30 |
Family
ID=26346881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1145596A Pending JPH09171552A (ja) | 1995-10-18 | 1996-01-26 | 画像認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH09171552A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007004477A1 (ja) * | 2005-06-30 | 2007-01-11 | Nec Corporation | 画像識別システム及び方法 |
JP2007257203A (ja) * | 2006-03-22 | 2007-10-04 | Toyota Motor Corp | パターン認識装置及びパターン認識方法 |
JP2007334766A (ja) * | 2006-06-16 | 2007-12-27 | National Institute Of Advanced Industrial & Technology | 異常領域検出装置および異常領域検出方法 |
JP2008217627A (ja) * | 2007-03-07 | 2008-09-18 | National Institute Of Advanced Industrial & Technology | 画像特徴抽出装置および画像特徴抽出方法 |
JP2009146089A (ja) * | 2007-12-13 | 2009-07-02 | National Institute Of Advanced Industrial & Technology | 特徴抽出装置および特徴抽出方法 |
JP2009163492A (ja) * | 2008-01-07 | 2009-07-23 | Seiko Epson Corp | 画像処理装置、画像処理方法、およびプログラム |
JP2011501835A (ja) * | 2007-09-19 | 2011-01-13 | トムソン ライセンシング | 画像をスケーリングするシステムおよび方法 |
JP2011014152A (ja) * | 2010-08-23 | 2011-01-20 | National Institute Of Advanced Industrial Science & Technology | 異常領域検出装置および異常領域検出方法 |
WO2012099435A2 (ko) * | 2011-01-21 | 2012-07-26 | 노틸러스효성 주식회사 | 베이시안 접근법을 이용한 지폐 감별 방법 |
KR101232684B1 (ko) * | 2011-01-21 | 2013-02-13 | 노틸러스효성 주식회사 | 베이시안 접근법을 이용한 지폐 진위 감별 방법 |
KR101232683B1 (ko) * | 2011-01-21 | 2013-02-13 | 노틸러스효성 주식회사 | 베이시안 접근법을 이용한 권종 인식 방법 |
JP2014113364A (ja) * | 2012-12-11 | 2014-06-26 | Panasonic Corp | 診断支援装置および診断支援方法 |
-
1996
- 1996-01-26 JP JP1145596A patent/JPH09171552A/ja active Pending
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4941299B2 (ja) * | 2005-06-30 | 2012-05-30 | 日本電気株式会社 | 画像識別システム及び方法 |
WO2007004477A1 (ja) * | 2005-06-30 | 2007-01-11 | Nec Corporation | 画像識別システム及び方法 |
JP2007257203A (ja) * | 2006-03-22 | 2007-10-04 | Toyota Motor Corp | パターン認識装置及びパターン認識方法 |
JP2007334766A (ja) * | 2006-06-16 | 2007-12-27 | National Institute Of Advanced Industrial & Technology | 異常領域検出装置および異常領域検出方法 |
JP4603512B2 (ja) * | 2006-06-16 | 2010-12-22 | 独立行政法人産業技術総合研究所 | 異常領域検出装置および異常領域検出方法 |
JP2008217627A (ja) * | 2007-03-07 | 2008-09-18 | National Institute Of Advanced Industrial & Technology | 画像特徴抽出装置および画像特徴抽出方法 |
JP2011501835A (ja) * | 2007-09-19 | 2011-01-13 | トムソン ライセンシング | 画像をスケーリングするシステムおよび方法 |
US8351730B2 (en) | 2007-09-19 | 2013-01-08 | Thomson Licensing | System and method for scaling images |
JP2009146089A (ja) * | 2007-12-13 | 2009-07-02 | National Institute Of Advanced Industrial & Technology | 特徴抽出装置および特徴抽出方法 |
JP2009163492A (ja) * | 2008-01-07 | 2009-07-23 | Seiko Epson Corp | 画像処理装置、画像処理方法、およびプログラム |
JP2011014152A (ja) * | 2010-08-23 | 2011-01-20 | National Institute Of Advanced Industrial Science & Technology | 異常領域検出装置および異常領域検出方法 |
JP4728444B2 (ja) * | 2010-08-23 | 2011-07-20 | 独立行政法人産業技術総合研究所 | 異常領域検出装置および異常領域検出方法 |
WO2012099435A2 (ko) * | 2011-01-21 | 2012-07-26 | 노틸러스효성 주식회사 | 베이시안 접근법을 이용한 지폐 감별 방법 |
WO2012099435A3 (ko) * | 2011-01-21 | 2012-12-20 | 노틸러스효성 주식회사 | 베이시안 접근법을 이용한 지폐 감별 방법 |
KR101232684B1 (ko) * | 2011-01-21 | 2013-02-13 | 노틸러스효성 주식회사 | 베이시안 접근법을 이용한 지폐 진위 감별 방법 |
KR101232683B1 (ko) * | 2011-01-21 | 2013-02-13 | 노틸러스효성 주식회사 | 베이시안 접근법을 이용한 권종 인식 방법 |
JP2014113364A (ja) * | 2012-12-11 | 2014-06-26 | Panasonic Corp | 診断支援装置および診断支援方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6738494B1 (en) | Method for varying an image processing path based on image emphasis and appeal | |
EP2063393B1 (en) | Color classifying method, color recognizing method, color classifying device, color recognizing device, color recognizing system, computer program, and recording medium | |
US5519789A (en) | Image clustering apparatus | |
US8411932B2 (en) | Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system | |
JP3118725B2 (ja) | 自動分類方法 | |
JP4335476B2 (ja) | 画像の顕著性及びアピール性に基づいて写真印画の数、寸法、及び、倍率を変更する方法 | |
CN109903331B (zh) | 一种基于rgb-d相机的卷积神经网络目标检测方法 | |
US7440638B2 (en) | Image retrieving system, image classifying system, image retrieving program, image classifying program, image retrieving method and image classifying method | |
EP3065084A1 (en) | Image recognition method, image recognition device, and recording medium | |
EP1109132A2 (en) | Method for automatic assessment of emphasis and appeal in consumer images | |
US9779329B2 (en) | Image processing apparatus, image processing method and program | |
EP2615572A1 (en) | Image segmentation based on approximation of segmentation similarity | |
US20030161504A1 (en) | Image recognition system and recognition method thereof, and program | |
CN109583483A (zh) | 一种基于卷积神经网络的目标检测方法和系统 | |
CN108960260B (zh) | 一种分类模型生成方法、医学影像图像分类方法及装置 | |
CN113361495A (zh) | 人脸图像相似度的计算方法、装置、设备及存储介质 | |
JP4098021B2 (ja) | シーン識別方法および装置ならびにプログラム | |
JPH1153525A (ja) | 顔器官検出装置及び媒体 | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
JPH09171552A (ja) | 画像認識装置 | |
CN114170418B (zh) | 一种以图搜图的汽车线束连接器多特征融合图像检索方法 | |
JP2019139618A (ja) | 情報処理装置、被写体の判別方法及びコンピュータプログラム | |
JP2008251039A (ja) | 画像認識システム及びその認識方法並びにプログラム | |
CN111461002B (zh) | 一种面向热成像行人检测的样本处理方法 | |
JP3708042B2 (ja) | 画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20040427 |