JPH07254063A - 画像処理方法 - Google Patents

画像処理方法

Info

Publication number
JPH07254063A
JPH07254063A JP6042590A JP4259094A JPH07254063A JP H07254063 A JPH07254063 A JP H07254063A JP 6042590 A JP6042590 A JP 6042590A JP 4259094 A JP4259094 A JP 4259094A JP H07254063 A JPH07254063 A JP H07254063A
Authority
JP
Japan
Prior art keywords
target
image
localization
image processing
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6042590A
Other languages
English (en)
Other versions
JP3355015B2 (ja
Inventor
Tetsuji Hashimo
哲司 羽下
Koichi Sasagawa
耕一 笹川
Shinichi Kuroda
伸一 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP04259094A priority Critical patent/JP3355015B2/ja
Publication of JPH07254063A publication Critical patent/JPH07254063A/ja
Application granted granted Critical
Publication of JP3355015B2 publication Critical patent/JP3355015B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 対象の認識に際して、処理コストを低減し、
マッチングの安定性を向上させた画像処理方法を得る。 【構成】 取り込まれてディジタル化された原画像に対
して前処理を施し、得られた前処理画像中で対象の局在
性の評価を行い、その局在性の評価結果に着目して対象
の重心位置を抽出し、求められた対象の重心位置を中心
として対象の大きさや種類、姿勢等の属性を抽出する。 【効果】 探索空間の規模を縮小することができ、処理
コストの低減とマッチングの安定性の向上が図れる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、ディジタル画像処理
技術を用いて画像中に存在する対象を認識する際の、認
識性能を向上させる画像処理方法に関するものである。
【0002】
【従来の技術】図39は例えば「触手特徴を集積した参
照点によるモデルマッチング」(佐野睦夫、目黒真一、
石井 明:電子情報通信学会 パターン認識と理解研究
会資料PRU86−90)に示された、従来の画像処理
方法を示す説明図である。図において、Oは検出対象図
形のモデルの形状を記述するための基準点であり、xは
モデル図形の境界上の各点においける基準点Oに向かう
ベクトル、φは境界線の勾配の方向である。
【0003】次に、動作について説明する。この画像処
理方法では一般化Hough変換によるパターンマッチ
ングが行われる。まず、検出対象図形のモデルの形状を
記述するための基準点Oを選び、それを原点とする座標
系を定める。次に、モデル図形の境界上の各点におい
て、基準点Oに向かうベクトルxi =(ri ,αi )と
境界線の勾配の方向φi を求める。なお、上記rはベク
トルの長さであり、αは方向角である。このベクトルx
を勾配の方向φの関数とみなして、以下に示すRテーブ
ルと呼ばれる表としてモデルの形状を表わす。
【0004】
【表1】
【0005】この表1によるRテーブルによれば、例え
ばベクトルx(2Δφ) はx(2Δφ)=(r(2Δφ) ,α
(2Δφ) )={x21,x22,・・・}となる。
【0006】ここで、2次元図形に対する座標変換は、
平行移動(x,y)、回転角θ、拡大・縮小率sの4つ
のパラメータによって表現される。これらのパラメータ
によって張られる4次元空間をパラメータ空間とする。
また、変換の入力画像はエッジ検出等によって抽出され
たエッジ点を含み、勾配の方向ψが求められているとす
る。画像上の各エッジ点(uj ,vj )(勾配の方向ψ
j )に対して次の操作を行う。すなわち、パラメータ空
間中のすべての(θ,s)の組み合わせに対して、次の
(1)式および(2)式を満たすx,yを求め、パラメ
ータ空間の要素(x,y,θ,s)の値を1ずつ増やし
て、ピークを持つ(x,y,θ,s)を求める。
【0007】 x=uj +r(ψj −θ)×cos[α(ψj −θ)+θ]・・・(1) y=vj +r(ψj −θ)×sin[α(ψj −θ)+θ]・・・(2)
【0008】
【発明が解決しようとする課題】従来の画像処理方法は
以上のように構成されているので、一般化Hough変
換によるパターンマッチングのための多くのパラメータ
を含み、探索空間の規模が大きなものとなって、その演
算コストが増大するとともに安定性の低下を招くという
問題点があった。
【0009】この発明は上記のような問題点を解消する
ためになされたもので、処理コストを低減し、安定性を
向上させた画像処理方法を得ることを目的とする。
【0010】
【課題を解決するための手段】請求項1に記載の発明に
係る画像処理方法は、原画像に前処理を施した後、対象
の局在性の評価を行ってその評価結果より対象の重心位
置を決定し、得られた重心位置を中心にして当該対象の
大きさ、種類(形状)、姿勢等の属性を認識するもので
ある。
【0011】また、請求項2に記載の発明に係る画像処
理方法は、複数の評価関数を用いて異なるスケールで並
列に対象の局在性の評価を行い、得られた複数の評価結
果を統合することで対象の局在性の再評価して、その再
評価結果から対象の重心位置を決定するものである。
【0012】また、請求項3に記載の発明に係る画像処
理方法は、複数の評価関数を用いて異なるスケールで並
列に対象の局在性の評価を行い、得られた複数の評価結
果から対象の重心位置を並列に抽出して、複数の対象の
重心位置候補を求めるものである。
【0013】また、請求項4に記載の発明に係る画像処
理方法は、入力された画像を複数の異なる解像度の画像
に変換し、各解像変換画像に対して同じ評価関数を用い
て対象の局在性の評価を行い、得られた複数の評価結果
を統合することで対象の局在性を再評価して、その再評
価結果から対象の重心位置を決定するものである。
【0014】また、請求項5に記載の発明に係る画像処
理方法は、入力された画像を複数の異なる解像度の画像
に変換し、各解像変換画像に対して同じ評価関数を用い
て対象の局在性の評価を行い、得られた複数の評価結果
から対象の重心位置を並列に抽出して、複数の対象の重
心位置候補を求めるものである。
【0015】また、請求項6に記載の発明に係る画像処
理方法は、対象の広がり量を当該対象が存在する位置を
中心として周囲の複数の方向に放射状に調べ、得られた
の各方向の広がり量に着目して対象の属性の認識を行う
ものである。
【0016】また、請求項7に記載の発明に係る画像処
理方法は、対象の広がり量を当該対象が存在する複数の
候補位置を中心として周囲の複数の方向に放射状に並列
に調べ、得られた各方向の広がり量に着目してそれぞれ
の対象候補の属性を並列に抽出し、それらを統合して最
終的な対象の属性を抽出するものである。
【0017】また、請求項8に記載の発明に係る画像処
理方法は、対象の広がり量の抽出に際して、対象の重心
位置を中心として周囲の複数の方向に放射状に伸びた入
力画像の一次元のデータを生成し、広がり量に依存して
変化する一次元の関数との積和演算を広がり量を変えな
がら実行し、演算結果が極大となる広がり量をその方向
の対象の広がり量とするものであり、そのとき、この広
がり量に依存して変化する一次元の関数と入力画像のあ
る方向の一次元のデータとの積和演算の結果が、広がり
量がその方向の対象の大きさと一致したときに極大とな
るようにあらかじめ設定しておくものである。
【0018】また、請求項9に記載の発明に係る画像処
理手法は、前処理として、原画像中で空間周波数が所定
の範囲内にある部分を抽出する処理を行うものである。
【0019】また、請求項10に記載の発明に係る画像
処理手法は、前処理として、原画像を所定のしきい値で
2値化する処理を行うものである。
【0020】また、請求項11に記載の発明に係る画像
処理手法は、前処理として、原画像中で空間周波数が所
定の範囲内にある部分を抽出し、得られた画像を所定の
しきい値で2値化する処理を行うものである。
【0021】また、請求項12に記載の発明に係る画像
処理方法は、得られた局在性の評価結果の極大値を対象
の重心位置として抽出するものである。
【0022】また、請求項13に記載の発明に係る画像
処理方法は、対象の局在性の評価値を輝度分布とする画
像を所定のしきい値で2値化し、その2値化画像におい
て0次および1次のモーメントを計算して対象の重心位
置を抽出するものである。
【0023】また、請求項14に記載の発明に係る画像
処理方法は、対象の重心位置を中心に設定した中心小領
域内の輝度分布と、この中心小領域の周囲に設定した周
囲小領域内の輝度分布を比較し、その周囲小領域が対象
か背景かの判定を行って対象と判定された周囲小領域を
中心小領域に融合させ、中心小領域を対象の境界まで順
次拡張して対象の大きさを抽出するものである。
【0024】また、請求項15に記載の発明に係る画像
処理方法は、対象の局在性の評価結果を輝度分布とする
画像を所定のしきい値で2値化し、その2値化画像にお
いて0次、1次、2次のモーメントを計算して対象の属
性を抽出するものである。
【0025】
【作用】請求項1に記載の発明における画像処理手法
は、対象の局在性に着目して抽出した対象の重心位置を
中心にして対象の属性を認識することにより、探索空間
の規模を減らして処理コストを削減し、マッチングの安
定性を向上させる。
【0026】また、請求項2に記載の発明における画像
処理方法は、異なるスケールで並列に評価した対象の局
在性の評価結果を統合して局在性の再評価を行った後、
その再評価結果から対象の重心位置を抽出することによ
り、様々な大きさの対象を認識できるようにする。
【0027】また、請求項3に記載の発明における画像
処理方法は、異なるスケールで並列に評価した対象の局
在性の各評価結果から、対象の重心位置をそれぞれ抽出
して複数の重心位置候補を並列に求ることにより、様々
な大きさの対象を認識できるようにする。
【0028】また、請求項4に記載の発明における画像
処理方法は、解像度の異なる複数の解像度変換画像に対
して同じ評価関数を用いて対象の局在性を評価し、各評
価結果を統合して局在性の再評価を行った再評価結果か
ら対象の重心位置を抽出することにより、様々な大きさ
の対象を認識できるようにする。
【0029】また、請求項5に記載の発明における画像
処理方法は、解像度の異なる複数の解像度変換画像に対
して同じ評価関数を用いて対象の局在性を評価し、各評
価結果から対象の重心位置をそれぞれ抽出して複数の重
心位置候補を並列に求めることにより、様々な大きさの
対象を認識できるようにする。
【0030】また、請求項6に記載の発明における画像
処理方法は、対象の重心位置を中心として周囲の複数の
方向に放射状に対象の広がり量を調べて、それらから対
象の属性を抽出することにより、探索空間の規模を減ら
すことを可能にして処理コストを削減し、マッチングの
安定性を向上させる。
【0031】また、請求項7に記載の発明における画像
処理方法は、対象の存在する複数の候補位置を中心とし
て周囲の複数の方向に放射状に各対象の広がり量を並列
に調べて、それらより各対象候補の属性を並列に抽出し
てその統合を行い、最終的な対象の属性を抽出すること
により、探索空間の規模を減らすことを可能にして処理
コストを削減し、マッチングの安定性を向上させる。
【0032】また、請求項8に記載の発明における画像
処理方法は、対象の重心位置より放射状に伸びた入力画
像の一次元のデータと、広がり量に依存して変化する一
次元の関数との積和演算を広がり量を変えながら計算
し、結果が極大となる広がり量をその方向の対象の広が
り量として抽出することにより、広がり量の抽出を安定
に行うことを可能とする。
【0033】また、請求項9に記載の発明における画像
処理方法は、空間フィルタ処理を施して画像中の高周波
ノイズや緩慢な輝度変化等の影響が除去すことにより、
安定な対象の認識を可能とする。
【0034】また、請求項10に記載の発明における画
像処理方法は、2値化処理を施して対象を背景から分離
すことにより、安定な対象の認識を可能とする。
【0035】また、請求項11に記載の発明における画
像処理方法は、空間フィルタ処理を施した後に2値化処
理を施して、画像中の高周波ノイズや緩慢な輝度変化等
の影響を除去し、対象を背景から分離することにより、
さらに安定な対象の認識を可能とする。
【0036】また、請求項12に記載の発明における画
像処理方法は、得られた局在性の評価結果の極大値を対
象の重心位置として抽出することにより、重心位置の抽
出を安定に行うことを可能とする。
【0037】また、請求項13に記載の発明における画
像処理方法は、局在性の評価値を輝度分布として持つ画
像の2値化画像において0次および1次のモーメントを
計算することにより、局在性の評価結果から対象の重心
位置の抽出を安定に行うことを可能とする。
【0038】また、請求項14に記載の発明における画
像処理方法は、重心位置を中心に設定した中心小領域と
その周囲に設定した周囲小領域との輝度分布を比較に基
づいて、その周囲小領域が対象と判定された場合には当
該周囲小領域を中心小領域に融合させ、その中心小領域
を対象の境界まで順次拡張して対象の大きさを抽出する
ことにより、対象の大きさの抽出を安定に行うことを可
能とする。
【0039】また、請求項15に記載の発明における画
像処理方法は、局在性の評価値を輝度分布として持つ画
像の2値化画像において0次、1次、2次のモーメント
を計算することにより、対象の属性の抽出を安定に行う
ことを可能とする。
【0040】
【実施例】
実施例1.次に、この発明の実施例1を図について説明
する。図1は請求項1に記載した発明による画像処理方
法の一実施例を示すフローチャートであり、図2はその
対象抽出処理の詳細を示すフローチャートである。ま
た、図3は上記画像処理方法を適用した画像処理装置の
構成例を示すブロック図であり、図4はその中の対象抽
出部の内部構成を示すブロック図である。
【0041】図3において、1はカメラ等によって画像
を取り込み、それをディジタル化する画像入力部であ
り、2はこの画像入力部1でディジタル化された画像
(以下原画像という)に対して、画像中の高周波ノイズ
や緩慢な輝度変化等を除去するための前処理を施す前処
理部である。3はこの前処理部2において前処理された
画像(以下前処理画像という)中で、対象を構成する要
素の局所的な集中の度合い(以下局在性という)を評価
し、その評価結果に着目して対象の重心位置を抽出する
対象抽出部であり、4はこの対象抽出部3によって求め
られた対象の重心位置を中心として、対象の位置、大き
さ、種類(形状)、姿勢等の属性を抽出する対象認識部
である。また、5は画像入力部1より前処理部2に入力
される原画像、6は前処理部2にて前処理が施された前
処理画像、7は対象抽出部3で抽出された対象の重心位
置、8は対象認識部4で抽出された対象の属性である。
【0042】また、図4において、9は前処理部2にて
前処理された前処理画像6中で、対象を構成する要素の
局所的な集中の度合い、すなわち対象の局在性の評価を
行う局在性評価部、10はこの局在性評価部9による局
在性の評価結果に着目して対象の重心位置7を抽出し、
対象認識部4に出力する重心抽出部であり、11はこの
局在性評価部9より重心抽出部10に送られる局在性の
評価結果である。
【0043】次に図3に示した画像処理装置の動作につ
いて、図1のフローチャートを用いて説明する。画像入
力部1にてカメラ等で取り込まれたアナログ信号による
画像はアナログ/ディジタル変換され、ディジタル信号
による原画像5となる(ステップST1)。この原画像
5は前処理部2に送られて前処理が施され、画像中の高
周波ノイズや緩慢な輝度変化が除去された前処理画像6
となり(ステップST2)、対象抽出部3と対象認識部
4とに入力される。対象抽出部3では入力された前処理
画像6の局在性に着目して対象の重心位置7を抽出し、
それを対象認識部4に送出する(ステップST3)。対
象認識部4ではこの対象の重心位置7と前処理部2から
入力された前処理画像6から対象の属性8を抽出して外
部に出力する(ステップST4)。
【0044】ここで、ステップST13において、対象
抽出部3が対象を複数抽出した場合には、対象認識部4
ではステップST4において、それぞれの対象の存在位
置を中心として並列に複数の対象の属性8を認識するこ
ともできる。
【0045】また、対象抽出部3に入力される画像と対
象認識部4に入力される画像は同一の前処理が施された
前処理画像6を用いているが、前処理部2において異な
る前処理を施した2種類の前処理画像を生成し、その一
方を対象抽出部3に、他方を対象認識部4にそれぞれ入
力ることもできる。
【0046】次に図4に示した対象抽出部3の動作につ
いて、図2のフローチャートを用いてさらに詳しく説明
する。まず、局在性評価部9において、対象抽出部3に
入力された前処理画像6中で対象を構成する要素の局所
的な集中の度合いである局在性を評価する(ステップS
T5)。得られた局在性の評価結果11は重心抽出部1
0に送られ、重心抽出部11はその局在性の評価結果1
1から対象の重心位置7を抽出し、それを対象認識部4
に出力する(ステップST6)。なお、図示の例ではM
個の対象が存在している。
【0047】ここで、例えば入力された画像が2値画像
であり、対象を構成する“1”の点は密集して存在し、
背景を構成する“1”の点はまばらに存在するものと仮
定する。このような2値画像に対してある注目点のまわ
りに局所領域を考え、その局所領域内で輝度の総和(こ
の場合は2値画像であるので“1”の点の数の総和に等
しい)を計算すると、この総和は対象部分のように
“1”の点が密集して存在している部分では大きくな
り、背景部分のように“1”の点がまばらに存在してい
る部分では小さくなる。局在性評価部9はこのように注
目点のまわりの局所領域内での輝度値を加算することに
よって、対象を構成する要素の局所的な集中の度合い、
すなわち対象の局在性を評価して、その結果を局在性の
評価結果11として出力する。
【0048】次に、入力された画像が多値画像で、対象
を構成する点は高い輝度を持ち、背景を構成する点は低
い輝度を持つものと仮定した場合について考える。この
ような多値画像に対してある注目点のまわりの局所領域
内で輝度の総和を計算すると、この輝度の総和は、対象
部分のように高い輝度を持つ点が存在している部分で大
きくなり、背景部分のように低い輝度を持つ点が存在し
ている部分で小さくなる。局在性評価部9はこのように
注目点のまわりの局所領域内での輝度値を加算すること
によって対象の局在性を評価し、その結果を局在性の評
価結果11として出力する。
【0049】また、局在性評価部9にて対象の局在性を
評価する際に、注目点のまわりの局所領域内での輝度値
の加算処理は平均値フィルタ処理に相当する。ここで、
局所領域内の輝度を単純平均する単純な平均値フィルタ
処理の代わりに、注目点を中心とするガウス関数に比例
した重みの係数と、局所領域内の輝度との積和演算処理
を実行することにより、注目点に近いほどその点の輝度
の寄与分を大きく評価し、注目点から離れるに従ってそ
の点の輝度の寄与分を小さく評価することができる。こ
れはガウスフィルタ処理に相当する。局在性評価部9は
このようなガウスフィルタ処理により実現することもで
きる。ここで、標準偏差σの2次元のガウス関数は以下
の式(3)で表わされる。
【0050】
【数1】
【0051】また、対象の局在性を評価する際に、平均
値フィルタを作用させる場合、その局所領域を大きくす
ればより大局的な情報が得られ、局所領域を小さくすれ
ばより詳細な情報が得られる。また、ガウスフィルタを
作用させる場合には、標準偏差σを大きくすればより大
局的な情報が得られ、σを小さくすればより詳細な情報
が得られる。このように、平均値フィルタの局所領域
や、ガウスフィルタの標準偏差σを変化させることによ
り、様々なスケールで対象の局在性を評価することが可
能な局在性評価部9を実現することができる。
【0052】実施例2.次に、この発明の実施例2を図
について説明する。図5は請求項2に記載した発明によ
る画像処理方法における対象抽出処理の詳細を示すフロ
ーチャートであり、図6は上記画像処理方法を適用した
画像処理装置中の対象抽出部3の内部構成を示すブロッ
ク図である。
【0053】図6において、9−1〜9−Lは前処理部
2にて前処理された前処理画像6における局在性の評価
を、それぞれ異なったL個(Lは1以上の整数)のスケ
ールにて行う局在性評価部である。12はこれら各局在
性評価部9−1〜9−LによってL個の異なるスケール
で評価された局在性の評価結果を統合して局在性の再評
価を行う統合部であり、10はこの統合部12で得られ
た局在性の再評価結果から対象の重心位置7を抽出する
重心抽出部である。また、11−1〜11−Lは局在性
評価部9−1〜9−LにてL個の異なるスケールでそれ
ぞれ評価された局在性の評価結果であり、13は統合部
12で得られた局在性の再評価結果である。
【0054】次にその動作について、図5のフローチャ
ートを用いて説明する。この対象抽出部3に入力された
前処理画像6はL個の局在性評価部9−1〜9−Lに入
力され、それぞれで異なるL個の評価関数による異なっ
たスケールでの局在性の評価が行われる(ステップST
11−1〜ST11−L)。これら各局在性評価部9−
1〜9−Lにて得られたL個の局在性の評価結果11−
1〜11−Lは統合部12に送られ、統合部12はそれ
らを統合して局在性の再評価を行う(ステップST1
2)。この統合部12で統合された局在性の再評価結果
13は重心抽出部10に入力され、対象の重心位置7が
抽出されて対象認識部4に出力される(ステップST1
3)。なお、この場合もM個の対象が存在している例が
図示されている。
【0055】ここで、L個の異なるスケールで対象の局
在性の評価をしている各局在性評価部9−1〜9−Lの
それぞれで用いられている評価関数は、例えば平均値フ
ィルタの局所領域の大きさや、ガウスフィルタの標準偏
差σを変化させることにより実現することができる。
【0056】また、統合部12における複数の局在性の
評価結果11−1〜11−Lの統合は、それらの加算計
算、平均計算、最大値計算、中央値計算などの手法によ
って実現することができる。
【0057】実施例3.次に、この発明の実施例3を図
について説明する。図7は請求項3に記載した発明によ
る画像処理方法における対象抽出処理の詳細を示すフロ
ーチャートであり、図8は上記画像処理方法を適用した
画像処理装置中の対象抽出部3の内部構成を示すブロッ
ク図である。図8において、14は局在性評価部9−1
〜9−Lがそれぞれ異なったスケールで評価した局在性
の評価結果11−1〜11−Lより対象の重心位置をそ
れぞれ抽出するL個の重心抽出部であり、15−1〜1
5−Lはこれら各重心抽出部14にて抽出された異なる
スケールによるL通りの対象の重心位置候補である。
【0058】次にその動作について、図7のフローチャ
ートを用いて説明する。この対象抽出部3に入力された
前処理画像6はL個の局在性評価部9−1〜9−Lに入
力され、局在性評価部9−1〜9−Lのそれぞれにおい
て互いに個となるL個の評価関数による異なったスケー
ルでの局在性の評価が行われる(ステップST21−1
〜ST21−L)。これら各局在性評価部9−1〜9−
Lにおいて得られたL個の局在性の評価結果11−1〜
11−Lは、その各々に対応して用意された重心抽出部
14に送られ、各重心抽出部14はそれぞれ評価結果1
1−1〜11−LをもとにL通りの対象の重心位置候補
15−1〜15−Lを抽出し(ステップST12−1〜
ST12−L)、それを対象認識部4に出力する。な
お、図示の例ではそれぞれM1 〜ML 個の対象が存在し
ている。
【0059】この場合も、L個の異なるスケールで対象
の局在性の評価をしている各局在性評価部9−1〜9−
Lのそれぞれで用いられている評価関数は、例えば平均
値フィルタの局所領域の大きさや、ガウスフィルタの標
準偏差σを変化させることにより実現することができ
る。
【0060】また、対象の数およびそれらの存在位置は
各スケール毎に異なったL種類のものが得られるが、こ
れらの結果は以後の処理で、対象の大きさ、形状、姿勢
などの属性を認識した後、統合される。
【0061】実施例4.次に、この発明の実施例4を図
について説明する。図9は請求項4に記載した発明によ
る画像処理方法における対象抽出処理の詳細を示すフロ
ーチャートであり、図10は上記画像処理方法を適用し
た画像処理装置中の対象抽出部3の内部構成を示すブロ
ック図である。
【0062】図10において、16−1〜16−Lは入
力された前処理画像6をL種類の異なる解像度の画像に
それぞれ変換する解像度変換部であり、17は各解像度
変換部16−1〜16−Lでそれぞれの解像度に変換さ
れた解像度変換画像に対して対象の局在性を評価する局
在性評価部である。また、18−1〜18−Lは異なる
解像度に変換された解像度変換画像であり、11−1〜
11−Lはこれら各解像度変換画像18−1〜18−L
から得られた局在性の評価結果である。なお、12はこ
れら複数の局在性の評価結果11−1〜11−Lを統合
する統合部、13は統合部12で得られた局在性の再評
価結果、10はこの局在性の再評価結果13から対象の
重心位置を抽出する重心抽出部、7はこの重心抽出部1
0で抽出された対象の重心位置で、それぞれ図6におい
て同一符号を付した部分に相当するものである。
【0063】次にその動作について、図9のフローチャ
ートを用いて説明する。この対象抽出部3に入力された
前処理画像6はL個の解像度変換部16−1〜16−L
に入力され、各解像度変換部16−1〜16−Lにおい
てそれぞれ異なった解像度の解像度変換画像18−1〜
18−Lに変換される(ステップST31−1〜ST3
1−L)。これら各解像度変換画像18−1〜18−L
はその各々に対応して用意された局在性評価部17に送
られ、各局在性評価部17において対象の局在性が評価
される(ステップST32−1〜32−L)。それぞれ
の局在性評価部17にて得られたL個の局在性の評価結
果11−1〜11−Lは統合部13に送られ、それらが
統合されて局在性の再評価が行われる(ステップST3
3)。この局在性の再評価結果13は重心抽出部10に
入力され、対象の重心位置7が抽出されて対象認識部4
に出力される(ステップST34)。
【0064】ここで、解像度変換部16−1〜16−L
にて、入力された前処理画像6を異なる複数の解像度変
換画像18−1〜18−Lに変換するには、例えば入力
された前処理画像6を、それぞれ異なる数の画素毎に間
引く手法により実現することができる。
【0065】なお、この解像度変換部16−1〜16−
Lにて前処理画像6を複数の解像度変換画像18−1〜
18−Lに変換する際、前処理画像6中の画素の輝度値
を、その画素を中心とするある大きさの局所領域を設定
し、その局所領域内の画素の輝度値の平均値に置き換え
ることによって実現するようにしてもよい。
【0066】また、この解像度変換部16−1〜16−
Lにて前処理画像6を複数の解像度変換画像18−1〜
18−Lに変換する際、前処理画像6中の画素の輝度値
を、その画素を中心とするある大きさの局所領域を設定
し、その局所領域内の画素の輝度値の中央値に置き換え
ることにより実現するようにしてもよい。
【0067】また、例えば入力される前処理画像6が多
値画像である場合に、それを解像度の異なる複数の解像
度変換画像18−1〜18−Lに変換するには、解像度
変換部16−1〜16−Lにて前処理画像6の輝度の階
調を、それぞれ異なる輝度階調の画像に変換する手法に
より実現することができる。
【0068】また、複数の異なる解像度変換画像18−
1〜18−Lに対応して用意された複数の局在性評価部
17は、各解像度変換画像18−1〜18−Lの局在性
を同一の評価関数を用いて評価することができ、各解像
度変換画像18−1〜18−Lに対して同様の処理を行
えばよいため、L種類の解像度変換画像18−1〜18
−L毎にその構成を変える必要がなくなり、同一構成の
ものを用いることができる。
【0069】また、統合部12における複数の局在性の
評価結果11−1〜11−Lの統合は、それらの加算計
算、平均計算、最大値計算、中央値計算などの手法によ
って実現することができる。
【0070】実施例5.次に、この発明の実施例5を図
について説明する。図11は請求項5に記載した発明に
よる画像処理方法における対象抽出処理の詳細を示すフ
ローチャートである。また、図12は上記画像処理方法
を適用した画像処理装置中の対象抽出部3の内部構成を
示すブロック図であり、この図12において、14は重
心抽出部、16−1〜16−Lは解像度変換部、17は
局在性評価部、6は前処理画像、11−1〜11−Lは
局在性の評価結果、15−1〜15−Lは対象の重心位
置候補、18−1〜18−Lは解像度変換画像で、これ
らは図8もしくは図10に同一符号を付した部分に相当
するものである。
【0071】次にその動作について、図11のフローチ
ャートを用いて説明する。この対象抽出部3に入力され
た前処理画像6はL個の解像度変換部16−1〜16−
Lにおいて、それぞれ異なった解像度の解像度変換画像
18−1〜18−Lに変換される(ステップST41−
1〜ST41−L)。これらの解像度変換画像18−1
〜18−Lはそれぞれ対応する局在性評価部17に送ら
れて対象の局在性が評価される(ステップST42−1
〜42−L)。それぞれの局在性評価部17で得られた
L個の局在性の評価結果11−1〜11−Lは対応する
重心抽出部14に送られ、各重心抽出部14ではそれを
もとにL通りの対象の重心位置候補15−1〜15−L
を抽出する(ステップST43−1〜ST43−L)。
なお、この場合もそれぞれM1 〜ML 個の対象が存在し
ている例が図示されている。
【0072】ここで、解像度変換部16−1〜16−L
にて、入力された前処理画像6を異なる複数の解像度変
換画像18−1〜18−Lに変換するには、例えば入力
された前処理画像6をそれぞれ異なる数の画素毎に間引
く、ある大きさの局所領域内の画素の輝度値の平均値あ
るいは中央値に置き換えるなどの手法により実現するこ
とができる。
【0073】また、例えば入力される前処理画像6が多
値画像であれば、前処理画像6の輝度の階調をそれぞれ
異なる輝度階調の画像に変換する手法により、解像度変
換部16−1〜16−Lにてそれを解像度の異なる複数
の解像度変換画像18−1〜18−Lに変換することが
できる。
【0074】また、複数の異なる解像度変換画像18−
1〜18−Lに対応して対象の局在性を評価する評価関
数として異なるものを用意する必要がなく、各解像度変
換画像18−1〜18−Lに対して同様の処理を行えば
よいため、各局在性評価部17はL種類の解像度変換画
像18−1〜18−L毎にその構成を変える必要はな
く、同一構成のものを用いることができる。
【0075】また、対象の数およびそれらの存在位置は
各スケール毎に異なったL種類のものが得られるが、こ
れらの結果は以後の処理で、対象の大きさ、形状、姿勢
などの属性を認識した後、統合される。
【0076】実施例6.次に、この発明の実施例6を図
について説明する。図13は請求項6に記載した発明に
よる画像処理方法における対象認識処理の詳細を示すフ
ローチャートであり、図14はこの対象認識の原理を示
す説明図である。図14において、21〜24はそれぞ
れ対象の例であり、25〜28は各対象21〜24に対
する周囲の各方向(図示の例では8方向)の広がり量の
抽出結果である。
【0077】また、図15は上記画像処理方法を適用し
た画像処理装置中の対象認識部4の内部構成を示すブロ
ック図である。図15において、31は入力された前処
理画像6と対象の重心位置7(図示の例では対象がM個
存在している)より、対象の周囲の各方向(図示の例で
はT個)の広がり量を抽出する広がり量抽出部であり、
32はこの広がり量抽出部31にて抽出された広がり量
に基づいて、対象の大きさ、形状、姿勢などの属性8を
抽出して外部に出力する属性抽出部である。また、33
は広がり量抽出部31によって抽出されて属性抽出部3
2に送られる対象の広がり量である。
【0078】次にその動作について、図13のフローチ
ャートを用いて説明する。この対象抽出部4に前処理部
2より入力された前処理画像6は広がり量抽出部31に
おいて、対象抽出部3より送られてくる対象の重心位置
7を中心として、対象の周囲の各方向に放射状に対象の
広がり量33を抽出する(ステップST51)。次に属
性抽出部32において、この広がり量抽出部31で抽出
された対象の各方向の広がり量から対象の属性を抽出す
る(ステップST52)。
【0079】次に図14をもとに対象の属性抽出原理に
ついて説明する。21〜24で示す各対象について、そ
れぞれの重心位置を中心として周囲の8方向の広がり量
を抽出すると、25〜28で示す広がり量の抽出結果が
得られる。ここで、対象が21のような十字形である場
合、その広がり量の抽出結果は25のようになる。一
方、対象が22のような対象21と相似な十字形で、姿
勢それとも同じである場合、その広がり量の抽出結果は
26のようになる。これらの広がり量の抽出結果26と
25とを比較すれば、各方向の広がり量がそれぞれ比例
関係にあることがわかる。このように、対象の大きさは
各方向の広がり量の平均から知ることができる。
【0080】また、対象が21に示すような十字形であ
る場合、広がり量の抽出結果は85のように4つのピー
クを持つ。一方、対象が23のような長方形である場
合、広がり量の抽出結果は27のようにピークを2つし
か持たない。このように各方向の広がり量の分布から対
象の種類(形状)を認識することができる。なお、周囲
の広がり量を調べる方向の数を増やし、さらに細かく広
がり量を調べることにより、より詳しく対象の形状を認
識することができる。
【0081】また、対象が23のような横を向いた長方
形である場合、広がり量の抽出結果は27のように方向
0と方向4にピークを持つ。一方、対象が23と同じ形
で斜めを向いた24のような長方形である場合、広がり
量の抽出結果は27のように方向3と方向7にピークを
持つ。このように、対象の姿勢(回転)の変化は、広が
り量の分布を隣の方向にシフトさせることにより認識す
ることができる。
【0082】ここで、もし対象の対象の形状と姿勢があ
らかじめ決まっている場合は、広がり量抽出部31は、
周囲の各方向に放射状に対象の広がり量を抽出する際の
方向数を減らすことができる。例えば対象が円であると
わかっている場合には、いずれか1方向の広がり量のみ
を調べる構成にすることにより実現できる。また、例え
ば対象が水平に設置された長方形であるとわかっている
場合には、上下左右の4方向の広がり量のみを調べる構
成にすることにより実現できる。
【0083】実施例7.次に、この発明の実施例7を図
について説明する。図16は請求項7に記載した発明に
よる画像処理方法における対象認識処理の詳細を示すフ
ローチャートであり、図17は上記画像処理方法を適用
した画像処理装置中の属性抽出部4の内部構成を示すブ
ロック図である。
【0084】図17において、31はL通りの対象の重
心位置候補15−1〜15−Lに対応して用意され、入
力された前処理画像6と対象の重心位置候補15−1〜
15−L(図示の例では各スケール毎にそれぞれ対象が
1 〜ML 個存在する)に基づいて、対象の周囲の各方
向の広がり量を各スケール毎に抽出するL個の広がり量
抽出部である。32はこれら各広がり量抽出部31に対
応して用意され、それらが各スケール毎に抽出した広が
り量から対象の属性を抽出する属性抽出部であり、34
は各属性抽出部32にて抽出された各スケール毎の対象
の属性を統合する統合部である。また、33−1〜33
−Lは各スケール毎に各広がり量抽出部31で抽出され
た対象の重心位置を中心とする周囲の複数の方向(図示
の例ではT個の方向)の対象の広がり量、35−1〜3
5−Lは各属性抽出部32で抽出された対象候補の属性
であり、8は統合部34で統合された(図示の例ではM
個に統合)対象の属性である。
【0085】次にその動作について、図16のフローチ
ャートを用いて説明する。この対象抽出部4に入力され
た前処理画像6は各広がり量抽出部31において、各ス
ケールで抽出されてこの対象抽出部4に入力されてくる
対象の各重心位置候補15−1〜15−Lを中心に、対
象の周囲の各方向の広がり量33−1〜33−Lを抽出
する(ステップST61−1〜ST61−L)。次に、
属性抽出部32において、これら各スケールの対象の広
がり量33−1〜33−Lから各スケールの対象の属性
35−1〜35−Lを抽出する(ステップST62−1
〜ST62−L)。そして統合部34において、これら
各スケールの対象の属性35−1〜35−Lを統合する
ことにより対象の属性8を抽出して(ステップST6
3)、対象の大きさ、形状、姿勢などの属性を再認識す
る。
【0086】ここで、各広がり量抽出部31は、対象の
周囲の各方向に放射状に対象の広がり量を抽出する処理
の内容を、入力されたL種類のスケールによる対象の重
心位置候補15−1〜15−L毎に変更する必要がない
ため、全て同一構成のもので実現することができる。
【0087】また、各属性抽出部32も、各広がり量抽
出部31から入力される各スケールの対象の広がり量3
3−1〜33−L毎に、対象の属性を抽出する処理の内
容を変更する必要がないため、全て同一構成のもので実
現することができる。
【0088】実施例8.次に、この発明の実施例8を図
について説明する。図18は請求項8に記載した発明に
よる画像処理方法における広がり量抽出処理の詳細を示
すフローチャートであり、図19はその広がり量抽出の
原理を示す説明図である。この図19において、41は
重心位置からある方向にRの広がりを持った対象の1次
元のモデルIe(r) であり、42は広がり量sに依存し
た1次元の関数p(r;s)の一例、43は対象の1次
元のモデルIe(r) と広がり量sに依存した1次元の関
数p(r;s)との積和演算の結果q(s)である。こ
こで、これら対象の1次元のモデルIe(r) 、広がり量
sに依存した1次元の関数p(r;s)、および積和演
算結果q(s)はそれぞれ、例えば以下の式(4)〜
(6)で示される。
【0089】
【数2】
【0090】また、図20は上記画像処理方法を適用し
た画像処理装置中の広がり量抽出部31の内部構成を示
すブロック図である。図20において、44−1〜44
−Tは入力された対象(図示の例ではM個の対象が存在
する)の重心位置7を中心として周囲の複数(図示の例
ではT個)の方向に放射状に、入力された前処理画像6
から1次元のデータを生成する1次元データ生成部であ
る。45はこの1次元データ生成部から出力される各方
向の1次元のデータと広がり量に依存して変化する1次
元の関数との積和演算を、広がり量を変えながら実行す
る積和演算部であり、46はこの積和演算の結果の極大
値を抽出することにより、各方向の対象の広がり量を抽
出する極大値抽出部である。また、47−1〜47−T
は入力された前処理画像6より生成された各方向の1次
元のデータ、48−1〜48−Tは各方向の1次元のデ
ータ47−1〜47−Tと広がり量に依存して変化する
1次元の関数との積和演算の結果であり、49−1〜4
9−Tは抽出された各方向の広がり量である。
【0091】次にその動作について、図18のフローチ
ャートを用いて説明する。この広がり量抽出部31に、
前処理部2からの前処理画像6と対象抽出部3からの対
象の重心位置7が入力されると、1次元データ生成部4
4−1〜44−Tはその対象の重心位置7を中心として
対象の周囲の各方向に放射状に、入力された前処理画像
6より各方向の1次元のデータ47−1〜47−Tを生
成する(ステップST71−1〜ST71−T)。次に
各積和演算部45において、各方向の1次元のデータ4
7−1〜47−Tと、広がり量に依存して変化する1次
元の関数との積和演算が、それぞれ広がり量を変えなが
ら実行される(ステップST72−1〜ST72−
T)。そして、各極大値抽出部46において、各積和演
算部45にて得られた積和演算結果48−1〜48−T
がそれぞれ極大となる広がり量を求めることにより、各
方向の広がり量49−1〜49−Tを抽出する(ステッ
プST73−1〜73−T)。ただし、この広がり量に
依存して変化する1次元の関数とある方向の1次元のデ
ータ47−1〜47−Tとの積和演算結果48−1〜4
8−Tは、広がり量がその方向の対象の大きさと一致し
たときに極大となるようにあらかじめ設定しておく。
【0092】また、この広がり量sに依存した1次元の
関数p(r;s)として、例えば前記式(5)で示した
ものを用いた場合の処理を図19を用いて説明する。図
19において41で示した重心からある方向にRの広が
りをもつ対象の1次元モデルIe(r) と、42で示した
広がり量sに依存した1次元の関数p(r;s)との積
和演算を計算すると、積和演算結果q(s)は43のよ
うになる。この43で示す積和演算結果q(s)が極大
となる広がり量sを抽出することにより、対象の大きさ
Rを求めることができる。
【0093】ここで、上記図19による処理の説明で
は、広がり量sに依存した1次元の関数p(r;s)と
して式(5)を用いたものを示したが、他の関数を用い
た場合も、積和演算結果q(s)が極大となる広がり量
sを抽出することにより、対象の大きさRを求めること
ができる。その場合、用いられる広がり量sに依存した
1次元の関数p(r;s)としては、例えば以下に示す
式(7)〜式(9)のようなものが考えられる。
【0094】
【数3】
【0095】実施例9.次に、この発明の実施例9を図
について説明する。図21は請求項9に記載した発明に
よる画像処理方法における前処理の内容を示すフローチ
ャートであり、図22は上記画像処理方法を適用した画
像処理装置中の前処理部2の内部構成を示すブロック図
である。図22において、51は入力された原画像5中
の空間周波数が所定の範囲にある部分を抽出し、それを
前処理画像6として出力する空間フィルタ処理部であ
る。
【0096】次にその動作について、図21のフローチ
ャートを用いて説明する。この前処理部2に画像入力部
1より原画像5が入力されると、空間フィルタ処理部5
1はその原画像5に対して空間フィルタ処理を施す(ス
テップST81)。これにより、入力された原画像5中
の空間周波数がある所定の範囲内にある部分のみが強調
され、高周波ノイズや緩慢な輝度変化などが除去された
前処理画像6が得られる。なお、得られた前処理画像6
は対象抽出部3および対象認識部4に出力される。
【0097】ここで、空間フィルタ処理部51として、
ある注目点の輝度値を、当該注目点を中心とする局所領
域内での輝度の平均値に置き換える平均値フィルタ、あ
るいは中央値に置き換える中央値フィルタを作用させれ
ば、原画像5中の高周波ノイズを除去することができ
る。
【0098】また、空間フィルタ処理部51としてガウ
スフィルタを作用させることによっても、原画像5中の
高周波ノイズを除去することができる。
【0099】また、空間フィルタ処理部51として微分
フィルタを作用させ、ある注目点の輝度値を、当該注目
点を中心とする周辺画素との差分値に置き換えるような
空間フィルタ処理を行うことにより、原画像5中の緩慢
な輝度変化を除去することができる。
【0100】また、空間フィルタ処理部51として、ガ
ウスフィルタ、平均値フィルタ、中央値フィルタ等の平
滑化フィルタを作用させた後、微分フィルタを作用させ
ることによって、原画像5中の高周波ノイズと緩慢な輝
度変化を同時に除去することができる。
【0101】また、空間フィルタ処理部51として、微
分フィルタを作用させた後、ガウスフィルタ、平均値フ
ィルタ、中央値フィルタ等の平滑化フィルタを作用させ
ることによっても、原画像5中の高周波ノイズと緩慢な
輝度変化等を同時に除去することができる。
【0102】実施例10.次に、この発明の実施例10
を図について説明する。図23は請求項10に記載した
発明による画像処理方法における前処理の内容を示すフ
ローチャートであり、図24は上記画像処理方法を適用
した画像処理装置中の前処理部2の内部構成を示すブロ
ック図である。図24において、52は入力された原画
像5を所定のしきい値てに2値化し、それを前処理画像
6として出力する2値化処理部である。
【0103】次にその動作について、図23のフローチ
ャートを用いて説明する。この前処理部2に画像入力部
1より原画像5が入力されると、2値化処理部52はそ
の原画像5に対して所定のしきい値による2値化処理を
施す(ステップST82)。これにより、入力された原
画像5中の対象と背景とが分離された前処理画像6が得
られ、対象抽出部3および対象認識部4へ送られる。
【0104】ここで、2値化処理のしきい値は、例えば
入力された原画像5の輝度のヒストグラムから得られる
評価関数に基づいて自動的に求めることにより、安定に
対象と背景とを分離することができる。
【0105】実施例11.次に、この発明の実施例11
を図について説明する。図25は請求項11に記載した
発明による画像処理方法における前処理の内容を示すフ
ローチャートであり、図26は上記画像処理方法を適用
した画像処理装置中の前処理部2の内部構成を示すブロ
ック図である。図26において、51は空間フィルタ処
理部、52は2値化処理部、5は原画像、6は前処理画
像であり、これらは図22あるいは図24に同一符号を
付した部分と同等のものである。また、53は空間フィ
ルタ処理部51より2値化処理部52へ送られる空間フ
ィルタ出力画像である。
【0106】次にその動作について。図25のフローチ
ャートを用いて説明する。この前処理部2に画像入力部
1より原画像5が入力されると、まず、空間フィルタ処
理部51によってその原画像5に対して空間フィルタ処
理が施される(ステップST83)。これにより入力さ
れた原画像5中の空間周波数がある範囲内にある部分の
みが強調され、高周波ノイズや緩慢な輝度変化等が除去
された空間フィルタ出力画像53が得られる。この空間
フィルタ出力画像53は2値化処理部52へ送られ、2
値化処理部52はそれに対して所定のしきい値による2
値化処理を施す(ステップST84)。これにより、入
力された原画像5中の対象と背景とが分離され、高周波
ノイズや緩慢な輝度変化等が除かれた前処理画像6が得
られ、それが対象抽出部3および対象認識部4へ出力さ
れる。
【0107】ここで、空間フィルタ処理部51にて平均
値フィルタ、中央値フィルタ、ガウスフィルタ等の平滑
化フィルタを作用させた後、2値化処理部52で2値化
処理を行うことにより、原画像5中の高周波ノイズの影
響を除去して、対象を背景から分離することができる。
【0108】また、空間フィルタ処理部51にて微分フ
ィルタを作用させた後、2値化処理部52で2値化処理
を行うことにより、画像中の緩慢な輝度変化の影響を除
去して、対象を背景から分離することができる。
【0109】また、空間フィルタ処理部51にて、平滑
化フィルタを作用させた後に微分フィルタを作用させ、
あるいは微分フィルタを作用させた後に平滑化フィルタ
を作用させ、その後、2値化処理部52による2値化処
理を行うことにより、画像中の高周波ノイズの影響と緩
慢な輝度変化とを同時除去して、対象を背景から分離す
ることができる。
【0110】ここで、2値化処理のしきい値は、例えば
入力された原画像5の輝度のヒストグラムから得られる
評価関数に基づいて自動的に求めることにより、安定に
対象と背景とを分離することができる。
【0111】実施例12.次に、この発明の実施例12
を図について説明する。図27は請求項12に記載した
発明による画像処理方法における重心位置抽出処理の内
容を示すフローチャートであり、図28はこの重心位置
抽出の原理を示す説明図である。図28において、61
は対象の局在性の評価結果を輝度分布として持つ画像で
あり、62はそれより抽出された対象の重心位置の画像
である。
【0112】また、図29は上記画像処理方法を適用し
た画像処理装置中の重心抽出部10の内部構成を示すブ
ロック図である。図29において、63は局在性評価部
9によって評価された対象の局在性の評価結果11よ
り、その極大値を求めて対象の重心位置7の抽出を行う
極大値抽出部である。
【0113】次にその動作について、図27のフローチ
ャートおよび図28の説明図を用いて説明する。この重
心抽出部10に局在性評価部9より局在性の評価結果1
1が入力されると、極大値抽出部63はその局在性の評
価結果を輝度分布として持つ画像61からその輝度が極
大値を示す画素を抽出する(ステップST91)。画像
62に×で示すこの輝度が極大値を示す画素の位置がそ
れぞれ、対象の重心位置7として抽出されて対象認識部
4へ出力される。
【0114】ここで、単純に極大値を求めたのでは極大
値が多数抽出されるため、あるしきい値を設定し、得ら
れる極大値がしきい値を越えた場合のみ、その極大値を
対象の重心位置として抽出するように設定することがで
きる。
【0115】また、極大値を求める際のしきい値は入力
された局在性の評価結果を輝度値と分布として持つ画像
61の最大値と最小値から自動的に決めることができ
る。
【0116】また、極大値を求める際のしきい値は入力
された局在性の評価結果を輝度分布として持つ画像61
のヒストグラムから得られる評価関数をもとに、自動的
に決めることもできる。
【0117】実施例13.次に、この発明の実施例13
を図について説明する。図30は請求項13に記載した
発明による画像処理方法における重心位置抽出処理の内
容を示すフローチャートであり、図31はこの重心位置
抽出の原理を示す説明図である。図31において、61
は対象の局在性の評価結果を輝度分布として持つ画像、
64はこの局在性の評価結果を輝度分布として持つ画像
61を所定のしきい値で2値化した結果の画像である2
値化画像であり、65はこの2値化画像64をラベル付
けした結果の画像、66はこのラベル付け結果の画像6
5からモーメント計算を行い、対象の重心位置を抽出し
た結果の画像である。
【0118】また、図32は上記画像処理方法を適用し
た画像処理装置中の重心抽出部10の内部構成を示すブ
ロック図である。図32において、67は局在性評価部
9によって評価された対象の局在性の評価結果11を所
定のしきい値で2値化する2値化処理部であり、68は
この2値化処理部67にて得られた2値化処理結果にお
いて、0次および1次のモーメントを計算するモーメン
ト計算部、69はこのモーメント計算部68によるモー
メント計算結果より対象の重心位置7を抽出する重心位
置抽出部である。また、70は2値化処理部67よりモ
ーメント計算部68に送られる2値化処理結果であり、
71はモーメント計算部68より重心位置抽出部69に
送られるモーメント計算結果である。
【0119】次にその動作について、図30のフローチ
ャートを用いて説明する。この重心抽出部10に局在性
評価部9より局在性の評価結果11が入力されると、2
値化処理部67はその局在性の評価結果11を所定のし
きい値で2値化する(ステップST92)。次に、この
得られた2値化処理結果70はモーメント計算部86に
送られ、ラベル付けが行われて0次と1次のモーメント
が計算され(ステップST93)、重心位置抽出部69
がそのモーメント計算結果71より対象の重心位置7を
抽出して(ステップST94)対象認識部4へ出力す
る。
【0120】次に、このような重心位置の抽出原理を図
31を用いて説明する。局在性の評価結果11を輝度値
とする画像61は所定のしきい値で2値化されて2値化
処理画像64となる。ここで、この2値化のためのしき
い値は、例えば入力された画像の輝度のヒストグラムか
ら得られる評価関数をもとに、自動的に求めることがで
きる。
【0121】得られた2値化処理画像64にラベル付け
を行い、65に示すラベル付け結果の画像65を得て、
0次および1次のモーメントを計算する。ここで、この
0次のモーメントm00および1次のメーメントm1
0、m01は、それぞれ以下の式(10)〜(12)で
表わされる。ただし、lx、lyはそれぞれ画像の横お
よび縦のサイズであり、対象部分でI(i、j)=1、
対象以外の部分でI(i、j)=0(背景部分)であ
る。
【0122】
【数4】
【0123】そして、算出されたこの0次および1次の
モーメントm00,m10およびm01より、重心位置
抽出結果の画像66に×で示した位置が各対象の重心位
置7として抽出される。なお、重心の座標(Gx 、Gy
)は以下の式(13),(14)で表わされる。
【0124】 Gx =m10/m00 ・・・・ (13) Gy =m01/m00 ・・・・ (14)
【0125】実施例14.次に、この発明の実施例14
を図について説明する。図33は請求項14に記載した
発明による画像処理方法における対象の大きさ抽出処理
の内容を示すフローチャートであり、図34および図3
5はこの対象の大きさ抽出の原理を示す説明図である。
図34において、81は認識する対象の画面であり、8
2〜84はそれぞれ処理の途中結果の画面、85は処理
結果画面である。また、86は認識する対象、87はこ
の対象86の重心位置であり、88はこの重心位置87
を中心として設定された中心小領域、89は中心小領域
88の周辺に設定された周辺小領域である。また、図3
5において、91は認識する対象の画面であり、92〜
94はそれぞれ処理の途中結果の画面、95は処理結果
の画面である。
【0126】次に動作について、図33のフローチャー
トおよび図34の説明図を用いて説明する。処理が開始
すると、まず認識する対象86の局在性を評価し、その
局在性の評価結果に着目して当該対象86の重心位置8
7を抽出する(ステップST101)。次に、抽出され
た重心位置87を中心として中心小領域88を設定し
(ステップST102)、さらにこの中心小領域88の
周囲に周囲小領域89を設定する(ステップST10
3)。次に、中心小領域88内の画素の輝度値の平均と
周囲小領域89内の画素の輝度値の平均とを調べて、当
該周辺小領域89が対象であるか背景であるかを判定す
る(ステップST104)。両者の輝度値の平均が大き
く異なっていない場合にはその周囲小領域89が対象で
あると判断して、それを中心小領域88に統合する(ス
テップST105)。以後、処理をステップST103
に戻し、以上の処理を対象の境界が見つかるまで繰り返
すことにより対象86の大きさを抽出する(ステップS
T106)。
【0127】ここで、図34のように微小な長方形の領
域を周囲小領域89として、中心小領域88の周辺に順
次拡張することにより、長方形の対象86を抽出する際
に、抽出する対象86の特徴に応じて、現在の中心小領
域88の周囲の上下左右どの方向に次の周囲小領域89
を設定するかを変化させることができる。例えば、対象
86が正方形に近い場合には(上→下→左→右→・・
・)のように上下左右に均等に拡張すればよい。また、
対象86が横長の長方形の場合には(左→右→左→右→
上→下→左→右→左→右→上→下→・・・)のように、
左右方向の拡張を上下方向の拡張よりも多くなるように
設定すればよい。また逆に、対象86が縦長の長方形の
場合には(上→下→上→下→左→右→上→下→上→下→
左→右→・・・)のように、上下方向の拡張を左右方向
の拡張よりも多くなるように設定すればよい。このよう
に周囲小領域89として、微小な長方形の領域を順次拡
張することにより、長方形の対象86の大きさを抽出す
ることができる。
【0128】また、例えば図35に示すように、中心小
領域88の周辺に周辺小領域89を螺旋状に順次設定し
てゆくことにより、対象86の大きさの抽出を行うこと
もできる。
【0129】実施例15.次に、この発明の実施例15
を図について説明する。図36は請求項15に記載した
発明による画像処理方法における対象認識処理の内容を
示すフローチャートであり、図37はこの対象認識の原
理を示す説明図である。図37において、101は前処
理画像の画面であり、102は対象の局在性の評価結果
を輝度分布して持つ画像である。103はこの局在性の
評価結果を輝度分布として持つ画像102を所定のしき
い値で2値化した結果の画像である2値化画像であり、
104はこの2値化結果の画像103をラベル付けした
結果の画像、105は対象の位置、大きさ、形状、姿勢
等の属性を抽出した結果の画像である。
【0130】また、図38は上記画像処理方法を適用し
た画像処理装置中の対象認識部の構成を示すブロック図
である。図38において、105は前処理画像6より対
象の局在性を評価する局在性評価部であり、106はこ
の局在性評価部105によって評価された対象の局在性
の評価結果11を所定のしきい値で2値化する2値化処
理部である。107はこの2値化処理部106にて得ら
れた2値化処理結果において、0次、1次および2次の
モーメントを計算するモーメント計算部であり、108
はこのモーメント計算部107によるモーメント計算結
果より対象の重心位置、大きさ、形状、政党の属性を抽
出する属性抽出部である。また、109は局在性評価部
105より2値化処理部106に送られる局在性の評価
結果、110は2値化処理部106よりモーメント計算
部107に送られる2値化処理結果、111はモーメン
ト計算部107より属性抽出部108に送られるモーメ
ント計算結果である。
【0131】次にその動作について、図36のフローチ
ャートを用いて説明する。この対象認識部に前処理画像
6が入力されると、局在性評価部105は入力された前
処理画像6に関して局在性の評価を行う(ステップST
111)。その局在性の評価結果109は2値化処理部
106に送られて所定のしきい値で2値化され(ステッ
プST112)、モーメント計算部107に送られる。
モーメント計算部107ではその2値化処理結果110
にラベル付けを行った後、0次、1次および2次のモー
メントを計算し(ステップST113)、属性抽出部1
08がそのモーメント計算結果111より対象の重心位
置、大きさ、形状、姿勢等の属性を抽出する(ステップ
ST114)。
【0132】次に、このような属性抽出の原理を図37
を用いて説明する。前処理画像の画面101は対象の局
在性が評価され、その評価結果を輝度と局在性評価結果
を輝度分布として持つ画像102となる。この局在性評
価結果を輝度分布として持つ画像102は所定のしきい
値で2値化されて2値化画像64となる。ここで、この
2値化のためのしきい値は、例えば入力された画像の輝
度のヒストグラムから得られる評価関数をもとに、自動
的に求めることができる。
【0133】次に、得られた2値化画像64にラベル付
けをしてラベル付け結果の画像65を得、それより0
次、1次および2次のモーメントの計算を行う。ここ
で、この0次のモーメントm00、1次のメーメントm
10、m01および2次のメーメントm20、m02
は、それぞれ以下の式(15)〜(20)で表わされ
る。ただし、lx、lyはそれぞれ画像の横、縦サイズ
であり、対象部分でI(i、j)=1、対象以外の部分
でI(i、j)=0(背景部分)である。
【0134】
【数5】
【0135】そして、算出されたこの0次、1次、2次
のモーメントm00,m10,m01,m20,m11
およびm02より、属性抽出結果の画像105のよう
に、各対象の重心位置、大きさ、形状、姿勢等の属性が
抽出される。なお、重心の座標(Gx 、Gy )は前述の
式(13),(14)で表わされ、主軸の傾きθは以下
の式(21)で表わされる。 θ=Tan-1{2M11/(M20−M02)} ・・・・(21) ただし、M20=m20−m102 /m00 M11=m11−m10・m01/m00 M02=m02−m012 /m00
【0136】
【発明の効果】以上のように、請求項1に記載の発明に
よれば、対象の局在性に着目して重心位置を抽出した
後、抽出された対象の重心位置を中心にして、対象の大
きさ、形状、姿勢等の属性を認識するように構成したの
で、対象を認識する際に、探索空間の規模を減らすこと
ができ、処理コストの低減、マッチングの安定性向上を
可能とする画像処理方法が得られる効果がある。
【0137】また、請求項2に記載の発明によれば、複
数の評価関数を用いて異なるスケールで対象の局在性を
並列に評価し、得られた各局在性の評価結果を統合して
対象の局在性を再評価した後、その再評価結果から対象
の重心位置を抽出するように構成したので、対象を抽出
する際に、様々な大きさの対象を認識することが可能と
なる効果がある。
【0138】また、請求項3に記載の発明によれば、複
数の評価関数を用いて異なるスケールで対象の局在性を
並列に評価し、得られた各局在性の評価結果から対象の
重心位置を抽出して、複数の重心位置候補を並列に抽出
するするように構成したので、対象を抽出する際に、様
々な大きさの対象を認識することが可能となる効果があ
る。
【0139】また、請求項4に記載の発明によれば、入
力された画像を複数の異なる解像度に変換し、各解像度
の画像に対して対象の局在性を同一の評価関数を用いて
評価し、得られた各局在性の評価結果を統合して対象の
局在性を再評価した後、その再評価結果から対象の重心
位置を抽出するように構成したので、対象を抽出する際
に、様々な大きさの対象を認識することが可能となる効
果がある。
【0140】また、請求項5に記載の発明によれば、入
力された画像を複数の異なる解像度に変換し、各解像度
の画像に対して対象の局在性を同一の評価関数を用いて
評価し、それぞれの評価結果から複数の重心位置候補を
並列に抽出するように構成したので、対象を抽出する際
に、様々な大きさの対象を認識することが可能と成る効
果がある。
【0141】また、請求項6に記載の発明によれば、対
象の重心位置を中心として周囲の複数の方向に放射状に
対象の広がり量を調べ、それに基づいて対象の属性を抽
出するように構成したので、対象を認識する際に、探索
空間の規模を減らすことができ、処理コストの低減、マ
ッチングの安定性の向上がはかれる効果がある。
【0142】また、請求項7に記載の発明によれば、対
象の存在する複数の候補位置を中心として周囲の複数の
方向に放射状に各対象の広がり量を並列に調べ、それに
基づいて各対象候補の属性を並列に抽出してそれらを統
合することにより、対象の属性を抽出するように構成し
たので、対象を認識する際に、探索空間の規模を減らす
ことができ、処理コストの低減、マッチングの安定性の
向上がはかれる効果がある。
【0143】また、請求項8に記載の発明によれば、対
象の重心位置を中心として周囲の複数の方向に放射状に
伸びた入力画像の一次元のデータと、広がり量に依存し
て変化する一次元の関数とを生成し、広がり量を変えな
がら、これらの積和演算結果が極大となる広がり量をそ
の方向の対象の広がり量として抽出するように構成した
ので、対象の広がり量を抽出する際に、その抽出を安定
に行うことができる効果がある。
【0144】また、請求項9に記載の発明によれば、前
処理として空間フィルタを施すように構成したので、画
像中の高周波ノイズや緩慢な輝度変化の影響が除去さ
れ、対象の認識を安定に行える効果がある。
【0145】また、請求項10に記載の発明によれば、
前処理として2値化処理を施すように構成したので、対
象が背景から分離されて、対象の認識を安定に行える効
果がある。
【0146】また、請求項11に記載の発明によれば、
前処理として空間フィルタを施した後、2値化処理を施
すように構成したので、画像中の高周波ノイズや緩慢な
輝度変化の影響が除去され、対象が背景から分離され
て、対象の認識を安定に行える効果がある。
【0147】また、請求項12に記載の発明によれば、
得られた局在性の評価結果の極大値を対象の重心位置と
して抽出するように構成したので、局在性の評価結果か
ら対象の重心位置を判断する際に、重心位置の抽出が安
定に行える効果がある。
【0148】また、請求項13に記載の発明によれば、
局在性の評価結果を輝度分布として持つ画像を2値化処
理し、得られた2値化画像にて対象の0次および1次の
モーメントを計算することにより対象の重心位置を抽出
するように構成したので、局在性の評価結果から対象の
重心位置を判断する際に、重心位置の抽出が安定に行え
る効果がある。
【0149】また、請求項14に記載の発明によれば、
重心位置を中心に設定した中心小領域内と、中心小領域
の周囲に設定した複数の周囲小領域内で輝度分布を比較
してその周囲小領域が対象か背景かを判定し、対象であ
ればその周囲小領域を中心小領域に融合させる処理を行
い、中心小領域を対象の境界まで順次拡張することによ
り大きさを抽出するように構成したので、対象の大きさ
を抽出する際に、その抽出を安定に行うことができる効
果がある。
【0150】また、請求項15に記載の発明によれば、
局在性の評価結果を輝度分布として持つ画像を2値化処
理し、得られた2値化画像にて対象の0次、1次および
2次のモーメントを計算することにより対象の重心位
置、大きさ、形状、姿勢等の属性を同時に抽出するよう
に構成したので、対象を認識する際に、対象の属性の抽
出を安定に行える効果がある。
【図面の簡単な説明】
【図1】この発明の実施例1による画像処理方法を示す
フローチャートである。
【図2】上記実施例の対象抽出処理の流れを示すフロー
チャートである。
【図3】上記実施例による画像処理方法を適用した画像
処理装置の構成を示すブロック図である。
【図4】上記画像処理装置の対象抽出部の構成を示すブ
ロック図である。
【図5】この発明の実施例2による画像処理方法におけ
る対象抽出処理を示すフローチャートである。
【図6】上記実施例による画像処理方法を適用した画像
処理装置の対象抽出部の構成を示すブロック図である。
【図7】この発明の実施例3による画像処理方法におけ
る対象抽出処理を示すフローチャートである。
【図8】上記実施例による画像処理方法を適用した画像
処理装置の対象抽出部の構成を示すブロック図である。
【図9】この発明の実施例4による画像処理方法におけ
る対象抽出処理を示すフローチャートである。
【図10】上記実施例による画像処理方法を適用した画
像処理装置の対象抽出部の構成を示すブロック図であ
る。
【図11】この発明の実施例5による画像処理方法にお
ける対象抽出処理を示すフローチャートである。
【図12】上記実施例による画像処理方法を適用した画
像処理装置の対象抽出部の構成を示すブロック図であ
る。
【図13】この発明の実施例6による画像処理方法にお
ける対象抽出処理を示すフローチャートである。
【図14】上記実施例における対象抽出の原理を示す説
明図である。
【図15】上記実施例による画像処理方法を適用した画
像処理装置の対象抽出部の構成を示すブロック図であ
る。
【図16】この発明の実施例7による画像処理方法にお
ける対象認識処理を示すフローチャートである。
【図17】上記実施例による画像処理方法を適用した画
像処理装置の対象認識部の構成を示すブロック図であ
る。
【図18】この発明の実施例8による画像処理方法にお
ける広がり量抽出処理を示すフローチャートである。
【図19】上記実施例における広がり量抽出の原理を示
す説明図である。
【図20】上記実施例による画像処理方法を適用した画
像処理装置の広がり量抽出部の構成を示すブロック図で
ある。
【図21】この発明の実施例9による画像処理方法にお
ける前処理を示すフローチャートである。
【図22】上記実施例による画像処理方法を適用した画
像処理装置の前処理部の構成を示すブロック図である。
【図23】この発明の実施例10による画像処理方法に
おける前処理を示すフローチャートである。
【図24】上記実施例による画像処理方法を適用した画
像処理装置の前処理部の構成を示すブロック図である。
【図25】この発明の実施例11による画像処理方法に
おける前処理を示すフローチャートである。
【図26】上記実施例による画像処理方法を適用した画
像処理装置の前処理部の構成を示すブロック図である。
【図27】この発明の実施例12による画像処理方法に
おける重心位置抽出処理を示すフローチャートである。
【図28】上記実施例における重心位置抽出の原理を示
す説明図である。
【図29】上記実施例による画像処理方法を適用した画
像処理装置の重心抽出部の構成を示すブロック図であ
る。
【図30】この発明の実施例13による画像処理方法に
おける重心位置抽出処理を示すフローチャートである。
【図31】上記実施例における重心位置抽出の原理を示
す説明図である。
【図32】上記実施例による画像処理方法を適用した画
像処理装置の重心抽出部の構成を示すブロック図であ
る。
【図33】この発明の実施例14による画像処理方法に
おける対象の大きさ抽出処理を示すフローチャートであ
る。
【図34】上記実施例における対象の大きさ抽出の原理
の一例を示す説明図である。
【図35】上記実施例における対象の大きさ抽出の原理
のたの例を示す説明図である。
【図36】この発明の実施例15による画像処理方法に
おける対象認識処理を示すフローチャートである。
【図37】上記実施例における対象認識の原理を示す説
明図である。
【図38】上記実施例による画像処理方法を適用した画
像処理装置の対象認識部の構成を示すブロック図であ
る。
【図39】従来のパターンマッチングの原理を示す説明
図である。
【符号の説明】
5 原画像 6 前処理画像 7 対象の重心位置 8 対象の属性 11,11−1〜11−L 局在性の評価結果 13 局在性の再評価結果 15−1〜15−L 重心位置候補 18−1〜18−L 解像度変換画像 33,33−1〜33−L 対象の広がり量 35−1〜35−L 対象候補の属性 47−1〜47−T 一次元のデータ 48−1〜48−T 積和演算の結果 49−1〜49−T 各方向の広がり量 53 空間フィルタ出力画像 61 局在性の評価結果を輝度分布として持つ画像 64 2値化画像 86 対象 87 重心位置 88 中心小領域 89 周辺小領域 102 局在性の評価結果を輝度分布として持つ画像 103 2値化画像

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 撮像手段によって撮像された画像中に存
    在する対象を認識する際に、取り込まれた前記画像をデ
    ィジタル化した原画像に対して前処理を施した前処理画
    像中で、前記対象を構成する要素の局所的な集中の度合
    いである局在性の評価を行い、得られた前記局在性の評
    価結果に着目して前記対象の重心位置を抽出し、求めら
    れた前記対象の重心位置を中心として、前記対象の大き
    さ、種類、姿勢等の対象の属性を抽出することを特徴と
    する画像処理方法。
  2. 【請求項2】 前記対象の重心位置を当該対象の局在性
    に着目して抽出する際に、前記対象の局在性を、複数の
    評価関数を用いて異なるスケールで並列に評価し、次に
    それら複数の局在性の評価結果を統合することにより前
    記対象の局在性の再評価を行い、その局在性の再評価結
    果から前記対象の重心位置を抽出することを特徴とする
    請求項1記載の画像処理方法。
  3. 【請求項3】 前記対象の重心位置を当該対象の局在性
    に着目して抽出する際に、前記対象の局在性を、複数の
    評価関数を用いて異なるスケールで並列に評価し、次に
    それぞれの局在性の評価結果から前記対象の重心位置を
    求めて、複数の重心位置候補を並列に抽出することを特
    徴とする請求項1記載の画像処理方法。
  4. 【請求項4】 前記対象の重心位置を当該対象の局在性
    に着目して抽出する際に、前記前処理で得られた前処理
    画像を解像度の異なる複数の解像度変換画像に変換し、
    それら解像度の異なる複数の解像度変換画像における前
    記対象の局在性を同じ評価関数を用いて並列に評価し、
    次にそれら複数の局在性の評価結果を統合することによ
    り前記対象の局在性の再評価を行い、その局在性の再評
    価結果から前記対象の重心位置を抽出することを特徴と
    する請求項1記載の画像処理方法。
  5. 【請求項5】 前記対象の重心位置を当該対象の局在性
    に着目して抽出する際に、前記前処理で得られた前処理
    画像を解像度の異なる複数の解像度変換画像に変換し、
    それら複数の解像度変換画像における前記対象の局在性
    を同じ評価関数を用いて並列に評価し、次にそれぞれの
    局在性の評価結果から前記対象の重心位置を求めて、複
    数の重心位置候補を並列に抽出することを特徴とする請
    求項1記載の画像処理方法。
  6. 【請求項6】 前記対象の属性を抽出する際に、前記対
    象の存在する位置を中心として、その周囲の複数の方向
    に放射状に前記対象の広がり量を調べ、得られた各方向
    の広がり量から前記対象の属性を抽出して、前記対象を
    認識することを特徴とする請求項1記載の画像処理方
    法。
  7. 【請求項7】 前記対象の属性を抽出する際に、前記対
    象の存在する位置が複数の異なるスケールで並列に抽出
    されている場合に、それら複数の候補位置を中心として
    周囲の複数の方向に放射状に並列に各対象の広がり量を
    調べ、得られた複数の各方向の広がり量からそれぞれの
    対象候補の属性を並列に抽出し、それら対象候補の属性
    を統合することにより前記対象の属性を抽出して、最終
    的に前記対象を認識することを特徴とする請求項1記載
    の画像処理方法。
  8. 【請求項8】 前記対象の広がり量を抽出する際に、前
    記対象の重心位置を中心として周囲の複数の方向に放射
    状に伸びた入力画像の一次元のデータと、広がり量に依
    存して変化する一次元の関数を生成し、あらかじめ、前
    記広がり量がその方向の対象の大きさと一致したとき
    に、前記一次元の関数と前記一次元のデータとの積和演
    算の結果が極大となるように設定しておき、前記広がり
    量を変えながら前記一次元の関数と前記一次元のデータ
    との積和演算を実行し、その積和演算の結果が極大とな
    る広がり量をその各方向の広がり量とすることを特徴と
    する請求項6または7記載の画像処理方法。
  9. 【請求項9】 前記原画像に前処理を施す際に、前記原
    画像中で空間周波数が所定の範囲にある部分を抽出する
    空間フィルタ処理を施すことを特徴とする請求項1記載
    の画像処理方法。
  10. 【請求項10】 前記原画像に前処理を施す際に、前記
    原画像を所定のしきい値で2値化する2値化処理を施す
    ことを特徴とする請求項1記載の画像処理方法。
  11. 【請求項11】 前記原画像に前処理を施す際に、前記
    原画像中で空間周波数が所定の範囲にある部分を抽出す
    る空間フィルタ処理を施し、前記空間フィルタ処理にて
    得られた空間フィルタ出力画像を所定のしきい値で2値
    化する2値化処理を施すことを特徴とする請求項1記載
    の画像処理方法。
  12. 【請求項12】 前記局在性の評価結果から前記対象の
    重心位置を判断する際に、得られた局在性の評価結果の
    極大値をその対象の重心位置として抽出することを特徴
    とする請求項1記載の画像処理方法。
  13. 【請求項13】 前記局在性の評価結果から前記対象の
    重心位置を判断する際に、前記対象の局在性を評価し、
    得られた局在性の評価結果を輝度分布として持つ画像を
    所定のしきい値で2値化処理し、得られた2値化画像に
    おいて対象の0次および1次のモーメントを計算するこ
    とにより前記対象の重心位置を抽出することを特徴とす
    る請求項1記載の画像処理方法。
  14. 【請求項14】 前記対象の大きさを抽出する際に、前
    記対象の局在性に着目してその重心位置を抽出し、得ら
    れた重心位置を中心に設定した中心小領域内の輝度分布
    と、当該中心小領域の周囲に設定した周囲小領域内の輝
    度分布を調べ、それらの比較から前記周囲小領域が前記
    対象であるかその背景であるかの判定を行い、その結
    果、対象と判定された場合には前記周囲小領域を前記中
    心小領域に融合させる処理を行い、前記中心小領域を前
    記対象の境界まで順次拡張することにより前記対象の大
    きさを抽出することを特徴とする請求項1記載の画像処
    理方法。
  15. 【請求項15】 前記対象の属性を抽出する際に、前記
    対象の局在性を評価し、得られた局在性の評価結果を輝
    度分布として持つ画像を所定のしきい値で2値化処理
    し、得られた2値化画像において対象の0次、1次およ
    び2次のモーメントを計算することにより、前記対象の
    重心位置、大きさ、形状、姿勢などの属性を同時に抽出
    することを特徴とする請求項1記載の画像処理方法。
JP04259094A 1994-03-14 1994-03-14 画像処理方法 Expired - Lifetime JP3355015B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP04259094A JP3355015B2 (ja) 1994-03-14 1994-03-14 画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP04259094A JP3355015B2 (ja) 1994-03-14 1994-03-14 画像処理方法

Publications (2)

Publication Number Publication Date
JPH07254063A true JPH07254063A (ja) 1995-10-03
JP3355015B2 JP3355015B2 (ja) 2002-12-09

Family

ID=12640285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP04259094A Expired - Lifetime JP3355015B2 (ja) 1994-03-14 1994-03-14 画像処理方法

Country Status (1)

Country Link
JP (1) JP3355015B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000030062A (ja) * 1998-07-10 2000-01-28 Glory Ltd 画像照合方法、装置及び記録媒体
WO2008140078A1 (ja) * 2007-05-16 2008-11-20 Sony Corporation 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
JP2016031764A (ja) * 2014-07-25 2016-03-07 株式会社東芝 画像解析方法
JP2019527404A (ja) * 2016-06-30 2019-09-26 ユニバーシティー オブ ソウル インダストリー コーポレーション ファンデーション 衛星映像を用いた油流出探知装置及び方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000030062A (ja) * 1998-07-10 2000-01-28 Glory Ltd 画像照合方法、装置及び記録媒体
WO2008140078A1 (ja) * 2007-05-16 2008-11-20 Sony Corporation 静脈パターン管理システム、静脈パターン登録装置、静脈パターン認証装置、静脈パターン登録方法、静脈パターン認証方法、プログラムおよび静脈データ構造
US8320639B2 (en) 2007-05-16 2012-11-27 Sony Corporation Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration
JP2016031764A (ja) * 2014-07-25 2016-03-07 株式会社東芝 画像解析方法
JP2019527404A (ja) * 2016-06-30 2019-09-26 ユニバーシティー オブ ソウル インダストリー コーポレーション ファンデーション 衛星映像を用いた油流出探知装置及び方法

Also Published As

Publication number Publication date
JP3355015B2 (ja) 2002-12-09

Similar Documents

Publication Publication Date Title
CN107316031B (zh) 用于行人重识别的图像特征提取方法
Zhang et al. A categorization of multiscale-decomposition-based image fusion schemes with a performance study for a digital camera application
Agam et al. Geometric separation of partially overlapping nonrigid objects applied to automatic chromosome classification
Zhu et al. Automatic particle detection through efficient Hough transforms
JP6192271B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5431362B2 (ja) 画像識別のための特徴ベースの識別特性(signature)
Huang et al. Model-based chart image recognition
KR20110002043A (ko) 이미지 식별을 위한 스케일 안정적 특징-기반 식별자
JP5706647B2 (ja) 情報処理装置、およびその処理方法
TW201804437A (zh) 影像物體特徵描述方法及影像處理裝置
CN114863493B (zh) 一种低质量指纹图像和非指纹图像的检测方法及检测装置
CN114596551A (zh) 一种车载前视图像裂缝检测的方法
JP5747733B2 (ja) 対象検出装置、対象検出方法、分類器作成装置及び分類器作成方法
CN111709426A (zh) 一种基于轮廓和纹理的硅藻识别方法
CN115049640A (zh) 一种基于深度学习的道路裂缝检测方法
JP4285640B2 (ja) オブジェクト識別方法および装置ならびにプログラム
JPH07254063A (ja) 画像処理方法
JP2009123234A (ja) オブジェクト識別方法および装置ならびにプログラム
CN108960285B (zh) 一种分类模型生成方法、舌体图像分类方法及装置
Zambanini et al. Robust automatic segmentation of ancient coins
JPH11328311A (ja) 画像内のパターン抽出方法、画像内のパターン認識方法及び画像異常判定方法並びに記憶媒体
JP4020465B2 (ja) 画像中の腫瘤影の検出装置及び方法並びに腫瘤影検出プログラムを記録した記録媒体
WO2015178001A1 (ja) 画像照合システム、画像照合方法、およびプログラムを記憶する記録媒体
KR101032581B1 (ko) 유해영상 자동 판별 방법
Agarwal et al. DoG based local ternary pattern for image retrieval

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080927

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080927

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090927

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090927

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100927

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110927

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110927

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120927

Year of fee payment: 10