JPH1115945A - 画像処理装置及び方法、及び、危険物検出システム及び方法 - Google Patents

画像処理装置及び方法、及び、危険物検出システム及び方法

Info

Publication number
JPH1115945A
JPH1115945A JP16285597A JP16285597A JPH1115945A JP H1115945 A JPH1115945 A JP H1115945A JP 16285597 A JP16285597 A JP 16285597A JP 16285597 A JP16285597 A JP 16285597A JP H1115945 A JPH1115945 A JP H1115945A
Authority
JP
Japan
Prior art keywords
image
support
local
degree
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP16285597A
Other languages
English (en)
Inventor
Akinori Kosako
明徳 小迫
Naoki Takegawa
直樹 武川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
N T T DATA KK
NTT Data Group Corp
Original Assignee
N T T DATA KK
NTT Data Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by N T T DATA KK, NTT Data Corp filed Critical N T T DATA KK
Priority to JP16285597A priority Critical patent/JPH1115945A/ja
Publication of JPH1115945A publication Critical patent/JPH1115945A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 画像中から任意の物体の画像を漏れなく抽出
し、その位置を安定的に求めることができる画像処理装
置及び画像処理方法を提供する。 【解決手段】 抽出対象物の局所部分について、撮像環
境による変化をパラメータとして反映した局所モデルと
入力された画像の各部分画像について、マッチング処理
部13で各局所モデルとのマッチングを行う。局所情報
統合部21は、マッチング結果に従って、画像の位置情
報も含めたパラメータ空間において抽出対象物がその位
置に存在することを支持する程度を示す非加法的測度で
ある支持度(確度)を求め、さらに、支持度を統合す
る。統合は、Dempster-Shafer理論等に基づいて、ある
局所部分の低い支持度が他の局所部分の高い支持度を相
殺しないように行われる。物体位置決定部17は、パラ
メータ空間内で支持度の高い部分を抽出することによ
り、入力画像内の抽出対象物の位置を判別して出力す
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は、入力画像中から
任意の物体を抽出し、その位置を判別する画像処理装置
及び画像処理方法、及びそれらを用いた危険物検出シス
テム及び方法に関する。
【0002】
【従来の技術】従来の局所的な情報を統合して物体の抽
出(検出)或いは認識を行う技術としては、得られた局
所情報を組み合わせて逐次仮説検証する手法と、Hou
gh変換に代表されるような局所情報からの投票に基づ
いた手法(和田俊和、松山隆司「Hough変換に基づ
く図研検出法の新展開」、情報処理学会誌、Vol.3
6,No.3,1995)が知られている。
【0003】仮説検証による方法では、画像中から得ら
れた物体の局所情報の多数の候補を逐次組み合わせて検
証する。このため、組み合わせの爆発(組み合わせ数の
膨大化)が起こり、演算量が膨大になってしまう。投票
による方法は、真値を指示する情報が多数ある場合には
有効である。しかし、少数の情報が指示する結果のみが
真値であり得るような場合には、必ずしも良好な結果が
得られない。また、撮影される物体は一部が隠れていた
り、大きさや明るさや、見える方向などの撮影環境の違
いにより画像上で様々に変化する。このため、従来の物
体抽出装置及び方法では、撮影された画像から抽出対象
物を正確に抽出し、その位置を正確に求めることが困難
であった。
【0004】このような問題を解決するため、特願平7
−169039には、取得した画像の部分画像と予め用
意しておいた局所画像とをマッチングし、マッチングの
結果得られた一致度を用いて、パラメータ空間上の確率
分布を求め、求めた確率分布をベイズの枠組みにより統
合することにより、検出対象物の有無と位置を判別する
装置及び方法が開示されている。
【0005】この装置及び方法によれば、確率分布を使
用しているので、抽出対象物の一部が隠れているような
場合でも、比較的正確に物体が存在すること及びその位
置を判別することができる。
【0006】
【発明が解決しようとする課題】この方法では、ベイズ
の枠組みに沿って確率分布を統合している。ベイズの枠
組みによる統合は、確率分布を積事象として結合する。
このため、物体映像の一部が隠れている場合、隠れてい
る部分の画像情報が得られず、その部分に関する確率が
小さくなり、統合後の確率が小さくなってしまう場合が
ある。確率が小さいことは、物体が存在しないことを意
味する。従って、一部が見えていても、隠れている領域
が存在するため、物体として検知されない場合がある。
このため、この方法では、たとえ少数の局所部分が一致
していても、多数の局所部分が一致していなければ抽出
が困難であるという問題があった。
【0007】一方、セキュリティ関連のアプリケーショ
ンにおいては、危険物として可能性のある場合は漏らさ
ず検出又は抽出できることが望ましい。従って、少数の
局所部分が画像と一致している場合には、危険物として
抽出することが望ましい。従って、特願平7−1690
39に開示された方法は、セキュリティ分野等には適し
ていない場合があるという問題があった。
【0008】この発明は上記実状に鑑みてなされたもの
で、任意の画像中から任意の物体の画像を抽出し、且
つ、その位置を安定的に求めることができる画像処理装
置及び画像処理方法を提供することを目的とする。ま
た、この発明は、任意の画像中から任意の物体の特徴を
備える画像を漏れなく求めることができる画像処理装置
及び画像処理方法を提供することを目的とする。また、
この発明は、セキュリティシステムにおいて、検出対象
物である可能性がある画像を漏れなく判別することがで
きる画像処理装置及び画像処理方法、危険物検出装置及
び方法を提供することを目的とする。
【0009】
【課題を解決するための手段】上記目的を達成するた
め、この発明の画像処理装置は、抽出対象物の複数の局
所部分のモデルを記憶するモデル記憶手段と、画像を入
力する画像入力手段と、前記モデル記憶手段に記憶され
た各モデルと、前記画像入力手段の入力画像の各部との
一致度を算出するマッチング手段と、前記マッチング手
段により算出された各一致度に基づいて、抽出対象物の
存在を支持する程度を示す非加法的測度である支持度を
局所部分毎に求め、求めた局所部分毎の支持度を統合す
る統合手段と、前記統合手段により統合された支持度が
極大を示す位置を抽出対象物の位置として出力する出力
手段と、を備えることを特徴とする。
【0010】このような構成によれば、非加法的測度で
ある支持度を求め、これを統合して、抽出対象物の位置
を判別している。非加法的測度を使用しているので、一
部の局所部分についての支持度が高く、隠れている等の
理由により、他の局所部分の支持度が低い場合でも、統
合した後の支持度が低くならない。従って、少なくとも
一部の局所部分を明確・確実に検出できた場合には、抽
出対象物を漏れなく抽出することができる。従って、抽
出対象物である可能性のある画像を漏れなく抽出すべき
分野、例えば、セキュリティ等の分野に用いて好適な画
像処理装置を提供できる。
【0011】前記出力手段は、例えば、前記統合手段に
より統合された支持度のうち、極大を示す支持度が基準
値を越える時に、抽出対象物の存在の可能性を報知す
る。支持度が低い場合には、検出対象物が存在しない可
能性が高い。このような構成をとることにより、誤って
存在すると判別する誤動作を低減できる。なお、支持度
が極大を示さなくても、例えば、基準値以上である場合
には、ぞの位置を抽出対象物の位置として出力するよう
にしてもよい。
【0012】前記統合手段は、例えば、前記マッチング
手段により算出された各一致度に基づいて、部分画像毎
に支持度を求める手段と、部分画像毎に求められた支持
度を局所部分毎に統合する手段と、局所部分毎に統合さ
れた支持度を統合する手段と、から構成される。
【0013】また、前記統合手段は、例えば、前記入力
画像上の位置をパラメータとするパラメータ空間上の支
持度の分布を求め、前記出力手段は、極大を示す支持度
が得られた位置の情報を出力するように構成してもよ
い。
【0014】前記統合手段は、部分画像と局所部分毎に
所定のパラメータ空間上の支持度の分布を求める手段
と、局所部分毎に求められたパラメータ空間上の支持度
のうち、パラメータ空間の各点における極大の支持度
(複数でもよく、一定の基準値を越えるもののみでも
よ)を選択することにより、局所部分毎にパラメータ空
間上の新たな支持度の分布を生成する手段と、全ての局
所部分の新たな支持度の分布を統合する手段と、から構
成されてもよい。
【0015】前記統合手段は、例えば、一の局所部分に
ついての支持度が他の局所部分についての支持度を否定
することなく、各局所部分についての支持度を統合す
る、即ち、非加法的手法により支持度を統合する(非加
法的測度で表して統合する)手段を備える。このような
構成とすることにより、局所部分の一部が隠れて見えな
い場合でも、見えている局所部分の支持度が高い場合に
は、物体を抽出することが可能となる。
【0016】非加法的な統合手法として、例えば、Demp
ster-shafer理論又はFuzzy理論に基づいた支持度の統合
が採用可能である。
【0017】前記モデル記憶手段は、例えば、撮像環境
による変化をパラメータとして反映した各局所部分の画
像のモデルを記憶し、前記マッチング手段は、前記入力
画像から前記局所部分と同一サイズの部分画像を順次切
り出し、各局所部分のモデルとの一致度を求め、前記統
合手段は、前記マッチング手段により求められた一致度
を用いて、画像の位置情報を含めたパラメータ空間にお
いて、抽出対象物の存在を支持する程度を示す支持度を
求める。
【0018】また、前記モデル記憶手段は、例えば、抽
出対象物の異なる回転角に対する各局所部分の画像の変
化を所定の固有ベクトルで表した固有空間で、曲線とし
て表現する第1のモデルと、抽出対象物の異なる回転角
に対する各局所部分の位置を曲線で表現する第2のモデ
ルと、を記憶し、前記マッチング手段は、前記画像入力
手段により入力された画像の各部の画像を前記固有空間
に射影した時に、射影点と前記第1のモデルの曲線との
距離を算出し、前記統合手段は、入力画像の各部の画像
について、前記マッチング手段により第1のモデルにつ
いて算出された距離に基づいて、第1の支持度を求め、
対応する第2のモデルに基づいて第2の支持度を求め、
前記第1と第2の支持度を乗算し、乗算により得られた
部分画像毎の支持度を統合する。この場合、前記統合手
段は、例えば、位置と回転角をパラメータとするパラメ
ータ空間上の支持度の分布を求め、前記出力手段は、極
大を示す支持度が得られた位置と回転角を出力する。
【0019】前記モデル記憶手段に、複数の抽出対象物
の複数の局所部分の画像のモデルのセットを記憶させ、
前記統合手段に各抽出対象物の支持度を求めて統合さ
せ、前記出力手段に、基準値以上の支持度が得られた抽
出対象物とその位置を示す情報を出力させるように構成
してもよい。このような構成とすれば、複数の抽出対象
物を一括して抽出できる。
【0020】また、この発明の第2の観点に係る危険物
検出システムは、検出対象の危険物の複数の局所部分の
モデルを記憶するモデル記憶手段と、検査対象物の画像
を入力する入力手段と、前記入力手段により入力された
画像の各部分と前記モデル記憶手段に記憶された各局所
部分のモデルとの一致度を求めるマッチング手段と、前
記マッチング手段により判別された一致度が所定値以上
の局所部分が存在する場合に、他の局所部分の一致度に
かかわらず、前記検出対象物の存在の可能性を報知する
手段と、を含むことを特徴とする。
【0021】また、この発明の第3の観点にかかる危険
物検出システムは、検出対象物の複数の局所部分のモデ
ルを記憶するモデル記憶手段と、検査対象物の画像を入
力する入力手段と、前記入力手段により入力された画像
の各部分と前記モデル記憶手段に記憶された各局所部分
のモデルとの一致度を求めるマッチング手段と、前記マ
ッチング手段により判別された一致度に基づいて、各局
所部分が存在する確度(確信度)を示し、非加法的測度
である支持度を算出する手段と、高い支持度が低い支持
度の存在による影響を実質的に受けないように、算出さ
れた支持度を統合する手段と、統合された支持度に基づ
いて、前記検出対象物の存在の可能性を報知する手段
と、を含むことを特徴とする。
【0022】第2、第3の観点に係る危険物検出システ
ムによれば、非加算的測度を用いて危険物の検出を行っ
ているので、入力画像中に1つでも局所部分の画像に非
常に類似する画像が存在する場合には、他の局所部分が
隠れている場合でも、危険物を検出することができる。
従って、危険物を漏れなく検出することができる。
【0023】また、この発明の第4の観点にかかる危険
物検出システムは、検出対象の危険物の複数の局所部分
のモデルを記憶し、検査対象物の画像を入力し、入力さ
れた画像の各部分と各局所部分のモデルとの一致度を求
めることにより、前記検査対象物の画像中に検出対象の
危険物が含まれているか否かを判別する危険物検出シス
テムであって、前記一致度に基づいて、各局所部分が存
在する確度(確信度)を算出し、各局所部分の高い確度
が他の局所部分の低い確度の影響を受けないように算出
された確度を統合し、統合結果に基づいて前記検出対象
危険物の存在の可能性を判別して報知する、ことを特徴
とする。
【0024】第4の観点に係る危険物検出システムによ
れば、高い確度の局所部分が存在する場合には、他の局
所部分の確度が低い場合でも、危険物を検出することが
できる。従って、危険物を漏れなく検出することができ
る。
【0025】また、この発明の第5の観点にかかる画像
処理方法は、抽出対象物の複数の局所部分のモデルと入
力された画像の各部との一致度を算出し、算出された一
致度に基づいて、局所部分毎に前記抽出対象物が存在す
る確信度の空間を算出し、局所部分毎に得られた確信度
の空間を非加法的手法により統合し(非加法的測度で表
して統合し)、統合された確信度の空間の中から極大値
を持つ部分を抽出し、それに対応する入力画像上の位置
を決定する、ことを特徴とする。
【0026】この方法によっても、非加法的手法を用い
ているので、検出対象物を漏れなく検出することができ
る。
【0027】統合とは、例えば、Dempsster-Shafer理論
又はFuzzy理論に基づいた統合である。
【0028】また、この発明の第6の観点にかかる危険
物検出システムは、検出対象の危険物の複数の局所部分
のモデルを記憶し、検査対象物の画像を入力し、入力さ
れた画像の各部分と各局所部分のモデルとの一致度を求
めることにより、前記検査対象物の画像中に検出対象の
危険物が含まれているか否かを判別する危険物検出方法
において、前記一致度に基づいて、各局所部分が存在す
る確度(確信度)を算出し、各局所部分の高い確度が他
の局所部分の低い確度の影響を受けないように算出され
た確度を統合し、統合結果に基づいて前記検出対象の危
険物の存在の可能性を判別して報知する、ことを特徴と
する。
【0029】この方法によれば、各局所部分の高い確度
(確信度)が他の局所部分の低い確度の影響を受けない
ように算出された確度を統合し、統合結果に基づいて前
記検出対象危険物の存在の可能性を判別する。従って、
1つでも確度の高い局所部分が検出された場合には、危
険物の存在を報知する。従って、危険物を漏れなく検出
することができる。
【0030】
【発明の実施の形態】以下、本発明の一実施形態にかか
る画像処理(抽出)装置及び画像処理(抽出)方法につ
いて、図1〜図12を参照して説明する。
【0031】図1に示すように、この実施形態の画像処
理装置は、画像入力部11と、モデル記憶部12と、マ
ッチング処理部13と、局所情報統合部21と、物体位
置決定部17とを備える。
【0032】画像入力部11は、X線カメラ、CCDカ
メラ、イメージリーダなどの撮影装置とこの撮影装置で
取得された画像をデジタル画像に変換する変換部と、変
換された画像を一時記憶する画像メモリを備える。
【0033】モデル記憶部12は、メモリから構成さ
れ、抽出(検出)対象物体のモデルを記録する。3次元
物体の見かけ上の画像は、その物体の方向、向き等によ
り変化する。このような3次元物体の抽出を適切に行う
ため、モデル記憶部12は、抽出対象物の特徴部分(局
所部分又は関心領域)のパラメトリック固有空間表現法
によるモデル(パターンモデル)と、モデル生成用画像
内での各特徴部分の位置の変化を表すモデル(ロケーシ
ョンモデル)とを記憶する。なお、パターンモデルとロ
ケーションモデルとの詳細については後述する。
【0034】マッチング処理部13は、データ読み出し
回路及び演算装置から構成され、画像入力部11から入
力された入力画像の各部の画像(部分画像)とモデル記
憶部12に記憶された各パターンモデルとのマッチング
をとり、一致度(マッチ度)を算出し、入力画像の各位
置の部分画像がどの特徴部分に最も一致するかを算出す
る。
【0035】局所情報統合部21は、支持度算出部14
と、局所情報内統合部15と、局所情報間統合部16と
を備え、マッチング処理部13で算出された一致度を、
Dempster-Shafer理論、Fuzzy理論等の非加法的な測度で
表し、これらの測度を統合する。
【0036】支持度算出部14は演算回路から構成さ
れ、マッチング処理部13で求めた一致度に基づいて、
各位置での最適な局所部分に対応する局所モデルを用い
て、それらのパラメータ空間におけるパターンモデルと
ロケーションモデルとの距離に基づいて支持度S
patternとSlocationとを算出する。支持度算出部14
は、さらに、各位置でのパターンモデルとロケーション
モデルとの支持度を乗算して、パラメータ空間における
支持度S(=Spattern・Slocation)を生成する。こ
の算出をマッチングの結果全てに対して行う。
【0037】局所情報内統合部15は、物体の同一の局
所部分について得られた全ての支持度を組み合わせるこ
とにより、パラメータ空間の新たな支持度を算出する。
組み合わせ方法は、パラメータ空間の各点において、最
大(又は極大)の支持度をとる。この結果、各局所部分
につき1つのパラメータ空間の支持度が得られる。
【0038】局所情報間統合部16は、算出した各局所
部分についてのパラメータ空間を、Dempster-Shafer理
論により統合する。
【0039】物体位置決定部17は、出力装置等から構
成され、最終的に得られたパラメータ空間の支持度が基
準値以上であるか否かを判別し、基準値以上の場合に、
その位置を検出対象物の場所として決定する。
【0040】次に、モデル記憶部12に記憶されるパタ
ーンモデル及びロケーションモデルの作成方法について
具体的に説明する。3次元物体の画像は、その物体の方
向、向き等により変化する。例えば、椅子を抽出対象物
と考えると、椅子を回転させると、図2に示すような多
様な画像(モデル作成用画像)が得られる。
【0041】そこで、抽出対象物を中心にカメラを移動
させて(又は、カメラを固定して抽出対象物をその場で
回転させて)、図2に示すように、抽出対象物の回転角
θを変化させながらモデル作成用画像を順次取得する。
次に、取得したモデル作成用画像のうち、抽出対象物、
即ち、椅子以外の部分にデータ”0”を代入して抽出対
象物の画像のみを取得する。
【0042】次に、各モデル作成用画像から抽出対象物
の特徴部分(局所部分)の画像を所定サイズで切り出
す。角度θの数(モデル作成用画像の数)をR、特徴部
分の数をSとすると、R×S個の局所部分の画像(局所
画像)が得られる。例えば、図2に示す椅子の局所部分
を図3に示す3つの部分A1〜A3とすると、各モデル
作成用画像からそれぞれ3つの局所画像A1〜A3が抽
出される。
【0043】続いて、回転角θをパラメータとして、各
局所画像をパラメトリック固有空間表現によって作成し
た固有空間に投影し、これらをつなげることにより局所
部分それぞれについて1つのパターンモデルを曲線とし
て得る。
【0044】ここで、θの数(モデル作成用画像の数)
をRとし、θを変えて取得した各局所画像の集合を数式
1のように表現する。ここで、Xiは各局所部分のi番
目の局所画像を示し、それぞれ、数式2で表される。数
式2において、Xnmはn番目の局所画像のm番目の画素
の輝度を示す。なお、数式1の集合は、局所部分毎に形
成され、図3の例では、局所部分A1〜A3にそれぞれ
1セット形成される。
【0045】
【数1】{x1,x2,x3,・・・,xR
【数2】x1={x11,x12,x13,・・・,x1N} x2={x21,x22,x23,・・・,x2N}・・・・・・ xR={xR1,xR2,xR3,・・・,xRN
【0046】続いて、各局所画像の集合の平均cを数式
3に従って求め、各局所画像から平均画像を差し引い
て、数式4に示す行列Xを生成する。
【0047】
【数3】c=(1/R)Σxr r=1〜R
【数4】 X≡{x1−c,x2−c,x3−c,・・・,xR−c}
【0048】この画像集合Xの共分散行列Qは数式5に
より表される。
【数5】Q≡XXT Tは直交関数を示す。
【0049】k次元の固有空間は数式6の固有方程式を
解き、k個の大きい固有値λ1〜λN(λ1≧・・・≧λk≧・
・・≧λN)に対応する固有ベクトル(e1,e2,・・・
k)を基底ベクトルとすることにより得られる。
【0050】
【数6】λi・ei=Q・ei
【0051】各局所画像をk次元の固有空間に投影する
と、1枚の局所画像が固有空間上の1つの点に対応す
る。さらに、各回転角θでの各局所画像を固有空間に投
影すると、それは点の系列になる。これらの点を補間法
を用いて結ぶことにより、1つの局所画像について1つ
のパターンモデルが曲線として得られる。
【0052】図4に、抽出対象物である椅子の局所画像
A1を、θの変化に伴って4次元(k=4)の固有空間
上にプロットして、パターンモデルを作成する例を示
す。このパターンモデルは、局所画像A2,A3につい
ても同様に生成される。モデル記憶部12は、このよう
にして得られた各局所部分についてのパターンモデルを
記憶する。
【0053】次に、ロケーションモデルについて説明す
る。回転角θを変化させるに従って、各モデル作成用画
像内の局所画像の位置は変化する。ロケーションモデル
は、図5に示すように、この位置変化を、モデル作成用
画像の左上の位置を原点とした(x,y)座標系で表し
たモデルである。
【0054】次に、このようにして予め作成されたパタ
ーンモデルとロケーションモデルを用いて、入力画像中
の抽出対象物とその位置を抽出する手順を図1及び図6
〜図9を参照して説明する。
【0055】画像入力部11は、例えば、図6に示すよ
うな、任意の画像を取得し、これをディジタル画像に変
換し、さらに、取得した画像を記憶する。
【0056】マッチング処理部13は、入力画像の中か
ら、図7に示すように、局所画像と同一サイズの画像
(部分画像、候補領域)をX方向とY方向に順次1画素
ずつシフトしながら順次切り出す。マッチング処理部1
3は、パターンモデル作成時と同様にして、各部分画像
を固有空間に投射する。すると、切り出された各部分画
像は、固有空間上で1つの点で表される。そして、この
点と各局所画像のパターンモデルの曲線との回転角θの
変化による距離D(θ)を求める。この距離D(θ)
は、今回の部分画像と局所部分Ai(i=1,2,3)
のパターンモデルとの一致度を表す指標である。
【0057】距離D(θ)が最小になるときが、特徴画
像と部分画像の一致度が最も高く、その時のθが最も一
致する姿勢(回転角)を示す。
【0058】支持度算出部14は、マッチングの結果得
られた各(X,Y)座標位置における最適な局所部分に
対応する局所モデルを用いて、それらのパラメータ空間
における支持度を算出する。ここで、支持度とは、検出
対象勿がその位置に存在する程度(確度)を示す。
【0059】支持度算出部14は、まず、パターンモデ
ルに関する支持度Spatternを数式7に従って計算す
る。支持度Spatternは、その位置に回転角θの検出対
象物が存在する程度(存在する確度又は確信度)を示
し、0以上1以下の値であり、確実に存在することを支
持するならばSpattern=1であり、全く支持しないな
らば0である。
【0060】
【数7】 Spattern=exp{−D(θ)2/(2・σ1 2)} なお、σ1は任意の定数であり、経験的に設定される。
【0061】例えば、入力画像上の(X,Y)の位置の
部分画像をパラメトリック空間に投影した点(投影点)
と局所部分A1のパターンモデルを表す曲線との距離D
1、投影点と局所部分A2のパターンモデルを表す曲線
との距離D2,投影点と局所部分A3のパターンモデル
を表す曲線との距離D3とのうちD3が最も小さいとす
る。この場合、最適な局所部分はA3となり、その位置
に検出対象物が存在することを支持する程度を表す支持
度Spatternは、exp{−D32/(2・σ1 2)}とな
る。
【0062】次に、支持度算出部14は、各部分画像に
ついて、数式8により新たな座標(α,β)を、任意の
回転角θに関して設定する。
【数8】 (α,β)=(X,Y)−(x(θ),y(θ))
【0063】ここで、(X、Y)は図6に示すように入
力画像上の各位置の座標を意味し、(x(θ),y
(θ))は、検出対象物の回転角がθである時に、図5
に示すようにモデル作成画像の左上の位置を原点とした
各局所部分の座標である。(α,β)と、(X,Y)
と、(x,y)との関係を図8に示す。
【0064】このような変換を行うことにより、マッチ
ングが正確に行われていれば、マッチした各局所部分A
1〜A3は、同一の(α,β)の座標を示す。そこで、
ロケーションモデルにおける支持度Slocationを数式9
に従って計算する。
【0065】
【数9】Slocation=exp{-[(α−X+x(θ))2+(β−Y
+y(θ))2]/(2・σ2 2)} ここで、(x(θ),y(θ))は、最小の距離が得ら
れた時の回転角θでの(x,y)座標である。また、σ
2は任意の定数であり、経験的に設定される。数式9に
おける(α−X+x(θ))2+(β−Y+y(θ))2の平方根は、ロ
ケーションモデルにおける局所部分Ai(i1〜3)の
位置と(X,Y)の距離を示す。
【0066】支持度算出部14は、支持度Spattern
locationとを乗算して、パラメータ空間(α,β,
θ)における支持度S(=Spattern・Slocation)を
算出する。換言すると、パラメータ空間上の支持度又は
確度の分布を求める。この支持度は、着目している部分
画像の画像とその位置が、モデルの輝度パターンと位置
に近いほど高い値になる。この算出をマッチングの結果
全てに対して行う。換言すると、全ての部分画像につい
て支持度Sの算出を行う。従って、入力画像内の部分画
像の数をmとすると、m個の支持度Sが得られる。
【0067】局所情報内統合部15は、同一の局所部分
について得られた全ての支持度を組み合わせることによ
り、パラメータ空間の新たな支持度を算出する。組み合
わせ方は、パラメータ空間(α、β、θ)の各点におい
て最大(又は極大)の支持度をとる。この結果、各局所
部分につき、1つのパラメータ空間内の支持度又は確度
の分布が図9に示すように得られる。例えば、同一のパ
ラメータ空間(1、1、1)に、支持度0.5と0.3
が得られている場合には、支持度として0.5を選択す
る。上述の椅子の例では、局所部分A1〜A3につい
て、それぞれ、統合された支持度Sが得られる。この支
持度は、非加法的な測度である。
【0068】局所情報間統合部16は、各局所部分につ
いての支持度Sを統合し、パラメータ空間内で支持度
(確信度)が極大値を示す部分(最大値を示す部分でも
よく、また、複数でもよい)を抽出する。この際、ある
局所部分の低い支持度(確度)が他の局所部分の高い支
持度に影響し(相殺し)、統合された確度が低下し、検
出対象物を検出しなくなることは望ましくない。そこ
で、この実施の形態では、支持度Sの統合のために、あ
る局所部分の低い支持度が他の局所部分の高い支持度に
影響しない(相殺しない)手法、例えば、物体が存在す
る確度を非加法的な測度である支持度で表して、これを
Dempster-Shafer理論に基づいて統合することにより行
う。
【0069】以下、Dempster-Shafer理論に基づいた統
合を行う場合を説明する。まず、ここまでに得た各支持
度をSk(α、β、θ)(但し、k=1、2・・・N;
Nは局所部分の数である。)で表す。即ち、前述の椅子
の例では、各特徴部分A1〜A3について、図9に示す
ように、(α、β、θ)の座標系内の支持度の分布をS
1(α、β、θ)〜S3(α、β、θ)で表す。
【0070】換言すると、抽出対象物Oが、入力画像の
ある位置(α,β)にある姿勢(θ)で存在すると仮定
し、これをO(α,β,θ)と表すと、支持度Sは「O
(α,β,θ)が成り立つこと」を示す程度である。
【0071】Dempster-Shafer理論の適用にあたって
は、解となる候補の全体集合Ωが既知である必要があ
る。即ち、入力画像に映りうるもの全てが既知である必
要がある。しかし、ほとんどの適用分野では、検出対象
物(Oで表す)以外の物体全てを規定することは不可能
である。そこで、検出対象物O以外の物体を$と表し、
網羅性が成り立つように、数式10に従って全体集合Ω
を設定する。
【0072】
【数10】Ω≡{O}∪{$} ここで、{O}は抽出対象とする物体の集合、∪は結び
を示す記号、{$}は対象以外の物体の集合、を表す。
【0073】支持度の統合のため、まず、支持度Sk
基づき、数式11〜14に示すようにビリーフ関数を設
定する。
【0074】
【数11】Belk({φ})(α,β,θ)=0
【数12】 Belk({O})(α,β,θ)=Sk(α,β,θ)
【数13】Belk({$})(α,β,θ)=0
【数14】Belk(Ω)(α,β,θ)=1
【0075】ここで、数式11は、空集合のビリーフ関
数が0であることを示す。数式12は、検出対象物Oが
存在する支持度がSk(α,β,θ)であることを示
す。数式13は、検出対象物O以外の物体が存在する支
持度が0であることを示す。但し、支持度が0であると
いうことは、O以外の物体が存在することに対する情報
がないことを示しており、O以外の物体が存在しないこ
とを示す訳ではない。数式14は、全集合のビリーフ関
数が1であることを示す。ビリーフ関数のこの表現によ
り、部分的な情報を否定することなく、個々の情報を有
効に活用することが可能となる。
【0076】次に算出した各局所部分の支持度S
k(α、β、θ)を結合し、物体を抽出する。先ず、ビ
リーフ関数を、数式15に基づいて、Dempster-Shafer
理論における基本確率mkに変換する。
【0077】
【数15】 mk({O})(α,β,θ)=Sk(α,β,θ) mk(Ω)(α,β,θ)=1−Sk(α,β,θ) まず、k=1とk=2の場合の統合を数式16に基づい
て行う。
【0078】
【数16】m1,2({O})(α,β,θ)=S1(α,
β,θ)・S2(α,β,θ)+S1(α,β,θ)・
(1−S2(α,β,θ))+(1−S1(α,β,
θ))・S2(α,β,θ) m1、2(Ω)(α,β,θ)=(1−S1(α,β,
θ))・(1−S2(α,β,θ)) さらに、このようにして得た基本確率とk=3の場合の
基本確率を数式17に示すように統合する。
【0079】
【数17】m1,2,3({O})(α,β,θ)=m
1,2(α,β,θ)・S3(α,β,θ)+m1,2(α,
β,θ)・(1−S3(α,β,θ))+(1−m
1,2(α,β,θ))・m3(α,β,θ) m1、2,3(Ω)(α,β,θ)=(1−m1,2(α,β,
θ))・(1−S3(α,β,θ))
【0080】同様な動作を繰り返し、局所部分の数N
(上述の椅子の例ではn=N)まで統合する。最終的に
得た基本確率「m1,2,・・・,n({O})(α,β,
θ)」が全ての情報を統合した基本確率であり、ここで
は、この値が物体の存在を示す支持度となる。
【0081】最後に、物体位置決定部17は、最終的に
得られたパラメータ空間(α,β,θ)において、極大
値を示す支持度(最大値でもよく、複数でもよい)を判
別する。そして、その支持度が所定値(基準値、しきい
値)以上であれば、検出対象物が存在すると判別する。
また、支持度が極大値を示す場所(αhigh,βhigh,θ
high)を決定する。この(αhigh,βhigh)の値がモデ
ル画像における座標系(x,y)の原点に対応する。従
って、入力画像の座標(αhigh,βhigh)の位置が抽出
対象物の存在する位置の基準点となる。また、θhigh
入力画像から抽出された抽出対象物の回転角を表す。
【0082】換言すると、図1のシステムは、画像入力
部11において、カメラから撮影された画像をディジタ
ル画像に変換し、マッチング処理部13で得られた画像
の各位置においてモデル記憶部12に記憶された局所部
分のモデルとのマッチングをとり、各パラメータにおけ
る一致度を算出する。次に、局所情報統合部21が、マ
ッチング処理部13で得られた一致度を元に、物体の局
所部分毎に確信度(支持度)の空間を算出し、さらに、
局所部分毎に得られた確信度の空間をDempster-Shafer
理論に基づいて統合する。
【0083】最後に、物体位置決定部17が、統合され
た確信度の空間の中から極大値を持つ部分(複数でもよ
い)を抽出し、それが基準値以上ならば、検出対象物が
あると判別して報知すると共にそれに対応する入力画像
上の位置を決定する。
【0084】以上説明したように、この実施形態におい
ては、抽出対象物の各局所部分について、撮像環境によ
る変化をパラメータとして反映した局所モデルを予め作
成する。そして、入力画像の各部分画像について、各局
所モデルとのマッチングを行い、各部分画像がどの程度
局所モデルに一致しているかという観点から、画像の位
置情報も含めたパラメータ空間において検出対象物の位
置を非加法的な測度である支持度で表す。最後にこれら
の支持度を統合し、パラメータ空間内で確率が極大値を
示す部分(周囲と比較して比較的大きい部分)を抽出す
ることにより、入力画像内の抽出対象物の位置及び回転
角を抽出する。
【0085】このような手法を採用することにより、局
部情報の組み合わせの検証を逐次行うことなく、少数で
も高い確率で真値を示す情報があれば良好な結果が得ら
れる。さらに、撮影環境による変化も考慮して安定的に
抽出対象物の位置を抽出することができる。即ち、マッ
チング処理部13のマッチング結果を、非加法的な測度
で表しているので、物体の一部の隠れなどによる情報の
欠落や情報の抽出誤りが存在していても、これらの情報
がその物体が存在する確率を低減しない。換言すれば、
検出対象物の特徴の一部でも検出された場合には、検出
対象物が存在するものとして報知することができる。
【0086】従って、例えば、図10に示すように、他
の物体(机)により抽出対象物(椅子)の一部が隠され
ているため、局所部分A2の情報が欠落した場合でも、
局所部分A1とA3の画像に基づいて、抽出対象物の位
置及び回転角が高い確率で得られる。従って、情報の欠
落等に影響されず、安定的に抽出対象物の位置を抽出す
ることができる。
【0087】(第2の実施の形態)上記構成の物体検出
装置は、検出対象物の少なくとも1つの特徴部分(局所
部分)が検出された場合には、他の特徴が隠れている場
合などでも、検出対象物とその位置を検出することがで
きる。従って、飛行場の手荷物検査、ビルの入出館管理
などの際の手荷物の検査等に用いれば、危険物等の検出
対象物を漏れなく検出することができる。そこで、以
下、上記物体検出装置を用いた危険物検出システムにつ
いて説明する。
【0088】図11に示すように、この画像処理装置
は、CPU31と、RAM32、ROM33、補助記憶
装置34、撮像装置35、入出力装置36、これらを相
互に接続するバス37、及び手荷物などを搬送する搬送
装置38を備える。
【0089】CPU31は、RAM32及びROM33
に記憶された制御プログラムに従って動作し、演算処理
及び制御処理を実行する。RAM32は、主メモリ及び
拡張メモリ等を含み、処理対象のデータ、制御プログラ
ム等を記憶する。ROM33は、固定データ、固定制御
プログラム等を記憶する。補助記憶装置34は、ハード
ディスク装置、フロッピーディスク装置、CD−ROM
装置等から構成され、CPU31の動作プログラム、危
険物のパターンモデル及びロケーションモデルを記憶し
ており、RAM32にこれらのデータを必要に応じて転
送する。撮像装置35は、搬送装置38上に配置され、
X線カメラなどから構成され、処理対象の画像データを
取得し、RAM32に転送する。入出力装置36は、キ
ーボード、マウス、表示装置などから構成され、制御情
報を入力すると共に抽出された物体の位置、回転角度等
を出力する。
【0090】次に、図10の画像処理装置の動作を図1
2のフローチャートを参照して説明する。検出対象であ
る危険物、例えば、拳銃、刃物、のパターンモデル、ロ
ケーションモデル等は補助記憶装置34に格納されてお
り、必要に応じてRAM32に転送される。先ず、検査
対象者は、手荷物などを搬送装置38上に置く。撮像装
置35は、搬送装置38上の手荷物39が所定の位置に
達した時点で、X線を照射し、その内部の画像を撮像す
る。撮影された、画像は、RAM32に転送され、格納
される。
【0091】CPU31は、入力画像から局所画像と同
一サイズの部分画像を切り出し(ステップS1)、予め
用意されている各パターンモデルとマッチングを行い、
マッチング度を求める(ステップS2)。続いて、全て
の部分画像について、マッチング処理が終了したか否か
を判別し(ステップS3)、終了するまで部分画像の切
り出しとマッチング処理を繰り返す。
【0092】全ての部分画像について、マッチング処理
が終了したとステップS3で判断されると、各部分画像
について、最適な局所部分に対応する局所モデルを用い
て、各部分画像について支持度S(=Spattern・S
location)を算出する(ステップS4,S5、S6)。
続いて、全ての部分画像について、支持度算出処理が終
了したか否かを判別し(ステップS7)、終了するまで
支持度算出処理を繰り返す。
【0093】全ての部分画像について、支持度算出処理
が終了したとステップS7で判断されると、各局所部分
について、得られた全ての支持度Spattern・S
locationを組み合わせることにより、パラメータ空間の
新たな支持度を算出する(ステップS8)。組み合わせ
方は、例えば、パラメータ空間の各点において、最大
(又は基準値を越える極大)の支持度をとる。この結
果、各局所部分につき1(複数でもよい)つのパラメー
タ空間の支持度が求められる。
【0094】次に、算出した各局所部分についてのパラ
メータ空間を、Dempster-Shafer理論により統合し、基
本確率m1,2,3...n({O})(α,β,θ)を求める
(ステップS9)。次に、最終的に得られたパラメータ
空間(α,β,θ)の支持度において、支持度が、基準
値を越え且つ極大(最大でもよい)となる座標
(αhigh,βhigh,θhigh)を決定する(ステップS1
0)。この座標は複数でもよい。CPU31は、この座
標が得られたとき、危険物が存在すると判別し、入出力
装置の表示画面に表示されているx線画像の(αhigh
βhigh)で示される位置に、検出された危険物がθhigh
回転した状態のワイヤフレーム画像などを元の画像に重
ねて表示する。
【0095】このシステムのオペレータは、例えば、入
出力装置36の表示出力から検出対象の危険物の存在及
びその位置を判断し、その手荷物を開いてチェックす
る。
【0096】危険物の検知などのセキュリティの観点か
らは、危険物である可能性があるものは、一旦全て検出
・報知し、その後、詳細に検討することが望ましい。こ
の実施の形態では、上述のように、非加法的測度を用い
て危険物の存在の有無及びその位置を判別しているの
で、基本画像の全てが検出できない場合でも、1つの基
準画像でも、確度が高く検出できた場合には、それを報
知することができ、セキュリティの向上に寄与すること
ができる。
【0097】なお、上述の物体抽出処理を行うための処
理プログラム及び/又はモデル(又は、これらのモデル
を作成するためのプログラム等)をフロッピーディス
ク、CD−ROM等に格納させておき、必要に応じて補
助記憶装置34に装着することにより、撮像装置等を備
える汎用コンピュータを画像処理装置として機能させる
ことも可能である。
【0098】なお、上記実施形態では、理解を容易にす
るため、抽出対象物として椅子、局所部分が3つの例を
示したが、抽出対象物、入力画像のサイズ、局所部分の
サイズ及び数などは一切限定されない。
【0099】また、計算式も数式8〜数式10に限定さ
れない。数式8〜数式10以外の算出式に基づいて支持
度などを算出してもよい。
【0100】また、パラメータ空間上で支持度が極大値
を示す位置を検出したが、極大値を示す位置に限定され
ず、支持度が基準値を以上の位置を検出するようにして
もよい。
【0101】また、支持度をDempster-Shafer(デンプ
スターシェイファー)理論に基づいて統合する必要はな
く、非加法的な測度を統合できるならば任意の方法を採
用することができる。例えば、Fuzzy(ファジー)理論
に基づいて統合してもよい。
【0102】また、上記実施例においては、抽出対象物
の画像の変化を制御するパラメータの1つとして回転角
θを採用したが、抽出対象物の画像のサイズ、明るさ、
色の変化等をパラメータとして採用してもよい。この場
合、導入したパラメータに基づいたパターンモデル及び
ロケーションモデルを同様に作成して、マッチング及び
支持度算出に使用する。
【0103】また、抽出対象物は1種類である必要はな
い。複数の抽出対象物の局所画像のモデルをモデル記憶
部12又はRAM32に記憶させておき、これらと入力
画像とを比較して抽出対象物毎に支持度を求め、一定値
以上の支持度が得られた抽出対象物とその位置を出力す
るようにしてもよい。
【0104】
【発明の効果】以上説明したように、この発明によれ
ば、任意の画像から抽出対象物を抽出し、その位置を判
別することができる。
【図面の簡単な説明】
【図1】この発明の一実施形態にかかる画像処理装置の
構成を示す回路ブロック図である。
【図2】回転角θに応じて画像の見え方が変化する様子
を例示する図である。
【図3】抽出対象物と局所部分とを示す図である。
【図4】パターンモデルの作成方法を説明する図であ
る。
【図5】ロケーションモデルの作成方法を説明する図で
ある。
【図6】入力画像の一例を示す図である。
【図7】入力画像から部分画像を切り出す処理を説明す
る図である。
【図8】入力画像の座標系と、モデル作成用画像の座標
系との関係を示す図である。
【図9】パラメータ空間上の確率分布の一例を模式的に
示す図である。
【図10】入力画像に含まれる抽出対象物の一部が他の
物体により隠されている事例を示す図である。
【図11】危険物検出装置の構成例を示すブロック図で
ある。
【図12】図11に示す危険物検出装置の動作を説明す
るためのフローチャートである。
【符号の説明】
11 画像入力部 12 モデル記憶部 13 マッチング処理部 14 支持度算出部 15 局所情報内統合部 16 局所情報間統合部 17 物体位置決定部 21 局所情報統合部 31 CPU 32 RAM 33 ROM 34 補助記憶装置 35 撮像装置 36 入出力装置 37 バス 38 搬送装置

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】抽出対象物の複数の局所部分のモデルを記
    憶するモデル記憶手段と、 画像を入力する画像入力手段と、 前記モデル記憶手段に記憶された各モデルと、前記画像
    入力手段の入力画像の各部との一致度を算出するマッチ
    ング手段と、 前記マッチング手段により算出された各一致度に基づい
    て、抽出対象物の存在を支持する程度を示す非加法的測
    度である支持度を局所部分毎に求め、求めた局所部分毎
    の支持度を統合する統合手段と、 前記統合手段により統合された支持度が極大を示す位置
    を抽出対象物の位置として出力する出力手段と、 を備えることを特徴とする画像処理装置。
  2. 【請求項2】前記出力手段は、前記統合手段により統合
    された支持度のうち、極大を示す支持度が基準値を越え
    る時に、抽出対象物の存在の可能性を報知する手段を備
    える、ことを特徴とする請求項1に記載の画像処理装
    置。
  3. 【請求項3】抽出対象物の複数の局所部分のモデルを記
    憶するモデル記憶手段と、 画像を入力する画像入力手段と、 前記モデル記憶手段に記憶された各モデルと、前記画像
    入力手段の入力画像の各部との一致度を算出するマッチ
    ング手段と、 前記マッチング手段により算出された各一致度に基づい
    て、抽出対象物の存在を支持する程度を示す非加法的測
    度である支持度を局所部分毎に求め、求めた局所部分毎
    の支持度を統合する統合手段と、 前記統合手段により統合された支持度が基準値を超える
    値を示す位置を抽出対象物の位置として出力する出力手
    段と、 を備えることを特徴とする画像処理装置。
  4. 【請求項4】前記統合手段は、前記マッチング手段によ
    り算出された各一致度に基づいて、部分画像毎に支持度
    を求める手段と、部分画像毎に求められた支持度を局所
    部分毎に統合する手段と、局所部分毎に統合された支持
    度を統合する手段と、 を備えることを特徴とする請求項1、2又は3に記載の
    画像処理装置。
  5. 【請求項5】前記統合手段は、前記入力画像上の位置を
    パラメータとするパラメータ空間上の支持度の分布を求
    め、 前記出力手段は、極大を示す支持度が得られた位置の情
    報を出力する、 ことを特徴とする請求項1又は2に記載の画像処理装
    置。
  6. 【請求項6】前記統合手段は、 部分画像と局所部分毎に所定のパラメータ空間上の支持
    度の分布を求める手段と、 局所部分毎に求められたパラメータ空間上の支持度のう
    ち、パラメータ空間の各点における極大の支持度を選択
    することにより、局所部分毎にパラメータ空間上の新た
    な支持度の分布を生成する手段と、 全ての局所部分の新たな支持度の分布を統合する手段
    と、 を含むことを特徴とする請求項1乃至5のいずれか1項
    に記載の画像処理装置。
  7. 【請求項7】前記統合手段は、一の局所部分についての
    支持度が他の局所部分についての支持度を否定すること
    なく、各局所部分についての支持度を統合する手段を備
    えることを特徴とする請求項1乃至6のいずれか1項に
    記載の画像処理装置。
  8. 【請求項8】前記統合手段は、Dempster-shafer理論又
    はFuzzy理論に基づいて支持度を統合する手段を含むこ
    とを特徴とする請求項1乃至7のいずれか1項に記載の
    画像処理装置。
  9. 【請求項9】前記モデル記憶手段は、撮像環境による変
    化をパラメータとして反映した各局所部分の画像のモデ
    ルを記憶し、 前記マッチング手段は、前記入力画像から前記局所部分
    と同一サイズの部分画像を順次切り出し、各局所部分の
    モデルとの一致度を求め、 前記統合手段は、前記マッチング手段により求められた
    一致度を用いて、画像の位置情報を含めたパラメータ空
    間において、抽出対象物の存在を支持する程度を示す支
    持度を求める、 ことを特徴とする請求項1乃至8のいずれか1項に記載
    の画像処理装置。
  10. 【請求項10】前記モデル記憶手段は、抽出対象物の異
    なる回転角に対する各局所部分の画像の変化を、所定の
    固有ベクトルで表した固有空間で、曲線として表現する
    第1のモデルと、抽出対象物の異なる回転角に対する各
    局所部分の位置を曲線で表現する第2のモデルと、を記
    憶し、 前記マッチング手段は、前記画像入力手段により入力さ
    れた画像の各部の画像を前記固有空間に射影した時に、
    射影点と前記第1のモデルの曲線との距離を算出し、 前記統合手段は、入力画像の各部の画像について、前記
    マッチング手段により第1のモデルについて算出された
    距離に基づいて、第1の支持度を求め、対応する第2の
    モデルに基づいて第2の支持度を求め、前記第1と第2
    の支持度を乗算し、乗算により得られた部分画像毎の支
    持度を統合する、 ことを特徴とする請求項1乃至9のいずれか1項に記載
    の画像処理装置。
  11. 【請求項11】前記統合手段は、位置(α,β)と回転
    角(θ)をパラメータとするパラメータ空間(α,β,
    θ)上の支持度の分布を求め、 前記出力手段は、極大を示す支持度が得られた位置と回
    転角を出力する、 ことを特徴とする請求項10に記載の画像処理装置。
  12. 【請求項12】前記モデル記憶手段は、複数の抽出対象
    物の複数の局所部分の画像のモデルのセットを記憶し、 前記統合手段は、各抽出対象物の支持度を求めて統合
    し、 前記出力手段は、基準値以上の支持度が得られた抽出対
    象物とその位置を示す情報を出力する、 ことを特徴とする請求項1乃至11のいずれか1つに記
    載の画像処理装置。
  13. 【請求項13】検出対象の危険物の複数の局所部分のモ
    デルを記憶するモデル記憶手段と、 検査対象物の画像を入力する入力手段と、 前記入力手段により入力された画像の各部分と前記モデ
    ル記憶手段に記憶された各局所部分のモデルとの一致度
    を求めるマッチング手段と、 前記マッチング手段により判別された一致度が所定値以
    上及び/又は極大値を示す局所部分が存在する場合に、
    他の局所部分の一致度に関わらず、前記検出対象物の存
    在の可能性を報知する手段と、 を含むことを特徴とする危険物検出システム。
  14. 【請求項14】検出対象物の複数の局所部分のモデルを
    記憶するモデル記憶手段と、 検査対象物の画像を入力する入力手段と、 前記入力手段により入力された画像の各部分と前記モデ
    ル記憶手段に記憶された各局所部分のモデルとの一致度
    を求めるマッチング手段と、 前記マッチング手段により判別された一致度に基づい
    て、各局所部分が存在する確度を示し、非加法的測度で
    ある支持度を算出する手段と、 高い支持度が低い支持度の存在による影響を実質的に受
    けないように、算出された支持度を統合する手段と、 統合された支持度に基づいて、前記検出対象物の存在の
    可能性を報知する手段と、 を含むことを特徴とする危険物検出システム。
  15. 【請求項15】検出対象の危険物の複数の局所部分のモ
    デルを記憶し、検査対象物の画像を入力し、入力された
    画像の各部分と各局所部分のモデルとの一致度を求める
    ことにより、前記検査対象物の画像中に検出対象の危険
    物が含まれているか否かを判別する危険物検出システム
    において、 前記一致度に基づいて、各局所部分が存在する確度を算
    出し、各局所部分の高い確度が他の局所部分の低い確度
    の影響を実質的に受けないように算出された確度を統合
    し、統合結果に基づいて前記検出対象危険物の存在の可
    能性を判別して報知することを特徴とする危険物検出シ
    ステム。
  16. 【請求項16】抽出対象物の複数の局所部分のモデルと
    入力された画像の各部との一致度を算出し、 算出された一致度に基づいて、局所部分毎に、前記抽出
    対象物が存在する確信度を非加法的測度で表して、確信
    度の空間を算出し、 局所部分毎に得られた確信度の空間を統合し、 統合された確信度の空間の中から極大値を持つ部分を抽
    出し、それに対応する入力画像上の位置を決定する、 ことを特徴とする画像処理方法。
  17. 【請求項17】前記統合は、Dempsster-Shafer理論又は
    Fuzzy理論に基づいた統合であることを特徴とする請求
    項16に記載の画像処理方法。
  18. 【請求項18】検出対象の危険物の複数の局所部分のモ
    デルを記憶し、検査対象物の画像を入力し、入力された
    画像の各部分と各局所部分のモデルとの一致度を求める
    ことにより、前記検査対象物の画像中に検出対象の危険
    物が含まれているか否かを判別する危険物検出方法にお
    いて、 前記一致度に基づいて、各局所部分が存在する確度を算
    出し、各局所部分の高い確度が他の局所部分の低い確度
    の影響を受けないように算出された確度を統合し、統合
    結果に基づいて前記検出対象の危険物の存在の可能性を
    判別して報知することを特徴とする危険物検出方法。
JP16285597A 1997-06-19 1997-06-19 画像処理装置及び方法、及び、危険物検出システム及び方法 Pending JPH1115945A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16285597A JPH1115945A (ja) 1997-06-19 1997-06-19 画像処理装置及び方法、及び、危険物検出システム及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16285597A JPH1115945A (ja) 1997-06-19 1997-06-19 画像処理装置及び方法、及び、危険物検出システム及び方法

Publications (1)

Publication Number Publication Date
JPH1115945A true JPH1115945A (ja) 1999-01-22

Family

ID=15762536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16285597A Pending JPH1115945A (ja) 1997-06-19 1997-06-19 画像処理装置及び方法、及び、危険物検出システム及び方法

Country Status (1)

Country Link
JP (1) JPH1115945A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170120A (ja) * 2000-12-01 2002-06-14 Honda Motor Co Ltd 運動情報認識システム
JP2002197562A (ja) * 2001-01-30 2002-07-12 Masanobu Kujirada カメラ等検知装置及び方法
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
US7274819B2 (en) 2001-05-31 2007-09-25 Canon Kabushiki Kaisha Pattern recognition apparatus using parallel operation
JP2008500640A (ja) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド 検出および追跡のためのグラフィカルオブジェクトモデル
JP2008501172A (ja) * 2004-05-28 2008-01-17 ソニー・ユナイテッド・キングダム・リミテッド 画像比較方法
JP2008527541A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド 画像中の物体の検出及び追跡
JP2011159320A (ja) * 2001-01-30 2011-08-18 Masanobu Kujirada カメラ等検知装置及び電気機器検知装置
JP2013513412A (ja) * 2009-12-09 2013-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 超音波およびx線システムの組み合わせ
CN110807753A (zh) * 2018-07-20 2020-02-18 苏州微木智能系统有限公司 放射源的监控方法、装置及电子设备

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4570764B2 (ja) * 2000-12-01 2010-10-27 本田技研工業株式会社 運動情報認識システム
JP2002170120A (ja) * 2000-12-01 2002-06-14 Honda Motor Co Ltd 運動情報認識システム
JP2002197562A (ja) * 2001-01-30 2002-07-12 Masanobu Kujirada カメラ等検知装置及び方法
JP2011159320A (ja) * 2001-01-30 2011-08-18 Masanobu Kujirada カメラ等検知装置及び電気機器検知装置
US7088860B2 (en) 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US7512271B2 (en) 2001-03-28 2009-03-31 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US7274819B2 (en) 2001-05-31 2007-09-25 Canon Kabushiki Kaisha Pattern recognition apparatus using parallel operation
JP4886678B2 (ja) * 2004-05-27 2012-02-29 シーメンス コーポレーション 検出および追跡のためのグラフオブジェクトモデル
JP2008500640A (ja) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド 検出および追跡のためのグラフィカルオブジェクトモデル
JP2008501172A (ja) * 2004-05-28 2008-01-17 ソニー・ユナイテッド・キングダム・リミテッド 画像比較方法
JP2008527541A (ja) * 2005-01-07 2008-07-24 ジェスチャー テック,インコーポレイテッド 画像中の物体の検出及び追跡
US8170281B2 (en) 2005-01-07 2012-05-01 Qualcomm Incorporated Detecting and tracking objects in images
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2013513412A (ja) * 2009-12-09 2013-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 超音波およびx線システムの組み合わせ
CN110807753A (zh) * 2018-07-20 2020-02-18 苏州微木智能系统有限公司 放射源的监控方法、装置及电子设备

Similar Documents

Publication Publication Date Title
Greiffenhagen et al. Statistical modeling and performance characterization of a real-time dual camera surveillance system
Shufelt Performance evaluation and analysis of monocular building extraction from aerial imagery
US6587601B1 (en) Method and apparatus for performing geo-spatial registration using a Euclidean representation
US6741757B1 (en) Feature correspondence between images using an image pyramid
US20090041297A1 (en) Human detection and tracking for security applications
JP2023015989A (ja) 物品識別および追跡システム
Nyaruhuma et al. Verification of 2D building outlines using oblique airborne images
JP2000306095A (ja) 画像照合・検索システム
JP5687082B2 (ja) 移動物体追跡装置
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
JPH1115945A (ja) 画像処理装置及び方法、及び、危険物検出システム及び方法
JP5027758B2 (ja) 画像監視装置
US20240169712A1 (en) Image data processing method and apparatus
Haro et al. Shape from incomplete silhouettes based on the reprojection error
CN109448018B (zh) 跟踪目标的定位方法、装置、设备及存储介质
US20210209396A1 (en) Information processing device, control method, and program
JP7304235B2 (ja) 学習済みモデル、学習装置、学習方法、及び学習プログラム
JPH0921610A (ja) 画像処理装置及び画像処理方法
CN112016505B (zh) 基于人脸图像的活体检测方法、设备、存储介质及装置
Delibasis et al. Fisheye camera modeling for human segmentation refinement in indoor videos
CN113642404A (zh) 目标识别检测关联方法、设备、介质及计算机程序产品
CN111986230A (zh) 一种视频中目标物的姿态跟踪方法及装置
JPH0721475A (ja) 侵入物体監視装置
WO2022113453A1 (ja) 異常検知装置、異常検知方法
CN111489439B (zh) 一种三维线图重建方法、装置和电子设备