JP2002203240A - 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 - Google Patents

物体認識装置、物体を認識する方法、プログラムおよび記録媒体

Info

Publication number
JP2002203240A
JP2002203240A JP2001333151A JP2001333151A JP2002203240A JP 2002203240 A JP2002203240 A JP 2002203240A JP 2001333151 A JP2001333151 A JP 2001333151A JP 2001333151 A JP2001333151 A JP 2001333151A JP 2002203240 A JP2002203240 A JP 2002203240A
Authority
JP
Japan
Prior art keywords
image
feature
filter
predetermined
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001333151A
Other languages
English (en)
Other versions
JP3659914B2 (ja
Inventor
Taro Imagawa
太郎 今川
Tsuyoshi Megata
強司 目片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2001333151A priority Critical patent/JP3659914B2/ja
Publication of JP2002203240A publication Critical patent/JP2002203240A/ja
Application granted granted Critical
Publication of JP3659914B2 publication Critical patent/JP3659914B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 認識の信頼度が高く、かつ、初期設定が容易
で環境条件の影響を受けにくい物体認識装置を提供す
る。 【解決手段】 物体認識装置1は、対象物を第1の属性
を用いて表現する第1の画像と、第1の対象物を第2の
属性を用いて表現する第2の画像とを含む第1の画像組
を入力する入力部190と、第1の画像組の所定の数の
画像のうち予め定められた少なくとも1つの位置に予め
定められた少なくとも1つの画像フィルタを適用するこ
とによって得られる少なくとも1つのフィルタ出力値を
成分として有する、特徴量空間における第1の特徴量ベ
クトルを求める特徴量ベクトル算出部125と、第1の
特徴量ベクトルと所定の識別パラメータとの関係に基づ
いて、対象物が特定のカテゴリに属するか否かを判定す
る判定部140とを備えている。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、特定のカテゴリに
属する物体を認識する装置および方法に関し、より詳細
には、異なる属性を用いて物体を表現する複数の画像を
用いて物体を認識する装置および方法に関する。
【0002】
【従来の技術】異なる属性を用いて対象物を表現した複
数の画像を用いて対象物の認識を行う従来技術として、
特開平8−287216号公報「顔面内部位認識方法」
に開示される技術が知られている。この従来技術では、
遠赤外光(波長8〜10μmの光)画像と可視光画像
(異なる属性を用いて対象物を表現した複数の画像)と
から、顔面内の部位(例えば、口)が認識される。遠赤
外線画像は、対象物から放射される遠赤外光の強度を表
現する。対象物から放射される遠赤外光の強度は、対象
物の温度と対応付けることができるので、遠赤外光画像
から特定の温度(例えば、人間の皮膚の通常の温度であ
る約36℃)の領域を抽出することができる。
【0003】温度画像を用いただけでは、対象物の周囲
に人間と同じ温度の物体(室内の電機製品など)が存在す
る場合に、正確に人間を検出することが困難になるの
で、可視光の画像における肌色の領域を参照して信頼性
の高い検出を実現していた。
【0004】
【発明が解決しようとする課題】上記公報に記載の従来
技術では、認識対象となる部位の位置を特定するため
に、遠赤外線画像から抽出された皮膚温度領域と、可視
光画像から抽出された肌色の領域とが対応付けられる。
このような対応付けを行うためには、遠赤外線画像か
らの皮膚温度領域(約36℃の温度の領域)の抽出と、
可視光画像からの肌色の領域の抽出とを正確に行う必要
があり、遠赤外線画像における画素と可視光画像にお
ける画素との対応付けを予め行う必要がある。
【0005】遠赤外線画像における画素と可視光画像に
おける画素との対応付けを予め行うためには、可視光カ
メラと遠赤外光カメラの光軸を正確に合わせることが必
要であり、撮像システムの構築や物体認識のための初期
設定が複雑になるという課題がある。
【0006】遠赤外線画像から皮膚温度領域を正確に抽
出するためには、時間経過とともに変化する遠赤外線カ
メラの光学系や回路、素子等の温度の影響をキャンセル
するためのキャリブレーションを頻繁に行う必要があ
る。あるいは、これらの光学系や回路、素子等の温度の
影響をなくすために、遠赤外線カメラの全体を一定の温
度に保つ(例えば、冷却する)ことが必要になる。その
結果、遠赤外線カメラを含む認識システムの初期設定お
よび保守が複雑であり、コスト高になるという課題があ
る。
【0007】また、皮膚温度は日射や気温の影響によっ
て大きく変化する。特に屋外においては日射や気温等の
条件の変化に応じて、皮膚温度は標準的な36℃付近の
温度からかけ離れやすく、1日のうち、時間的にも大き
く変化する。このように、皮膚温度が変化すると、遠赤
外線画像から皮膚温度領域を正確に抽出することは困難
になる。様々に変化する環境条件下で皮膚温度領域を正
確に抽出するためには、その個々の条件に応じた抽出ア
ルゴリズムを用意しなければならず、認識システムの初
期設定が容易でないという課題がある。
【0008】可視光画像においても、屋外のように日射
や車のヘッドライト等の人工照明の影響を受けやすい環
境下では、カメラのダイナミックレンジの制限や光源の
スペクトル分布が不確定であることに起因して、対象物
の色を常に正確に検出することは困難になる。様々に変
化する環境条件下で肌色領域を正確に抽出するために
は、その個々の条件に応じた抽出アルゴリズムを用意し
なければならず、認識システムの初期設定が容易でない
という課題がある。
【0009】さらに、遠赤外線画像からの皮膚温度領域
の抽出と、可視光画像からの肌色の領域の抽出とは、い
ずれも、個々の対象物の属性に特化した処理である。こ
のような処理は、認識の対象が変わった場合にはうまく
動作しない。例えば、この従来技術を動物の認識に適用
するためには、領域抽出のアルゴリズムを変更しなけれ
ばならない。個々の認識対象ごとに抽出アルゴリズムを
用意しなければならないので、認識システムの初期設定
が容易でない。
【0010】このように、従来技術によれば、遠赤外線
画像の領域と可視光画像の領域とを対応付ける処理が必
要であることに起因して、対象物の認識を行うための初
期設定が容易でなく、環境条件の影響を受けやすいとい
う課題がある。
【0011】本発明は、このような課題に鑑みてなされ
たものであり、認識の信頼度が高く、かつ、初期設定が
容易で環境条件の影響を受けにくい物体認識装置、物体
を認識する方法、プログラムおよび記録媒体を提供する
ことを目的とする。
【0012】
【課題を解決するための手段】本発明の物体認識装置
は、第1の対象物を第1の属性を用いて表現する第1の
画像と、前記第1の対象物を前記第1の属性とは異なる
第2の属性を用いて表現する第2の画像とを含む、2以
上の所定の数の画像からなる第1の画像組を入力する入
力部と、前記第1の画像組の前記所定の数の画像のうち
予め定められた少なくとも1つの位置に予め定められた
少なくとも1つの画像フィルタを適用することによって
得られる少なくとも1つのフィルタ出力値を成分として
有する、特徴量空間における第1の特徴量ベクトルを求
める特徴量ベクトル算出部と、前記第1の特徴量ベクト
ルと所定の識別パラメータとの関係に基づいて、前記第
1の対象物が特定のカテゴリに属するか否かを判定する
判定部とを備えており、これにより、上記目的が達成さ
れる。
【0013】前記入力部は、それぞれが前記所定の数の
画像からなる複数の画像組をさらに入力し、前記複数の
画像組は、少なくとも1つの第2の画像組と、前記少な
くとも1つの第2の画像組以外の少なくとも1つの第3
の画像組とを含み、前記少なくとも1つの第2の画像組
のそれぞれは、前記特定のカテゴリに属する第2の対象
物を前記第1の属性を用いて表現する第3の画像と、前
記第2の対象物を前記第2の属性を用いて表現する第4
の画像とを含み、前記特徴量ベクトル算出部は、前記入
力された複数の画像組のそれぞれについて、前記所定の
数の画像のうち予め定められた少なくとも1つの位置に
予め定められた少なくとも1つの画像フィルタを適用す
ることによって得られる少なくとも1つのフィルタ出力
値を成分として有する、前記特徴量空間における特徴量
ベクトルをさらに求め、前記物体認識装置は、前記少な
くとも1つの第2の画像組についての前記特徴量空間に
おける少なくとも1つの特徴量ベクトルと、前記少なく
とも1つの第3の画像組についての前記特徴量空間にお
ける少なくとも1つの特徴量ベクトルとを識別するよう
に、前記識別パラメータを求める学習部をさらに備えて
いてもよい。
【0014】前記学習部は、前記特徴量空間よりも多い
次元数を有する仮の特徴量空間において、前記少なくと
も1つの第2の画像組についての特徴量ベクトルと、前
記少なくとも1つの第3の画像組についての特徴量ベク
トルとを識別するための平面の法線の向きに基づいて前
記仮の特徴量空間から少なくとも1つの次元を削除する
ことによって、前記特徴量空間を定義してもよい。
【0015】前記識別パラメータは、前記特徴量空間に
おける識別面を表し、前記判定部は、前記第1の特徴量
ベクトルが、前記識別面に対してどちらの側に位置する
かに基づいて、前記第1の対象物が前記特定のカテゴリ
に属するか否かを判定してもよい。
【0016】前記判定部は、前記第1の特徴量ベクトル
と、前記識別面との距離が所定の閾値以上である場合
に、前記第1の対象物が前記特定のカテゴリに属すると
判定してもよい。
【0017】前記予め定められた少なくとも1つの画像
フィルタのそれぞれは方位選択性と、位置選択性と、空
間周波数選択性とを有していてもよい。
【0018】前記第1の画像は、前記第1の対象物から
放射または反射される第1の波長帯域の光の強度を表
し、前記第2の画像は、前記第1の対象物から放射また
は反射される前記第1の波長帯域とは異なる第2の波長
帯域の光の強度を表してもよい。
【0019】前記入力部は、前記第1の対象物を前記第
1の属性を用いて表現する第5の画像と、前記第1の対
象物を前記第2の属性を用いて表現する第6の画像とを
さらに入力し、前記入力部は、前記第1の画像と前記第
2の画像とが第1の時刻に撮影され、前記第5の画像と
前記第6の画像とが前記第1の時刻から所定の時間の後
に撮影されるように構成されていてもよい。
【0020】前記入力部は、前記第1の画像が第1の場
所から撮影され、前記第2の画像が前記第1の場所とは
異なる第2の場所から撮影されるように構成されていて
もよい。
【0021】前記入力部は、前記第1の対象物を前記第
1の属性を用いて表現する第5の画像と、前記第1の対
象物を前記第2の属性を用いて表現する第6の画像とを
さらに入力し、前記入力部は、前記第1の画像と前記第
2の画像とが第1の場所から撮影され、前記第5の画像
と前記第6の画像とが前記第1の場所とは異なる第2の
場所から撮影されるように構成されていてもよい。
【0022】本発明の方法は、物体を認識する方法であ
って、(a)2以上の所定の数の画像からなる第1の画
像組を入力するステップであって、前記第1の画像組
は、第1の対象物を前記第1の属性を用いて表現する第
1の画像と、前記第1の対象物を前記第2の属性を用い
て表現する第2の画像とを含む、ステップと、(b)前
記第1の画像組について、前記所定の数の画像のうち予
め定められた少なくとも1つの位置に予め定められた少
なくとも1つの画像フィルタを適用することによって得
られる少なくとも1つのフィルタ出力値を成分として有
する、特徴量空間における第1の特徴量ベクトルを求め
るステップと、(c)前記第1の特徴量ベクトルと所定
の識別パラメータとの関係に基づいて、前記第1の対象
物が前記特定のカテゴリに属するか否かを判定するステ
ップとを包含し、これにより、上記目的が達成される。
【0023】本発明のプログラムは、コンピュータに物
体認識処理を実行させるためのプログラムであって、前
記物体認識処理は、(a)2以上の所定の数の画像から
なる第1の画像組を入力するステップであって、前記第
1の画像組は、第1の対象物を前記第1の属性を用いて
表現する第1の画像と、前記第1の対象物を前記第2の
属性を用いて表現する第2の画像とを含む、ステップ
と、(b)前記第1の画像組について、前記所定の数の
画像のうち予め定められた少なくとも1つの位置に予め
定められた少なくとも1つの画像フィルタを適用するこ
とによって得られる少なくとも1つのフィルタ出力値を
成分として有する、特徴量空間における第1の特徴量ベ
クトルを求めるステップと、(c)前記第1の特徴量ベ
クトルと所定の識別パラメータとの関係に基づいて、前
記第1の対象物が前記特定のカテゴリに属するか否かを
判定するステップとを包含し、これにより、上記目的が
達成される。
【0024】本発明の記録媒体は、コンピュータに物体
認識処理を実行させるためのプログラムを記録したコン
ピュータ読み取り可能な記録媒体であって、前記物体認
識処理は、(a)2以上の所定の数の画像からなる第1
の画像組を入力するステップであって、前記第1の画像
組は、第1の対象物を前記第1の属性を用いて表現する
第1の画像と、前記第1の対象物を前記第2の属性を用
いて表現する第2の画像とを含む、ステップと、(b)
前記第1の画像組について、前記所定の数の画像のうち
予め定められた少なくとも1つの位置に予め定められた
少なくとも1つの画像フィルタを適用することによって
得られる少なくとも1つのフィルタ出力値を成分として
有する、特徴量空間における第1の特徴量ベクトルを求
めるステップと、(c)前記第1の特徴量ベクトルと所
定の識別パラメータとの関係に基づいて、前記第1の対
象物が前記特定のカテゴリに属するか否かを判定するス
テップとを包含し、これにより、上記目的が達成され
る。
【0025】以下、作用を説明する。
【0026】本発明によれば、認識のために入力される
画像組(第1の画像組)は、対象物(第1の対象物)を
第1の属性を用いて表現する第1の画像と、その対象物
を第1の属性とは異なる第2の属性を用いて表現する第
2の画像とを含む。対象物が特定のカテゴリに属するか
否かの判定は、第1の属性と第2の属性とに基づいて行
われるので、対象物の認識の信頼度が高くなる。さら
に、その所定の数の画像の予め定められた位置に予め定
められた画像フィルタを適用することによって得られる
フィルタ出力値を成分として有する特徴量空間内の特徴
量ベクトルが求められ、画像組は、この特徴量ベクトル
によって表される。この処理には、第1の画像の領域と
第2の画像の領域とを対応付ける処理は必要でないの
で、対象物の認識を行うための初期設定が容易であり、
認識結果は、環境条件の影響を受けにくい。
【0027】
【発明の実施の形態】はじめに、図1〜図5を参照し
て、本発明の原理を説明する。
【0028】図1は、本発明の物体認識方法の全体の処
理手順を示す。本発明の物体認識方法は、学習処理10
01(ステップS1001a〜S1001c)と、認識
処理1002(ステップS1002a〜S1002c)
とを含む。以下、本発明の物体認識方法が人間を認識す
るために適用される場合を例に挙げて本発明の物体認識
方法の手順を説明する。図1に示される物体認識方法
は、図6を参照して後述する物体認識装置1によって実
行される。
【0029】ステップS1001a:学習用の画像組が
物体認識装置1に入力される。以下の説明において、画
像組とは、特に断らない限り、同一の対象物の可視光画
像と遠赤外光画像との2枚の画像からなる組をいう。学
習用の画像組は、人間(「人間」というカテゴリに属す
る第2の対象物)を表現する少なくとも1つの画像組
(第2の画像組)と、その第2の画像組以外の少なくと
も1つの画像組(人間以外の対象物を表現する画像組、
第3の画像組)とを含む。ステップS1001aにおい
て、複数の学習用の画像組が入力される。
【0030】ステップS1001b:ステップS100
1aで入力された複数の学習用の画像組のそれぞれにつ
いて、特徴量ベクトルが求められる。1つの画像組から
の特徴量ベクトルの算出は、図2Aおよび図2Bを参照
して後述される。この特徴量ベクトルは、特徴量空間に
おける1つの点とみなすことができる。
【0031】ステップS1001c:少なくとも1つの
第2の画像組についての特徴量ベクトルと、少なくとも
1つの第3の画像組についての特徴量ベクトルとを識別
(分離)するように、特徴量空間における識別面が求め
られる。識別面の算出は、図4を参照して後述される。
【0032】ステップS1002a:認識用の画像組
(第1の画像組)が物体認識装置1に入力される。
【0033】ステップS1002b:ステップS100
2aで入力された認識用の画像組のそれぞれについて、
特徴量ベクトルが求められる。
【0034】ステップS1002c:認識用の画像組の
対象物(第1の対象物)が、「人間」という特定のカテ
ゴリに属するか否かが判定される。この判定は、ステッ
プS1001cで求められた識別面と、ステップS10
02bで求められた特徴量ベクトルとの位置関係に基づ
いてなされる。
【0035】学習処理1001は、学習用の画像組か
ら、識別面(識別パラメータ)を求める処理である。こ
の識別面は、認識処理1002において、認識用の画像
組によって表現される対象物が特定のカテゴリに属する
か否かの判定のための判定基準として用いられる。
【0036】図2Aは、ステップS1001a(図1)
において入力される画像組610〜613(少なくとも
1つの第2の画像組)を示す。画像組610〜613の
それぞれは、人間の可視光画像と、その同じ人間の遠赤
外光画像との2枚の画像を含む。図2Aに示される例で
は、画像組610は、可視光画像601(第3の画像)
と、遠赤外光画像602(第4の画像)とを含む。な
お、可視光画像とは、その画像の対象物から放射または
反射される可視光線(波長380〜800nmの波長帯
域の光線)の強度を表す画像であり、遠赤外光画像と
は、その画像の対象物から放射また反射される遠赤外光
線(波長8〜10μmの波長帯域の光線)の強度を表す
画像である。可視光画像は、対象物から放射または反射
される可視光線の強度(輝度)という対象物の属性を用
いて対象物を表現し、遠赤外光画像は、対象物から放射
または反射される遠赤外光線の強度という対象物の属性
を用いて対象物を表現しているということができる。
【0037】画像601の対象物621と、画像602
の対象物622とは、同一の対象物(同一の人物)であ
る。画像組611に含まれる可視光画像と遠赤外光画像
との対象物も同一の対象物である。しかし、画像組61
0〜画像組611の間で、対象物が同一である必要はな
い。画像組610〜画像組611の間で、対象物は同一
のカテゴリ(この例では、「人間」というカテゴリ)に
属してさえいればよい。
【0038】図2Aには、ステップS1001a(図
1)において入力される第2の画像組が4組示されてい
る(画像組610〜613)が、ステップS1001a
(図1)において入力される第2の画像組の数はこれに
限定されない。
【0039】図2Bは、ステップS1001a(図1)
において入力される画像組660〜663(少なくとも
1つの第3の画像組)を示す。画像組660〜663の
それぞれは、人間以外の対象物の可視光画像と、その同
じ対象物の遠赤外光画像との2枚の画像を含む。図2B
に示される例では、画像組660は、画像651(可視
光画像)と、画像652(遠赤外光画像)とを含む。画
像651は、画像601(図2A)と同一のサイズを有
し、画像652は、画像602(図2A)と同一のサイ
ズを有しているものとする。
【0040】再び図2Aを参照して、ステップS100
1b(図1)において、画像組についての特徴量ベクト
ルを求める処理を説明する。
【0041】画像601の2つの位置631および63
2のそれぞれに、2種類の画像フィルタ(画像フィルタ
Aおよび画像フィルタB、図示せず)を適用すること仮
定する。画像フィルタAと画像フィルタBとは、例え
ば、異なる特性を有する画像フィルタである。画像フィ
ルタの具体例は、図3を参照して後述される。図2Aに
おいて、位置631および632が矩形で示されてい
る。この矩形は、画像フィルタAおよび画像フィルタB
のサイズを表している。ここでは、画像フィルタAおよ
び画像フィルタBは等しいサイズを有するものとする。
【0042】1つの画像フィルタを画像601の1つの
位置に適用することによって1つのスカラー値(フィル
タ出力値)が生成される。図2Aに示される例では、画
像601の2つの位置631および632のそれぞれに
画像フィルタAおよびBを適用することによって、4つ
のフィルタ出力値(10、3、11および5)が生成さ
れている。具体的には、位置631および位置632に
画像フィルタAを適用することによって、フィルタ出力
値「10」および「3」がそれぞれ生成され、位置63
1および位置632に画像フィルタBを適用することに
よってフィルタ出力値「11」および「5」がそれぞれ
生成される。
【0043】同様に、画像602の2つの位置633お
よび634のそれぞれに、上述した画像フィルタAおよ
びBを適用することによって、4つのフィルタ出力値
(1、7、11および4)が生成されている。
【0044】画像601についての4つのフィルタ出力
値(10、3、11および5)と、画像602について
の4つのフィルタ出力値(1、7、11および4)とを
結合することによって、画像組610についての特徴量
ベクトル(10,3,11,5,1,7,11,4)が
算出される。このようにして、フィルタ出力値を用いて
可視光画像の情報と遠赤外光画像の情報とが統合され
る。
【0045】図2Aに示される画像組611〜613に
ついても同様にして特徴量ベクトルが算出される。特徴
量ベクトルは、フィルタ出力値を成分として有する。こ
の特徴量ベクトルは、8次元の特徴量空間における1つ
の点とみなすことができる。
【0046】図2Bに示される画像組660について
も、同様にして特徴量ベクトルが算出される。具体的に
は、画像651の2つの位置681および682のそれ
ぞれに上述した画像フィルタAおよび画像フィルタBを
適用することによって、4つのフィルタ出力値(8、
9、0および2)が生成される。画像652の2つの位
置683および684のそれぞれに上述した画像フィル
タAおよび画像フィルタBを適用することによって、4
つのフィルタ出力値(9、12、10および4)が生成
される。画像651についての4つのフィルタ出力値
(8、9、0および2)と、画像652についての4つ
のフィルタ出力値(9、12、10および4)とを結合
することによって、画像組660についての特徴量ベク
トル(8,9,0,2,9,12,10,4)が算出さ
れる。図2Bに示される画像組661〜663について
も同様にして特徴量ベクトルが算出される。
【0047】適用される画像フィルタと、その画像フィ
ルタが適用される位置とは予め定められている。本発明
の1つの実施形態において、適用される画像フィルタ
と、その画像フィルタが適用される位置とは、図12を
参照して後述する特徴量次元の削除処理を通じて決定さ
れる。図2Aおよび図2Bに示される例では、画像組6
10(図2A)に適用される画像フィルタAおよびBと
同一の画像フィルタが、画像組660(図2B)にも適
用される。位置631および632の画像601に対す
る位置関係は、それぞれ、位置681および682の画
像651に対する位置関係に等しい。なお、1つの画像
中の画像フィルタが適用される位置の数は、2に限定さ
れない。また、1つの画像中の1つの位置に適用される
画像フィルタの数も、2に限定されない。
【0048】このように、ステップ1001b(図1)
において、複数の画像組(図2Aに示される画像組61
0〜613および図2Bに示される画像組660〜66
3)のそれぞれについて、2枚の画像のうち予め定めら
れた少なくとも1つの位置に予め定められた少なくとも
1つの画像フィルタを適用することによって得られる少
なくとも1つのフィルタ出力値を成分とする、特徴量空
間における特徴量ベクトルが求められる。
【0049】図3は、画像351に画像フィルタ354
を適用する例を示す。図3に示される例では、画像35
1の位置353に、画像フィルタ354が適用される。
図3には、画像351の部分352の拡大図が示されて
いる。この拡大図において、部分352の輪郭を表す矩
形の内部の値は、画像351に含まれる画素の値を示
す。
【0050】図3に示される例では、画像フィルタ35
4は、3×3のサイズを有している。画像フィルタ35
4を表す矩形の内部の値は、9個のフィルタ係数を示
す。画像351の位置353に画像フィルタ354を適
用することによって得られるフィルタ出力値は、画像フ
ィルタ354のフィルタ係数と、そのフィルタ係数に対
応する画素の値との積を画像フィルタ354の9個のフ
ィルタ係数について合計した値である。この例では、フ
ィルタ出力値は、765である。フィルタ出力値を求め
る演算をフィルタ演算という。フィルタ演算により、画
像の局所的な特性情報がフィルタ出力値として抽出され
る。
【0051】図4は、ステップ1001b(図1)にお
いて各画像組について求められた特徴量ベクトルを特徴
量空間701にプロットした状態を示す。ただし、図4
に示される例では、説明のために、特徴量空間701は
2次元の空間(すなわち、平面)として表されている。
特徴量空間701は、2個の次元、すなわち、特徴量次
元1と特徴量次元2とによって定義されている。特徴量
ベクトルは、特徴量空間701における1つの点として
表される。図4において、○印のそれぞれは、人間を表
現する画像組(第2の画像組)についての特徴量ベクト
ルを表し、×印のそれぞれは、人間以外の対象物を表現
する画像組(第3の画像組)についての特徴量ベクトル
を表す。以下、人間を表現する画像組についての特徴量
ベクトルを単に、「人間を表現する特徴量ベクトル」と
呼び、人間以外の対象物を表現する画像組についての特
徴量ベクトルを単に、「人間以外の対象物を表現する特
徴量ベクトル」と呼ぶことがある。
【0052】識別直線702(識別平面)は、ステップ
1001c(図1)において、○印によって表される特
徴量ベクトルと、×印によって表される特徴量ベクトル
とを識別するように定められる。図4に示される例で
は、○印によって表される特徴量ベクトルはすべて識別
直線702の上側(矢印703の側、第1の側)にあ
り、×印によって表される特徴量ベクトルはすべて識別
直線702の下側(矢印704の側、第2の側)にあ
る。識別直線702は、例えば、サポートベクトルマシ
ンの手法を用いて定められ得る。サポートベクトルマシ
ンの手法については、例えば、文献:V.Vapni
c、”The Nature of Statisti
cal Learning Theory”、 Spr
inger Verlag、1995年を参照された
い。識別直線702は、あるいは、線形パーセプトロン
の学習または判別分析法等の手法を用いて定められても
よい。学習アルゴリズムには、統計的パラメータ推定法
およびニューラルネットワーク等のノンパラメトリック
な学習アルゴリズムが採用され得る。
【0053】図4に示される例では、2次元の特徴量空
間701において、識別直線702が、人間を表現する
画像組(第2の画像組)についての特徴量ベクトルと、
人間以外の対象物を表現する画像組(第3の画像組)に
ついての特徴量ベクトルとを識別(分離)している。人
間を表現する画像組(第2の画像組)についての特徴量
ベクトルと、人間以外の対象物を表現する画像組(第3
の画像組)についての特徴量ベクトルとが、n次元(n
≧2)の特徴量空間において表される場合には、それら
の特徴量ベクトルは、識別平面によって識別される。n
次元の特徴量空間が、次元x1、次元x2、...、およ
び次元xnによって定義される場合には、その識別平面
は、(数1)によって表される。
【0054】
【数1】a11+a22+...+ann+d=0 以下、本明細書中で「平面」とは、n次元(n≧2)の
特徴量空間において(数1)の関係を満たす点(x1
2,...,xn)の集合をいう。n=2の場合には、
(数1)は直線を表すが、この直線は上記の「平面」の
定義に含まれる。
【0055】図5は、ステップ1002a(図1)にお
いて入力される認識用の画像組(第1の画像組)510
の例を示す。画像組510は、対象物521を表現する
可視光画像501と、対象物522を表現する遠赤外光
画像502とを含む。対象物521と、対象物522と
は、同一の対象物(第1の対象物)である。
【0056】ステップS1002b(図1)において、
画像組510についての特徴量空間における特徴量ベク
トル(第1の特徴量ベクトル)が算出される。図5に示
される例では、画像組510についての特徴量ベクトル
は、(9,4,12,6,1,6,14,3)として算
出されている。この特徴量ベクトルの算出は、図2Aを
参照して上述した画像組610についての特徴量ベクト
ルの算出と同様にして行われる。すなわち、ステップS
1002bにおいて、画像組510について、2個の画
像(画像501および502)のうち、予め定められた
少なくとも1つの位置に予め定められた少なくとも1つ
の画像フィルタ(画像フィルタAおよびB)を適用する
ことによって得られる少なくとも1つのフィルタ出力値
を成分として有する、特徴量空間における特徴量ベクト
ル(第1の特徴量ベクトル)が求められる。
【0057】図4に示される●印は、特徴量空間701
にプロットされた第1の特徴量ベクトルを示す。ただ
し、図4には、説明のために、第1の特徴量ベクトルを
8次元の特徴量ベクトルとしてではなく、2次元の特徴
量ベクトル(2,10)として表している。
【0058】ステップS1002c(図1)では、●印
により示される第1の特徴量ベクトルと、識別直線70
2との特徴量空間701における位置関係に基づいて、
画像組510(図5)が表現する対象物が人間であるか
否かが判定される。図4に示される例では、●印により
示される特徴量ベクトルは、識別直線702の上側(矢
印703の側)にある。識別直線702の矢印703の
側は、人間を表現する画像組についての特徴量ベクトル
が位置する側であるので、画像組510(図5)が表現
する対象物が人間であると判定される。
【0059】このようにして、図1に示される本発明の
方法によれば、画像組510(図5)が表現する第1の
対象物(画像組510の可視光画像501と遠赤外光画
像502との共通の対象物)が人間であることが認識さ
れる。第1の対象物が「人間」というカテゴリに属する
か否かの判定は、対象物が反射または放射する可視光線
の強度(第1の属性)と、その対象物が反射または放射
する遠赤外光線の強度(第2の属性)とに基づいて行わ
れるので、対象物の認識の信頼度が高くなる。さらに、
その画像501および画像502の予め定められた位置
に予め定められた画像フィルタを適用することによって
得られるフィルタ出力値を成分として有する特徴量空間
内の特徴量ベクトルが求められ、画像組510は、この
特徴量ベクトルによって代表される。この処理には、画
像501の領域と第2の画像502の領域とを対応付け
る処理は必要でないので、第1の対象物の認識を行うた
めの初期設定が容易になり、かつ、認識の結果が環境条
件の影響を受けにくくなる。
【0060】以下、図面を参照して本発明の実施の形態
を説明する。同一の構成要素には同一の参照番号を付
し、重複した記載を省略する場合がある。
【0061】図6は、本発明の実施の形態の物体認識装
置1の構成を示す。
【0062】物体認識装置1は、遠赤外光カメラ100
と、可視光カメラ110と、学習用画像データ(学習用
の画像組)を格納する記憶装置120と、画像に画像フ
ィルタを作用させるフィルタ処理部125と、学習処理
部130と、遠赤外光カメラ100および可視光カメラ
110によって取得された画像組が表す対象物が特定の
カテゴリに属するか否か(例えば、その対象物が人間か
否か)を判定する認識処理部140と、その判定の際に
判定基準として用いられる識別パラメータを記憶する識
別パラメータ記憶部150と、ワークメモリ160と、
認識結果を表示する表示部170とを含む。物体認識装
置1の各構成要素は、内部バスを介して相互に接続され
てもよいし、ネットワークを介して相互に接続されても
よい。そのようなネットワークは、無線ネットワーク、
有線ネットワーク、電話回線ネットワーク等の任意のネ
ットワークを含み得る。そのようなネットワークは、イ
ンターネットを含んでもよい。
【0063】遠赤外光カメラ100は、遠赤外光画像を
撮影し、可視光カメラ110は、可視光画像を撮影す
る。本発明の実施の形態では、可視光画像として、輝度
画像が用いられた。
【0064】物体認識装置1は、例えば、屋外における
侵入者の監視システムや、自動車等の移動体に搭載され
る歩行者の検出システムや、移動ロボットに搭載される
視覚システムに適用され得る。
【0065】上述したように、物体認識装置1は、全体
として、図1に示される学習処理および認識処理を行
う。
【0066】可視光カメラ110と、遠赤外光カメラ1
00とは、ステップS1001a(図1)における学習
用の画像組の入力処理と、ステップS1002a(図
1)における、認識用の画像組(第1の画像組)の入力
処理とを行う。可視光カメラ110と、遠赤外光カメラ
100とは、学習用の画像組と認識用の画像組とを物体
認識装置1に入力する入力部190として機能する。も
ちろん、学習用の画像組を物体認識装置に入力する可視
光カメラおよび遠赤外光カメラと、認識用の画像組を物
体認識装置に入力する可視光カメラおよび遠赤外光カメ
ラとがそれぞれ別に設けられていてもよい。
【0067】学習用の画像組は、人間の対象物を表現す
る画像組(第2の画像組)と、人間以外の対象物を表現
する画像組(第3の画像組)とに区分されて、学習用画
像データとしていったん記憶装置120に蓄積される。
記憶装置120は、例えば、ハードディスクであり得
る。あるいは、記憶装置120は、任意のメモリであり
得る。
【0068】フィルタ処理部125は、ステップS10
01b(図1)およびステップS1002b(図1)に
おける特徴ベクトルの算出を行う。フィルタ処理部12
5(特徴量ベクトル算出部)は、例えば、デジタルシグ
ナルプロセッサであり得る。
【0069】学習処理部130(学習部)は、ステップ
S1001c(図1)における、識別面を求める処理を
行う。
【0070】認識処理部140(判定部)は、ステップ
S1002c(図1)における、認識用の画像組の対象
物が特定のカテゴリ「人間」に属するか否かを判定する
処理を行う。
【0071】表示部170は、認識処理部140におけ
る認識の結果を表示する。表示部170としては、任意
の表示デバイスが用いられ得る。表示部170は、省略
されてもよい。
【0072】図7Aは、遠赤外光カメラ100と可視光
カメラ110との配置の例を示す。図7Aに示される例
では、遠赤外光カメラ100と、可視光カメラ110と
が並列に配置されている。
【0073】図7Bは、遠赤外光カメラ100と可視光
カメラ110との配置の他の例を示す。図7Bに示され
る例では、コールドミラー802で反射した可視光カメ
ラ110の光軸が遠赤外光カメラ100の光軸にそろう
ように、遠赤外光カメラ100と可視光カメラ110と
が配置されている。コールドミラーとは、可視光を反射
し、遠赤外光を透過する性質を有するミラーである。
【0074】遠赤外光カメラ100の機能と可視光カメ
ラ110の機能とが1つのカメラによって実現されても
よい。
【0075】図7Cは、遠赤外光カメラ100と可視光
カメラ110とに代えて、その両方の機能を併せ持つ可
視光・遠赤外光カメラ210が用いられる例を示す。可
視光・遠赤外光カメラ210は、エリアセンサを用いて
遠赤外光カメラの機能と可視光カメラの機能とを実現し
ている。
【0076】図8Aは、可視光カメラ110によって撮
影された、人間の対象物を表現する可視光画像803の
例を示す。
【0077】図8Bは、遠赤外光カメラ100によって
撮影された、人間の対象物を表現する遠赤外光画像80
4の例を示す。遠赤外光画像804は、図8Aに示され
る可視光画像803と同一の対象物をほぼ同一の時刻に
撮影することによって得られる。
【0078】図9Aは、可視光カメラ110によって撮
影された、人間以外の対象物(木)を表現する可視光画
像805の例を示す。
【0079】図9Bは、遠赤外光カメラ100によって
撮影された、人間以外の対象物(木)を表現する遠赤外
光画像806の例を示す。遠赤外光画像806は、図9
Aに示される可視光画像805と同一の対象物をほぼ同
一の時刻に撮影することによって得られる。
【0080】図8A、図8B、図9Aおよび図9Bに示
される可視光画像および遠赤外光画像は、画像組(学習
用の画像組または認識用の画像組)を構成する。可視光
画像および遠赤外光画像に同一の対象物が写ることが必
要であるが、可視光画像と遠赤外光画像との間で画素単
位で正確に位置合わせが行われている必要はない。例え
ば、可視光画像803(図8A)において、対象物は画
像の中心から左方向にずれており、遠赤外光画像804
(図8B)において、対象物は画像の中心から右方向に
ずれているが、本発明の学習処理および認識処理におい
て可視光画像803の領域と遠赤外光画像804の領域
とを対応付ける処理は必要でないので、このようなずれ
は問題にならない。従って、遠赤外光カメラ100およ
び可視光カメラ110の位置合わせが容易であり、物体
認識装置1の初期設定が容易である。ただし、学習用の
画像組と認識用の画像組とに含まれるすべての可視光画
像のスケール比(縦横比)が同じであり、対象物が同様
の位置に写っていることが必要である。これは、可視光
カメラ110により撮影される可視光画像から所定の領
域を切り出すことによって実現されてもよい。学習用の
画像組と認識用の画像組とに含まれる赤外光画像につい
ても同様である。
【0081】図10Aは、フィルタ処理部125(図
6)において用いられる画像フィルタの特性を模式的に
示す。図10Aに示される画像フィルタは、画像中の特
定の位置に適用された場合に、その特定の位置における
特定方向(垂直方向)の特定の空間周波数を有するエッ
ジ(図10Aに示される楕円形の横幅(短軸)の範囲内
で画素の値が順次変化するようなエッジ)を選択的に検
出する。
【0082】図10Bは、水平方向のエッジを選択的に
検出する画像フィルタの特性を模式的に示す。
【0083】図10Cは、左下から右上に延びるエッジ
を選択的に検出する画像フィルタの特性を模式的に示
す。
【0084】図10Dは、右下から左上に延びるエッジ
を選択的に検出する画像フィルタの特性を模式的に示
す。
【0085】図10A〜図10Dに示される画像フィル
タは、方位選択性(特定の方向のエッジのみを検出す
る)と位置選択性(特定の位置のエッジを検出する)と
空間周波数選択性(特定の空間周波数で画素の値が変化
するエッジを検出する)とを有するフィルタである。こ
こで、空間周波数とは、画像中の位置変化に対する画素
の値(例えば、輝度)の変化の度合いをいう。このよう
な特性を有する画像フィルタの例として、Gaborフ
ィルタが挙げられる。方位選択性と位置選択性と空間周
波数選択性とを有する画像フィルタを複数種類(選択性
が異なる複数の画像フィルタ)用いることによって、異
なる画像フィルタが同一のエッジに関する情報を重複し
て検出するという無駄を低減することができ、必要な画
像フィルタの数を減らすことができる。これにより、学
習処理1001および認識処理1002を実行するため
に必要な計算量を減らすことができる。その結果、属性
が異なる複数の画像(可視光画像と遠赤外光画像)を入
力することに起因する計算量の増加を最小限にとどめる
ことができる。
【0086】1つのフィルタ出力値は、画像の特定の位
置における特定方向の特定の空間周波数を有するエッジ
の情報を表す。フィルタ出力値を成分とする特徴量ベク
トルによって1つの画像組を表すことは、可視光画像と
遠赤外光画像との共通の対象物の形状をエッジの集まり
として簡易的に表現することに相当する。
【0087】図11A〜図11Dのそれぞれは、Gab
orフィルタのフィルタ係数の例を示す。図11A〜図
11Dに示される例において、各格子点は、13画素×
13画素のサイズを有するGaborフィルタの1つの
フィルタ係数に対応し、そのフィルタ係数の値(実数
部)は、各格子点の高さとして示されている。図11A
〜図11Dは、図10A〜図10Dに示される画像フィ
ルタにそれぞれ対応する。
【0088】以下、物体認識装置1が実行する学習処理
と認識処理との詳細な処理手順を説明する。
【0089】<学習処理>図12は、物体認識装置1が
実行する学習処理の詳細な手順を示す。ステップS91
は、ステップS1001aおよびステップS1001b
(図1)に対応しており、ステップS92〜ステップS
97は、ステップS1001c(図1)に対応してい
る。
【0090】ステップS91:人間を表現する画像組
(第2の画像組)と、人間以外の対象物を表現する画像
組(第3の画像組)とをそれぞれ複数用意し、各画像組
について特徴量ベクトルを求める。ステップS91にお
いて求められた特徴量ベクトルの集合を特徴量データF
と呼ぶ。ステップS91のさらに詳細な処理手順は、図
15および図16を参照して後述される。以下の説明で
は、ステップS91において、各画像組から1032次
元の特徴量ベクトルが算出されることを仮定する(本発
明はこれに限定されない)。この特徴量ベクトルは、1
032個の特徴量次元、特徴量次元x1、特徴量次元
2、特徴量次元x3、...、特徴量次元x1 032によっ
て定義される空間内の1つの点として表される。
【0091】ステップS92:特徴量次元のうち、学習
に用いる特徴量次元が指定される。最初は全ての次元を
指定する。この例では、1回目は、特徴量次元x1、特
徴量次元x2、特徴量次元x3、...、特徴量次元x
1032の全てが、学習に用いる特徴量次元として指定され
る。2回目以降は、後述するステップS94で除かれた
残りの次元が学習に用いる特徴量次元として指定され
る。ステップS92〜ステップS96の処理を繰り返す
ことによって、特徴量空間の次元数が減っていく。これ
を、「特徴量次元の削除処理」と呼ぶ。
【0092】ステップS93:指定された特徴量次元を
用いてより低次元の特徴量空間を定義し(ただし、最初
は1032次元の特徴量空間が定義される)、特徴量デ
ータFに含まれる各特徴量ベクトルが、このより低次元
の特徴量空間における特徴量ベクトルとして表される。
このより低次元の特徴量空間における特徴量ベクトル
は、特徴量データFに含まれる1032次元の特徴量ベ
クトルの成分のうち、ステップS92で指定された特徴
量次元に対応する成分のみから構成される、より低次元
の特徴量ベクトルとして表される。特徴量ベクトルの1
つの成分は、画像における1つの位置における1つのフ
ィルタ出力値に対応しているので、このより低次元の特
徴量ベクトルも、画像組における2つの画像の少なくと
も1つの予め定められた位置に予め定められた1つの画
像フィルタを適用することによって得られる少なくとも
1つのフィルタ出力値を成分として有する。
【0093】次に、このより低次元の特徴量空間におい
て、人間を表現する画像組についての特徴量ベクトル
と、人間以外の対象物を表現する画像組についての特徴
量ベクトルとを識別(分離)する識別平面が、仮識別平
面として決定される。
【0094】識別平面に対する特徴量ベクトルの位置
は、特徴量ベクトルの各特徴量次元に対応する成分を識
別平面の各特徴量次元に対応する係数で重み付けして足
し合わせた値(重み付け和)により表現できる。例え
ば、3次元空間における識別平面がx+2y+3z=0
と表され、特徴量ベクトルが(x,y,z)=(−1,
0,4)の場合を考える。特徴量ベクトル(−1、0、
4)の各成分を識別平面の各特徴量次元の係数(1、
2、3)で重み付けして足し合わせると、1×(−1)
+2×0+3×4=11という値が得られる。この値
は、特徴量ベクトル(−1,0,4)と、識別平面との
距離を表す。この値の符号および大小で識別平面に対す
る特徴量ベクトルの位置関係を表すことができる。
【0095】特徴量空間内に2つのカテゴリに属する点
が分布する場合に、カテゴリを分けるような識別平面
(仮識別平面)を決定する手法としては、上述したよう
に、サポートベクトルマシンの手法等が用いられ得る。
【0096】このような手法を用いて、特徴量空間内に
おいて人間を表現する画像組についての特徴量ベクトル
と、人間以外の対象物を表現する画像組についての特徴
量ベクトルとを分離する識別平面が仮識別平面として決
定される。分離は必ずしも完全である必要はなく、一部
の特徴量ベクトル(例えば、人間を表現する画像組につ
いての特徴量ベクトル)が識別平面を越えて(人間を表
現しない画像組についての特徴量ベクトルの側に)分布
する配置(誤識別)になっていてもかまわない。ただ
し、誤識別の特徴量ベクトルの個数は少ない方がよい。
誤識別の特徴量ベクトルが少なくなるように識別平面の
決定手法が複数の手法のうちから選択されてもよい。
【0097】ステップS94:ステップS92で指定さ
れた特徴量次元に対応する座標軸のうち、ステップS9
3で決定した仮識別平面とのなす角度の絶対値が小さい
座標軸から順にd個の座標軸が、ステップS92で指定
した特徴量次元(学習に用いる特徴量次元)から除かれ
る。dの値は予め定められた1以上の整数とする。
【0098】例えば、3次元の特徴量空間(座標軸をx
yzとする)において、仮識別平面がx+2y+3z=
0と表される場合、この仮識別平面とx、y、z軸のな
す角度の絶対値は、x軸、y軸、z軸の順に大きくな
る。この場合、d=1とするとx軸に対応する特徴量次
元が、学習に用いる特徴量次元から除かれる。各座標軸
と識別平面とのなす角度に注目することに代えて、各座
標軸と識別平面の法線とのなす角度δに注目し、δの絶
対値の大きいものからd個の座標軸を除いても同様の結
果が得られる。識別平面の法線の向きは、仮識別平面を
表す式の係数を成分として有する法線ベクトルによって
表される。例えば、仮識別平面x+2y+3z=0の法
線の向きは、法線ベクトル(1,2,3)によって表さ
れる。
【0099】再び図4を参照して、特徴量次元を学習に
用いる特徴量次元から除くことの意味を説明する。
【0100】図4において、特徴量次元1に対応する軸
(横軸)が識別直線(識別平面)702となす角度は、
特徴量次元2に対応する軸(縦軸)が識別直線(識別平
面)702となす角度よりも小さい。このことは、特徴
量次元1は、人間を表現する画像組についての特徴量ベ
クトルと人間以外の対象物を表現する画像組についての
特徴量ベクトルとを識別(分離)するために、特徴量次
元2よりも重要でないことを意味する。すなわち、特徴
量次元2の値(フィルタ出力値)が、対象物が人間であ
るか否かの判定に大きく影響する。図4に示される例で
は、ステップS94(図12)において、特徴量次元1
と特徴量次元2とのうち、特徴量次元1が削除される。
【0101】1つの特徴量次元の値は、画像組に含まれ
る1つの可視光画像または遠赤外光画像の1つの位置に
おける1つのフィルタ出力値に対応する。このように、
識別直線(または識別平面)を求めることによって、可視
光画像から得た複数のフィルタ出力と遠赤外光画像から
得た複数のフィルタ出力とのうち、どの特徴量次元(フ
ィルタ出力)が重要であるかを決定することができる。
ステップS94(図12)は、重要でない特徴量次元
(識別に寄与しない特徴量次元)を学習に用いる特徴量
次元から削除することを意味する。図12に戻って学習
処理の詳細な処理手順の説明を続ける。
【0102】ステップS95:d個の座標軸を減らした
特徴量空間を設定し、新たに設定した特徴量空間におい
て識別性能の評価を行う。この評価は、ステップS94
でd個の座標軸(特徴量次元)を除くことによって新たに
定義されたより低次元の特徴量空間において、特徴量デ
ータFに含まれる、人間を表現する特徴量ベクトルと人
間以外の対象物を表現する特徴量ベクトルとをどれだけ
正確に識別(分離)できるかを調べることによって行わ
れる。ステップS95のさらに詳細な処理手順は、図1
7を参照して後述される。
【0103】ステップS96:識別性能が基準値を満た
すか否かが判定される。ステップS96の判定の結果が
「No」である場合には、処理はステップS97に進
む。ステップS96の判定の結果が「Yes」である場
合には、処理はステップS92に戻る(さらに特徴量次
元の削除が行われる)。
【0104】ステップS97:ステップS93で用いら
れた特徴量次元が選択次元として指定される。また、ス
テップS93で求めた仮識別平面が、識別平面として指
定される。この識別平面は、後に行われる認識処理にお
いて判定基準として使用される。識別平面は、ステップ
S97で選択次元として指定された特徴量次元によって
定義される空間(特徴量空間)における平面である。な
お、ステップS96において、初回は無条件にステップ
S92に移行するようにしてもよい。
【0105】このように、ステップS92〜ステップS
96において、学習処理部130(図6)は、認識処理
において用いられる特徴量空間よりも多い次元数を有す
る仮の特徴量空間において、人間を表現する画像組(第
2の画像組)についての特徴量ベクトルと、人間以外の
対象物を表現する画像組(第3の画像組)についての特
徴量ベクトルとを識別するための平面(仮識別平面)の
法線の向きに基づいて、仮の特徴量空間から少なくとも
1つの次元を削除することによって、認識処理において
用いられる特徴量空間を定義する。
【0106】ステップS97において、1032個の特
徴量次元、特徴量次元x1、特徴量次元x2、特徴量次元
3、...、特徴量次元x1032のうち、m個(mは1
032以下の整数)の特徴量次元、特徴量次元xa1、特
徴量次元xa2、特徴量次元x a3、...、特徴量次元x
am(添え字a1、a2、a3、...amは、1以上1
032以下の整数)が選択次元として指定されることを
仮定すると、選択次元のリスト(特徴量次元xa1,特徴
量次元xa2,特徴量次元xa3,...,特徴量次元
am)は、画像組に含まれる可視光画像と遠赤外光画像
とに適用されるどのフィルタ出力が、後に行われる認識
処理において用いられるかを示す。すなわち、選択次元
のリストは、可視光画像の情報と遠赤外光画像の情報の
組み合わせ方を規定しているということができる。
【0107】ステップS97で決定された識別平面は、
選択次元のリストと、その選択次元についての係数とに
より表される。これらの識別平面を表すパラメータは、
識別パラメータ記憶部150(図6)に格納される。
【0108】上述した処理手順において、ステップS9
5を省略し、ステップS96の判断を削除された特徴量
次元の数が予め定めた値に達したか否かの判断に置き換
えてもよい。すなわち、特徴量次元の削除数が予め定め
た数に達した場合にはステップS97に進み、予め定め
た回数に達しない場合はステップS92に進むようにし
てもよい。このような処理を行うことで、特徴量次元数
を予め定めた値に設定することができる。
【0109】なお、ステップS94において用いられる
値dを大くすると、ステップS92〜ステップS96ま
での手順の繰り返し回数を少なくすることができ、計算
量を低減することができる。一方、dの値を小さくする
と、一度に多くの特徴量次元を削除することがないの
で、望ましい識別性能を実現するために必要十分な数の
特徴量次元を選択次元として決定することが可能にな
る。
【0110】なお、後に行われる認識処理において、ス
テップS97で決定された識別平面とは異なる識別面
(平面に限定されない)が、判定基準(識別パラメー
タ)として用いられてもよい。そのような識別面は、選
択次元によって定義される空間内で人間を表す特徴量ベ
クトルと人間以外の対象物を表す特徴量ベクトルとを識
別するように設定される。選択次元によって定義される
空間内で人間を表す特徴量ベクトルと人間以外の対象物
を表す特徴量ベクトルとを識別する任意の識別手法およ
びその識別手法において用いられる識別パラメータが、
後に行われる認識処理において、対象物が人間であるか
否かを判定するために採用され得る。
【0111】後に行われる認識処理において、線形な識
別手法が採用されてもよいし、非線形な識別手法が採用
されてもよい。線形な識別手法とは、例えば、ステップ
S97で決定された、識別パラメータによって表される
識別平面のどちら側に対象物を表現する特徴量ベクトル
があるかに基づいて、対象物が人間であるか否かを判定
する手法である。非線形な識別手法の例としては、k−
NN法、非線型素子を用いたパーセプトロン、LVQ、
非線型SVM等が挙げられる。以下、図13A〜図13
Cを参照して、非線型な識別手法の例を説明する。
【0112】図13Aは、曲面の識別面を用いた識別手
法を説明する図である。空間1380は、選択次元によ
って定義される特徴量空間である。図13Aには、空間
1380は、特徴量次元1と特徴量次元2との2つの選
択次元によって定義される平面として示されており、識
別面1361は、曲線として示されている。図13Aお
よび後述する図13B、図13Cにおいて、○印のそれ
ぞれは、人間を表現する特徴量ベクトルを表し、×印の
それぞれは、人間以外の対象物を表現する特徴量ベクト
ルを表す。
【0113】識別面1361は、特徴量空間1380に
おいて、人間を表現する特徴量ベクトルと、人間以外の
対象物を表現する特徴量ベクトルとを識別する。この例
では、人間を表現する特徴量ベクトル(○印)は、識別
面1361の第1の側(矢印1362の側)に位置し、
人間以外の対象物表現する特徴量ベクトル(×印)は、
識別面1361の第2の側(矢印1363の側)に位置
する。識別面1361は、例えば、特徴量次元1と特徴
量次元2との値を変数とする式によって表され得る。こ
のような式の係数は、識別パラメータとして識別パラメ
ータ記憶部150(図6)に格納される。
【0114】点1364は、後に行われる認識処理にお
いて入力される画像組(認識用画像組)についての特徴
量ベクトルを示す。図13Aに示される例では、特徴量
ベクトル1364は識別面1361の第1の側に位置し
ているので、認識用画像組の対象物は人間であると判定
される。
【0115】図13Bは特徴量空間1380における距
離を用いる識別手法を説明する図である。このような識
別手法の例としては、k−NN法やLVQなどが挙げら
れる。代表点1366は、人間を表現する特徴量ベクト
ルを代表する点(「人間」というカテゴリを示す代表
点)である。代表点1366は、例えば、人間を表現す
るすべての特徴量ベクトルの重心として求められる。同
様に、代表点1367は、人間以外の対象物を表現する
特徴量ベクトルを代表する点(「人間以外」というカテ
ゴリを示す代表点)である。代表点1366および代表
点1367は、特徴量空間においてその点を表す座標に
よって表される。このような座標は、識別パラメータと
して識別パラメータ記憶部150(図6)に格納され
る。
【0116】点1365は、後に行われる認識処理にお
いて入力される画像組(認識用画像組)についての特徴
量ベクトルを示す。この識別手法では、特徴量ベクトル
から最も近い代表点の属するカテゴリが、その特徴量ベ
クトルについての認識結果となる。図13Bに示される
例では、特徴量ベクトル1365から最も近い代表点
(代表点1366)の示すカテゴリが「人間」というカ
テゴリなので、認識用画像組の対象物は人間であると判
定される。
【0117】図13Cは、特徴量空間1382における
特徴量ベクトルの分布を用いた識別手法を説明する図で
ある。このような識別手法の例としては、非線型素子を
用いたパーセプトロンなどのニューラルネット等の手法
が挙げられる。図13Cにおいて、特徴量空間1382
は、1つの選択次元(特徴量次元1)によって定義され
る1次元の空間(すなわち、直線)として示されてい
る。曲線1369と曲線1370とはそれぞれ、特徴量
空間1382における人間を表現する特徴量ベクトルの
分布の強度(「人間」というカテゴリを示す分布の強
度)と、人間以外の対象物を表現する特徴量ベクトルの
分布の強度(「人間以外」というカテゴリを示す分布の
強度)とを示す。曲線1369と曲線1370とは、特
徴量次元1の値を変数とする式によって表され得る。こ
のような式の係数は、識別パラメータとして識別パラメ
ータ記憶部150(図6)に格納される。
【0118】点1368は、後に行われる認識処理にお
いて入力される画像組(認識用画像組)についての特徴
量ベクトルを示す。この識別手法では、特徴量ベクトル
の位置において、複数の分布の強度を比較し、最大の分
布の強度が示すカテゴリがその特徴量ベクトルについて
の認識結果となる。図13Cに示される例では、特徴量
ベクトル1368の位置において、「人間」というカテ
ゴリを示す分布の強度1369が、「人間以外」という
カテゴリを示す分布の強度1370よりも大きいので、
認識用画像組の対象物は人間であると判定される。
【0119】このように、識別パラメータは識別平面の
みでなく、特徴量空間において異なるカテゴリに属する
特徴量ベクトルを識別する任意の識別手法において用い
られるパラメータを表現する。
【0120】図14は、特徴量次元の削除処理を行うこ
とに伴う識別性能の変化を模式的に示す。図14に示さ
れるように、最初は、特徴量次元を削除することによっ
て、識別性能は向上する。これは、識別に寄与しない特
徴量次元を削減することによって、識別に悪影響のある
余分な情報(ノイズ)を低減することができるからであ
る。
【0121】一般に、可視光画像と遠赤外光画像のよう
に異なる属性を持つ複数の画像の情報を単純に組み合わ
せると情報量が増し、識別処理が増加するとともに、学
習に必要なサンプル数(学習用の画像組の数)が増加す
るため、サンプル収集が困難になる。学習用の画像組の
数が不足すると、識別性能が悪化する可能性がある。し
かしながら、本発明の実施の形態では、可視光画像の情
報と遠赤外光画像の情報とを組み合わせた上で、ステッ
プS92〜ステップS96において、特徴量次元が削除
される。特徴量次元を削除して識別に有効な情報を選別
することにより、後に行われる認識処理における計算量
を低減しつつ、識別性能を向上させる(または、維持す
る)ことが可能になる。
【0122】人間を表現する画像組858組と人間以外
対象物を表現する画像組11052組を用いて本発明者
らがシミュレーションを行った結果、ステップS92〜
ステップS96の処理によって、特徴量次元の数が88
%削減できると同時に、誤識別の確率が1/9に低減さ
れた。
【0123】ステップS96(図12)における判定
は、例えば、次のようにして行われる。ステップS95
で求められる識別性能の変化を監視し、前回のステップ
S95での識別性能と今回のステップS95での性能を
比較し、識別性能が向上または維持していれば基準を満
たすと判定し、識別性能が低下していれば基準を満たさ
ないと判定する。このような判定を行う場合には、図1
4に点1302により示される識別性能の極大値を実現
することができる。
【0124】ステップS96(図12)における判定
は、他の様式で行われてもよい。例えば、絶対的な識別
性能値(図14に示される参照番号1301)を予め指
定し、指定した識別性能を実現できる条件下でできるだ
け特徴量次元を削除してもよい。この場合には、その識
別性能値を満たす限りにおいて、最大限に特徴量次元の
数が削除される(点1302)。
【0125】図15は、ステップS91(図12)のさ
らに詳細な処理手順を示す。なお、ステップS101
は、ステップS1001a(図1)に対応し、ステップ
S102〜S104は、ステップS1001b(図1)
に対応する。
【0126】ステップS101:可視光画像と遠赤外光
画像とが入力される。この可視光画像と遠赤外光画像と
は、画像組を構成する。ステップS101において、人
間を表現する画像組(可視光画像と遠赤外光画像とが、
同一の人間を表現している画像組)と、人間以外の対象
物を表現する画像組(可視光画像と遠赤外光画像とが、
人間以外の同一の対象物を表現している画像組)とが入
力される。このような画像組の例は、図2Aおよび図2
Bを参照して上述した。
【0127】ステップS101で入力される可視光画像
と遠赤外光画像とは、遠赤外光カメラ100と可視光カ
メラ110とを用いて撮影され、いったん学習用の画像
組として記憶装置120に格納される。あるいは、可視
光画像と遠赤外光画像とは、記録媒体(図示せず)から
読み出されることによって物体認識装置1に入力されて
もよい。
【0128】ステップS102:画像(可視光画像また
は遠赤外光画像)ごとに画素値の正規化が行われる。画
素値の正規化は、(数2)に従って行われる。
【0129】
【数2】I’(x,y)=(I(x,y)−m)/σ ここで、 I(x,y):正規化の前の画像中の座標(x,y)に
おける画素値 m:画像全体の画素値の平均値 σ:画像全体の画素値の平均値からの標準偏差 I’(x,y):画像中の座標(x,y)における正規
化された画素値である。
【0130】ステップS103:画素値の正規化を行っ
た画像に対して、複数の異なる特性のGaborフィル
タが画像中の複数の領域に適用される。
【0131】ステップS104:Gaborフィルタを
適用した各領域(特定領域)に対応するフィルタ出力値
から特徴量ベクトルが求められる。
【0132】図16は、画像431と、画像431内の
画像フィルタが適用される領域432との関係を示す。
画像431は、ステップS101において入力される可
視光画像または赤外光画像の1つである。領域432
は、画像フィルタが適用される領域を示す。以下、画像
431内の画像フィルタが適用される領域432を「特
定領域」と呼ぶ。図16を参照しながら、ステップS1
03およびステップS104(図15)の処理の詳細を
説明する。
【0133】図16に示される例では、特定領域432
は、一辺の長さがLの正方形の形状を有する。画像43
1は、高さH、幅Wのサイズの矩形の形状を有する。画
像431内に、特定領域432が複数設定される。特定
領域432のそれぞれに、特定領域432のサイズに一
致するGaborフィルタが適用されることにより、そ
の特定領域432のそれぞれにおいてフィルタ出力値が
生成される。フィルタ出力値が生成される方法は、図3
を参照して上述した。
【0134】フィルタ処理部125(図6)は、例え
ば、特定領域432が画像431に対して重複を許して
画像431の全体を覆うように、複数の特定領域432
を画像431中に設定する。例えば、図16において、
特定領域432がL=H/8のサイズ(サイズ1)を有
し、W=H/2である場合に、特定領域432を縦方向
と横方向とにL/2ずつ重複するように画像431の全
面に配置すると、画像431の中の特定領域の数は(H
/L×2−1)×(W/L×2−1)=15×7=10
5個になる。1つの特定領域には、特性の異なる(方位
選択性の異なる)4個の画像フィルタ(図11A〜図1
1Dに示される4種類の方向選択性を有する4個の画像
フィルタ)を適用する。
【0135】さらに、サイズの異なる特定領域が、画像
431の全面に配置される。サイズの異なる特定領域に
は、サイズの異なる画像フィルタが適用される。特定領
域をL=H/4のサイズ(サイズ2)の正方形とする
と、この特定領域を縦方向および横方向にL/2ずつ重
複して画像431の全面を覆うように配置すると、W=
H/2の仮定の下で、特定領域の数は、(H/L×2−
1)×(W/L×2−1)=7×3=21個となる。同
様に、特定領域をL=H/2のサイズ(サイズ3)の正
方形とすると、特定領域の数は(H/L×2−1)×
(W/L×2−1)=3×1=3個になる。
【0136】画像431中の3つの異なるサイズ(サイ
ズ1、サイズ2およびサイズ3)の特定領域の数をすべ
て合わせると105+21+3=129個になる。この
特定領域のそれぞれに方位選択性の異なる4種類の画像
フィルタを適用すると、画像431から129×4=5
16個のフィルタ出力が得られる。1つの画像組(学習
用の画像組または認識用の画像組)は、可視光画像(輝
度画像)と遠赤外光画像とを含む。可視光画像と遠赤外
光画像とが同じサイズ(高さH、幅W)を有しており、
可視光画像と遠赤外光画像との同じ位置に特定領域を設
定する場合に、1つの画像組の2個の画像から得られる
フィルタ出力の数は、516×2=1032個になる。
従って、1つの画像組が1032次元の特徴量ベクトル
によって表される。あるいは、より高い次元の特徴量空
間を設定し、この1032次元の特徴量ベクトルをその
高次元の特徴量空間に写像することにより、高次元の特
徴量ベクトルを生成してもよい。特徴量ベクトルをより
高次元の特徴量空間に写像することよって、それぞれの
画像組に対応する特徴量ベクトルの間の距離が大きくな
るので、後に行われるステップS93(図12)におい
て識別平面を求めやすいという利点が得られる。
【0137】なお、Gaborフィルタの方位の数は4
に限定されない。Gaborフィルタの方位の数をGa
borフィルタのサイズおよび/または特定領域の位置
に依存して変えてもよい。Gaborフィルタのサイズ
および/または特定領域の位置に応じて方位の数を変え
ることにより、画像中の特定の位置(例えば、方位の区
別を詳細に行いたい位置)および/または特定の空間周
波数領域から、より多くの情報を効率よく取得すること
が可能になる。
【0138】また、画像フィルタのサイズは3種類に限
定されない。画像フィルタのサイズは、1種類以上であ
ればよい。可視光画像と遠赤外光画像とで、画素値(輝
度)の変化の空間周波数特性が異なる。従って、可視光
画像と遠赤外光画像とで、適用される画像フィルタのサ
イズを変えることによっても、画像から多くの情報を効
率よく取得することが可能になる。
【0139】可視光画像と遠赤外光画像について、特定
領域のサイズや位置は必ずしも等しくしなくてもよい。
可視光画像と遠赤外光画像について、それぞれに適した
サイズや位置を設定することで性能向上が期待できる。
しかし、両画像に対する特定領域のサイズや配置を等し
くすることにより、両画像に対する画像フィルタの適用
の処理を同一の手続きで実行できるという利点が得ら
れ、ハードウェア回路やソフトウェアの規模を削減する
ことが可能になる。
【0140】画像フィルタとして、Gaborフィルタ
と類似した形状のフィルタや他のエッジを求める画像フ
ィルタが用いられてもよい。さらに、エッジを求めるフ
ィルタ以外の画像フィルタが用いられてもよい。しか
し、Gaborフィルタまたは類似形状の画像フィルタ
を用いることにより、位置空間と周波数空間との両方の
空間で局在する輝度変化の情報を効率よく取得すること
が可能になる。従って、Gaborフィルタまたは類似
形状の画像フィルタを用いた場合には、sobelフィ
ルタなどのエッジフィルタを用いた場合に比較して効率
よく特定の空間周波数において空間的変化の情報を取得
することが可能になる。その結果、可視光画像と遠赤外
光画像のように異なる性質の画像を組み合わせることに
よって増加した情報量の中から、効率的に認識のために
有効な情報を取得することが可能になる。可視光画像の
情報と遠赤外光画像の情報とは、遠赤外光画像から得ら
れる温度の情報を用いることなく、効果的に組み合わさ
れ、認識のために使用され得る。
【0141】また、図16を参照して説明した例では、
1つのサイズの画像431に複数のサイズの特定領域
(Gaborフィルタを適用する領域)が設定された。
しかし、予め同一対象を異なる解像度で撮影したサイズ
の異なる複数の画像のそれぞれに、同じサイズの特定領
域(Gaborフィルタを適用する領域)を設定するこ
とによっても、同様の結果を得ることができる。
【0142】遠赤外光画像と可視光画像とにおいて、必
ずしも同じ位置に対象物が写っている必要はない(2枚
の画像の間で上下方向および/または左右方向にずれて
いてもよい)。他の対象物を撮影した場合にも同じ位置
関係が保たれる限り、可視光画像と遠赤外光画像の中に
おける対象物の位置は一致する必要はない。本発明の学
習処理および認識処理では、遠赤外光画像中の領域と、
可視光画像中の領域とを対応付ける必要がないからであ
る。
【0143】図17は、ステップS95(図12)にお
ける、識別性能を評価する処理の詳細な手順を示す。
【0144】ステップS111:特徴量ベクトルの成分
のうち、ステップS92で指定された特徴量次元に対応
する成分のみが有効にされる。この特徴量ベクトルとし
ては、ステップS91(図12)において求められた特
徴量データFに含まれるすべての特徴量ベクトルまたは
特徴量データFに含まれる一部の特徴量ベクトルが用い
られる。
【0145】ステップS112:予め定められ識別手法
を用いて、人間を表現する特徴量ベクトルと、人間以外
の対象物を表現する特徴量ベクトルとを識別する学習が
行われる。予め定められ識別手法とは、後に行われる認
識処理において、対象物が人間であるか否かを判定する
ために用いられる手法である。
【0146】ステップS113:評価用の特徴量データ
(特徴量ベクトルの集合)を用いて、識別性能が算出さ
れる。評価用の特徴量データとしては、ステップS91
(図12)において求められた特徴量データFを用いて
もよいし、図12に示される学習処理において使用しな
かった特徴量データを用いてもよい。あるいは、予め評
価用の特徴量ベクトルの集合を特徴量データFと同様の
手続きで別途作成しておいてもよい。識別性能は、例え
ば、ステップS94(図12)で設定された次元を有効
にした特徴量ベクトル(人間を表現する特徴量ベクトル
と人間以外の対象物を表現する特徴量ベクトルとを含
む)をステップS112における学習が終った後の識別
手法を用いて正しく識別できた割合として表される。
【0147】<認識処理>図18は、物体認識装置1が
実行する認識処理の詳細な手順を示す。ステップS12
1は、ステップS1002a(図1)に対応しており、
ステップS122〜ステップS123は、ステップS1
002b(図1)に対応しており、ステップS124〜
ステップS125は、S1002c(図1)に対応して
いる。
【0148】ステップS121:可視光画像と遠赤外光
画像とが入力される。この画像入力は、学習処理におけ
るステップS101(図15)と同様に、可視光カメラ
110と遠赤外光カメラ100(図6)とにより行われ
る。
【0149】ステップS122:画像(可視光画像およ
び遠赤外光画像)から、認識対象領域が切り出される。
認識対象領域は、その認識対象領域の形状が学習処理に
おいて使用した画像の形状に一致するように切り出され
る。認識対象領域は、画像中で固定しておいてもよい
し、1つの画像から複数の認識対象領域が切り出されて
もよい。切り出される認識対象領域の形状は、図16を
参照して説明した例では、縦横比がH対Wの矩形であ
る。学習処理における可視光画像の形状と認識処理にお
いて可視光画像から切り出される認識対象領域の形状と
が同じであり、かつ、学習処理における遠赤外光画像の
形状と認識処理において遠赤外光画像から切り出される
認識対象領域の形状とが同じである限り、可視光画像か
ら切り出される認識対象領域の形状と、遠赤外光画像か
ら切り出される認識対象領域の形状とが異なっていても
よい。
【0150】ステップS122における切り出しは、学
習処理においてステップS101(図15)で入力され
た可視光画像と遠赤外光画像との撮影位置を考慮して行
われる。具体的には、学習処理における可視光画像と、
認識処理において可視光画像から切り出された認識対象
領域とで、同じ位置に対象物が写るように、ステップS
122における切り出しが行われる。もちろん、認識処
理において可視光画像を撮影する可視光カメラ110を
切り出しが必要でないように設置していてもよい。遠赤
外光画像についても同様である。可視光画像と遠赤外光
画像との拡大率についても同様で、可視光画像と遠赤外
光画像の両者の拡大率(画素数)が異なっていてもよい
が、可視光画像の拡大率と遠赤外光画像の拡大率(画素
数)との比は、学習処理と認識処理とで同じになるよう
に調整される。
【0151】次に、必要に応じて、切り出した可視光画
像と遠赤外光画像の大きさが正規化される。可視光画
像、遠赤外光画像ともに切り出した形状が縦横比2:1
の矩形の場合、例えば、縦64画素、横32画素の矩形
に大きさが正規化される。画像の大きさを正規化するこ
とによって、次のステップS123において画像に適用
されるGaborフィルタの大きさ(フィルタを作用さ
せる特定領域の大きさ)は、固定され得る。切り出さ
れ、大きさが正規化された可視光画像と遠赤外光画像と
は、認識用の画像組を構成する。
【0152】ステップS123:切り出した画像から、
ステップS97(図12)で決定された選択次元に対応
する特徴量ベクトルが求められる。特徴量ベクトルは、
学習処理において用いられたものと同じGaborフィ
ルタを用いて算出される。上述したステップS122に
おいて画像の大きさが正規化されていない場合には、画
像の大きさに応じたサイズのGaborフィルタが適用
される。
【0153】学習処理において特徴量次元の一部を削除
している場合には、削除した特徴量次元に対応するGa
borフィルタの演算処理は不要であるので、予め特徴
量ベクトルの算出処理から除いておく。
【0154】ステップS124:特徴量ベクトルと識別
平面の係数との重み付け和を用いて、類似度が求められ
る。類似度は、認識用の画像組の対象物が人間に似てい
る度合いを表す。既に述べたように、特徴量ベクトルと
識別平面の係数との重み付け和は、特徴量ベクトルと識
別平面との距離(位置関係)を表す。この距離は、識別
平面で区切られる一方の空間側(例えば、人間を表す特
徴量ベクトルが位置する第1の側)にある場合に正の
値、反対側(例えば、人間以外の対処物を表す特徴量ベ
クトルが位置する第2の側)にある場合に負の値として
表すことができる。特徴量ベクトルが識別平面から離れ
るほど、距離の絶対値が大きくなる。
【0155】ステップS125:類似度に基づいて、人
間が認識される(すなわち、対象物が人間であると判定
される)。例えば、類似度(特徴量ベクトルと識別平面
との距離)が正であるか負であるかに基づいて(すなわ
ち、特徴量ベクトルが、識別平面どちらの側に位置する
かに基づいて)、対象物が人間であるか否かの判定がな
される。あるいは、類似度が正であり(すなわち、特徴
量ベクトルが、識別平面の第1の側にあり)、かつ、類
似度が所定の閾値以上である場合に、対象物が人間であ
ると判定するようにしてもよい。このような閾値は、認
識の精度についての要求(例えば、人間でない対象物を
人間と誤認識する可能性を低減することが望まれるの
か、人間を人間でないと誤認識する可能性を低減するこ
とが望まれるのか)に応じて設定され得る。類似度を示
す数値が表示部170に表示されてもよい。
【0156】このように、本発明の物体認識装置1(図
6)は、学習用の画像組の遠赤外光画像と可視光画像と
を用いて識別パラメータ(例えば、識別平面を表すパラ
メータ)を求め、その識別パラメータを判定基準として
用いて認識用の画像組の遠赤外光画像と可視光画像との
対象物を認識する(対象物が特定のカテゴリに属するか
否かを判定する)。対象物の認識は、対象物から放射ま
たは反射される可視光線の強度(第1の属性)と、対象
物から放射または反射される遠赤外光線の強度(第2の
属性)とに基づいて行われるので、対象物の認識の信頼
度が高くなる。
【0157】本発明者らは、屋外で昼夜に撮影した可視
光画像と遠赤外光画像の組(人間を表す画像組858組
と人間以外の対象物を表す画像組11052組)を学習
用画像組として用いて、上述した学習処理および認識処
理のシミュレーションを行った。シミュレーションの結
果、誤認識率は0.2%であった。この誤認識率は、可
視光画像のみを用いて学習処理および認識処理を行った
比較例における誤検出率(2.7%)および遠赤外光画
像のみを用いて学習処理および認識処理を行った比較例
における誤認識率(3.5%)に比較して、非常に低い
(1/10以下)値である。このように、高い対象物の
認識の信頼度が実現される。
【0158】本発明の物体認識装置1は、可視光画像と
遠赤外光画像とを用いて学習処理を行うことにより、可
視光画像と遠赤外光画像との間の相関関係を学習するこ
とができ、その相関関係が認識処理に反映される。例え
ば、日中の屋外で対象物(人間)を撮影した可視光画像
と遠赤外光画像とを考える。対象物に直射日光が当たる
ような環境条件下では、可視光画像中の対象物の輝度は
高くなると同時に、遠赤外光画像は対象物の温度が高い
ことを示す。一方、対象物に直射日光が当たらないよう
な環境条件下では、可視光画像中の対象物の輝度は低く
なると同時に、遠赤外光画像は対象物の温度が低いこと
を示す。
【0159】このような様々な環境条件下で撮影された
可視光画像と遠赤外光画像とを用いることにより、本発
明の物体認識装置1は、可視光画像と遠赤外光画像との
間の相関関係を学習することができる。その結果、例え
ば、認識画像組の可視光画像中の対象物の輝度が高く、
かつ、遠赤外光画像は対象物の温度が低い場合(対象物
が人間である場合には起こり得ない事象が発生した場
合)に、その対象物を人間であると誤認識する可能性は
低い。
【0160】可視光画像のみを用いて学習処理および認
識処理を行う認識システムでは、様々な環境条件下で撮
影された可視光画像を用いて学習処理を行うことによ
り、対象物を人間として認識するための許容範囲が広く
なる。その結果、人間でない対象物を人間であると誤認
識する可能性が高くなる。遠赤外光画像のみを用いて学
習処理および認識処理を行う認識システムについても同
様である。
【0161】本発明の物体認識装置1によれば、様々な
環境条件(例えば、照明の条件、温度の条件)において
撮影された学習用の画像組を用いて学習処理を行うこと
により、その様々な環境条件において撮影された認識用
の画像組の対象物を正しく認識することができるように
なる。このような特徴は、屋外における侵入者の監視シ
ステムや、自動車等の移動体に搭載される歩行者の検出
システムや、移動ロボットに搭載される視覚システム等
の、変動する環境条件下で対象物を正しく認識すること
が要求される用途に特に適している。
【0162】さらに、上述した本発明の学習処理および
認識処理は、対象物の属性に特化した処理ではない。こ
れは、本発明の物体認識装置1が、上述した本発明の学
習処理および認識処理を変更することなく、人間の認識
以外の用途(例えば、動物を認識する用途または車両を
認識する用途)にも適用できることを意味する。このよ
うに、本発明の物体認識装置1は、認識が行われる環境
条件が変化した場合および認識の対象物が変化した場合
の初期設定が容易である。
【0163】本発明の物体認識装置1では、遠赤外線画
像から特定の温度領域を抽出する処理は必要ではない。
従って、時間経過とともに変化する遠赤外線カメラの光
学系や回路、素子等の温度の影響をキャンセルするため
のキャリブレーション処理を行う必要がなく、物体認識
装置1の構成およびその保守を簡素化できるという利点
が得られる。
【0164】上述した実施の形態では、学習処理のステ
ップS97(図12)において、選択次元が1セットに
定められていた。しかし、選択次元のリスト(選択次元
のセット)を複数セット用意して、各セットごとに識別
パラメータが設定されていてもよい。この場合、認識処
理において、いずれか1つのセットの識別パラメータを
用いて求められた類似度に基づいて人間の認識を行って
もよいし、複数のセットのそれぞれの識別パラメータを
用いて求められた類似度の和(平均値)に基づいて人間
の認識を行ってもよい。あるいは、複数のセットのそれ
ぞれの識別パラメータを用いて求められた類似度に基づ
いて人間の認識を行い、その認識結果の多数決を行って
もよい。
【0165】上述した実施の形態では、ステップS12
2において切り出された認識対象領域について、ステッ
プS123においてGaborフィルタを用いて特徴量
ベクトルを求めていた。しかし、切り出しを行う前の画
像にGaborフィルタを適用してもよい。この場合、
フィルタを作用させる特定領域を予め画像全体に設定し
てGaborフィルタを適用し、画像全体の各位置に対
するフィルタ出力を事前に得ておく。次に、画像中で検
出の対象領域となる場所のフィルタ出力のみを用いて特
徴量ベクトルを算出する。このように予めフィルタ出力
を求めておくことにより、画像中の広範囲を走査しなが
ら切り出しと認識の手続きを順次繰り返す場合等に、画
像中の同一個所に同一のGaborフィルタを適用する
フィルタ演算を複数回行う無駄を回避することができ
る。なお、画像中の広範囲を走査しながら切り出しと認
識の手続きを順次繰り返す処理によって、対象物がどこ
に写っているのか未確定な画像から、人間を検出するこ
とができる。このような処理を行う場合には、物体認識
装置1(図6)を物体検出装置として機能させることが
できる。
【0166】学習処理において用いられる人間以外の対
象物を表現する画像組(可視光画像と遠赤外光画像の組)
は、木や犬等の実在する人間以外の対象物を撮影するこ
とによって物体認識装置1に入力されてもよい。あるい
は、人間を表現する画像組の可視光画像と遠赤外光画像
とに対して変換処理を施すことによりそれぞれ生成され
る可視光画像と遠赤外光画像との組が、人間以外の対象
物を表現する画像組として学習処理において用いられて
もよい。このような変換処理の例としては、画像にアフ
ィン変換を施す処理および/または画像にノイズを付加
する処理が挙げられる。変換処理後の画像は、人間を表
現する画像に比較的類似した画像である。このような変
換処理後の画像を学習処理において用いることにより、
少しでも人間の形状とは異なる形状の対象物は人間とし
て認識しないような判定基準を学習することができる。
【0167】上述した実施の形態では、ほぼ同時刻に撮
影した可視光画像と遠赤外光画像の2画像を組み合わせ
て学習処理および認識処理を行っていた。組み合わせる
画像の数は2枚に限定されない。また、可視光画像とし
て、輝度画像に代えて、カラー画像を用いてもよい。こ
の場合、カラー画像をRGB(対象物から放射または反
射される、異なる3種類の波長帯域の光の強度を表す3
種類の画像)の3つの画像で表現すると、Rの画像とG
の画像とBの画像の3画像と遠赤外光画像の計4個の画
像が1つの画像組(学習用の画像組および認識用の画像
組)として物体認識装置1に入力される。4個の画像を
入力とした場合の学習処理および認識処理は、可視光画
像と遠赤外光画像との2つの画像を入力した場合の学習
処理および認識処理と同様である。
【0168】物体認識装置1に入力される画像組が、異
なる時刻に撮影した画像を含んでいてもよい。例えば、
入力部190は、時刻T(第1の時刻)に撮影した可視
光画像(第1の画像)および遠赤外光画像(第2の画
像)と、時刻T+t(第1の時刻から所定の時間後の時
刻)に撮影した可視光画像(第5の画像)および遠赤外
光画像(第6の画像)との4枚の画像を1つの認識用の
画像組として物体認識装置1に入力するように構成され
ていてもよい。もちろん、この場合には、学習用の画像
組のそれぞれも、同一の時刻に撮影された可視光画像お
よび遠赤外光画像と、その時刻からt時間後に撮影され
た可視光画像および遠赤外光画像とを含んでいなければ
ならないことは言うまでもない。4個の画像を入力とし
た場合の学習処理および認識処理は、可視光画像と遠赤
外光画像との2つの画像を入力した場合の学習処理およ
び認識処理と同様である。
【0169】このように、撮影時刻の異なる可視光画像
と遠赤外光画像を組み合わせることで、歩行者などのよ
うに時間とともに形状が特定の様態で変化する対象物
と、時間とともに形状が変化しない対象物および時間と
ともに形状が異なった様態で変化する対象物とを区別す
ることが可能になり、認識の精度が向上する。
【0170】所定の時間tを短くすると速い動きを伴う
対象物を効率よく認識することができ、所定の時間tを
長くすると遅い動きを伴う対象物を効率よく認識するこ
とができる。通常、屋外において動きを伴う人間、車両
または動物等を認識する場合には、所定の時間tを1秒
以下に設定することにより、形状および/または位置が
時間とともに変化する対象物を効果的に認識することが
できる。このように、複数の時刻における画像の情報を
効果的に組み合わせることにより、識別性能が向上す
る。
【0171】本発明の物体認識装置1によれば、画像組
に含まれる画像の数が増えた場合にも、識別に寄与する
特徴量次元(フィルタ出力)だけが選択されるので、画
像の数の増加による認識処理の計算量の増加が抑制され
る。
【0172】物体認識装置1に入力される画像組が、視
点の異なる画像を含んでいてもよい。例えば、同じ位置
から撮影した可視光画像および遠赤外光画像と、それと
は異なる位置から撮影した可視光画像および遠赤外光画
像とが1つの画像組を構成してもよい。
【0173】図19は、遠赤外光カメラと可視光カメラ
との配置のさらに他の例を示す。図19に示される例で
は、遠赤外光カメラ100aと可視光カメラ110aと
がA地点に配置されており、遠赤外光カメラ100bと
可視光カメラ110bとがB地点に配置されている。4
つのカメラは、同一の対象物を撮影するように配置され
ている。遠赤外光カメラ100a、100bおよび可視
光カメラ110a、100bは、全体として、物体認識
装置1(図6)に学習用の画像組および認識用の画像組
を入力する入力部190(図6)として機能する。
【0174】入力部190は、認識処理においては、A
地点(第1の場所)から撮影された可視光画像(第1の
画像)および遠赤外光画像(第2の画像)に加えて、さ
らに、B地点(第2の場所)から撮影された可視光画像
(第5の画像)および遠赤外光画像(第6の画像)との
4枚の画像を1つの認識用の画像組として物体認識装置
1に入力するように構成されている。4個の画像を入力
とした場合の学習処理および認識処理は、可視光画像と
遠赤外光画像との2つの画像を入力した場合の学習処理
および認識処理と同様である。
【0175】このように、異なる場所から撮影された可
視光画像と遠赤外光画像を組み合わせることにより、人
物のように見る向きによって異なる形状を有する物体を
認識する精度が向上する。
【0176】本発明の物体認識装置1によれば、画像組
に含まれる画像の数が増えた場合にも、識別に寄与する
特徴量次元(フィルタ出力)だけが選択されるので、画
像の数の増加による認識処理の計算量の増加が抑制され
る。
【0177】また、異なる位置から撮影した可視光画像
と遠赤外光画像とが1つの画像組を構成してもよい。
【0178】図20は、遠赤外光カメラ100と可視光
カメラ110との配置のさらに他の例を示す。図20に
示される例では、可視光カメラ110がC地点に配置さ
れており、遠赤外光カメラ100がD地点に配置されて
いる。2個のカメラは、同一の対象物を撮影するように
配置されている。
【0179】図20に示される例では、遠赤外光カメラ
100と可視光カメラ110とは、C地点(第1の場
所)から可視光画像(第1の画像)を撮影し、D地点
(第2の場所)から遠赤外光画像(第2の画像)を撮影
するように構成されている。このような構成によれば、
可視光画像と遠赤外光画像とで、対象物の背景が異なる
ようにすることができる。可視光画像と遠赤外光画像と
共通する背景の余分な情報が認識結果に悪影響を及ぼす
可能性が低下し、認識結果が背景の影響を受けにくくな
るという利点が得られる。また、図19に示される例と
同様に、異なる複数の視点から撮影した画像を用いるこ
とで、人物のように見る向きによって異なる形状を有す
る対象物の認識精度が向上する。
【0180】上述した実施の形態では、異なる属性を用
いて対象物を表現する画像の例として、可視光画像と遠
赤外光画像とを挙げたが、本発明はこれに限定されな
い。可視光画像と近赤外光画像とで画像組を構成するよ
うにしてもよいし、可視光画像と紫外光画像とで画像組
を構成するようにしてもよい。あるいは、可視光画像と
距離画像とで画像組を構成するようにしてもよい。距離
画像における画素値は、撮影点から対象物までの距離を
示す。距離画像は、撮影点から対象物までの距離という
属性を用いて対象物を表現する画像であるということが
できる。
【0181】上述した本発明の学習処理および認識処理
は、対象物の属性に特化した処理ではないので、可視光
画像と遠赤外光画像以外の種類の画像を用いた場合に
も、上述した本発明の学習処理および認識処理を変更す
る必要はない。
【0182】本発明の学習処理と認識処理とは、典型的
には、コンピュータ上のソフトウェアによって実現され
る。しかし、本発明の学習処理と認識処理とをハードウ
ェアによって実現してもよいし、ソフトウェアとハード
ウェアとの組み合わせによって実現してもよい。さら
に、物体認識装置1(図6)が学習処理を実行すること
は必須ではない。なぜなら、物体認識装置1は、学習処
理の結果(識別パラメータ)が識別パラメータ記憶部1
50に格納されてさえいれば、認識処理(図1に示され
るステップS1002a〜S1002cの処理)を実行
することができるからである。そのような識別パラメー
タは、予め定められたパラメータであり得る。あるい
は、そのような識別パラメータは、物体認識装置1とは
別の装置を使用して学習処理を行うことによって求めら
れてもよい。そのような学習処理の結果として得られる
識別パラメータを物体認識装置1の識別パラメータ記憶
部150に格納することにより、物体認識装置1はその
識別パラメータを判定基準として用いた認識処理を行う
ことが可能になる。
【0183】物体認識装置1が学習処理を行わない場合
には、学習処理部130および記憶装置120は省略さ
れてもよい。
【0184】本発明の学習処理と認識処理との一方また
はその両方の一部または全部を表現するプログラム(学
習プログラム、認識プログラム)は、例えば、学習処理
部130内のメモリ(図示せず)または認識処理部14
0内のメモリ(図示せず)に格納され得る。あるいは、
そのようなプログラムは、フレキシブルディスク、CD
−ROM、DVD−ROMなどの任意のタイプのコンピ
ュータ読み取り可能な記録媒体に記録され得る。そのよ
うな記録媒体に記録された学習プログラムまたは認識プ
ログラムは、ディスクドライブ(図示せず)を介してコ
ンピュータのメモリにロードされる。あるいは、学習プ
ログラムまたは認識プログラム(またはその一部)は、
通信網(ネットワーク)または放送を通じてコンピュー
タのメモリにダウンロードされてもよい。コンピュータ
に内蔵されるCPUが学習プログラムまたは認識プログ
ラムを実行することによって、そのコンピュータは物体
認識装置として機能する。
【0185】
【発明の効果】本発明によれば、認識のために入力され
る画像組は、対象物を第1の属性を用いて表現する第1
の画像と、その対象物を第1の属性とは異なる第2の属
性を用いて表現する第2の画像とを含む。対象物が特定
のカテゴリに属するか否かの判定は、第1の属性と第2
の属性とに基づいて行われるので、対象物の認識の信頼
度が高くなる。さらに、その所定の数の画像の予め定め
られた位置に予め定められた画像フィルタを適用するこ
とによって得られるフィルタ出力値を成分として有する
特徴量空間内の特徴量ベクトルが求められ、画像組は、
この特徴量ベクトルによって表される。この処理には、
第1の画像の領域と第2の画像の領域とを対応付ける処
理は必要でないので、対象物の認識を行うための初期設
定が容易であり、認識結果は、環境条件の影響を受けに
くい。
【図面の簡単な説明】
【図1】本発明の物体認識方法の全体の処理手順を示す
フローチャート
【図2A】ステップS1001a(図1)において入力
される画像組610〜613を示す図
【図2B】ステップS1001a(図1)において入力
される画像組660〜663を示す図
【図3】画像351に画像フィルタ354を適用する例
を示す図
【図4】ステップ1001b(図1)において各画像組
について求められた特徴量ベクトルを特徴量空間701
にプロットした状態を示す図
【図5】ステップ1002a(図1)において入力され
る認識用の画像組510の例を示す図
【図6】本発明の実施の形態の物体認識装置1の構成を
示すブロック図
【図7A】遠赤外光カメラ100と可視光カメラ110
との配置の例を示す図
【図7B】遠赤外光カメラ100と可視光カメラ110
との配置の他の例を示す図
【図7C】遠赤外光カメラ100と可視光カメラ110
とに代えて、その両方の機能を併せ持つ可視光・遠赤外
光カメラ210が用いられる例を示す図
【図8A】可視光カメラ110によって撮影された、人
間の対象物を表現する可視光画像803の例を示す図
【図8B】遠赤外光カメラ100によって撮影された、
人間の対象物を表現する遠赤外光画像804の例を示す
【図9A】可視光カメラ110によって撮影された、人
間以外の対象物(木)を表現する可視光画像805の例
を示す図
【図9B】遠赤外光カメラ100によって撮影された、
人間以外の対象物を表現する遠赤外光画像806の例を
示す図
【図10A】フィルタ処理部125(図6)において用
いられる画像フィルタの特性を模式的に示す図
【図10B】水平方向のエッジを選択的に検出する画像
フィルタの特性を模式的に示す図
【図10C】左下から右上に延びるエッジを選択的に検
出する画像フィルタの特性を模式的に示す図
【図10D】右下から左上に延びるエッジを選択的に検
出する画像フィルタの特性を模式的に示す図
【図11A】Gaborフィルタのフィルタ係数の例を
示す図
【図11B】Gaborフィルタのフィルタ係数の例を
示す図
【図11C】Gaborフィルタのフィルタ係数の例を
示す図
【図11D】Gaborフィルタのフィルタ係数の例を
示す図
【図12】物体認識装置1が実行する学習処理の詳細な
手順を示すフローチャート
【図13A】曲面の識別面を用いた識別手法を説明する
【図13B】特徴量空間1380における距離を用いる
識別手法を説明する図
【図13C】 特徴量空間1382における特徴量ベク
トルの分布を用いた識別手法を説明する図
【図14】特徴量次元の削除処理を行うことに伴う識別
性能の変化を模式的に示す図
【図15】ステップS91(図12)のさらに詳細な処
理手順を示すフローチャート
【図16】画像431と、画像431内の画像フィルタ
が適用される領域432との関係を示す図
【図17】ステップS95(図12)における、識別性
能を評価する処理の詳細な手順を示すフローチャート
【図18】物体認識装置1が実行する認識処理の詳細な
手順を示すフローチャート
【図19】遠赤外光カメラと可視光カメラとの配置のさ
らに他の例を示す図
【図20】遠赤外光カメラ100と可視光カメラ110
との配置のさらに他の例を示す図
【符号の説明】
1 物体認識装置 100 遠赤外光カメラ 110 可視光カメラ 120 記憶装置 125 フィルタ処理部 130 学習処理部 140 認識処理部 150 識別パラメータ記憶部 160 ワークメモリ 170 表示部 190 入力部

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】 第1の対象物を第1の属性を用いて表現
    する第1の画像と、前記第1の対象物を前記第1の属性
    とは異なる第2の属性を用いて表現する第2の画像とを
    含む、2以上の所定の数の画像からなる第1の画像組を
    入力する入力部と、 前記第1の画像組の前記所定の数の画像のうち予め定め
    られた少なくとも1つの位置に予め定められた少なくと
    も1つの画像フィルタを適用することによって得られる
    少なくとも1つのフィルタ出力値を成分として有する、
    特徴量空間における第1の特徴量ベクトルを求める特徴
    量ベクトル算出部と、 前記第1の特徴量ベクトルと所定の識別パラメータとの
    関係に基づいて、前記第1の対象物が特定のカテゴリに
    属するか否かを判定する判定部とを備えた物体認識装
    置。
  2. 【請求項2】 前記入力部は、それぞれが前記所定の数
    の画像からなる複数の画像組をさらに入力し、前記複数
    の画像組は、少なくとも1つの第2の画像組と、前記少
    なくとも1つの第2の画像組以外の少なくとも1つの第
    3の画像組とを含み、前記少なくとも1つの第2の画像
    組のそれぞれは、前記特定のカテゴリに属する第2の対
    象物を前記第1の属性を用いて表現する第3の画像と、
    前記第2の対象物を前記第2の属性を用いて表現する第
    4の画像とを含み、 前記特徴量ベクトル算出部は、前記入力された複数の画
    像組のそれぞれについて、前記所定の数の画像のうち予
    め定められた少なくとも1つの位置に予め定められた少
    なくとも1つの画像フィルタを適用することによって得
    られる少なくとも1つのフィルタ出力値を成分として有
    する、前記特徴量空間における特徴量ベクトルをさらに
    求め、 前記物体認識装置は、前記少なくとも1つの第2の画像
    組についての前記特徴量空間における少なくとも1つの
    特徴量ベクトルと、前記少なくとも1つの第3の画像組
    についての前記特徴量空間における少なくとも1つの特
    徴量ベクトルとを識別するように、前記識別パラメータ
    を求める学習部をさらに備えた、請求項1に記載の物体
    認識装置。
  3. 【請求項3】 前記学習部は、前記特徴量空間よりも多
    い次元数を有する仮の特徴量空間において、前記少なく
    とも1つの第2の画像組についての特徴量ベクトルと、
    前記少なくとも1つの第3の画像組についての特徴量ベ
    クトルとを識別するための平面の法線の向きに基づいて
    前記仮の特徴量空間から少なくとも1つの次元を削除す
    ることによって、前記特徴量空間を定義する、請求項2
    に記載の物体認識装置。
  4. 【請求項4】 前記識別パラメータは、前記特徴量空間
    における識別面を表し、前記判定部は、 前記第1の特徴量ベクトルが、前記識別面に対してどち
    らの側に位置するかに基づいて、前記第1の対象物が前
    記特定のカテゴリに属するか否かを判定する、請求項1
    に記載の物体認識装置。
  5. 【請求項5】 前記判定部は、 前記第1の特徴量ベクトルと、前記識別面との距離が所
    定の閾値以上である場合に、前記第1の対象物が前記特
    定のカテゴリに属すると判定する、請求項4に記載の物
    体認識装置。
  6. 【請求項6】 前記予め定められた少なくとも1つの画
    像フィルタのそれぞれは方位選択性と、位置選択性と、
    空間周波数選択性とを有する、請求項1に記載の物体認
    識装置。
  7. 【請求項7】 前記第1の画像は、前記第1の対象物か
    ら放射または反射される第1の波長帯域の光の強度を表
    し、前記第2の画像は、前記第1の対象物から放射また
    は反射される前記第1の波長帯域とは異なる第2の波長
    帯域の光の強度を表す、請求項1に記載の物体認識装
    置。
  8. 【請求項8】 前記入力部は、前記第1の対象物を前記
    第1の属性を用いて表現する第5の画像と、前記第1の
    対象物を前記第2の属性を用いて表現する第6の画像と
    をさらに入力し、前記入力部は、前記第1の画像と前記
    第2の画像とが第1の時刻に撮影され、前記第5の画像
    と前記第6の画像とが前記第1の時刻から所定の時間の
    後に撮影されるように構成されている、請求項1に記載
    の物体認識装置。
  9. 【請求項9】 前記入力部は、前記第1の画像が第1の
    場所から撮影され、前記第2の画像が前記第1の場所と
    は異なる第2の場所から撮影されるように構成されてい
    る、請求項1に記載の物体認識装置。
  10. 【請求項10】 前記入力部は、前記第1の対象物を前
    記第1の属性を用いて表現する第5の画像と、前記第1
    の対象物を前記第2の属性を用いて表現する第6の画像
    とをさらに入力し、前記入力部は、前記第1の画像と前
    記第2の画像とが第1の場所から撮影され、前記第5の
    画像と前記第6の画像とが前記第1の場所とは異なる第
    2の場所から撮影されるように構成されている、請求項
    1に記載の物体認識装置。
  11. 【請求項11】 物体を認識する方法であって、 (a)2以上の所定の数の画像からなる第1の画像組を
    入力するステップであって、前記第1の画像組は、第1
    の対象物を前記第1の属性を用いて表現する第1の画像
    と、前記第1の対象物を前記第2の属性を用いて表現す
    る第2の画像とを含む、ステップと、 (b)前記第1の画像組について、前記所定の数の画像
    のうち予め定められた少なくとも1つの位置に予め定め
    られた少なくとも1つの画像フィルタを適用することに
    よって得られる少なくとも1つのフィルタ出力値を成分
    として有する、特徴量空間における第1の特徴量ベクト
    ルを求めるステップと、 (c)前記第1の特徴量ベクトルと所定の識別パラメー
    タとの関係に基づいて、前記第1の対象物が前記特定の
    カテゴリに属するか否かを判定するステップとを包含す
    る、方法。
  12. 【請求項12】 コンピュータに物体認識処理を実行さ
    せるためのプログラムであって、前記物体認識処理は、 (a)2以上の所定の数の画像からなる第1の画像組を
    入力するステップであって、前記第1の画像組は、第1
    の対象物を前記第1の属性を用いて表現する第1の画像
    と、前記第1の対象物を前記第2の属性を用いて表現す
    る第2の画像とを含む、ステップと、 (b)前記第1の画像組について、前記所定の数の画像
    のうち予め定められた少なくとも1つの位置に予め定め
    られた少なくとも1つの画像フィルタを適用することに
    よって得られる少なくとも1つのフィルタ出力値を成分
    として有する、特徴量空間における第1の特徴量ベクト
    ルを求めるステップと、 (c)前記第1の特徴量ベクトルと所定の識別パラメー
    タとの関係に基づいて、前記第1の対象物が前記特定の
    カテゴリに属するか否かを判定するステップとを包含す
    る、プログラム。
  13. 【請求項13】 コンピュータに物体認識処理を実行さ
    せるためのプログラムを記録したコンピュータ読み取り
    可能な記録媒体であって、前記物体認識処理は、 (a)2以上の所定の数の画像からなる第1の画像組を
    入力するステップであって、前記第1の画像組は、第1
    の対象物を前記第1の属性を用いて表現する第1の画像
    と、前記第1の対象物を前記第2の属性を用いて表現す
    る第2の画像とを含む、ステップと、 (b)前記第1の画像組について、前記所定の数の画像
    のうち予め定められた少なくとも1つの位置に予め定め
    られた少なくとも1つの画像フィルタを適用することに
    よって得られる少なくとも1つのフィルタ出力値を成分
    として有する、特徴量空間における第1の特徴量ベクト
    ルを求めるステップと、 (c)前記第1の特徴量ベクトルと所定の識別パラメー
    タとの関係に基づいて、前記第1の対象物が前記特定の
    カテゴリに属するか否かを判定するステップとを包含す
    る、記録媒体。
JP2001333151A 2000-10-31 2001-10-30 物体認識装置、物体を認識する方法、プログラムおよび記録媒体 Expired - Fee Related JP3659914B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001333151A JP3659914B2 (ja) 2000-10-31 2001-10-30 物体認識装置、物体を認識する方法、プログラムおよび記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000332004 2000-10-31
JP2000-332004 2000-10-31
JP2001333151A JP3659914B2 (ja) 2000-10-31 2001-10-30 物体認識装置、物体を認識する方法、プログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
JP2002203240A true JP2002203240A (ja) 2002-07-19
JP3659914B2 JP3659914B2 (ja) 2005-06-15

Family

ID=26603103

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001333151A Expired - Fee Related JP3659914B2 (ja) 2000-10-31 2001-10-30 物体認識装置、物体を認識する方法、プログラムおよび記録媒体

Country Status (1)

Country Link
JP (1) JP3659914B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115525A (ja) * 2003-10-06 2005-04-28 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
WO2006078015A1 (ja) * 2005-01-24 2006-07-27 National University Corporation Yokohama National University カテゴリカル色知覚システム
JP2007264838A (ja) * 2006-03-27 2007-10-11 Toyota Central Res & Dev Lab Inc 物体識別装置
JPWO2006059504A1 (ja) * 2004-11-30 2008-06-05 松下電器産業株式会社 画像処理方法、画像処理装置、画像処理プログラムおよび画像ファイルフォーマット
JP2009076012A (ja) * 2007-09-25 2009-04-09 Toyota Central R&D Labs Inc 物体識別装置
JP2009181211A (ja) * 2008-01-29 2009-08-13 Panasonic Electric Works Co Ltd 顔認証装置
JP2009230502A (ja) * 2008-03-24 2009-10-08 Ricoh Co Ltd 画像情報配置装置
JP2011033497A (ja) * 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
JP2011145958A (ja) * 2010-01-15 2011-07-28 Canon Inc パターン識別装置及びその制御方法
WO2016113983A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及びシステム
JP2016538630A (ja) * 2013-11-28 2016-12-08 インテル コーポレイション 画像特徴検出器のための局所識別色を求める方法
JP2019046276A (ja) * 2017-09-05 2019-03-22 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2019069599A1 (ja) * 2017-10-05 2019-04-11 ソニー株式会社 画像処理装置及び画像処理方法
WO2019229855A1 (ja) * 2018-05-29 2019-12-05 日本電気株式会社 物体検出装置、物体検出システム、物体検出方法、およびプログラムを記録する記録媒体
US10853964B2 (en) 2016-07-15 2020-12-01 Panasonic Intellectual Property Management Co., Ltd. Image recognition system
CN112819509A (zh) * 2021-01-18 2021-05-18 上海携程商务有限公司 自动筛选广告图片的方法、系统、电子设备和存储介质
KR20210061848A (ko) * 2019-11-20 2021-05-28 한국항공우주연구원 부유물 탐지 방법 및 장치
US11288777B2 (en) 2017-09-05 2022-03-29 Sony Corporation Image processing device, image processing method, and program
WO2024121999A1 (ja) * 2022-12-07 2024-06-13 日本電信電話株式会社 学習装置、学習方法、及び学習プログラム

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115525A (ja) * 2003-10-06 2005-04-28 Fuji Photo Film Co Ltd 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
US7924315B2 (en) 2004-11-30 2011-04-12 Panasonic Corporation Image processing method, image processing apparatus, image processing program, and image file format
JPWO2006059504A1 (ja) * 2004-11-30 2008-06-05 松下電器産業株式会社 画像処理方法、画像処理装置、画像処理プログラムおよび画像ファイルフォーマット
US8780213B2 (en) 2004-11-30 2014-07-15 Panasonic Corporation Image processing method, image processing apparatus, image processing program, and image file format
JP4701187B2 (ja) * 2004-11-30 2011-06-15 パナソニック株式会社 画像処理方法、画像処理装置、および画像処理プログラム
WO2006078015A1 (ja) * 2005-01-24 2006-07-27 National University Corporation Yokohama National University カテゴリカル色知覚システム
JPWO2006078015A1 (ja) * 2005-01-24 2008-08-07 国立大学法人横浜国立大学 カテゴリカル色知覚システム
JP4625962B2 (ja) * 2005-01-24 2011-02-02 国立大学法人横浜国立大学 カテゴリカル色知覚システム
JP2007264838A (ja) * 2006-03-27 2007-10-11 Toyota Central Res & Dev Lab Inc 物体識別装置
JP2009076012A (ja) * 2007-09-25 2009-04-09 Toyota Central R&D Labs Inc 物体識別装置
JP2009181211A (ja) * 2008-01-29 2009-08-13 Panasonic Electric Works Co Ltd 顔認証装置
JP2009230502A (ja) * 2008-03-24 2009-10-08 Ricoh Co Ltd 画像情報配置装置
JP2011033497A (ja) * 2009-08-03 2011-02-17 Honda Motor Co Ltd 環境認識システム、環境認識方法およびロボット
US8401279B2 (en) 2009-08-03 2013-03-19 Honda Motor Co., Ltd. Environment recognition system, environment recognition method and robot
JP2011145958A (ja) * 2010-01-15 2011-07-28 Canon Inc パターン識別装置及びその制御方法
JP2016538630A (ja) * 2013-11-28 2016-12-08 インテル コーポレイション 画像特徴検出器のための局所識別色を求める方法
JPWO2016113983A1 (ja) * 2015-01-13 2017-10-19 ソニー株式会社 画像処理装置、画像処理方法、プログラム及びシステム
US10176543B2 (en) 2015-01-13 2019-01-08 Sony Corporation Image processing based on imaging condition to obtain color image
WO2016113983A1 (ja) * 2015-01-13 2016-07-21 ソニー株式会社 画像処理装置、画像処理方法、プログラム及びシステム
US10853964B2 (en) 2016-07-15 2020-12-01 Panasonic Intellectual Property Management Co., Ltd. Image recognition system
US11182880B2 (en) 2017-09-05 2021-11-23 Sony Corporation Image processing device, image processing method, and program
JP2019046276A (ja) * 2017-09-05 2019-03-22 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US11288777B2 (en) 2017-09-05 2022-03-29 Sony Corporation Image processing device, image processing method, and program
WO2019069599A1 (ja) * 2017-10-05 2019-04-11 ソニー株式会社 画像処理装置及び画像処理方法
JPWO2019229855A1 (ja) * 2018-05-29 2021-05-13 日本電気株式会社 物体検出装置、物体検出システム、物体検出方法、およびプログラム
WO2019229855A1 (ja) * 2018-05-29 2019-12-05 日本電気株式会社 物体検出装置、物体検出システム、物体検出方法、およびプログラムを記録する記録媒体
US11341762B2 (en) 2018-05-29 2022-05-24 Nec Corporation Object detection device, object detection system, object detection method, and recording medium having program recorded thereon
KR20210061848A (ko) * 2019-11-20 2021-05-28 한국항공우주연구원 부유물 탐지 방법 및 장치
KR102316387B1 (ko) 2019-11-20 2021-10-22 한국항공우주연구원 부유물 탐지 방법 및 장치
CN112819509A (zh) * 2021-01-18 2021-05-18 上海携程商务有限公司 自动筛选广告图片的方法、系统、电子设备和存储介质
CN112819509B (zh) * 2021-01-18 2024-03-26 上海携程商务有限公司 自动筛选广告图片的方法、系统、电子设备和存储介质
WO2024121999A1 (ja) * 2022-12-07 2024-06-13 日本電信電話株式会社 学習装置、学習方法、及び学習プログラム

Also Published As

Publication number Publication date
JP3659914B2 (ja) 2005-06-15

Similar Documents

Publication Publication Date Title
US6961466B2 (en) Method and apparatus for object recognition
JP3659914B2 (ja) 物体認識装置、物体を認識する方法、プログラムおよび記録媒体
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN109146929B (zh) 一种基于事件触发相机与三维激光雷达融合系统下的物体识别与配准方法
US8073254B2 (en) Methods and systems for detecting objects of interest in spatio-temporal signals
JP6586430B2 (ja) 車両位置の推定
US9008439B2 (en) Image processing method and system
KR101607224B1 (ko) 동적 물체 분류 방법 및 장치
Zhou et al. Self‐supervised learning to visually detect terrain surfaces for autonomous robots operating in forested terrain
CN107622502B (zh) 复杂光照条件下视觉导引系统的路径提取与识别方法
TW202004560A (zh) 目標檢測系統、自動駕駛車輛以及其目標檢測方法
US11670097B2 (en) Systems and methods for 3D image distification
EP3438929B1 (en) Foreground and background detection method
US20180165828A1 (en) Object Recognition Device and Object Recognition System
JP2017005389A (ja) 画像認識装置、画像認識方法及びプログラム
WO2016175234A1 (ja) 色画像処理方法、色画像処理プログラム、物体認識方法及び装置
CN116091883B (zh) 基于多源信息融合的目标检测识别方法、系统及存储介质
CN115170792B (zh) 红外图像处理方法、装置及设备、存储介质
Tiwari et al. A survey on shadow detection and removal in images and video sequences
Brenner et al. RGB-D and thermal sensor fusion: a systematic literature review
Lee et al. Infrared small target detection algorithm using an augmented intensity and density-based clustering
CN117456325A (zh) 一种水稻病虫害检测方法
WO2023222643A1 (en) Method for image segmentation matching
CN116052020A (zh) 基于无人机的图像快速解译方法
CN113763356A (zh) 一种基于可见光与红外图像融合的目标检测方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050315

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080325

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090325

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100325

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110325

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110325

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120325

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130325

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130325

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140325

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees