JPH10269362A - 物体認識方法およびその装置 - Google Patents

物体認識方法およびその装置

Info

Publication number
JPH10269362A
JPH10269362A JP9087372A JP8737297A JPH10269362A JP H10269362 A JPH10269362 A JP H10269362A JP 9087372 A JP9087372 A JP 9087372A JP 8737297 A JP8737297 A JP 8737297A JP H10269362 A JPH10269362 A JP H10269362A
Authority
JP
Japan
Prior art keywords
image
specific direction
recognizing
feature
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9087372A
Other languages
English (en)
Inventor
Katsumi Ohashi
勝巳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP9087372A priority Critical patent/JPH10269362A/ja
Publication of JPH10269362A publication Critical patent/JPH10269362A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 遠方の地点における認識精度を大幅に向上す
る。 【解決手段】 道路LDの近傍位置の支柱3に2台のカ
メラ1a,1bを取り付け、道路の長さ方向を撮像す
る。第1のカメラ1aには、撮像位置近傍を中心とする
広角視野が、第2のカメラ1bにはこの広角視野よりも
遠方の地点を対象とする望遠視野が設定される。制御装
置5は、各カメラ1a,1bからの画像をそれぞれ取り
込んで個別に処理し、各画像上の車輌を示す特徴を抽出
してカメラの視野内における車輌の動きを追跡した後、
各画像毎の追跡処理結果を統合して交通流データを生成
する。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】この発明は、所定の観測位置から
特定方向を観測して前記特定方向における対象物を認識
するための方法および装置に関連する。
【0002】
【従来の技術】近年、道路近傍の所定位置にテレビカメ
ラを道路に向けて設置し、このテレビカメラ(以下単に
「カメラ」という)からの画像上で、道路上の車輌の特
徴部分を抽出して、車輌の通過台数,速度,渋滞状況な
どを計測する交通流計測装置が開発されている。
【0003】従来のこの種の分野では、例えば、カメラ
により撮像して得られた画像上で、車輌の水平方向の輪
郭を示すエッジ成分を抽出し、抽出されたエッジの数か
ら道路の渋滞状況を認識したり(「道路交通渋滞計測シ
ステムの検討」(平成3年電気学会産業応用部門全国大
会)、画像上でのエッジ抽出結果にパターンマッチング
処理を施して、道路上の車輌を個別に観測する("Image
Processing VehicleDetector for Urban Traffic Cont
rol Systems" Vehicle Nabigation & Information Syst
ems Conference, 92CH3198-9 (1992))などの方法が提
案されている。
【0004】さらに近年では、観測位置に複数台のカメ
ラを設置して3次元計測処理を実施し、道路上の車輌の
3次元座標を検出する方法が開発されている(「ステレ
オ画像を用いた物体検出技術の開発」 第2回画像セン
シングシンポジウム講演論文集 G−15,画像センシ
ング技術研究会)。
【0005】
【発明が解決しようとする課題】一般に、道路上の車輌
の流れを認識するためには、観測位置の手前位置から遠
方の地点までが撮像できるように、カメラの視野を設定
する必要がある。しかしながらこの場合、観測位置近傍
の画像部分については認識処理に十分な解像度が得られ
るが、観測位置より遠方になるほど、解像度が低下し、
最終的に各車輌の特徴が重なり合ってそれぞれの特徴を
分離して取り出すのは困難となる。
【0006】上記した各方法のうち、エッジ抽出処理に
よる第1の方法では、観測位置より150m以上遠方に
なると、正確な渋滞度を計測することができなくなると
発表されている。またパターンマッチング処理を行う第
2の方法の場合には、計測可能な範囲は観測位置より2
0m程度離れた地点までと考えられている。この計測範
囲をより遠方に設定するために、高解像度のカメラを導
入することが考えられる。しかしながらその導入に通常
のカメラの10数倍のコストがかかるにもかかわらず、
解像度は通常の1.5倍程度しか向上せず、投資コスト
に見合うだけの効果は得られない。
【0007】また3次元計測処理を用いた方法の場合に
も、各カメラ間の距離やカメラの解像度の限界などによ
り、遠方地点の3次元計測結果の信頼度が極端に低下す
るという問題がある。上記した3次元計測処理による車
輌検出処理でも、観測位置から20m程度遠方の地点ま
でしか検出できないとされており、1つの観測地点から
道路の遠方地点までを精度良く観測して、交通流を計測
するなど、到底不可能である。
【0008】この発明は上記問題点に着目してなされた
もので、所定の観測位置より特定方向を観測して、この
特定方向における対象物の位置や、特定方向に沿って並
ぶ対象物の列長さなどを認識する場合に、遠方の地点に
おける認識精度を大幅に向上することを技術課題とす
る。
【0009】
【課題を解決するための手段】請求項1〜6の発明は、
所定の観測位置から特定方向を観測して前記特定方向に
おける対象物を認識する方法に関するもので、請求項1
の物体認識方法は、前記観測位置から特定方向に対し複
数の視野を設定して撮像し、各視野毎に、前記撮像によ
り得られた画像を用いてそれぞれ対象物を示す特徴を抽
出した後、これら抽出結果を統合して対象物の認識処理
を実施することを特徴とする。
【0010】請求項2の発明の物体認識方法は、前記観
測位置に相対位置関係が既知の複数個の撮像手段を前記
特定方向に向けて設置し、各撮像手段からの画像を用い
て対象物にかかる3次元計測処理を行うとともに、少な
くとも1つの撮像手段からの画像を用いて対象物にかか
る2次元計測処理を実施し、これら計測結果を統合して
対象物の認識処理を実施することを特徴とする。
【0011】請求項3の発明では、前記請求項2の認識
処理において、前記観測位置より所定距離だけ離れた地
点までは前記3次元計測結果を優先的に採用し、この地
点より遠方については前記2次元計測を優先的に採用す
るようにしている。
【0012】請求項4の発明では、前記認識処理とし
て、特定方向における対象物の位置を認識する。また前
記認識処理として請求項5の発明では、特定方向に並ぶ
対象物の列長さを認識し、請求項6の発明では前記特定
方向における対象物の動きあるいは流れを認識する。
【0013】請求項7〜15の発明は、所定の観測位置
から特定方向を観測して前記特定方向における対象物を
認識する物体認識装置にかかるものである。請求項7の
物体認識装置は、前記観測位置に設置され、前記特定方
向に対しそれぞれ異なる視野が設定されて成る複数個の
撮像手段と、前記各撮像手段からの画像に対し、それぞ
れその画像上で対象物を示す特徴を抽出する特徴抽出手
段と、各画像に対する特徴抽出結果を統合して前記特定
方向における対象物の認識処理を実施する認識手段とを
具備している。
【0014】請求項8の発明では、前記特徴抽出手段
は、前記各撮像手段からの画像に対する特徴抽出処理
を、所定の時間毎に切り替えて実施するように構成され
る。
【0015】請求項9の物体認識装置は、請求項7と同
様の複数個の撮像手段と、前記各撮像手段からの画像を
それぞれ対象物の支持面を含む仮想水平面上に透視変換
する透視変換手段と、前記透視変換手段により生成され
た各透視変換画像上でそれぞれ対象物を示す特徴を抽出
する特徴抽出手段と、各透視変換画像毎の特徴抽出結果
を統合して前記特定方向における対象物を認識する認識
手段とを具備している。
【0016】請求項10の発明では、請求項9の構成に
おいて、特徴抽出手段を、前記各透視変換画像を合成し
て1枚の画像を生成した後、この合成画像上で対象物を
示す特徴の抽出処理を実施するように構成する。
【0017】請求項11の物体認識装置は、請求項7,
9と同様の複数個の撮像手段と、いずれかの撮像手段の
画像を取り込む画像入力手段と、前記画像入力手段に取
り込まれた画像上で対象物を示す特徴を抽出する特徴抽
出手段と、前記特徴抽出手段の抽出結果に基づき前記画
像入力手段の画像入力元の撮像手段を切替え制御する切
替え制御手段と、前記切替え制御下で得られた各入力画
像毎の特徴抽出結果を統合して前記特定方向における対
象物の認識処理を実施する認識手段とを具備している。
【0018】請求項12の物体認識装置は、前記観測位
置に設置され、前記特定方向に対し複数の視野を設定可
能な撮像手段と、前記撮像手段の視野を所定の時間毎に
切替え制御する視野制御手段と、各視野毎に得られた画
像上でそれぞれ対象物を示す特徴を抽出する特徴抽出手
段と、各視野毎の特徴抽出結果を統合して前記特定方向
における対象物を認識する認識手段を具備している。
【0019】請求項13の物体認識装置は、前記請求項
12と同様の撮像手段および視野制御手段と、各視野毎
に得られた画像をそれぞれ対象物の支持面を含む仮想水
平面上に透視変換する透視変換手段と、前記透視変換手
段により生成された各透視変換画像上でそれぞれ対象物
を示す特徴を抽出する特徴抽出手段と、各視野毎の特徴
抽出結果を統合して前記特定方向における対象物を認識
する認識手段を具備している。
【0020】請求項14の物体認識装置は、請求項1
2,13と同様の撮像手段と、前記撮像手段により得ら
れた画像上で対象物を示す特徴を抽出する特徴抽出手段
と、前記特徴抽出手段の抽出結果に基づき前記撮像手段
の視野を切替え制御する視野制御手段と、前記切替え制
御下で得られた各視野毎の特徴抽出結果を統合して前記
特定方向における対象物の認識処理を実施する認識手段
とを具備している。
【0021】請求項15の物体認識装置は、前記観測位
置に特定方向に向けて設置され、相対的な位置関係が既
知の複数個の撮像手段と、前記各撮像手段からの画像を
用いた3次元計測処理を実施する3次元計測処理手段
と、少なくとも1つの撮像手段からの画像を用いた2次
元計測処理を実施する2次元計測処理手段と、前記3次
元計測処理手段による計測結果のうち、前記観測位置か
ら所定距離離れた地点までに計測された結果を選択する
とともに、前記2次元計測処理手段による計測結果の中
から、前記3次元計測結果が選択された地点よりも遠方
の地点に対応する計測結果を選択し、これら選択された
計測結果を統合して前記特定方向における対象物の認識
処理を実施する認識手段とを具備している。
【0022】
【作用】請求項1の発明では、観測位置から特定方向に
対し、複数の視野を設定し、各視野毎に得られた画像上
で抽出された対象物の特徴を統合して対象物を認識す
る。したがって観測位置の近傍位置と遠方位置とをそれ
ぞれ別の視野内で観測して、それぞれの視野内で対象物
を示す特徴を精度良く抽出し、その結果を結果を統合し
て認識処理を実施することにより、従来よりもはるかに
広い範囲で対象物を精度良く認識することができる。
【0023】請求項2の発明では、特定方向に対し、複
数個の撮像手段を用いた3次元計測処理と少なくとも1
つの撮像手段を用いた2次元計測とを実施し、これら抽
出結果を統合するので、3次元計測処理では信頼性の低
くなる地点の処理が2次元計測処理により補われる。
【0024】請求項3の発明では、前記請求項2の認識
処理において、前記観測位置より所定の地点までの特徴
抽出結果については前記3次元計測結果を優先的に採用
し、それ以降の地点における特徴抽出結果については前
記2次元計測結果を採用する。
【0025】請求項4の発明では、請求項1,2のいず
れかの方法により、前記特定方向における対象物の位置
を認識する。また請求項5の発明では、上記いずれかの
方法により、特定方向に並ぶ対象物の列長さを認識す
る。さらに請求項6の発明では、上記いずれかの方法に
より、特定方向における対象物の動きあるいは流れが認
識される。
【0026】請求項7の発明では、複数個の撮像手段の
視野を、それぞれ観測位置から特定方向に対し異なるよ
うに設定して撮像を行い、各撮像手段からの画像毎に抽
出された特徴を統合して対象物を認識する。
【0027】請求項8の発明では、各撮像手段からの画
像に対する特徴処理を所定の時間毎に切り替えて実施す
る。
【0028】請求項9の発明では、請求項7と同様の状
態で観測位置に設置された各撮像手段からの画像を、そ
れぞれ対象物の支持面を含む仮想水平面上に透視変換す
る。この後、各透視変換画像上で対象物の特徴を精度良
く抽出して画像間で統合し、対象物の認識処理を実施す
る。
【0029】請求項10の発明では、前記各透視変換画
像を1枚の画像に合成した後、この合成画像上で対象物
の特徴を抽出する。
【0030】請求項11の発明では、異なる視野が設定
された複数個の撮像手段のいずれかから取り込んだ画像
に対し、特徴抽出処理を実施するとともに、その抽出結
果に基づき画像を取り込む撮像手段を切り替え制御す
る。この後、各入力画像毎に得られた特徴抽出結果を統
合して対象物を認識する。
【0031】請求項12の発明では、観測位置におい
て、前記特定方向に対し複数の視野を設定可能な撮像手
段が設置される。この撮像手段の視野を所定の時間毎に
切り替えつつ、各視野毎の画像上で特徴抽出を行い、そ
の結果を統合して対象物を認識する。
【0032】請求項13の発明では、請求項12と同様
の撮像手段の視野を所定の時間毎に切り替えて撮像さ
せ、各視野毎の画像を、前記請求項9の発明と同様の仮
想水平面上に透視変換し、特徴の抽出処理を行う。この
後、各画像毎の特徴抽出結果が統合され、対象物の認識
処理が実施される。
【0033】請求項14の発明では、請求項12と同様
の撮像手段からの画像上で特徴を抽出した後、その結果
に応じて撮像手段の視野を切り替える。この後、この切
替え制御下で各視野毎に得られた特徴抽出結果を統合し
て対象物の認識処理を実施する。
【0034】請求項15の発明では、相対位置関係が既
知の複数個の撮像手段を特定方向に向けて撮像を行わ
せ、各撮像手段からの画像を用いた3次元計測処理と、
少なくとも1つの撮像手段を用いた2次元計測処理とを
実施した後、観測位置より所定距離離れた地点までは3
次元計測結果を、その地点より遠方については2次元計
測結果を、それぞれ選択して対象物を認識する。
【0035】
【実施例】図1は、この発明の一実施例にかかる交通流
計測装置の設置例を示す。この交通流計測装置は、道路
LDの近傍に設置された支柱3の上方に2台のカメラ1
a,1bを、支柱3の下部側方位置に制御ボックス2
を、それぞれ設置して成るもので、制御ボックス2の内
部には、各カメラ1a,1bからの画像を取り込んで道
路上の車輌の動きを計測する制御装置5や、その計測結
果を管理センターなどに伝送するための伝送装置(図示
せず)などが組み込まれている。
【0036】前記カメラ1a,1bは、それぞれ支柱3
上部に配備された水平棒4a,4b上に道路LDの長さ
方向に向けて設置されており、第1のカメラ1aには広
角レンズが、第2のカメラ1bには望遠レンズが、それ
ぞれ取り付けられている。またカメラ1aの光軸は、撮
像位置近傍に向けて設定される一方、カメラ1bの光軸
は、道路の遠方地点に向けて設定される。これによりカ
メラ1aには、道路の長さ方向に対し撮像位置近傍を中
心とする広角視野が設定され、カメラ1bには、この広
角視野よりも遠方の地点を対象とする望遠視野が設定さ
れることになる。なお各カメラ1a,1bの視野は、そ
れぞれ一部分で重なり合うように設定される。
【0037】図2(1)は、上記の視野設定により、カ
メラ1aにより得られる画像の一例を、図2(2)は、
このカメラ1aの画像と同じタイミングでカメラ1bに
より得られる画像を、それぞれ示す。なお図中r1,r
2は、各カメラ1a,1bの視野の重なり部分に対応す
る画像領域であって、Ca1とCb1,Ca2とCb2は、それ
ぞれ同じ車輌の画像を表している。
【0038】前記制御装置5は、各カメラ1a,1bか
らの画像を所定の時間毎に取り込んで画像上の車輌の特
徴を抽出した後、これら抽出結果を統合して道路上の車
輌の位置を認識する。さらに制御装置5は、各処理時点
での認識結果を順次追跡することにより、道路上の車輌
の移動方向,移動速度などを把握し、交通流の計測結果
として出力する。
【0039】図3は、制御装置5の構成例を示すもの
で、各カメラ1a,1bに対応する画像入力部6a,6
b,車輌認識部7a,7bのほか、追跡結果記憶部8,
統合認識部9などを構成として含んでいる。前記画像入
力部6a,6bは、それぞれカメラ1a,1bからのア
ナログ量の画像データをディジタル変換するためのA/
D変換回路や、変換処理後のディジタル画像を記憶する
ための画像メモリを備えている。車輌認識部7a,7b
は、それぞれ各画像入力部6a,6bに入力された画像
データを処理して、道路上の車輌の動きを認識するため
のもので、各車輌認識部7a,7bとも、背景画像記憶
部10,差分処理部11,2値化処理部12,特徴抽出
部13,特徴量モデル記憶部14,認識処理部15,追
跡処理部16などを構成として含んでいる。
【0040】図4は、前記制御装置5による認識処理の
一連の手順を示すもので、以下図5〜図10を参照しな
がら図4の手順に沿って、上記各構成による処理の詳細
を説明する。なお、図4中の「ST」は各ステップを示
し、このうちステップ1〜6までの手順は、各車輌認識
部7a,7bで並列して行われる。
【0041】各背景画像記憶部10には、対応するカメ
ラ1a,1bの視野内に含まれる背景の画像が記憶され
ており、各画像入力部6a,6bに前記カメラ1a,1
bからの画像が取り込まれると、差分処理部11は、こ
の入力画像と前記背景画像記憶部10内の背景画像との
差分処理を実施する(ステップ1,2)。なおこの差分
処理結果は、黒色の車輌など差分値がマイナスの値にな
る特徴に対応できるように、各画像の対応する画素毎の
濃度差分値の絶対値により表される。図5(1)(2)
は、それぞれカメラ1a,1bの視野内の背景画像を示
すもので、ともに道路およびその近傍の画像が現れてい
る。
【0042】上記差分処理により、各入力画像から背景
部分の濃度値が取り除かれると、2値化処理部12は、
この差分画像を2値化処理する(ステップ3)。ついで
特徴抽出部13は、この抽出結果に対し、黒画素が連続
する画像領域毎にラベル付け処理を行って、画像上の車
輌などの物体を表す特徴を抽出する(ステップ4)。
【0043】図6(1)は前記第1のカメラ1aからの
入力画像に対する特徴抽出結果を示すもので、前記ステ
ップ2〜4の処理により、4個の特徴P1,P2,P
3,P4が車輌候補として抽出されている。また図6
(2)は前記第2のカメラ1bからの入力画像に対する
特徴抽出結果を示すもので、同様の処理により、3個の
特徴p1,p2,p3が抽出されている。
【0044】つぎに各認識処理部15は、処理対象の画
像につき、抽出された特徴が車輌に相当するものである
か否かを判定する(ステップ5)。図7は、前記図6
(1)に示した第1入力画像に対する特徴抽出結果のう
ち、特徴P1に対する車輌判別処理を示すもので、図6
(1)の点線で囲んだ領域r内の画像を拡大して示して
ある。
【0045】まず認識処理部15は、抽出された特徴の
最下端部分を特徴抽出位置として設定し、この抽出位置
のy座標(図示例ではy1 )を計測するとともに、特徴
量として、前記特徴の最下端部分の幅w,および特徴全
体のy軸方向の長さhを計測する。前記特徴量モデル記
憶部14には、複数の車種毎に、それぞれ入力画像上の
各y座標の位置にその車輌が存在するときに画像上に現
れる特徴の最下端部分の幅MWおよび特徴全体MHの長
さが記憶されている(以下この記憶データを「モデル特
徴量」という)。認識処理部15は、前記特徴量の計測
値w,hをその抽出位置のy座標における各車種のモデ
ル特徴量と比較し、いずれかの車種にかかるモデル特徴
量MW,MHおよび所定のしきい値THW ,THH に対
し、前記計測値w,hがつぎの(1)式の関係にあると
き、この特徴部分は車輌を表すものと判断する。
【0046】
【数1】
【0047】また認識処理部15には、入力画像の各y
座標位置が実際の道路上のどの位置に対応するかを示す
変換テーブルがセットされており、上記の比較処理によ
り、車輌を示す特徴が特定されると、認識処理部15
は、この特徴の抽出位置のy座標により前記変換テーブ
ルを参照して、この特徴の示す車輌の道路上における位
置を求め、追跡処理部16へと出力する。ここで実際の
空間座標系として、例えば前記支柱3の設置位置を原点
とし、道路の幅方向をX軸,長さ方向をZ軸,高さ方向
をY軸とする座標系を設定すると、前記入力画像上の特
徴の抽出位置のy座標は、この空間座標系のZ座標に変
換されることになる。
【0048】前記追跡処理部16には、道路上の車輌の
位置を示すZ座標を時間軸と対応づけて記憶するための
テーブルが設定されており、前記ステップ2〜5の処理
により抽出された車輌位置は、このテーブル上にプロッ
トされる。図8は、前記第1の車輌認識部7aにおける
車輌の抽出結果の一例を示すもので、左側車線の車輌を
抽出対象とした結果、前記図6に示した2個の特徴部分
P1,P2が車輌として認識され、それぞれの抽出位置
のZ座標Z1 ,Z2 が処理時刻t1 に対応づけてプロッ
トされている。
【0049】ここまでの処理は、画像の取込み動作に応
じて実施され、車輌の抽出位置を示すZ座標が前記テー
ブル上に順次プロットされる。追跡処理部16は、各段
階で得られた抽出位置を、それぞれ前段階でその抽出位
置から所定距離内にあった抽出位置と対応づけることに
より、対応するカメラの視野内の車輌の動きを追跡する
(ステップ6)。
【0050】図9(1)は、前記第1の車輌認識部7a
において、前記特徴P1,P2の示す車輌の抽出位置の
追跡結果(それぞれPT1,PT2と示す)を示す。図
中、Zamaxは、カメラ1aの視野に含まれる最後方の境
界地点(入力画像の最上段に相当する)を示すもので、
特徴P1に対応する車輌は時刻t7 の時点で、また特徴
P3に対応する車輌は時刻t3 の時点で、観測不可能と
なっている。
【0051】図9(2)は前記第2の車輌認識部7bに
おける車輌抽出位置の追跡処理結果を示すもので、前記
図8,図9(1)と同様、左側車線の車輌を抽出対象と
している。図中、pt1,pt2は、それぞれ前記図6
(2)に示した各特徴のうち左側車線に対応する特徴p
1,p2の追跡結果である。またpt3は、時刻t5
おいて、カメラ1bの視野の前方境界地点Zbmin付近に
出現した車輌の追跡結果である。
【0052】各車輌認識部の追跡処理部16毎に得られ
た追跡結果は、追跡結果記憶部8へと格納される。統合
認識部9は、各追跡結果を統合して、最終的な交通流デ
ータを生成する(ステップ7)。
【0053】図10は、前記図9(1)(2)に示した
各追跡結果を統合したデータを示す。図中、Zbminから
amaxまでの範囲は、各カメラ1a,1bの視野にとも
に含まれる領域であるので、この領域内に位置する車輌
は、各車輌認識部7a,7bでともに抽出されることに
なる。
【0054】図示例の場合、第1の車輌認識部7aによ
る追跡結果PT2と、第2の車輌認識部7bによる追跡
結果pt1とは時刻t1 ,t2 の時点で一致しており、
統合認識部9は、これら追跡結果PT2,pt1は同一
の車輌の動きを示すものと認識して両者を統合する。ま
た第1の車輌認識部7aによる追跡結果PT1は、時刻
5 ,t6 の時点で、第2の車輌認識部7bにより新た
に抽出された特徴の追跡結果pt3と一致しており、こ
れらの追跡結果も同様に同一車輌の動きを示すものとし
て統合される。
【0055】このように2台のカメラ1a,1bに、道
路の長さ方向に対し異なる視野を設定して撮像し、これ
らカメラ1a,1bからの画像を個別に処理して各視野
内における車輌の動きを追跡することにより、撮像位置
の近傍から遠方までの各地点に位置する車輌の位置を精
度良く観測して、各車輌の動きを正確に反映した交通流
データを得ることができる。
【0056】なお上記実施例の制御装置は、各カメラ1
a,1bからの入力画像を並列的に処理するようにした
が、これに限らず、図11に示すように、処理対象の入
力画像を交互に切り替えるように構成すれば、ハードウ
エア構成は大幅に削減される。
【0057】図11に示す制御装置5では、各カメラ1
a,1bからの画像を入力する画像入力部6a,6bと
各入力画像を処理する車輌認識部7との間に切替え部1
7が配備されるとともに、車輌認識部7の後段に、認識
結果記憶部18および結果統合部19が設けられてい
る。
【0058】前記車輌認識部7は、前記図3の各車輌認
識部7a,7bから追跡処理部16の機能のみを除いた
構成をとるもので、切替え部17により交互に供給され
る各カメラ1a,1bからの画像に対し、それぞれ前記
図4のステップ2〜5と同様の処理を実行し、各カメラ
1a,1bの視野内における車輌位置を抽出する。
【0059】認識結果記憶部18には、前記図10に示
したのと同様のテーブルが設定されており、前記各処理
時点における車輌位置の抽出結果は、このテーブル上に
順次プロットされる。図12は、この記憶データの一例
であって、カメラ1aからの入力画像に対する処理結果
(図中×印で示す)とカメラ1bからの入力画像に対す
る処理結果(図中・印で示す)とが、時間軸に沿って交
互にプロットされている。
【0060】結果統合部19は、このテーブル上の各点
を順次対応づけることにより、各車輌の動きを認識す
る。この場合、各カメラ1a,1bの視野の重なり部分
に対応するZbminからZamaxまでの範囲に含まれる抽出
結果は、1段階前の他方の視野における抽出結果と対応
づけられ、1台の車輌の動きとして統合される。
【0061】ところで車輌のような3次元物体の特徴部
分を2次元画像上で抽出する場合、実際の車輌の画像部
分のみならず、車輌の影の画像が誤抽出される虞があ
る。そこでつぎの第3実施例では、各カメラからの画像
を道路面上へ透視変換した画像を用いて、車輌の立体形
状を反映した特徴部分のみを抽出することにより、上記
の問題を解決するようにしている。
【0062】この透視変換画像は、カメラ1a,1b毎
に、そのカメラにより撮像して得られた道路の画像に対
し、この画像を構成する各画素を、それぞれカメラの視
点とその画素の座標点とを通る直線と道路面との交点位
置に投影することにより得られるもので、あらかじめ車
輌を透視変換したときに得られる特徴をモデルデータと
して記憶しておき、入力画像の透視変換画像上で得られ
た特徴とこのモデルデータとを比較することにより、入
力画像上の車輌の特徴を精度良く抽出することができ
る。
【0063】ここで、この透視変換処理を導入した制御
装置の具体的な構成を示す前に、この透視変換処理の原
理および変換処理の詳細な方法を説明する。この透視変
換処理は、あらかじめ定められた空間座標系(ここでは
前記第1,第2の実施例で用いたのと同様の空間座標系
を考える)に対するカメラ座標系の回転角度により決定
されるパラメータを用いて、入力画像上の各画素を前記
仮想水平面上の所定位置へと変換するものである。この
パラメータは、計測処理に先立ち、空間座標が既知の点
を用いたキャリブレーションによりカメラ座標系の回転
角度を算出した後、さらにこの算出結果を後記する(2
9)〜(36)式にあてはめることにより算出される。
【0064】図13は、1台のカメラのカメラ座標系
(図中、xc ,yc ,zc の各軸で示される座標系)
と、前記した空間座標系(図中、X,Y,Zの各軸で示
される座標系)との関係を示す。なおOc はカメラの撮
像中心点であって、ここではカメラ座標系の原点に対応
するものとする。またOは空間座標系の原点を、Aは空
間中の任意の物点を、それぞれ示す。
【0065】いま空間座標系のX,Y,Z各軸に対しカ
メラ座標系のxc ,yc ,zc 軸がそれぞれ角度α,
β,γだけ回転していると想定すると、点Oc の空間座
標を(X0 ,Y0 ,Z0 ),点Aの空間座標を(XA
A ,ZA )としたときの点Aのカメラ座標(x1 ,y
1 ,z1 )は、これら回転角度α,β,γにより決定さ
れるパラメータs1 ,s2 ,s3 ,t1 ,t2 ,t3
1 ,u2 ,u3 に基づき、つぎの(2)〜(4)で表
される。なお上記各パラメータは、それぞれ(5)〜
(13)式で表される。また前記x1 ,y1 は、点Aの
入力画像上の対応点A´のx,y座標に、z1 はカメラ
の焦点距離Fに、それぞれ相当する。
【0066】
【数2】
【0067】
【数3】
【0068】
【数4】
【0069】
【数5】
【0070】
【数6】
【0071】
【数7】
【0072】
【数8】
【0073】
【数9】
【0074】
【数10】
【0075】
【数11】
【0076】
【数12】
【0077】
【数13】
【0078】一方、直線Oc A,および道路LDを含む
仮想水平面は、それぞれつぎの(14)(15)式によ
り表される。
【0079】
【数14】
【0080】
【数15】
【0081】いま前記点A´を含む画像を前記仮想水平
面上に透視変換するものとすると、点A´は前記直線O
c Aと仮想水平面との交点B(XB ,YB ,0)の位置
に投影される。したがって前記(14)(15)式よ
り、XB ,YB は、つぎの(16)(17)式で表され
【0082】
【数16】
【0083】
【数17】
【0084】さらにX´=XA −X0 /ZA −Z0 ,
´=YA −Y0 /ZA −Z0 ,Z´=1/ZA −Z0
おくと、前記(1)〜(4)式および(16)(17)
式は、それぞれ(18)〜(22)式に変形される。
【0085】
【数18】
【0086】
【数19】
【0087】
【数20】
【0088】
【数21】
【0089】
【数22】
【0090】上記(18)〜(20)式よりZ´を消去
することにより、X´,Y´は、それぞれつぎの(2
3)(24)式により表される。さらにこの(23)
(24)式を用いて前記(21)(22)式を変形する
ことにより、(25)(26)式が得られる。
【0091】
【数23】
【0092】
【数24】
【0093】
【数25】
【0094】
【数26】
【0095】よって、前記XB ,YB は、(29)〜
(36)式により定義されるパラメータa,b,c,
d,e,f,g,hを用いた(27)(28)式により
算出される。
【0096】
【数27】
【0097】
【数28】
【0098】
【数29】
【0099】
【数30】
【0100】
【数31】
【0101】
【数32】
【0102】
【数33】
【0103】
【数34】
【0104】
【数35】
【0105】
【数36】
【0106】したがって、カメラの撮像中心点Oc の空
間座標(X0 ,Y0 ,Z0 ),キャリブレーションによ
り算出されたカメラ座標系の回転角度α,β,γ,およ
びカメラ32の焦点距離Fを、前記(29)〜(36)
式に代入して各パラメータa〜hを求めておき、カメラ
32からの入力画像の各画素毎に、そのx,y座標を前
記(27)(28)式にあてはめることにより、各画素
の投影点の座標を算出することができる。
【0107】このように、空間中の点Aに対応する入力
画像上の点A´を仮想水平面上に透視変換すると、この
点Aにおける画像データは、カメラ中心点Oと点Aとを
結ぶ直線と仮想水平面との交点に投影される。したがっ
てこの直線OAの傾きが緩慢であるほど、仮想水平面上
の投影点は、点Aを真上方向から透視した際の投影点
(すなわち点Aのx,y座標により特定される点)から
離れた場所に位置することになる。言い換えれば、点A
が高い位置にあるほど、その投影点は、本来の点Aのあ
るべき位置から離れた場所に位置するので、高さ成分を
有する対象物を透視変換したとき、実際の対象物を真上
位置より見た場合とは異なる大きさ,形状を有する特徴
が得られることになる。
【0108】一方、空間座標におけるZ座標が0となる
点の画像データは、実際と同じ位置に投影されるため、
影など道路面上の2次元対象物は、透視変換後も、実際
の対象物を真上位置より見た場合と同様の大きさ,形状
の特徴を有する。
【0109】図14(1)は、カメラからの入力画像の
一例であって、道路の車線を示す画像部分20のほか
に、車輌の画像21やその影の画像22などが含まれて
いる。図14(2)は、上記入力画像を前記水平面上に
透視変換した結果を示すもので、透視変換画像中、前記
車輌の画像21の変換画像21´の形状には、その高さ
成分を反映した歪みが現れている。これに対し、車線の
画像20や影の画像21の変換画像20´,22´の形
状は、実際の車線や影を真上位置から観察した結果と同
様になる。
【0110】図15は、上記透視変換画像を用いた計測
処理を導入した制御装置5の構成を示すもので、各カメ
ラ1a,1bからの画像を入力するための画像入力部6
a,6b,透視変換処理部23a,23b,画像合成部
24,車輌認識部25などを構成として含んでいる。な
おカメラ1a,1bは、前記図1に示したのと同様の状
態で設置される。
【0111】透視変換処理部23a,23bには、それ
ぞれ各カメラ1a,1bからの画像の各構成画素につい
て、それぞれ上記(27)〜(36)式に示した変換式
により得られる透視変換先の座標を記憶するルックアッ
プテーブルが設けられており、前段の各画像入力部6
a,6bから画像データが供給されると、このルックア
ップテーブルを参照して各画素の投影先を特定し、透視
変換画像を生成する。画像合成部24は、これら透視変
換処理部23a,23bにより生成された透視変換画像
を、座標位置をあわせて1枚の画像に合成するためのも
ので、合成処理後の画像は車輌認識部25へと出力され
る。
【0112】車輌認識部25は、前記第1の実施例の車
輌認識部7a,7bと同様の構成をとるもので、前記画
像合成部24より供給された合成画像から車輌の特徴部
分を抽出し、その抽出結果を順次追跡することにより、
各カメラ1a,1b毎の視野内に含まれる車輌の動きを
統合した交通流データを生成する。
【0113】図16は、上記制御装置5による一連の手
順を示すもので、以下図17〜19を参照しつつ図16
の手順に沿って認識処理の詳細な流れを説明する。まず
ステップ1で各カメラ1a,1bからの画像が画像入力
部6a,6bに入力されると、つぎのステップ2で、各
透視変換処理部23a,23bにより各入力画像の透視
変換処理が行われ、さらに続くステップ3で、画像合成
部24による画像合成処理が実施される。
【0114】図17(1)(2)は、それぞれカメラ1
a,1bにより同じタイミングで得られる入力画像
a ,Ib を示すもので、前記図2(1)(2)に示し
た例と同様、各画像には、カメラ1a,1bの各視野が
重なる位置を走行する車輌を示す画像Ca3,Cb3が現れ
ている。
【0115】カメラ1aからの広角視野内の画像を処理
する第1の透視変換処理部23aは、この広角視野の始
端(すなわち入力画像の最下端)を基準として、前記カ
メラ1bの視野の始端に対応する位置(図17(1)中
のy座標がya となる位置)に至るまでの画像領域Ra
に対する透視変換処理を実施する。他方、カメラ1bか
らの望遠視野内の画像を処理する第2の透視変換処理部
23bは、カメラ1bの視野の始端から視野内の道路の
認識可能な位置(図17(2)中のy座標がyb となる
位置)までの画像領域Rb に対する透視変換処理を実施
する。
【0116】図17(3)は、前記図17(1)(2)
に示した透視変換画像を合成処理した結果を示すもの
で、画像合成部24は、前記カメラ1bの視野の始端に
対応するライン(図中点線で示す)を基準として、第1
の入力画像Ia の透視変換画像Ha を下に、第2の入力
画像Ib の透視変換画像Hb を上に配置して両者を貼り
合わせ、1枚の透視変換画像を生成する(以下これを
「合成透視変換画像」という)。この合成透視変換画像
は、カメラ1aの視野の始端からカメラ1bの視野内の
道路確認可能な位置までの道路平面上における透視変換
結果を示すものとなり、生成された画像データは車輌認
識部25へと出力される。
【0117】前記背景画像記憶部10には、処理に先立
ち、この合成透視変換画像の表す領域内の背景部分が記
憶されており、ステップ3で前記画像合成部24により
合成透視変換画像が生成されると、つぎのステップ4
で、差分処理部11により、この合成透視変換画像と前
記背景画像との差分処理が行われる。さらにこの差分画
像には、2値化処理部12による2値化処理と、特徴抽
出部13によるラベル付け処理が施され、合成透視変換
画像上の車輌候補となる特徴が抽出される(ステップ
5,6)。
【0118】図18は、前記背景画像記憶部10に記憶
される背景画像であって、前記合成透視変換画像に対応
する領域の道路を真上から見た状態を示す画像が現れて
いる。また図19は、前記図17(3)に示した合成透
視変換画像と図18の背景画像との差分画像に対する特
徴抽出結果を示すもので、車輌候補となる特徴Q1,Q
2が現れている。
【0119】特徴モデル記憶部14には、複数種の車輌
の特徴モデルとして、それぞれその車輌が道路上の各位
置で撮像されて前記透視変換処理が行われた場合に、合
成透視変換画像上に現れる特徴のサイズや形状などが記
憶されている。認識処理部15は、前記特徴抽出部によ
り抽出された各特徴をこれら特徴モデルと比較すること
により、前記抽出された特徴が車輌を表すものであるか
否かを判定する(ステップ7)。
【0120】追跡処理部16は、合成透視変換画像上で
車輌と判定された特徴部分について、例えば重心点など
所定の代表点を車輌の抽出位置として特定し、この抽出
位置を、前記第1,第2の各実施例と同様、時間軸に沿
って追跡する。この場合、前記合成変換画像は、第1の
カメラ1aの視野の手前位置から各カメラ1bの視野内
の道路認識可能な位置までの領域を捉えているので、車
輌が各カメラ1aの視野からカメラ1bの視野へと移動
した状態を連続的に把握することが可能となる。しかも
一連の認識処理を2次元画像上で実施できるので、簡易
な構成で精度の高い交通流計測を行うことができる。
【0121】なおここまでの実施例は、いずれも各カメ
ラからの画像を用いて車輌の位置を認識し、その認識結
果の時間的な推移に基づき道路上の車輌の動きを計測す
るものでものであるが、この発明はこれに限らず、交差
点やパーキング口などにおける車列長の計測処理にも適
用することができる。
【0122】図20は、交差点における車列計測装置の
設置例を示すもので、信号機用の支柱29の上方位置に
1台のカメラ30を取り付けて信号待ち方向を撮像する
とともに、支柱29の下方位置に、制御装置32や伝送
装置(図示せず)が収容された制御ボックス31が配備
されている。
【0123】この実施例のカメラ30には、ズームレン
ズ42および電動式の俯角調整機構43(ともに図21
に示す)が取り付けられており、後記するように、制御
装置32からの制御信号を受けてこれらの機構が作動す
ることにより、カメラ30の視野を、撮像位置近傍を中
心とする広角視野またはこの広角視野よりも遠方位置を
中心とする望遠視野のいずれかに切り替えることができ
る。制御部32は、この視野の切替え制御下のカメラ3
0から得られた画像を処理することにより、交差点に向
かって並ぶ車輌の列長さを計測する。
【0124】図21は、前記制御装置32の構成を示す
もので、画像入力部33,差分処理部34,背景画像記
憶部35,2値化処理部36,特徴抽出部37,後尾判
定部38,車列長計測部39,レンズ制御部40,角度
制御部41などにより構成される。
【0125】画像入力部33は、前記した各実施例と同
様、A/D変換回路や画像メモリなどにより構成される
もので、カメラ30に設定されている視野内の画像デー
タが入力される。図22(1)は、前記カメラ30に広
角視野が設定されているときに得られる画像の一例を、
図22(2)は、図22(1)と同じ撮像条件において
カメラ30に望遠視野が設定されている場合に得られる
画像を、それぞれ示す。なおこの実施例の各視野は、殆
ど重ならずに、道路上の連続した領域を捉えるように設
定されている。
【0126】背景画像記憶部35には、前記広角視野,
望遠視野について、それぞれ図23(1)(2)に示す
ような背景画像が記憶されている。差分処理部34は、
この背景画像記憶部からカメラ30に現在設定されてい
る視野にかかる背景画像を取り出して、入力画像に対す
る差分処理を実行する。この差分処理後の画像には、前
記した各実施例と同様、2値化処理部36による2値化
処理と特徴抽出部37によるラベル付け処理とが施さ
れ、画像上の車輌候補となる特徴が抽出される。
【0127】図24(1)は、前記図22(1)に示し
た広角視野内の入力画像についての特徴抽出結果を、図
24(2)は、前記図22(2)に示した望遠視野内の
入力画像についての特徴抽出結果を、それぞれ示すもの
で、いずれの画像上でも車列が形成されている位置にお
いて、車輌の繋がりを示す特徴CL1,CL2が抽出さ
れている。
【0128】後尾判定部38は、前記入力画像上の車列
の特徴の後尾位置を抽出するとととともに、その抽出位
置よりカメラの視野を切り替える必要があるか否かを判
断し、さらに視野の切替えが必要であると判断した場合
には、レンズ制御部40および角度制御部41に制御信
号を出力する。これによりレンズ制御部40はズームレ
ンズ42の焦点調節機構を、角度制御部41はカメラ3
0の俯角調節機構43を、それぞれ作動させ、カメラの
視野を切り替える。このようにしてカメラ30の視野を
適宜切り替えながら車列の最後尾が確認されると、車列
長計測部により車列の列長さが計測され、計測結果とし
て出力される。
【0129】図25は、前記制御装置における計測処理
の一連の流れを示すもので、以下、前記図22(1)
(2)に示した入力画像を例にとって、車列長計測の詳
細な方法を説明する。
【0130】前記したように、画像入力部33に入力さ
れた画像と背景画像との差分処理がなされた後、この差
分画像の2値化処理およびラベル付け処理が行われ、画
像上の車列候補となる特徴部分が抽出される(ステップ
1〜4)。後尾判定部38は、この特徴抽出結果につい
て、道路の長さ方向に沿って繋がりのある特徴があるか
否かを判定し、そのような特徴部分が認められる場合に
は、さらにその特徴の後尾位置を抽出する(ステップ
5)。
【0131】つぎのステップ6で、後尾判定部38は、
カメラ30に現在設定されている視野を確認する。ここ
で広角視野が設定されていることが確認された場合には
ステップ7に、望遠視野が設定されていることが確認さ
れた場合にはステップ9に、それぞれ移行して、それぞ
れ視野内に車列の特徴が現れているか否かをチェックす
る。
【0132】いまカメラに広角視野が設定されて前記図
22(1)に示した画像が入力されているものとする
と、前記ステップ1〜4の処理により図24(1)に示
したような特徴抽出結果が得られる。これによりステッ
プ6,7がともに「YES」となってステップ8へと移
行し、前記特徴の後尾位置の座標が抽出される。このス
テップ8において、図24(1)に示すように、後尾位
置のy座標が画像上のy座標の上限値ymax にあたる場
合には、後尾判定部38は、この特徴の示す車列は望遠
視野の領域内まで繋がっているものと判断し、カメラ3
0の視野の切替えを実施する(ステップ10)。
【0133】ステップ10の処理によりカメラの視野が
広角視野から望遠視野に切り替えられると、ステップ1
へと戻り、以下前記と同様の処理を経てステップ9へと
到達する。ここで前記図22(2)に示したような入力
画像が得られるものとすると、この入力画像から前記図
24(2)に示したような特徴抽出結果が得られるの
で、このステップ9は「YES」となり、車列長計測部
39による計測処理へと移行する(ステップ11)。
【0134】なお前記ステップ8で、広角視野内におけ
る車列後尾位置のy座標が前記上限値ymax に達してい
ない場合には、視野の切替えは行われずにステップ11
の車列長の計測処理へと移行する。また望遠視野内に車
列の特徴が認められなかった場合には、ステップ9が
「NO」となり、ステップ10で広角視野への切替え制
御が行われる。他方、前記ステップ7が「NO」の場
合、すなわち広角視野内において、車列の特徴が認めら
れなかった場合には、視野の切替えは行われずにステッ
プ1へと戻り、以下、車列の特徴が認められるまで広角
視野における観測処理が継続される。
【0135】前記車列長は、いずれかの視野における画
像上で抽出された車列の最後尾位置を実際の地面上の座
標に変換した後、車列の先頭車輌の停止位置近傍の点
(ここでは図20の点Sにより示す)を基準点として、
この基準点Sから前記変換された座標点までの距離Dを
求めることにより算出される。いま実際の空間におい
て、前記した各実施例と同様、支柱29の設置位置を原
点Oとして、道路幅方向にX軸,道路長さ方向をZ軸,
高さ方向をY軸とする空間座標系を設定すると、道路面
上の各点の位置はこの空間座標系のXZ平面上の座標と
して表される。
【0136】ここで図26に示すように、カメラ30の
原点Oからの高さをH,カメラ30の焦点距離をF,俯
角をθと定義するとともに、入力画像のx,y各軸方向
の画素数をWT,HTとおき、カメラ30のCCD素子
の横方向,縦方向(それぞれカメラ座標系のx,y軸方
向に対応する)の各サイズをCDw ,CDH とおく。こ
のとき、カメラ30からの画像上で抽出された車輌の最
後尾の点BKの座標を(xBK,yBK)とすると、この点
BKのXZ平面上への変換点の座標(X,Z)は、つぎ
の(37)(38)式により求められる。なお前記パラ
メータのうち、H,F,θは、カメラ30に設定されて
いる視野により変動する。またVは、標準的な車輌の高
さを示す。
【0137】
【数37】
【0138】
【数38】
【0139】つぎにXZ平面上における点Sの座標を
(XS ,ZS )とすると車列長Dはつぎの(39)式に
より算出される。
【0140】
【数39】
【0141】なお上記実施例では、カメラ30にズーム
レンズ42と俯角調整機構43とを取り付けて視野の切
替えを行っているが、これに限らず、図27に示すよう
に、ズームレンズ42のみを用いて視野を切り替えるよ
うにしても良い。
【0142】図28(1)(2)は、前記図27の構成
を用いた場合のカメラの視野の設定例を示すもので、図
28(1)の広角視野は、撮像位置から遠方の道路消失
点に至るまでを範囲とするように設定されている。また
図28(2)に示す望遠視野は、前記広角視野内の道路
消失点付近の領域44を捉えたものである。
【0143】上記のような視野内の画像を処理する場
合、まずカメラ30には図28(1)の広角視野が設定
される。この視野内の画像上で車列を示す特徴が抽出さ
れると、その後尾位置が抽出され、さらにこの抽出され
た後尾位置が前記領域44内に含まれる場合には、カメ
ラ30の視野が望遠視野へと切り替えられ、後尾位置の
詳細な位置が計測される。この後、前記実施例と同様、
計測された後尾位置の道路平面上への変換点の座標を用
いて車列長Dが算出される。
【0144】このように車列の長さに応じてカメラの視
野を切り替え、車列の後尾位置を正確に計測することに
より、車列長の計測精度が向上し、道路の渋滞度合いを
精度良く認識することができる。なおここで用いられる
カメラは、2種類の視野のいずれかに切り替えるように
構成されているが、これに限らず、道路方向に対して連
続する複数の視野を自在に切り替えられるように構成し
てもよい。
【0145】なおこの車列計測装置に用いるカメラは1
台に限らず、前記した第1〜3の実施例のように、異な
る視野が設定された複数台のカメラを設置し、車列長に
応じて処理対象とするカメラを切り替えるように構成し
てもよい。また逆に上記カメラ30を前記図1に示した
交通流計測装置に導入し、カメラ30の視野を交互に切
り替えながら、各視野毎の画像もしくはその透視変換画
像上で車輌の特徴を抽出し、その結果を統合処理するこ
とも可能である。
【0146】このように特定方向における物体を認識す
る際に、この特定方向に複数の視野を設定し、各視野毎
の特徴抽出結果を統合的に認識するという処理は、道路
上の車輌に限らず、各種物体を認識対象とすることがで
きる。そこでつぎの実施例として、イベント会場のよう
な特定の場所への入場口付近で入場待ちをしている人の
動きを計測する装置(以下これを「人流計測装置」とい
う)を例にあげて、この発明のさらに異なる態様につい
て説明する。
【0147】図29は、人流計測装置の設置例を示すも
ので、入場口49の上方位置に2台のカメラ50a,5
0bを設置するとともに、会場内部の所定位置に各カメ
ラ50a,50bからの画像データを処理するための制
御装置52が配備されている。
【0148】各カメラ50a,50bは、焦点距離を等
しくするもので、図30に示すように、ボックス形状の
ハウジング51の内部に各光軸を平行に設定した状態で
収容配備されている。また設置位置においては、各カメ
ラ50a,50bが人の並び方向に向けて一定の俯角を
持って水平方向に並ぶように、ハウジング51の取り付
け位置,角度が調整される。
【0149】図31(1)(2)は、それぞれ各カメラ
50a,50bにより得られた画像の具体例であって、
いずれの画像にも入場口に向かって並ぶ人の画像MLA
LD,MRA〜MRDが含まれている。なお以下の説明で
は、図31(1)に示すカメラ50aからの入力画像I
a を「第1入力画像Ia 」、図31(2)のカメラbか
らの入力画像Ib を「第2入力画像Ib 」と呼ぶものと
する。
【0150】前記制御装置は、図32に示すように、各
カメラ50a,50bからの画像を入力するための画像
入力部53a,53bと、3次元および2次元の2個の
計測処理部54,55と、各計測処理部54,55によ
る計測結果を統合して外部に出力するための統合出力部
56とにより構成される。3次元計測処理部54は、各
カメラ50a,50bからの入力画像を用いて画像上に
現れた人間の特徴の3次元計測処理を実施するためのも
ので、エッジ抽出部57,対応付け処理部58,3次元
座標計測部59,物体判定部60などにより構成され
る。また2次元計測処理部55は、一方のカメラ50a
からの入力画像のみを用いて人間の特徴の2次元計測処
理を実施するためのもので、差分処理部61,背景画像
記憶部62,2値化処理部63,削除処理部64,特徴
抽出部65,物体判定部66などを構成として含んでい
る。
【0151】この制御装置52では、前記3次元,2次
元の各計測処理部54,55による処理を並列して実行
して、それぞれのカメラ50a,50bが捉えた人間の
特徴を抽出し、その位置計測を行っており、後記するよ
うに、2次元計測部55は、画像上で抽出した特徴のう
ち、3次元計測処理部54による計測処理が行われなか
った特徴のみを計測対象として、その計測結果を出力す
る。統合出力部56は、各計測処理部54,55により
得られた計測結果を時間軸に沿って統合して、各人物の
移動方向や移動速度などを示すデータ(以下これを「人
流データ」という)を作成し、ディスプレイや伝送装置
などの外部装置に出力する。
【0152】図33は、前記制御装置52における一連
の処理手順を示す。ステップ1の画像入力を受けると、
前記したように、各計測処理部54,55が同時に処理
を開始し、3次元計測処理部54ではステップ2〜5の
処理が、2次元計測処理部55ではステップ6〜11の
処理が、それぞれ実行される。
【0153】まず図34〜図37を参照しつつ、3次元
計測処理部54による詳細な処理の流れを説明する。な
おここで設定される空間座標は、入場口49付近の所定
位置を原点Oとして、人の並び方向をZ軸,並んだ人の
幅方向をX軸,高さ方向をY方向とするものとする。
【0154】まず特徴抽出部57は、各画像入力部53
a,53bに入力された画像に対し、それぞれ図34に
示すようなラプラシアンフィルタを走査して、ゼロクロ
ッシング点を抽出することにより、画像上の垂直方向に
おけるエッジ成分を抽出する(ステップ2)。この抽出
結果は、具体的には、エッジを構成する画素を黒画素と
する2値のエッジ画像として内部のメモリに記憶される
もので、つぎに対応付け処理部58によりこれら各エッ
ジ画像間でのエッジ構成点の対応付け処理が行われる
(ステップ3)。
【0155】図35(1)(2)は、前記対応付け処理
の具体例を示すもので、図35(1)は第1のカメラ5
0aからの入力画像Ia およびそのエッジ画像Ea (以
下「第1エッジ画像Ea 」という)を、図35(2)は
第2のカメラbからの入力画像Ib およびそのエッジ画
像Eb (以下「第2エッジ画像Eb 」という)を、それ
ぞれ示す。
【0156】ここで第1のカメラ50aに対応する第1
エッジ画像Ea 上の任意のエッジ構成点U(xU
U )について、第2エッジ画像Eb 上でこの点Uに対
応する点を検索する場合、対応付け処理部58は、まず
第2エッジ画像Eb 上で前記点UのエピポーララインE
P上に位置するエッジ構成点(図示例では点V1
2 ,V3 )を、前記点Uへの対応候補点として抽出す
る。なお前記したように、カメラ50a,50bは光軸
を平行にして横並びに配置されているので、エピポーラ
ラインEPはy軸に垂直な方向に設定されることにな
る。
【0157】つぎに対応付け処理部58は、前記第1入
力画像Ia 上の前記エッジ構成点Uの座標位置(xU
U )に、この点Uを中心とする所定大きさのウィンド
ウWU を設定するとともに、第2入力画像Ib 上の前記
各点V1 ,V2 ,V3 の位置に、それぞれその点を中心
とする前記ウィンドウWU と同じ大きさのウィンドウW
V1,WV2,WV3を設定し、つぎの(40)式を用いてウ
ィンドウWU に対する各ウィンドウWV1,WV2,WV3
相違度DFを算出する。ただし(40)式において、g
U (i,j)は前記ウィンドウWu 内の所定の画素の輝
度値を、gVk(i,j)は比較対照のウィンドウW
Vk(k=1,2,3)内の対応画素の輝度値を、それぞ
れ示す。またi,jは1よりウィンドウのサイズ(x軸
方向をM,y軸方向をNとする)に応じた値までの範囲
内で変動する変数である。
【0158】
【数40】
【0159】対応付け処理部58は、各ウィンドウWVk
毎に求められたウィンドウWU に対する相違度DFを比
較して、この相違度DFが最も小さくなるようなウィン
ドウを、前記ウィンドウWU に対応するものとして判別
する。そしてそのウィンドウの中心点に相当するエッジ
構成点を、前記第1エッジ画像のエッジ構成点Uへの対
応点として決定する。
【0160】図36は、前記ウィンドウWV1〜WV3につ
いてウィンドウWU に対する相違度を算出した結果を示
す。この例ではウィンドウWV1の相違度が最も小さくな
っており、したがって前記エッジ構成点Uに対する第2
エッジ画像上での対応点はV1 であるとみなされる。
【0161】上記の対応付け処理が、両エッジ画像内の
すべてのエッジ構成点について行われると、3次元座標
算出部59は、この対応付け結果と三角測量の原理とを
用いて各エッジ構成点の表す物点の3次元座標を算出す
る(ステップ4)。いま第1エッジ画像上の点U
(xU ,yU )に対する第2エッジ画像上の対応点Vの
座標を(xV ,yU )とすると、これら点U,Vに対応
する空間中の物点の3次元座標(X,Y,Z)は、つぎ
の(41)式により算出される。ただし(41)式にお
いて、WT,HT,CDW ,CDH は、前記(37)
(38)式で定義したのと同様のパラメータであり、B
は基線長に相当する各カメラ間の距離である。
【0162】
【数41】
【0163】なお上記の3次元座標の算出処理は、対応
する各エッジ構成点のx座標値の差(xU −xV )によ
り表される視差が所定のしきい値以上となる物点につい
てのみ行われるもので、これにより安定した計測結果が
得られる範囲内に位置する物体の3次元データが得られ
ることになる。
【0164】上記の3次元座標の算出処理が終了する
と、物体判定部60は、得られた各3次元座標点の中か
ら人間の特徴を示すものとして、所定値以上の高さを有
する点(すなわちY座標値が所定のしきい値以上となる
点)を抽出し、これら各点のX,Z座標をXZ平面上に
プロットする。さらに物体判定部60は、これらプロッ
トされた点に対しクラスタリング処理を行って、所定の
距離内にある特徴点群毎にグループ分けし、これら各グ
ループの中心点などを1人の人物の位置データとして特
定する(ステップ5)。
【0165】図37は、前記図31(1)(2)の入力
画像についての3次元座標点の抽出結果をグループ分け
の結果とともに示すもので、各グループMGA ,MGB
は、撮像位置の手前に位置する2人の人物(図31
(1)中の画像MRA,MRBおよび図31(2)中の画像
LA,MLBに相当する)を表している。なおこの判定結
果は、前記統合出力部56のほか、2次元計測処理部5
5の領域削除部64へと出力される。
【0166】つぎにステップ6〜11の2次元計測処理
部55による一連の処理を説明する。まずステップ6で
は、差分処理部61により、カメラ50aからの入力画
像と背景画像記憶部62に記憶された背景画像(図38
に示す)との差分処理が行われた後、つぎのステップ7
で、2値化処理部63によりこの差分処理画像の2値化
処理が実施される。
【0167】図39は、前記図31(1)に示した第1
入力画像Ia に対し、前記差分処理と2値化処理とを実
施した結果を示すもので、前記4人の人物の特徴mA
B,mC ,mD が抽出されている。
【0168】削除処理部64は、この抽出結果から前記
3次元計測処理部54による計測対に対応する特徴を削
除するためのもので、特徴抽出部65は、この削除処理
後の2値画像上で前記したラベル付け処理を実行して、
人物を示す特徴を抽出する(ステップ8,9,10)。
図40は、前記図35〜37に示した3次元計測処理に
より得られた特徴点の3次元座標から導き出した2次元
データを示す。また図40は、前記図39の2値画像か
らこの図40の画像を差し引き処理した結果であって、
3次元計測処理が行われなかった後方の2人の人物の特
徴mC ,mD のみが抽出される。
【0169】物体判定部66は、この抽出結果に対し、
各特徴の重心などの代表点を人物の位置として特定した
後、この特定位置を前記第4の実施例の(37)(3
8)式を用いてXZ平面上の座標に変換し、その結果を
統合出力部56へと出力する(ステップ11)。
【0170】こうして3次元,2次元の各計測処理が終
了すると、統合出力部56は、これら計測結果から各人
物の位置を特定し、その特定結果を用いて各人物の動き
を示す人流データを生成し、外部へと出力する(ステッ
プ12)。図42は、前記各入力画像Ia,Ib上に現
れた4人の人物それぞれについて、XZ平面上における
位置の変化を示すデータMA 〜MD を示したもので、こ
れら各データMA 〜MD により各人物の動きや移動速度
などを認識することができる。なお3次元計測処理に基
づく人物の位置は、前記特徴点群の中心点などをもって
特定されるものとする。
【0171】このように、撮像位置から見て信頼度の高
い3次元計測値の得られる範囲内に範囲内においては3
次元計測結果を採用し、この範囲より遠方の地点につい
ては2次元計測結果を採用することにより、3次元計測
処理の信頼性が低下する地点での計測処理を2次元計測
処理により肩代わりでき、広い範囲にわたって精度の良
い観測を行うことができる。しかも時間の流れに沿っ
て、各計測結果を対応づけるので、2次元計測処理にお
いて複数の人物の特徴が1人の人物の特徴として誤認識
されることがあっても、3次元計測結果との関連づけに
よりその認識結果を修正することができ、いずれか一方
の計測処理を用いるよりもはるかに精度の良い認識処理
を行うことができる。
【0172】
【発明の効果】請求項1の発明では、観測位置から特定
方向に対し、複数の視野を設定し、各視野毎に得られた
画像上で抽出された特徴部分を統合して対象物を認識す
るので、観測位置の近傍位置と遠方位置とをそれぞれ別
の視野内で観測してその結果を統合することにより、従
来よりもはるかに広い範囲で対象物を精度良く認識する
ことができる。
【0173】請求項2の発明では、特定方向に対し、複
数個の撮像手段を用いた3次元計測処理と少なくとも1
つの撮像手段を用いた2次元計測とを実施し、これら抽
出結果を統合するので、3次元計測処理では信頼性の低
くなる地点の処理を2次元計測処理により補うことがで
き、従来の3次元計測処理よりもはるかに広い範囲で対
象物を精度良く認識できる。
【0174】請求項3の発明では、前記請求項2の認識
処理において、前記観測位置より所定の地点までの特徴
抽出結果については前記3次元計測結果を優先的に採用
し、それ以降の地点における特徴抽出結果については前
記2次元計測結果を採用するので、3次元計測処理では
対象物を正確に認識できない遠方の地点までを認識可能
な範囲に含むことができる。
【0175】請求項4の発明では、請求項1,2のいず
れかの方法により、前記特定方向における対象物の位置
を遠方地点まで精度良く認識できる。また請求項5の発
明では特定方向に並ぶ対象物の列長さを、請求項6の発
明では特定方向における対象物の動きあるいは流れを、
観測位置近傍から遠方に至るまで正確に認識することが
できる。
【0176】請求項7の発明では、複数個の撮像手段の
視野を、それぞれ観測位置から特定方向に対し異なるよ
うに設定して撮像を行い、各撮像手段からの画像毎に抽
出された特徴部分を統合するので、前記請求項1と同
様、広い範囲で精度の高い認識処理を実施することがで
きる。
【0177】請求項8の発明では、各撮像手段からの画
像に対する特徴処理を、所定の時間毎に切り替えて実施
するので、装置構成が簡易化される。
【0178】請求項9の発明では、請求項7と同様の状
態で観測位置に複数個の撮像手段を設置し、各撮像手段
からの画像をそれぞれ対象物の支持面を含む仮想水平面
上に投影して特徴部分を抽出するので、対象物の影など
認識対象以外の特徴部分を誤抽出することがなくなり、
認識精度が大幅に向上する。
【0179】請求項10の発明では、前記各透視変換画
像を1枚の画像に合成した後、この合成画像上で対象物
の特徴部分の抽出処理を行うので、装置構成が簡易化さ
れる上、処理速度を向上することができる。
【0180】請求項11の発明では、異なる視野が設定
された複数個の撮像手段のいずれかから画像を取り込
み、この取り込まれた画像上での特徴抽出を行いつつ、
その抽出結果に基づき画像を取り込む撮像手段を切り替
え制御する。この結果、各入力画像毎に得られた特徴抽
出結果を統合して対象物の認識処理を行うので、前記特
定方向における対象物の位置に応じた画像を用いて精度
の良い認識処理を実施することができる。
【0181】請求項12の発明では、観測位置におい
て、前記特定方向に対し複数の視野を設定可能な撮像手
段を設置し、この撮像手段をその視野を所定の時間毎に
切り替えて撮像させ、各視野毎の画像上での特徴抽出結
果を統合して認識処理を行うので、単独の撮像手段を用
いて遠方地点までを精度良く認識することが可能とな
る。
【0182】請求項13の発明では、請求項12と同
様、撮像手段の視野を所定の時間毎に切り替えて撮像さ
せ、各視野毎の画像を、前記請求項9の発明と同様、対
象物の支持面を含む仮想水平面上に透視変換し、特徴の
抽出処理を行うので、対象物の影などの特徴を誤抽出す
ることなく、認識精度を大幅に向上できる。
【0183】請求項14の発明では、請求項12と同様
の撮像手段を観測位置に設置し、この撮像手段からの画
像上での特徴抽出結果に応じてその視野を切り替えつ
つ、各視野毎の特徴抽出結果を統合して認識処理を行う
ので、前記請求項11と同様、前記特定方向における対
象物の位置に応じた視野を設定して、精度の良い認識を
行うことが可能となる。
【0184】請求項15の発明では、相対位置関係が既
知の複数個の撮像手段を特定方向に向けて撮像を行わ
せ、各撮像手段からの画像を用いた3次元計測処理と、
少なくとも1つの撮像手段を用いた2次元計測処理とを
実施した後、観測位置より所定距離離れた地点までは3
次元計測結果を、その地点より遠方については2次元計
測結果を、それぞれ選択して対象物を認識するので、3
次元計測による特徴抽出精度が悪くなる遠方の地点にお
いても、2次元計測結果を用いて対象物を精度良く認識
することができる。また特に移動する物体に対し時間に
沿った認識処理を行う場合には、遠方位置での2次元計
測処理により複数の物体が単体として誤認識されること
があっても、後の3次元計測結果との関連づけによりそ
の誤認識を修正することができるなど、いずれか一方の
計測処理を用いるよりもはるかに精度の良い認識処理を
行うことができる。
【図面の簡単な説明】
【図1】この発明が適用された交通流計測装置の設置例
を示す説明図である。
【図2】各カメラからの入力画像を示す説明図である。
【図3】図1の交通流計測装置に用いられる制御装置の
構成例を示すブロック図である。
【図4】図3の制御装置における処理手順を示すフロー
チャートである。
【図5】各入力画像の差分処理に用いられる背景画像を
示す説明図である。
【図6】図2(1)(2)の各入力画像に対する特徴抽
出結果を示す説明図である。
【図7】車輌判別処理の方法を示す説明図である。
【図8】車輌位置の抽出結果をXZ平面上にプロットし
た状態を示す説明図である。
【図9】各入力画像毎の車輌位置の追跡処理結果を示す
説明図である。
【図10】図9の追跡処理結果を統合した状態を示す説
明図である。
【図11】制御装置の他の構成例を示すブロック図であ
る。
【図12】図11の制御装置における追跡処理結果を示
す説明図である。
【図13】透視変換処理にかかるカメラ座標系と空間座
標系との関係を示す説明図である。
【図14】入力画像およびその透視変換画像を示す説明
図である。
【図15】透視変換処理が導入された制御装置の構成を
示すブロック図である。
【図16】図15の制御装置における処理手順を示すフ
ローチャートである。
【図17】各カメラからの入力画像、および合成透視変
換画像の生成方法を示す説明図である。
【図18】合成透視変換画像の差分処理に用いられる背
景画像を示す説明図である。
【図19】図17(3)の合成透視変換画像上における
特徴抽出結果を示す説明図である。
【図20】この発明が適用された車列計測装置の設置例
を示す説明図である。
【図21】図20の車列計測装置に用いられるカメラお
よび制御装置の構成例を示すブロック図である。
【図22】各カメラからの入力画像を示す説明図であ
る。
【図23】図22の入力画像の差分処理に用いられる背
景画像を示す説明図である。
【図24】図22の入力画像に対する特徴抽出結果を示
す説明図である。
【図25】図21の制御装置における処理手順を示すフ
ローチャートである。
【図26】カメラの撮像系と空間座標系との関係を示す
説明図である。
【図27】図20の車列計測装置に用いられるカメラお
よび制御装置の他の構成例を示すブロック図である。
【図28】図27の制御装置が導入された場合のカメラ
の視野の設定例を示す説明図である。
【図29】この発明が適用された人流計測装置の設置例
を示す説明図である。
【図30】図29の人流計測装置に導入されるカメラの
配置構成を示す説明図である。
【図31】各カメラからの入力画像を示す説明図であ
る。
【図32】図29の人流計測装置に導入される制御装置
の構成を示すブロック図である。
【図33】図32の制御装置における処理手順を示すフ
ローチャートである。
【図34】ラプラシアンフィルタの構成を示す説明図で
ある。
【図35】エッジ構成点の対応付け処理の原理を示す説
明図である。
【図36】エッジ構成点の対応付け処理の原理を示す説
明図である。
【図37】3次元計測結果を示す説明図である。
【図38】入力画像の差分処理に用いられる背景画像を
示す説明図である。
【図39】図31の入力画像に対する特徴抽出結果を示
す説明図である。
【図40】3次元計測処理の処理対象となった特徴を示
す説明図である。
【図41】図39の特徴抽出結果から図40に示した特
徴を差し引き処理した結果を示す説明図である。
【図42】3次元計測処理と2次元計測処理とを統合し
て追跡処理を行った結果を示す説明図である。
【符号の説明】
1a,1b,30,50a,50b カメラ 5,31,52 制御装置 7a,7b,7,25 車輌認識部 9 統合認識部 19 結果統合部 23a,23b 透視変換処理部 24 画像合成部 38 後尾判定部 40 レンズ制御部 41 角度制御部 42 ズームレンズ 43 俯角調整機構 54 3次元計測処理部 55 2次元計測処理部 56 統合出力部

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 所定の観測位置から特定方向を観測して
    前記特定方向における対象物を認識する方法において、 前記観測位置から特定方向に対し複数の視野を設定して
    撮像し、各視野毎に、前記撮像により得られた画像を用
    いてそれぞれ対象物を示す特徴を抽出した後、これら抽
    出結果を統合して対象物の認識処理を実施することを特
    徴とする物体認識方法。
  2. 【請求項2】 所定の観測位置から特定方向を観測して
    前記特定方向における対象物を認識する方法において、 前記観測位置に相対位置関係が既知の複数個の撮像手段
    を前記特定方向に向けて設置し、各撮像手段からの画像
    を用いて対象物にかかる3次元計測処理を行うととも
    に、少なくとも1つの撮像手段からの画像を用いて対象
    物にかかる2次元計測処理を実施し、これら計測結果を
    統合して対象物の認識処理を実施することを特徴とする
    物体認識方法。
  3. 【請求項3】 前記認識処理において、前記観測位置よ
    り所定距離だけ離れた地点までは前記3次元計測結果を
    優先的に採用し、この地点より遠方については前記2次
    元計測を優先的に採用する請求項2に記載された物体認
    識方法。
  4. 【請求項4】 前記認識処理は、前記特定方向における
    対象物の位置を認識する処理である請求項1または2に
    記載された物体認識方法。
  5. 【請求項5】 前記認識処理は、前記特定方向に並ぶ対
    象物の列長さを認識する処理である請求項1または2に
    記載された物体認識方法。
  6. 【請求項6】 前記認識処理は、前記特定方向における
    対象物の動きあるいは流れを認識する処理である請求項
    1または2に記載された物体認識方法。
  7. 【請求項7】 所定の観測位置から特定方向を観測して
    前記特定方向における対象物を認識する装置であって、 前記観測位置に設置され、前記特定方向に対しそれぞれ
    異なる視野が設定されて成る複数個の撮像手段と、 前記各撮像手段からの画像に対し、それぞれその画像上
    で対象物を示す特徴を抽出する特徴抽出手段と、 各画像に対する特徴抽出結果を統合して前記特定方向に
    おける対象物の認識処理を実施する認識手段とを具備し
    て成る物体認識装置。
  8. 【請求項8】 前記特徴抽出手段は、前記各撮像手段か
    らの画像に対する特徴抽出処理を、所定の時間毎に切り
    替えて実施する請求項7に記載された物体認識装置。
  9. 【請求項9】 所定の観測位置から特定方向を観測して
    前記特定方向における対象物を認識する装置であって、 前記観測位置に設置され、前記特定方向に対しそれぞれ
    異なる視野が設定されて成る複数個の撮像手段と、 前記各撮像手段からの画像をそれぞれ対象物の支持面を
    含む仮想水平面上に透視変換する透視変換手段と、 前記透視変換手段により生成された各透視変換画像上で
    それぞれ対象物を示す特徴を抽出する特徴抽出手段と、 各透視変換画像毎の特徴抽出結果を統合して前記特定方
    向における対象物を認識する認識手段とを具備して成る
    物体認識装置。
  10. 【請求項10】 前記特徴抽出手段は、前記各透視変換
    画像を合成して1枚の画像を生成した後、この合成画像
    上で対象物を示す特徴の抽出処理を実施する請求項9に
    記載された物体認識装置。
  11. 【請求項11】 所定の観測位置から特定方向を観測し
    て前記特定方向における対象物を認識する装置であっ
    て、 前記観測位置に設置され、前記特定方向に対しそれぞれ
    異なる視野が設定されて成る複数個の撮像手段と、 いずれかの撮像手段の画像を取り込む画像入力手段と、 前記画像入力手段に取り込まれた画像上で対象物を示す
    特徴を抽出する特徴抽出手段と、 前記特徴抽出手段の抽出結果に基づき前記画像入力手段
    の画像入力元の撮像手段を切替え制御する切替え制御手
    段と、 前記切替え制御下で得られた各入力画像毎の特徴抽出結
    果を統合して前記特定方向における対象物の認識処理を
    実施する認識手段とを具備して成る物体認識装置。
  12. 【請求項12】 所定の観測位置から特定方向を観測し
    て前記特定方向における対象物を認識する装置であっ
    て、 前記観測位置に設置され、前記特定方向に対し複数の視
    野を設定可能な撮像手段と、 前記撮像手段の視野を所定の時間毎に切替え制御する視
    野制御手段と、 各視野毎に得られた画像上でそれぞれ対象物を示す特徴
    を抽出する特徴抽出手段と、 各視野毎の特徴抽出結果を統合して前記特定方向におけ
    る対象物を認識する認識手段を具備して成る物体認識装
    置。
  13. 【請求項13】 所定の観測位置から特定方向を観測し
    て前記特定方向における対象物を認識する装置であっ
    て、 前記観測位置に設置され、前記特定方向に対し複数の視
    野を設定可能な撮像手段と、 前記撮像手段の視野を所定の時間毎に切替え制御する視
    野制御手段と、 各視野毎に得られた画像をそれぞれ対象物の支持面を含
    む仮想水平面上に透視変換する透視変換手段と、 前記透視変換手段により生成された各透視変換画像上で
    それぞれ対象物を示す特徴を抽出する特徴抽出手段と、 各視野毎の特徴抽出結果を統合して前記特定方向におけ
    る対象物を認識する認識手段を具備して成る物体認識装
    置。
  14. 【請求項14】 所定の観測位置から特定方向を観測し
    て前記特定方向における対象物を認識する装置であっ
    て、 前記観測位置に設置され、前記特定方向に対し複数の視
    野を設定可能な撮像手段と、 前記撮像手段により得られた画像上で対象物を示す特徴
    を抽出する特徴抽出手段と、 前記特徴抽出手段の抽出結果に基づき前記撮像手段の視
    野を切替え制御する視野制御手段と、 前記切替え制御下で得られた各視野毎の特徴抽出結果を
    統合して前記特定方向における対象物の認識処理を実施
    する認識手段とを具備して成る物体認識装置。
  15. 【請求項15】 所定の観測位置から特定方向を観測し
    て前記特定方向における対象物を認識する装置であっ
    て、 前記観測位置に特定方向に向けて設置され、相対的な位
    置関係が既知の複数個の撮像手段と、 前記各撮像手段からの画像を用いた3次元計測処理を実
    施する3次元計測処理手段と、 少なくとも1つの撮像手段からの画像を用いた2次元計
    測処理を実施する2次元計測処理手段と、 前記3次元計測処理手段による計測結果のうち、前記観
    測位置から所定距離離れた地点までに計測された結果を
    選択するとともに、前記2次元計測処理手段による計測
    結果の中から、前記3次元計測結果が選択された地点よ
    りも遠方の地点に対応する計測結果を選択し、これら選
    択された計測結果を統合して前記特定方向における対象
    物の認識処理を実施する認識手段とを具備して成る物体
    認識装置。
JP9087372A 1997-03-21 1997-03-21 物体認識方法およびその装置 Pending JPH10269362A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9087372A JPH10269362A (ja) 1997-03-21 1997-03-21 物体認識方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9087372A JPH10269362A (ja) 1997-03-21 1997-03-21 物体認識方法およびその装置

Publications (1)

Publication Number Publication Date
JPH10269362A true JPH10269362A (ja) 1998-10-09

Family

ID=13913075

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9087372A Pending JPH10269362A (ja) 1997-03-21 1997-03-21 物体認識方法およびその装置

Country Status (1)

Country Link
JP (1) JPH10269362A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
JP2005128815A (ja) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd 人物検出装置及び人物検出方法
US7283646B2 (en) 2002-11-19 2007-10-16 Sumitomo Electric Industries, Ltd. Image processing system using rotatable surveillance camera
JP2008092459A (ja) * 2006-10-04 2008-04-17 Toyota Motor Corp 周辺監視装置
JP2008225801A (ja) * 2007-03-12 2008-09-25 Toshiba Corp 不審者検知システム及び方法
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置
JP2009223693A (ja) * 2008-03-17 2009-10-01 Glory Ltd 人物計数装置および人物計数方法
JP2012079340A (ja) * 2011-12-26 2012-04-19 Toshiba Corp 不審対象検知システム、不審対象検知装置、不審対象検知方法及びプログラム
US8208718B2 (en) 2009-03-12 2012-06-26 Omron Corporation Method for deriving parameter for three-dimensional measurement processing and three-dimensional visual sensor
JP2012146146A (ja) * 2011-01-12 2012-08-02 Denso It Laboratory Inc 移動物体検出装置
US8280151B2 (en) 2009-03-11 2012-10-02 Omron Corporation Method for displaying recognition result obtained by three-dimensional visual sensor and three-dimensional visual sensor
US8295588B2 (en) 2009-03-12 2012-10-23 Omron Corporation Three-dimensional vision sensor
JP2013069045A (ja) * 2011-09-21 2013-04-18 Honda Elesys Co Ltd 画像認識装置、画像認識方法および画像認識プログラム
US8447097B2 (en) 2009-03-12 2013-05-21 Omron Corporation Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US8565515B2 (en) 2009-03-12 2013-10-22 Omron Corporation Three-dimensional recognition result displaying method and three-dimensional visual sensor
US8654193B2 (en) 2009-03-13 2014-02-18 Omron Corporation Method for registering model data for optical recognition processing and optical sensor
KR101373856B1 (ko) * 2011-04-29 2014-03-11 휴앤에스(주) 어레이형 카메라 장치 및 어레이 영상획득방법
JP2015152319A (ja) * 2014-02-10 2015-08-24 株式会社デンソー 物体識別方法、および物体識別装置

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7283646B2 (en) 2002-11-19 2007-10-16 Sumitomo Electric Industries, Ltd. Image processing system using rotatable surveillance camera
JP2004191083A (ja) * 2002-12-09 2004-07-08 Mitsubishi Electric Corp 人物検出装置
JP2005128815A (ja) * 2003-10-24 2005-05-19 Matsushita Electric Ind Co Ltd 人物検出装置及び人物検出方法
JP2008092459A (ja) * 2006-10-04 2008-04-17 Toyota Motor Corp 周辺監視装置
JP2008225801A (ja) * 2007-03-12 2008-09-25 Toshiba Corp 不審者検知システム及び方法
JP2008236642A (ja) * 2007-03-23 2008-10-02 Hitachi Ltd 物体追跡装置
JP2009223693A (ja) * 2008-03-17 2009-10-01 Glory Ltd 人物計数装置および人物計数方法
US8280151B2 (en) 2009-03-11 2012-10-02 Omron Corporation Method for displaying recognition result obtained by three-dimensional visual sensor and three-dimensional visual sensor
US8208718B2 (en) 2009-03-12 2012-06-26 Omron Corporation Method for deriving parameter for three-dimensional measurement processing and three-dimensional visual sensor
US8295588B2 (en) 2009-03-12 2012-10-23 Omron Corporation Three-dimensional vision sensor
US8447097B2 (en) 2009-03-12 2013-05-21 Omron Corporation Calibration apparatus and method for assisting accuracy confirmation of parameter for three-dimensional measurement
US8559704B2 (en) 2009-03-12 2013-10-15 Omron Corporation Three-dimensional vision sensor
US8565515B2 (en) 2009-03-12 2013-10-22 Omron Corporation Three-dimensional recognition result displaying method and three-dimensional visual sensor
US8654193B2 (en) 2009-03-13 2014-02-18 Omron Corporation Method for registering model data for optical recognition processing and optical sensor
JP2012146146A (ja) * 2011-01-12 2012-08-02 Denso It Laboratory Inc 移動物体検出装置
KR101373856B1 (ko) * 2011-04-29 2014-03-11 휴앤에스(주) 어레이형 카메라 장치 및 어레이 영상획득방법
JP2013069045A (ja) * 2011-09-21 2013-04-18 Honda Elesys Co Ltd 画像認識装置、画像認識方法および画像認識プログラム
JP2012079340A (ja) * 2011-12-26 2012-04-19 Toshiba Corp 不審対象検知システム、不審対象検知装置、不審対象検知方法及びプログラム
JP2015152319A (ja) * 2014-02-10 2015-08-24 株式会社デンソー 物体識別方法、および物体識別装置

Similar Documents

Publication Publication Date Title
JP3167752B2 (ja) 車輌用距離検出装置
JPH10269362A (ja) 物体認識方法およびその装置
EP2437494B1 (en) Device for monitoring area around vehicle
JP5663352B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6270102B2 (ja) 移動面境界線認識装置、これを用いた移動体機器制御システム、移動面境界線認識方法及び移動面境界線認識用プログラム
JP4275378B2 (ja) ステレオ画像処理装置およびステレオ画像処理方法
JP2003083742A (ja) 監視システムの距離補正装置および距離補正方法
JPH1166319A (ja) 移動体検出方法及び装置並びに移動体認識方法及び装置並びに人間検出方法及び装置
JP2004354257A (ja) キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
CN111462503A (zh) 车辆测速方法、装置及计算机可读存储介质
JP2000011133A (ja) 移動物体検出装置及びその方法
JP3709879B2 (ja) ステレオ画像処理装置
CN109544635B (zh) 一种基于枚举试探的相机自动标定方法
JP3577875B2 (ja) 移動物体抽出装置
JP2004028727A (ja) 監視システムおよび監視方法、当該監視システムにおける距離補正装置および距離補正方法
JP2611173B2 (ja) 魚眼レンズを用いた測位方法およびその装置
JP2000293693A (ja) 障害物検出方法および装置
JP2003061075A (ja) 物体追跡装置、物体追跡方法および侵入者監視システム
JP7426611B2 (ja) 校正方法および校正装置
Zhao et al. Alignment of continuous video onto 3D point clouds
JP3629935B2 (ja) 移動体の速度計測方法およびその方法を用いた速度計測装置
JP3516118B2 (ja) 物体認識方法および物体認識装置
JP3465531B2 (ja) 物体認識方法およびその装置
JP3605955B2 (ja) 車輌判別装置
JP2009077022A (ja) 運転支援システム及び車両