JPH1093954A - 物体検知方法及びシステム - Google Patents

物体検知方法及びシステム

Info

Publication number
JPH1093954A
JPH1093954A JP24307896A JP24307896A JPH1093954A JP H1093954 A JPH1093954 A JP H1093954A JP 24307896 A JP24307896 A JP 24307896A JP 24307896 A JP24307896 A JP 24307896A JP H1093954 A JPH1093954 A JP H1093954A
Authority
JP
Japan
Prior art keywords
video camera
information
distance
optical flow
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP24307896A
Other languages
English (en)
Inventor
Akitoshi Tsukamoto
明利 塚本
Naohiro Amamoto
直弘 天本
Akihiro Fujii
明宏 藤井
Koji Matsumoto
浩司 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP24307896A priority Critical patent/JPH1093954A/ja
Publication of JPH1093954A publication Critical patent/JPH1093954A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

(57)【要約】 【課題】 予め背景画像を用意することなく、1台のビ
デオカメラの視野範囲を大きく越える監視領域につい
て、静止物体の存在を検知する。 【解決手段】 ビデオカメラは、所定方向に移動しなが
ら撮像を行なう。異なる時刻に撮影された2枚の画像か
らオプティカルフローを算出する。算出されたオプティ
カルフローから、各オプティカルフローを生成した物体
とビデオカメラまでの奥行き方向の距離情報を生成す
る。ビデオカメラの位置と常設物体の位置及び形状によ
って定まる、撮像画像の各画素に対応するビデオカメラ
からの奥行き情報を出力する。距離情報と奥行き情報と
の距離差分値を求める。オプティカルフロー及び距離差
分値に基づいて、常設物体以外の静止物体の検出を行な
う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像情報により監
視領域内の物体の存在を検知する物体検知方法及びシス
テムに関し、例えば、道路上に存在する停止車両や落下
物等の検知や、踏切内に取り残された車両等の検知に適
用し得るものである。
【0002】
【従来の技術】従来から、画像を用いた物体検知方式と
して様々なものが提案されており、例えば、文献1『特
開平8−55288号公報』に記載されたものがある。
【0003】この文献1に記載の物体検知方式(監視シ
ステム)は、予め物体が存在しないときの画像を背景画
像として撮影しておき、現在の画像との比較を行なって
物体が存在するか否かを判定するものであった。
【0004】
【発明が解決しようとする課題】しかしながら、背景画
像を参照して物体を検知する場合には、現在の画像を撮
影するビデオカメラの位置や向き等が、背景画像を撮影
したビデオカメラのものに一致している必要があるた
め、通常、固定のビデオカメラが用いられ、そのため、
監視領域は、ビデオカメラの視野範囲に制限される。従
って、例えば道路上等の屋外の広い範囲にわたって監視
を行なう場合には、複数の監視システムを設置する必要
がある。
【0005】また、例えば、昼夜や天候の違い等によ
り、入力画像の照明条件が背景画像の撮像時と異なる場
合には性能への影響が顕著であり、この問題を克服する
ための工夫が必要となる。
【0006】そのため、予め背景画像を用意することな
く、1台のビデオカメラの視野範囲を越える広さの監視
領域を監視し、物体の存在を検知する物体検知方法及び
システムが求められている。
【0007】
【課題を解決するための手段】かかる課題を解決するた
め、第1の本発明は、監視領域をビデオカメラで撮影
し、得られた画像に基づいて、監視領域中の物体の存在
を検知する物体検知方法において、(1) ビデオカメラ
は、所定方向に移動しながら撮像を行ない、(2) 異なる
時刻に撮影された2枚の画像からオプティカルフローを
算出し、(3) 算出されたオプティカルフローから、各オ
プティカルフローを生成した物体とビデオカメラまでの
距離情報を生成し、(4) ビデオカメラの位置と常設物体
の位置及び形状によって定まる、撮像画像の各画素に対
応するビデオカメラからの奥行き情報を出力し、(5) 距
離情報と奥行き情報との距離差分値を求め、(6) オプテ
ィカルフロー及び距離差分値に基づいて、常設物体以外
の静止物体の検出を行なうことを特徴とする。
【0008】また、第2の本発明は、監視領域をビデオ
カメラで撮影し、得られた画像に基づいて、監視領域中
の物体の存在を検知する物体検知システムにおいて、
(1) ビデオカメラを、所定方向に移動させるカメラ移動
機構と、(2) ビデオカメラの位置情報を出力するカメラ
位置出力手段と、(3) 異なる時刻に撮影された2枚の画
像からオプティカルフローを算出するオプティカルフロ
ー算出手段と、(4) 算出されたオプティカルフローか
ら、各オプティカルフローを生成した物体とビデオカメ
ラまでの距離情報を生成する距離算出手段と、(5) ビデ
オカメラの位置と常設物体の位置及び形状によって定ま
る、撮像画像の各画素に対応するビデオカメラからの奥
行き情報を出力する奥行き出力手段と、(6) 距離情報と
奥行き情報との距離差分値を求める奥行き比較手段と、
(7) オプティカルフロー及び距離差分値に基づいて、常
設物体以外の静止物体の検出を行なう物体検出手段とを
備えることを特徴とする。
【0009】第1の本発明の物体検知方法及び第2の本
発明の物体検知システムにより、予め背景画像を用意す
ることなく、1台のビデオカメラの視野範囲を大きく越
える監視領域について、静止物体の存在を検知すること
ができる。
【0010】
【発明の実施の形態】 (A)第1の実施形態 (A−1)第1の実施形態の構成 以下、本発明による物体検知方法及びシステムを道路上
の障害物検知に適用した第1の実施形態について、図面
を用いて説明する。
【0011】ここで、図1がこの第1の実施形態の電気
的な処理構成、特に、物体検知装置の内部構成を示すブ
ロック図であり、図2は、第1の実施形態のシステム要
素の実際的な配置を示す概略斜視図である。
【0012】図2において、ビデオカメラ11は、監視
領域である道路21に沿って路側に設置されたレール2
2上を移動する台車23上に載置されているものであ
る。ビデオカメラ11は、道路21の横断方向に、地面
に対して平行に向けられている。ビデオカメラ11によ
って得られた画像信号(以下、単に画像と呼ぶこともあ
る)は、レール22(レール自体がケーブルとして機能
するか、又は、レールの側面に図示しないケーブルが敷
設されている)、及び、そのレール22の一方の端部か
ら延出されているケーブル24を介して、レール22の
一方の端部近傍に設けられた、図1に詳細構成を示す物
体検知装置19に供給されるようになされている。
【0013】レール22の他方の端部近傍には、正逆回
転可能なモータ25が設けられており、モータ25の回
転軸には回転直動変換機構(ラック及びピニオン、ベル
ト車及びベルト、歯車及びチェーン等:図では明確には
示していない)が設けられており、その直動部26の所
定位置に台車23が固定され、これにより、台車23
が、モータ25の回転に応じて、往復動し得るようにな
されている。
【0014】なお、台車23の往動及び復動のいずれに
おいても、ビデオカメラ11による撮像を行なうことも
可能であるが、この実施形態では、例えば、台車23
(従ってビデオカメラ11)が、物体検知装置19の近
傍からモータ25の近傍への移動時にのみ、ビデオカメ
ラ11による撮像を行なうものとする。また、この実施
形態では、撮像を行なう移動方向でのビデオカメラ11
の移動速度は定速度になされているとする。
【0015】また、モータ25の回転軸には、カメラ位
置獲得装置(例えばシャフトエンコーダ)15が取り付
けられており、カメラ位置獲得装置15による検出信号
が、台車23(従ってビデオカメラ11)の位置情報と
して、信号線27を介して、物体検知装置19に供給さ
れるようになされている。
【0016】以上のように、ビデオカメラ11が撮像し
た画像信号、及び、カメラ位置獲得装置15が獲得した
ビデオカメラ11の位置情報が与えられる物体検知装置
19は、図1に示す詳細構成を有し、道路21上に存在
する静止物体(従って障害物)を検知するものである。
【0017】物体検知装置19は、図1に示すように、
オプティカルフロー算出部12、距離算出部13、奥行
き算出部14、環境情報格納部16、奥行き比較部17
及び障害物検出部18から構成されている。
【0018】オプティカルフロー算出部12には、ビデ
オカメラ11が撮像して得た画像信号が供給される。オ
プティカルフロー算出部12は、撮像時刻が異なる2枚
の画像信号から、ビデオカメラ11の移動に伴う画像上
での見かけの動きを示すオプティカルフロー(動きベク
トル)を算出し、得られたオプティカルフローを距離算
出部13に供給するものである。オプティカルフローの
算出に供する2枚の画像信号は、後述するように、オプ
ティカルフローから道路幅方向の距離を算出した場合
に、十分な精度を有する距離値が得られる時間差を有す
るものとする。言い換えると、2枚の画像信号の撮像位
置間の距離が、オプティカルフローから道路幅方向の距
離を算出した場合に十分な精度を有する距離値が得られ
るような画像信号としている。
【0019】なお、ビデオカメラ11の移動が等速度で
ない場合には、カメラ位置獲得装置15が獲得したビデ
オカメラ11の位置情報に基づいて、撮像位置間の距離
が所定距離の2枚の画像信号を用いるようにすれば良
い。
【0020】また、オプティカルフローは、各画素毎に
求められるが、画像信号の変化が少ない道路表面等、2
枚の画像信号間で画素の対応付けが難しい部分の画素に
ついてはほぼ0として求められることが多い。
【0021】距離算出部13には、オプティカルフロー
が与えられる。距離算出部13は、各オプティカルフロ
ーを画面内での距離データに変換する。ビデオカメラ1
1が等速度で移動していた場合、周知のように、遠い物
体のオプティカルフロー(相対的な移動量)は小さく、
近い物体のオプティカルフローは大きい。この特性を利
用して、各オプティカルフローを画面内での距離データ
(ビデオカメラ11からの距離データ)に変換する。得
られた距離データは、奥行き比較部17に与えられる。
なお、移動物体については、ビデオカメラ11の速度
と、その物体の速度に応じたオプティカルフローが得ら
れるため、算出された距離値は正しいものではなくなっ
ている。
【0022】環境情報記憶部16は、監視領域内に常時
存在する検知対象ではない物体(常設物体)の位置及び
形状に関するデータを記憶しているものである。例え
ば、ガードレールや中央分離線や道路脇の建物等の位置
及び形状に関するデータを記憶している。この記憶デー
タは、奥行き算出部14によって、適宜取り出されるも
のである。
【0023】奥行き算出部14には、カメラ位置獲得装
置15からカメラ位置情報が与えられるようになされて
いる。奥行き算出部14は、与えられたカメラ位置情
報、及び、環境情報記憶部16に記憶されている監視領
域内の常設物体の位置及び形状に関するデータから、ビ
デオカメラ11がその位置で背景画像を撮像したと仮定
した場合における各画素に対応する、ビデオカメラ11
からの距離データである奥行きデータを算出し、奥行き
比較部17に与える。
【0024】奥行き比較部17は、奥行き算出部14に
よって算出された奥行きデータと、距離算出部13にお
いて得られた距離データを比較し、各画素について、そ
の差分値(以下、「距離差分値」と呼ぶ)を求めて障害
物検出部18に与えるものである。
【0025】障害物検出部18は、オプティカルフロー
と算出された距離差分値とに基づいて、撮像された画像
内に常設物体以外の静止物体が存在するかを判定し、判
定結果を出力するものである。なお、この障害物検出部
18の機能については、後述する動作説明で詳細に説明
する。
【0026】(A−2)第1の実施形態の動作 以下、第1の実施形態の物体検知システムの動作を説明
する。なお、ビデオカメラ11を移動させる動作は、一
般的な動作であるのでその説明を省略し、物体検知装置
19における動作を中心に説明する。
【0027】ビデオカメラ11によって得られた画像信
号は、オプティカルフロー算出部12に与えられる。オ
プティカルフロー算出部12においては、所定時間Δt
だけ異なる2枚の画像信号から、オプティカルフローが
算出される。
【0028】時刻t及び時刻t+Δtで撮像された2枚
の画像信号は、その時間差Δtにおけるビデオカメラ1
1の移動量によって、例えば、図3(a)及び(b)に
示すように、僅かにほぼ平行移動した関係にある画像内
容を有するものとなる。図4には、図3(a)及び
(b)に示す2枚の画像信号から得られたオプティカル
フローの算出例を示すものである。なお、図4は、見易
さから、算出された一部のオプティカルフローだけを示
している。
【0029】ここで、オプティカルフローの算出方法と
しては勾配法等各種が提案されているが、そのいずれの
方法を適用しても良い。なお、ブロックマッチング等の
局所比較による方法ではオプティカルフローの算出が難
しい箇所についてもオプティカルフローを算出し得る勾
配法を適用することは好ましい。勾配法の詳細について
は、例えば、文献2に記載されている。
【0030】文献2『B.K.P.Horn&B.G.Schunck,「Dete
rmining optical flow」,Artificial Intelligence ,
vol.17,pp.185−203 ,1991』 以下、簡単に勾配法について説明する。時刻tで撮影さ
れた画像をIt とし、その位置(x,y)にある画素の
輝度値をI(x,y,t)と表す。このとき、物体上の
点の明るさは時間変化しないことを仮定すると、(1) 式
が得られる。(1) 式の右辺をテイラー展開して高次の項
を無視し、両辺をΔtで割ってΔt→0とすると、(2)
式が得られる。 I(x,y,t)=I(x+Δx,y+Δy,t+Δt) …(1) Ex ・Vx +Ey ・Vy +Et =0 …(2) ここで、Ex 、Ey 及びEt (スカラー量)はそれぞ
れ、画像から求められる明るさのx方向、y方向及び時
間方向の勾配である。
【0031】この(2) 式は移動ベクトルを表す末知数V
x 、Vy を含む方程式であり、未知数が2つで式が1つ
のため解くことができないが、移動ベクトルが滑らかに
変化することを拘束条件として利用することにより、
(3) 式を最小にするものとして移動ベクトルを決定する
ことができる。 E2 =(Ex ・Vx +Ey ・Vy +Et 2 +λ2 {(▽2 x 2 +(▽2 y 2 } …(3) ここで、λは重み係数である。実際には上式の最小値を
与える(Vx ,Vy )を反復解法で求める。
【0032】すなわち、(4) 式及び(5) 式を繰り返し計
算し、収束したときの(u,v)の値を移動ベクトルと
する。ここで、u’n 、v’n はそれぞれ、un 、vn
の8近傍平均値である。
【0033】
【数1】 なお、オプティカルフローは、時間的に連続する一組
(連続する2フレーム)の画像から求めたものでも、複
数の時間的に連続する画像列において順次求めたオプテ
ィカルフローをつなぎ合わせたものでも構わない。ビデ
オカメラ11の移動速度に応じて選定すれば良い。
【0034】距離算出部13においては、各画素のオプ
ティカルフローの長さに基づいて、ビデオカメラ11か
ら、各画素に対応する被撮像物体までの奥行き方向の距
離が算出される。ここで、ビデオカメラ11の向きは移
動方向に対して直交しているため、オプティカルフロー
を与えた被撮像物体P’までの奥行き方向の距離z
(x,y,t)は、その被撮像物体が静止している場合
には、オプティカルフローの水平方向(ビデオカメラ1
1の移動方向)の画素単位の長さl(x,y,t)と、
(6) 式に示す関係があり、この(6) 式に従って、オプテ
ィカルフローを距離値に変換する。なお、(6) 式におい
て、αはビデオカメラ11内の受光素子の画素密度(単
位長あたりの画素数)、fはビデオカメラ11の焦点距
離、Lは時間Δtの間のビデオカメラ11の移動距離で
ある。
【0035】 z(x,y,t)=α・f・L/l(x,y,t) …(6) 一方、奥行き算出部14において、オプティカルフロー
が観測された画像It上の各画素位置に対して、カメラ
位置獲得装置15から送られた現在のビデオカメラ11
の位置情報、及び、環境情報格納部16に格納されてい
る路面やガードレール等の常設構造物の位置や形状に関
する環境情報をもとに、そのビデオカメラ11で撮像し
たと仮定した背景画像における各画素に対応した被撮像
物体とビデオカメラ11との間の距離(背景奥行き)Z
(x,y,t)を求める。背景奥行きZ(x,y,t)
を、カメラ位置と環境情報から求める方法として、例え
ば文献3に記載のZバッファ法を適用することができ
る。
【0036】文献3『中前、西田著、「3次元コンピュ
ータグラフィクス」、昭晃堂、1986、pp.127−129 』 そして、奥行き比較部17において、オプティカルフロ
ーから算出した距離情報と、カメラ位置及び環境情報か
ら求めた奥行き情報との差分値d(x,y,t)を、
(7) 式に従って求める。
【0037】 d(x,y,t)=z(x,y,t)−Z(x,y,t) …(7) このようにして計算された距離差分値d(x,y,t)
やオプティカルフローに基づいて、障害物検出部18に
おいて、得られたオプティカルフローのうち異常なもの
が取り除かれる。
【0038】すなわち、オプティカルフローの水平方向
(移動方向、ここではx成分とする)が大きいものや、
距離差分値d(x,y,t)が負(多少のマージンを設
けていても良い)であるものは、静止している物体では
ないものとして取り除かれる。ビデオカメラ11が所定
速度で移動しているので、監視領域内でビデオカメラ1
1に最も近く存在する静止物体でも、そのオプティカル
フローの水平方向の大きさはある上限値以内をとり、そ
れを越えたオプティカルフローは、静止物体に関するも
の以外であるとして取り除く。また、常設物体以外の静
止物体が存在する画素位置の場合、その物体の存在のた
めに物体がない場合よりオプティカルフローが大きくな
り、その結果、距離差分値d(x,y,t)は正とな
る。一方、常設物体が存在する画素位置の場合には、2
個の距離値z(x,y,t)及びZ(x,y,t)は等
しく、その結果、距離差分値d(x,y,t)は0とな
る。従って、距離差分値d(x,y,t)が負であるも
のは、静止している物体ではなく、取り除かれる。
【0039】その後、障害物検出部18において、残っ
た各オプティカルフローの始点がある画像It の各画素
位置について、カメラ位置情報と距離z(x,y,t)
より、その3次元位置を求める。
【0040】以下、その3次元位置の算出法について説
明する。今、図5に示すように、ワールド座標系とし
て、ビデオカメラ11の移動方向にX軸、路面の垂直方
向にY軸、路面を横断する方向にZ軸をとり、カメラ中
心Oのワールド座標系での座標を(Xc ,Yc ,Zc
とする。また、カメラ画像上の座標原点O’をカメラ中
心を出る光軸と画像面との交点とし、水平、垂直方向を
それぞれx軸、y軸とする。さらに、ビデオカメラ11
の光軸の方向ベクトルを(0, cosθ, sinθ)とする
(路面とのなす角を下向きにθとする)。なお、ここで
は簡単のため、画像面は光軸に直交し、画像上のx軸は
ビデオカメラの運動方向であるワールド座標系のX軸に
平行であると仮定する。実際、ビデオカメラは、この仮
定を満足するように設置することができる。
【0041】このとき、点O' のワールド座標系での座
標は(Xc ,Yc −f sinθ,Zc+f cosθ)であ
り、画面上の点P(x,y)のワールド座標系での座標
は(Xc +x/α,Yc −f sinθ+(y/α) cos
θ,Zc +f cosθ+(y/α)sinθ)となる。そし
て、画像面上で点Pに写っている点P’の3次元位置
(x,y,z)は、点Oと点Pを通る直線上で点Oから
距離z(x,y,t)だけ離れた点であることから、
(9) 式で表されるkを用いた(8) 式で表される。
【0042】
【数2】 ここで、障害物検出部18においては、最初に、得られ
たオプティカルフローのうち異常なものが取り除かれて
いるので、上述した処理により得られる3次元位置情報
は、静止物体あるいはビデオカメラ11の移動方向の反
対方向に移動している物体によるものである。
【0043】障害物検出部18は、今回の2枚の画像の
処理により得られた3次元位置情報を内蔵メモリに格納
する。以上のような一連の処理は、ビデオカメラ11の
移動に伴って繰り返し実行され、ビデオカメラ11の異
なる位置で検出された3次元位置情報が格納される。そ
して、ビデオカメラ11の異なる位置について得られた
3次元位置情報で共通する3次元位置情報がとるものを
静止物体として検知する。
【0044】なお、距離差分値が0である画素について
は3次元位置情報が算出されないので、路面等の背景要
素(常設物体)が静止物体として検出されないが、環境
情報格納部16に格納されている常設物体の位置情報等
を参照して、3次元位置情報から求めた静止物体に常設
物体が含まれている場合には、それを除くようにしても
良い。
【0045】静止物体を検知したときには、例えば、物
体検知装置19に関連して設けられた警告ランプを点灯
させると共に、図示しない通信装置によって中央監視セ
ンタに、その旨を通知する。
【0046】(A−3)第1の実施形態の効果 以上のように、第lの実施形態によれば、ビデオカメラ
を移動させながら得た2枚の画像からオプティカルフロ
ーを得た後、それを奥行き方向の距離値に変換し、その
距離値と常設物体についての距離値(奥行き情報)との
差分を得、この距離差分値が妥当な範囲にある画素に対
応した絶対的な3次元位置を算出し、ビデオカメラの異
なる位置について得られた絶対的な3次元位置の一致性
に基づいて、常設物体以外の静止物体を検出するように
したので、予め背景画像を用意することなく、1台のビ
デオカメラの視野範囲を大きく越える監視領域につい
て、静止物体の存在を検知することができる。
【0047】すなわち、従来行なわれている固定カメラ
を用いた監視範囲よりも広範囲を一台のビデオカメラで
監視でき、画像処理装置(物体検知装置)の台数を減ら
すことができる。また、背景画像を直接利用する手法で
はないため、言い換えると、距離情報を利用した手法で
あるため、照明条件や天候等の環境変化に対しても、性
能低下は発生せず、信頼性の高い物体検知を行なうこと
ができる。
【0048】(B)第2の実施形態 次に、本発明による物体検知方法及びシステムを道路上
の障害物検知に適用した第2の実施形態について、図面
を用いて説明する。
【0049】ここで、図6がこの第2の実施形態の電気
的な処理構成、特に、物体検知装置の内部構成を示すブ
ロック図であり、上述した図1との同一、対応部分には
同一符号を付して示している。
【0050】図6及び図1の比較から明らかなように、
第2の実施形態においては、第1の実施形態におけるカ
メラ位置獲得装置15(図2も参照)を省略し、それに
代えて、カメラ位置推定部15a及び位置マーカ情報記
憶部15bを設けたものであり、ビデオカメラ11が撮
像した画像信号を用いて、ビデオカメラ11の位置情報
を得るようにしている点が第1の実施形態と異なってい
る。
【0051】その他の構成要素、すなわち、オプティカ
ルフロー算出部12、距離算出部13、奥行き算出部1
4、環境情報格納部16、奥行き比較部17及び障害物
検出部18は、第1の実施形態と同一のものであり、そ
の機能の説明は省略する。
【0052】新たに設けられた位置マーカ情報記憶部1
5bには、ビデオカメラ11の位置を特定(推定)する
ための位置マーカの情報(画像パターン及び位置情報)
が記憶されている。この位置マーカは、カメラ位置を画
像処理によって推定する際の目印となるものであり、高
いコントラストの特定のパターンを持つものである。位
置マーカに係る物体としては、既存の常設物体を用いて
も良く、位置マーカ専用の物体を設置しても良い。位置
マーカに係る物体は、例えば、監視領域の適宜の複数位
置に存在するものとし、ビデオカメラ11が監視領域内
のいかなる位置にあっても、その画像信号に少なくとも
1以上の位置マーカパターンが含まれるように選定され
ている。例えば、図3に示すガードレール外側の木や固
定物を位置マーカとすることができる。
【0053】また、第2の実施形態で新たに設けられた
カメラ位置推定部15aには、ビデオカメラ11が出力
した画像信号が供給されるようになされている。カメラ
位置推定部15aは、位置マーカ情報記憶部15bに記
憶された位置マーカのパターンを参照して、入力された
画像信号に含まれている位置マーカパターンの存在を認
識して、カメラ位置の推定を行なうものである。カメラ
位置推定部15aによって推定されたカメラ位置情報
は、奥行き算出部14に与えられる。
【0054】この第2の実施形態においても、カメラ位
置を推定する点を除き、静止物体を検知する一連の動作
は、第1の実施形態と同様である。そこで、以下では、
図7のフローチャートを参照しながら、カメラ位置推定
部15aが実行するカメラ位置の推定動作を詳述する。
【0055】まず、カメラ位置推定部15aは、位置マ
ーカ情報記憶部15bに記憶された位置マーカのパター
ンを入力画像中において探索し、その画面上での位置を
特定する。位置マーカとして複数用意されている場合に
は、各位置マーカについて、入力画像中の探索を行なう
(ステップ100)。位置マーカパターンの画像中の探
索方法については、例えば、文献4『廣田、李、徐、
辻、「相関法を用いた実時間物体追跡システムの製
作」、情報処理学会第47回全国大会、6L-2、1993』に
記載の装置を用いることにより行なうことができる。以
下、この方法を説明する。
【0056】位置マーカのパターンにおける位置(x,
y)の画素の輝度値をT(x,y)、入力画像の位置
(x,y)にある画素の輝度をI(x,y)とすると、
(10)式で与えられる相違度Di,j を入力画像全体につい
て計算し、得られた相違度の中での最小値Dmin とその
ときの(i,j)を求める。なお、(10)式における総和
ΣΣは、位置マーカのパターンの大きさを横M画素、縦
N画素の長方形としたとき、mが0〜M、nが0〜Nに
ついてである。
【0057】 Di,j = ΣΣ |I(i+m,j+n)−T(m,n)| …(10) そして、相違度最小値Dmin を閾値Dthと比較し、相違
度最小値Dmin が閾値Dth以下であった場合に、画像中
に位置マーカのパターンがあったと判定する。複数の位
置マーカを用いた場合には、少なくとも相違度最小値D
min が閾値Dth以下であるものを捜し出す。
【0058】以上のようにして位置マーカを検出する
と、そのマーカの3次元位置(X,Y,Z)を位置マー
カ情報記憶部15bから呼び出す(ステップ101)。
【0059】そして、カメラ中心のワールド座標系によ
る座標(x,y,z)を算出する(ステップ102)。
但し、ビデオカメラ11は、既設レール22の上を移動
するだけであるので、y及びzの値は既知であり、xの
値だけが末知である。この未知の値xは、(11)式に従っ
て求めることができる。
【0060】 x=X−(Z/f)・(i/α) …(11) ここで、α及びθは第lの実施形態と同様、それぞれカ
メラ内受光素子の画素密度(単位長当りの画素数)及び
焦点距離である。
【0061】以上のように、第2の実施形態によって
も、ビデオカメラを移動させながら得た2枚の画像から
オプティカルフローを得た後、それを距離値に変換し、
その距離値と常設物体についての距離値との差分を得、
この距離差分値が妥当な範囲にある画素に対応した絶対
的位置を算出し、ビデオカメラの異なる位置について得
られた絶対的位置の一致性に基づいて、常設物体以外の
静止物体を検出するようにしたので、予め背景画像を用
意することなく、1台のビデオカメラの視野範囲を大き
く越える監視領域について、静止物体の存在を検知する
ことができる。
【0062】また、第2の実施形態によれば、シャフト
エンコーダ等の特殊なカメラ位置情報獲得装置を用いる
ことなく、静止物体の検知を行なうことができる。
【0063】(C)他の実施形態 上記各実施形態においては、ビデオカメラが所定の1方
向に移動しているときのみ、物体検知を行なうものを示
したが、往復動する双方向で物体検知を行なうようにし
ても良い。この場合、一方の移動方向での処理において
は、上述した処理における符号等を逆にして適用すれば
良い。
【0064】また、上記各実施形態においては、参照さ
れる常設物体までの基準奥行き情報を、カメラ位置情報
と環境情報とからその都度算出するものを示したが、基
準奥行き情報自体を予め作成しておいて格納しておき、
カメラ位置に応じて、読み出すようにしても良い。
【0065】さらに、上記各実施形態においては、ビデ
オカメラが常時撮像を行なうものを示したが、カメラ位
置情報に基づいて、所定距離ずつ異なる所定の位置に到
達する毎に間欠的に撮像を行なうものであっても良い。
この場合には、いわゆるスチルカメラ(特許請求の範囲
におけるビデオカメラの用語は、このスチルカメラを含
むものとする)を適用することもできる。
【0066】さらにまた、上記各実施形態においては、
本発明を、道路上の障害物検知に適用したものを示した
が、監視領域や監視対象物がこれに限定されないことは
勿論である。
【0067】
【発明の効果】以上のように、本発明の物体検出方法及
び物体検知システムによれば、ビデオカメラは、所定方
向に移動しながら撮像を行ない、異なる時刻に撮影され
た2枚の画像からオプティカルフローを算出し、算出さ
れたオプティカルフローから、各オプティカルフローを
生成した物体とビデオカメラまでの奥行き方向の距離情
報を生成し、ビデオカメラの位置と常設物体の位置及び
形状によって定まる、撮像画像の各画素に対応するビデ
オカメラからの奥行き情報を出力し、距離情報と奥行き
情報との距離差分値を求め、オプティカルフロー及び距
離差分値に基づいて、常設物体以外の静止物体の検出を
行なうので、予め背景画像を用意することなく、1台の
ビデオカメラの視野範囲を大きく越える監視領域につい
て、静止物体の存在を検知することができる。
【図面の簡単な説明】
【図1】第lの実施形態のシステム構成を示すブロック
図である。
【図2】第lの実施形態の各種要素の配置を示す概略斜
視図である。
【図3】第lの実施形態の入力画像例を示す説明図であ
る。
【図4】図3の画像例に対するオプティカルフローの算
出例を示す説明図である。
【図5】第lの実施形態の座標系の説明図である。
【図6】第2の実施形態のシステム構成を示すブロック
図である。
【図7】第2の実施形態のカメラ位置推定部の処理フロ
ーチャートである。
【符号の説明】
11…ビデオカメラ、12…オプティカルフロー算出
部、13…距離算出部、14…奥行き算出部、15…カ
メラ位置獲得装置、15a…カメラ位置推定部、15b
…位置マーカ情報記憶部、16…環境情報格納部、17
…奥行き比較部、18…障害物検出部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 松本 浩司 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 監視領域をビデオカメラで撮影し、得ら
    れた画像に基づいて、監視領域中の物体の存在を検知す
    る物体検知方法において、 上記ビデオカメラは、所定方向に移動しながら撮像を行
    ない、 異なる時刻に撮影された2枚の画像からオプティカルフ
    ローを算出し、 算出された上記オプティカルフローから、各オプティカ
    ルフローを生成した物体と上記ビデオカメラまでの奥行
    き方向の距離情報を生成し、 上記ビデオカメラの位置と常設物体の位置及び形状によ
    って定まる、撮像画像の各画素に対応する上記ビデオカ
    メラからの奥行き情報を出力し、 上記距離情報と上記奥行き情報との距離差分値を求め、 上記オプティカルフロー及び距離差分値に基づいて、常
    設物体以外の静止物体の検出を行なうことを特徴とする
    物体検知方法。
  2. 【請求項2】 上記奥行き情報を、監視領域内の常設物
    体についての予め格納されている位置及び形状データ
    と、上記ビデオカメラの位置情報とを用いた演算によっ
    て求めることを特徴とする請求項1に記載の物体検知方
    法。
  3. 【請求項3】 上記ビデオカメラの位置情報を、上記ビ
    デオカメラの移動機構による移動量から得ることを特徴
    とする請求項1又は2に記載の物体検知方法。
  4. 【請求項4】 上記ビデオカメラの位置情報を、監視領
    域内に位置マーカを配置しておき、撮像画像中における
    当該位置マーカの位置により推定して得ることを特徴と
    する請求項l又は2に記載の物体検知方法。
  5. 【請求項5】 予め位置マーカのパターンを記憶してお
    き、この位置マーカのパターンに類似した撮像画像中の
    領域を、画像間の相関値により求めて、上記位置マーカ
    の撮像画像中での位置を特定することを特徴とする請求
    項4に記載の物体検知方法。
  6. 【請求項6】 監視領域をビデオカメラで撮影し、得ら
    れた画像に基づいて、監視領域中の物体の存在を検知す
    る物体検知システムにおいて、 上記ビデオカメラを、所定方向に移動させるカメラ移動
    機構と、 上記ビデオカメラの位置情報を出力するカメラ位置出力
    手段と、 異なる時刻に撮影された2枚の画像からオプティカルフ
    ローを算出するオプティカルフロー算出手段と、 算出された上記オプティカルフローから、各オプティカ
    ルフローを生成した物体と上記ビデオカメラまでの奥行
    き方向の距離情報を生成する距離算出手段と、 上記ビデオカメラの位置と常設物体の位置及び形状によ
    って定まる、撮像画像の各画素に対応する上記ビデオカ
    メラからの奥行き情報を出力する奥行き出力手段と、 上記距離情報と上記奥行き情報との距離差分値を求める
    奥行き比較手段と、 上記オプティカルフロー及び距離差分値に基づいて、常
    設物体以外の静止物体の検出を行なう物体検出手段とを
    備えることを特徴とする物体検知システム。
  7. 【請求項7】 上記奥行き出力手段は、監視領域内の常
    設物体についての位置及び形状データを予め格納してい
    る環境情報格納部と、この常設物体についての位置及び
    形状データと、上記ビデオカメラの位置情報とを用いた
    演算によって奥行き情報を生成する奥行き算出部とでな
    ることを特徴とする請求項6に記載の物体検知システ
    ム。
  8. 【請求項8】 上記カメラ位置出力手段は、上記カメラ
    移動機構による移動量から上記ビデオカメラの位置情報
    を得るものであることを特徴とする請求項5又は6に記
    載の物体検知システム。
  9. 【請求項9】 上記カメラ位置出力手段は、撮像画像中
    における、監視領域内に配置されている当該位置マーカ
    の位置により、上記ビデオカメラの位置情報を推定して
    得るものであることを特徴とする請求項6又は7に記載
    の物体検知システム。
  10. 【請求項10】 上記カメラ位置出力手段は、予め位置
    マーカのパターンを記憶している位置マーカ情報記憶部
    と、この位置マーカのパターンに類似した撮像画像中の
    領域を、画像間の相関値により求めて、上記位置マーカ
    の撮像画像中での位置を特定するカメラ位置推定部とで
    なることを特徴とする請求項9に記載の物体検知システ
    ム。
JP24307896A 1996-09-13 1996-09-13 物体検知方法及びシステム Pending JPH1093954A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24307896A JPH1093954A (ja) 1996-09-13 1996-09-13 物体検知方法及びシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24307896A JPH1093954A (ja) 1996-09-13 1996-09-13 物体検知方法及びシステム

Publications (1)

Publication Number Publication Date
JPH1093954A true JPH1093954A (ja) 1998-04-10

Family

ID=17098459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24307896A Pending JPH1093954A (ja) 1996-09-13 1996-09-13 物体検知方法及びシステム

Country Status (1)

Country Link
JP (1) JPH1093954A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001034769A (ja) * 1999-07-26 2001-02-09 Pioneer Electronic Corp 画像処理装置、画像処理方法及びナビゲーション装置
JP2001091289A (ja) * 1999-09-17 2001-04-06 Data Tec:Kk センサユニット
EP1108254A2 (en) * 1998-08-07 2001-06-20 3461513 Canada Inc. A vehicle presence detection system
WO2003079306A1 (de) * 2002-03-13 2003-09-25 Robert Bosch Gmbh Verfahren zur verfolgung wenigstens eines objekts in einer szene
JP2007148809A (ja) * 2005-11-28 2007-06-14 Fujitsu Ltd 画像解析プログラム、該プログラムを記録した記録媒体、画像解析装置、および画像解析方法
KR101068674B1 (ko) 2010-10-11 2011-09-29 한국과학기술원 오류 시드 제거 방법, 전경 물체 구분 방법과 이를 이용하는 시스템 및 기록 매체
CN103085716A (zh) * 2011-10-31 2013-05-08 鸿富锦精密工业(深圳)有限公司 交通意外防止系统及方法
CN113657191A (zh) * 2021-07-26 2021-11-16 浙江大华技术股份有限公司 堆积物识别方法、装置和电子装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1108254A2 (en) * 1998-08-07 2001-06-20 3461513 Canada Inc. A vehicle presence detection system
EP1108254A4 (en) * 1998-08-07 2003-06-11 3461513 Canada Inc VEHICLE PRESENCE DETECTION SYSTEM
JP2001034769A (ja) * 1999-07-26 2001-02-09 Pioneer Electronic Corp 画像処理装置、画像処理方法及びナビゲーション装置
JP2001091289A (ja) * 1999-09-17 2001-04-06 Data Tec:Kk センサユニット
WO2003079306A1 (de) * 2002-03-13 2003-09-25 Robert Bosch Gmbh Verfahren zur verfolgung wenigstens eines objekts in einer szene
JP2007148809A (ja) * 2005-11-28 2007-06-14 Fujitsu Ltd 画像解析プログラム、該プログラムを記録した記録媒体、画像解析装置、および画像解析方法
JP4740723B2 (ja) * 2005-11-28 2011-08-03 富士通株式会社 画像解析プログラム、該プログラムを記録した記録媒体、画像解析装置、および画像解析方法
US8194912B2 (en) 2005-11-28 2012-06-05 Fujitsu Limited Method and apparatus for analyzing image, and computer product
KR101068674B1 (ko) 2010-10-11 2011-09-29 한국과학기술원 오류 시드 제거 방법, 전경 물체 구분 방법과 이를 이용하는 시스템 및 기록 매체
CN103085716A (zh) * 2011-10-31 2013-05-08 鸿富锦精密工业(深圳)有限公司 交通意外防止系统及方法
CN113657191A (zh) * 2021-07-26 2021-11-16 浙江大华技术股份有限公司 堆积物识别方法、装置和电子装置

Similar Documents

Publication Publication Date Title
Zhao et al. Alignment of continuous video onto 3D point clouds
EP3438777B1 (en) Method, apparatus and computer program for a vehicle
Tardif et al. Monocular visual odometry in urban environments using an omnidirectional camera
Stein et al. A robust method for computing vehicle ego-motion
US7583815B2 (en) Wide-area site-based video surveillance system
US20080291278A1 (en) Wide-area site-based video surveillance system
JP7209115B2 (ja) 複数の相対的に接近する様に動いているリジッドなオブジェクトの検出、3d再現および追跡
JP2004515832A (ja) 画像系列の時空的正規化マッチング装置及び方法
Mandelbaum et al. Correlation-based estimation of ego-motion and structure from motion and stereo
KR20050066400A (ko) 다시점 영상 및 깊이 정보를 이용한 3차원 객체 추적 장치및 그 방법
JP2004354257A (ja) キャリブレーションずれ補正装置及びこの装置を備えたステレオカメラ並びにステレオカメラシステム
Tao et al. Dynamic depth recovery from multiple synchronized video streams
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
Zhu et al. Monocular 3D vehicle detection using uncalibrated traffic cameras through homography
Zheng et al. Generating dynamic projection images for scene representation and understanding
JPH1093954A (ja) 物体検知方法及びシステム
Qing et al. Dort: Modeling dynamic objects in recurrent for multi-camera 3d object detection and tracking
Lee et al. Vehicle counting based on a stereo vision depth maps for parking management
TWI774543B (zh) 障礙物偵測方法
Sato et al. Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system
JPH0991439A (ja) 物体監視装置
JPWO2020244717A5 (ja)
Scaramuzza et al. Monocular omnidirectional visual odometry for outdoor ground vehicles
Solbrig et al. Online annotation of airborne surveillance and reconnaissance videos
Diskin et al. UAS exploitation by 3D reconstruction using monocular vision