JP2001167282A - 移動物体抽出装置及びその方法 - Google Patents

移動物体抽出装置及びその方法

Info

Publication number
JP2001167282A
JP2001167282A JP35178599A JP35178599A JP2001167282A JP 2001167282 A JP2001167282 A JP 2001167282A JP 35178599 A JP35178599 A JP 35178599A JP 35178599 A JP35178599 A JP 35178599A JP 2001167282 A JP2001167282 A JP 2001167282A
Authority
JP
Japan
Prior art keywords
image
frame
moving object
inter
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP35178599A
Other languages
English (en)
Inventor
Hisashi Kazama
久 風間
Nobuyuki Takeda
信之 武田
Kazunori Onoguchi
一則 小野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP35178599A priority Critical patent/JP2001167282A/ja
Publication of JP2001167282A publication Critical patent/JP2001167282A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 カメラ近傍の車両から遠方の車両まで車両の
位置に依存せずに過剰に車両領域を膨張させること無く
安定して抽出することのできる移動物体抽出装置を提供
することにある。 【解決手段】 移動物体抽出装置は、道路平面上に固定
された監視カメラと、画像入力手段101と、画像系列
記憶手段102と、フレーム間差分処理手段103と、
領域選別手段104と、領域統合手段105と、出力手
段106を備え、2種類の時間間隔の違うフレーム間差
分画像を抽出し、画像中の位置から空間中の位置と適切
な時間間隔が導けるので、車両を抽出位置に従って適切
な時間間隔のフレーム間差分画像から領域抽出し、見か
け上の速度が遅い監視カメラ遠方の車両に対しては長い
時間間隔のフレーム間差分画像を適用するので確実に領
域抽出し、見かけ上の速度が速い監視カメラ近傍の物体
に対しては短い時間間隔のフレーム間差分画像を適用す
るので、確実に車両を検出できる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、例えば、高速道路
や一般道に交通量測定や交通流監視を目的として据え付
けられた固定型監視カメラから入力した画像から車両を
検出するなどの移動物体抽出装置、その方法、記録媒体
に関する。
【0002】
【従来の技術】近年、高速道路や一般道路に据え付けた
監視カメラに画像処理装置を搭載して、自動的に交通量
の測定や、渋滞状況などの走行状態を判別するシステム
を構成するニーズが高まっている。このシステムとして
ITSやAHSシステムが提唱され、情報処理技術を用
いた知的な高度交通システムはますます必要性を増して
いる。
【0003】ところで、車両位置の認識や車両速度の測
定など画像処理を用いたセンシングは、最も基本的かつ
重要な情報であり、AHSシステムなどの巨大なシステ
ムの中ですべての情報の出発点であって、この情報がな
い限り知的で高度な交通システムは実現できない。その
ため、画像処理技術は、このような機能として高いもの
が求められている上に、リアルタイム性や、安定性や、
信頼性まで求められ、非常に高度かつ困難な技術課題に
なっている。しかし、画像処理によるセンシングが成功
すれば、統計量を集積したり、運転手へ伝える情報に加
工したり、各種の対象に情報を伝送することなどは、画
像処理技術に比べて極めて簡単だといえる。
【0004】このように画像処理技術の進化が非常に望
まれているものの、監視範囲に写った車両領域を、リア
ルタイムに、かつ正確な位置を随時抽出できる画像処理
技術は未だ開発中の完成されていない技術である。
【0005】従来、画像処理により、車両領域を抽出す
る手段としては、背景差分方式がある。この方式は、車
両の存在しない背景画像を用意し、入力画像と差分演算
を行って車両領域を抽出する方法がベースになった方式
が一般的である(例えば、特開平7−302328号、
土川仁、佐藤敦、伴野明、「背景差分による動物体領域
抽出方法」あるいは特開平4−213198号、辻邦彦
「走行車両検出方法」)。
【0006】この背景差分方式では、いかに適切な背景
画像を入手するかという点が問題となる。すなわち、季
節、天気、時間などの環境変化要因によって背景画像の
変化は大きいため、期待するほど安定で正確に車両領域
を抽出することは困難である。これに対し、環境変化を
無視して、面積や縦横比、速度などをの条件を設定して
対象を取捨選択する方法もあるが、却って本来の対象に
対する反応を悪化させてしまう(例えば、特開平10−
105839号、新房健一、「監視用画像処理装
置」)。
【0007】また、短い時間間隔を持つ2枚の入力画像
間で差分演算を行って、移動物体を抽出する時間差分方
式がある。この方式は、時間的に近い画像同士を用いる
ので環境の変化に強く、例えば時間によって明るさが変
化する場合でもほとんど影響されずに処理ができるとい
うメリットがある。
【0008】しかし、時間差分方式には空間的な問題と
時間的な問題の2つがあると考えられる。
【0009】まず、時間差分方式の空間的な問題とは、
車両のエッジ近傍にしか変化領域が現れないので、抽出
される車両特徴が位置的に分離されるという問題であ
る。
【0010】次に、時間的な問題とは、車両がカメラか
ら遠方になると、見かけ上の速度が遅くなるので、短い
時間間隔で時間差分をとっても車両が移動していないの
で車両特徴が現れないという問題である。
【0011】車両のエッジ近傍にしか特徴が現れない理
由は、変化検出の判断閾値が鈍感になっていることと、
車両の投影サイズを考慮した変化領域の接続処理を行っ
ていないためである。これを解決するために、変化検出
の判断閾値を敏感になるように設定し、さらに車両の投
影サイズを考慮して、変化領域を一つの領域として接続
する方法を取れば車両特徴の分離は避けられる。例え
ば、画像の解像度を落として処理すれば、車両特徴は最
初から分離しない。また、最終結果二世度が必要ならば
一つのまとまった領域として抽出した車両領域に対し
て、解像度を復元して輪郭を探って領域の位置を修正
し、位置の精度を原画像の解像度に戻すことも可能であ
る。
【0012】一方、車両がカメラから遠方になると、見
かけ上の速度が遅くなるために、車両特徴が現れないと
いう時間差分方式の時間的な問題が残っている。これを
解決するために、時間間隔を大きくとり時間差分をとれ
ば車両領域が検出できるが、時間間隔が大きいとこのと
きカメラ近傍の車両は見かけ上の速度が大きすぎて輪郭
や領域が膨張してしまう問題がある。車両領域が膨張す
ると車両位置を正確に抽出できず、速度や移動軌跡の情
報の精度が悪化する。逆に、時間間隔を小さくとって時
間差分をとると、カメラ近傍の車両の位置精度は向上す
るが、遠方の車両が抽出できない。
【0013】すなわち、時間間隔を大きくすると、近傍
の車両の車両領域が膨張して正確な車両位置を抽出でき
ず、時間間隔を小さくすると、遠方の車両が抽出できな
いという問題がある。複数の時間間隔の時間差分結果の
論理和をとる方法が考えられるが、それでは近傍の車両
の車両領域が膨張する問題が解決できない。また複数の
時間間隔の時間差分結果の論理積をとる方式も考えられ
るが、それでは遠方の車両の車両領域が抽出できないと
いう問題が解決できない。
【0014】
【発明が解決しようとする課題】このように従来は、時
間差分方式による車両領域抽出方法は環境変化への適応
性が有利になるというメリットがあるが、時間間隔を大
きくすると近傍の車両の車両領域が膨張して正確な車両
位置が抽出できず、時間間隔を小さくすると遠方の車両
が抽出できない、という問題があった。
【0015】そこで、この発明の目的とするところは、
カメラ近傍の車両から遠方の車両まで車両の位置に依存
せずに過剰に車両領域を膨張させること無く安定して抽
出することのできる、移動物体抽出装置、その方法及び
記録媒体を提供することにある。
【0016】
【課題を解決するための手段】請求項1の発明は、固定
されたカメラから一、または、複数の移動物体を撮影
し、この撮影した画像から基準時刻における前記移動物
体を抽出するための移動物体抽出装置であって、前記カ
メラからの連続フレーム画像を記憶する画像記憶手段
と、前記画像記憶手段に記憶されている連続フレーム画
像の中から基準時刻における基準フレーム画像を選ぶ基
準フレーム画像選択手段と、基準時刻とは撮影時刻がそ
れぞれ異なる少なくとも2種類のフレーム画像である比
較フレーム画像を前記画像記憶手段に記憶されている連
続フレーム画像の中から取り出し、これら複数の比較フ
レーム画像と前記基準フレーム画像選択手段で選択した
基準フレーム画像との差分をとって、基準時刻と撮影時
刻との差である差分時間間隔が異なるフレーム間差分画
像をそれぞれ生成し、これら複数のフレーム間差分画像
から前記移動物体が存在する候補領域をそれぞれ抽出す
るフレーム間差分処理手段と、前記フレーム間差分処理
手段で抽出した複数のフレーム間差分画像の中で、前記
移動物体の見かけ上の移動量が一定値以上であるという
第1の条件と、前記複数のフレーム間差分画像の候補領
域の中から高い位置精度を有するという第2の条件とを
満たす候補領域を、一つの移動物体に対して一つ選別す
る領域選別手段と、前記領域選別手段によって選別され
た候補領域に基づいて、基準時刻に存在する前記一、ま
たは、複数の移動物体を表す画像を生成する領域統合手
段と、を有することを特徴とする移動物体抽出装置であ
る。
【0017】請求項2の発明は、固定されたカメラから
一、または、複数の移動物体を撮影し、この撮影した画
像から基準時刻における前記移動物体を抽出するための
移動物体抽出装置であって、前記カメラからの連続フレ
ーム画像を記憶する画像記憶手段と、前記画像記憶手段
に記憶されている連続フレーム画像の中から基準時刻を
挟んで2枚のフレーム画像を1組とする比較フレーム組
画像を選択するものであって、この場合に2枚のフレー
ム画像の撮影時刻の時間間隔が異なる複数組の比較フレ
ーム組画像を選択する比較フレーム組画像選択手段と、
前記比較フレーム組画像選択手段によって選択した複数
組の比較フレーム組画像における2枚のフレーム画像の
差分をそれぞれとって、その差分時間間隔が異なるフレ
ーム間差分画像をそれぞれ生成し、これら複数のフレー
ム間差分画像から前記移動物体が存在する候補領域をそ
れぞれ抽出するフレーム間差分処理手段と、前記フレー
ム間差分処理手段で抽出した複数のフレーム間差分画像
の中で、前記移動物体の見かけ上の移動量が一定値以上
であるという第1の条件と、前記複数のフレーム間差分
画像の候補領域の中から高い位置精度を有するという第
2の条件とを満たす候補領域を、一つの移動物体に対し
て一つ選別する領域選別手段と、前記領域選別手段によ
って選別された候補領域に基づいて、基準時刻に存在す
る前記一、または、複数の移動物体を表す画像を生成す
る領域統合手段と、を有することを特徴とする移動物体
抽出装置である。
【0018】請求項3の発明は、前記移動物体が平面上
を移動する場合には、前記領域選別手段は、前記平面と
前記カメラ間の関係と、前記移動物体の推定速度と、前
記平面上の前記移動物体の位置から前記画像上の位置へ
の投影関係とから、前記画像中の前記移動物体の見かけ
上の移動量が一定値以上になるための差分時間間隔であ
る選別時間間隔を算出する選別時間間隔算出手段と、前
記フレーム間差分処理手段において生成されたフレーム
間差分画像の差分時間間隔と前記選別時間間隔とを比較
して、前記選別時間間隔より長い差分時間間隔を有する
フレーム間差分画像を選択し、この選択したフレーム間
差分画像が前記第1の条件を満たすものであると判断す
る第1条件判断手段と、を有することを特徴とする請求
項1、2記載の移動物体抽出装置である。
【0019】請求項4の発明は、前記領域選別手段は、
前記フレーム間差分処理手段において生成したフレーム
間差分画像における差分時間間隔の最も短いフレーム間
差分画像から抽出された候補領域を、前記第2の条件を
満たすものであると判断する第2条件判断手段を有する
ことを特徴とする請求項1、2、3記載の移動物体抽出
装置である。
【0020】請求項5の発明は、前記領域選別手段は、
前記候補領域の底辺を基準に、前記第1の条件、また
は、前記第2の条件を判断することを特徴とする請求項
1、2,3、4記載の移動物体抽出装置である。
【0021】請求項6の発明は、前記領域選別手段は、
前記カメラと前記移動物体との距離が大きい場合には差
分時間間隔の長いフレーム間差分画像に基づいて前記移
動物体の候補領域を抽出し、前記カメラと前記移動物体
との距離が小さい場合には差分時間間隔の短いフレーム
間差分画像に基づいて前記移動物体の候補領域を抽出す
ることにより、前記第1条件を満たすフレーム間差分画
像を選別することを特徴とする請求項1、2記載の移動
物体抽出装置である。
【0022】請求項7の発明は、前記移動物体が平面上
を移動し、かつ、前記カメラが前記平面より上方で、前
記移動物体の進行方向を後方から撮影する角度に据え付
けられている場合は、前記領域選別手段は、前記画像上
方にあたる前記カメラから遠方の領域は差分時間間隔が
長いフレーム間差分画像を抽出し、前記画像下方にあた
る前記カメラから近傍の領域は差分時間間隔が短いフレ
ーム間差分画像を抽出することにより、前記第1条件を
満たすフレーム間差分画像を選別することを特徴とする
請求項1、2記載の移動物体抽出装置である。
【0023】請求項8の発明は、前記移動物体が3次元
空間中を任意に運動している場合には、前記領域選別手
段は、前記カメラを中心とした前記移動物体の運動状態
を示す運動方程式と、前記移動物体の位置から前記画像
上の位置への投影関係とから、前記画像中の前記移動物
体の見かけ上の移動量が一定値以上になるための差分時
間間隔である選別時間間隔を算出する選別時間間隔算出
手段と、前記フレーム間差分処理手段において生成され
たフレーム間差分画像の差分時間間隔と前記選別時間間
隔とを比較して、前記選別時間間隔より長い差分時間間
隔を有するフレーム間差分画像を選択し、この選択した
フレーム間差分画像が前記第1の条件を満たすものであ
ると判断する第1条件判断手段と、を有することを特徴
とする請求項1、2記載の移動物体抽出装置である。
【0024】請求項9の発明は、前記フレーム間差分処
理手段が、前記フレーム差分画像から前記移動物体の候
補領域を抽出する場合には、前記フレーム差分画像の原
画像の解像度を落として2値化ラベリング処理を行い、
候補領域の位置を抽出し,空間中の奥行き方向の位置を
算出するためのデータの解像度は維持し、空間中の左右
方向の位置を算出するためのデータの解像度は圧縮し
て、前記候補領域の精密な位置が抽出できるプロファイ
ルデータを作成し、解像度を落として抽出した前記車両
領域の位置を、前記プロファイルデータで精緻化して前
記移動物体の候補領域とすることを特徴とする請求項
1、または、2記載の移動物体抽出装置である。
【0025】請求項10の発明は、固定されたカメラか
ら一、または、複数の移動物体を撮影し、この撮影した
画像から基準時刻における前記移動物体を抽出するため
の移動物体抽出方法であって、前記カメラからの連続フ
レーム画像を記憶する画像記憶ステップと、前記画像記
憶ステップに記憶されている連続フレーム画像の中から
基準時刻における基準フレーム画像を選ぶ基準フレーム
画像選択ステップと、基準時刻とは撮影時刻がそれぞれ
異なる少なくとも2種類のフレーム画像である比較フレ
ーム画像を前記画像記憶ステップに記憶されている連続
フレーム画像の中から取り出し、これら複数の比較フレ
ーム画像と前記基準フレーム画像選択ステップで選択し
た基準フレーム画像との差分をとって、基準時刻と撮影
時刻との差である差分時間間隔が異なるフレーム間差分
画像をそれぞれ生成し、これら複数のフレーム間差分画
像から前記移動物体が存在する候補領域をそれぞれ抽出
するフレーム間差分処理ステップと、前記フレーム間差
分処理ステップで抽出した複数のフレーム間差分画像の
中で、前記移動物体の見かけ上の移動量が一定値以上で
あるという第1の条件と、前記複数のフレーム間差分画
像の候補領域の中から高い位置精度を有するという第2
の条件とを満たす候補領域を、一つの移動物体に対して
一つ選別する領域選別ステップと、前記領域選別ステッ
プによって選別された候補領域に基づいて、基準時刻に
存在する前記一、または、複数の移動物体を表す画像を
生成する領域統合ステップと、を有することを特徴とす
る移動物体抽出方法である。
【0026】請求項11の発明は、固定されたカメラか
ら一、または、複数の移動物体を撮影し、この撮影した
画像から基準時刻における前記移動物体を抽出するため
の移動物体抽出方法であって、前記カメラからの連続フ
レーム画像を記憶する画像記憶ステップと、前記画像記
憶ステップに記憶されている連続フレーム画像の中から
基準時刻を挟んで2枚のフレーム画像を1組とする比較
フレーム組画像を選択するものであって、この場合に2
枚のフレーム画像の撮影時刻の時間間隔が異なる複数組
の比較フレーム組画像を選択する比較フレーム組画像選
択ステップと、前記比較フレーム組画像選択ステップに
よって選択した複数組の比較フレーム組画像における2
枚のフレーム画像の差分をそれぞれとって、その差分時
間間隔が異なるフレーム間差分画像をそれぞれ生成し、
これら複数のフレーム間差分画像から前記移動物体が存
在する候補領域をそれぞれ抽出するフレーム間差分処理
ステップと、前記フレーム間差分処理ステップで抽出し
た複数のフレーム間差分画像の中で、前記移動物体の見
かけ上の移動量が一定値以上であるという第1の条件
と、前記複数のフレーム間差分画像の候補領域の中から
高い位置精度を有するという第2の条件とを満たす候補
領域を、一つの移動物体に対して一つ選別する領域選別
ステップと、前記領域選別ステップによって選別された
候補領域に基づいて、基準時刻に存在する前記一、また
は、複数の移動物体を表す画像を生成する領域統合ステ
ップと、を有することを特徴とする移動物体抽出方法で
ある。
【0027】請求項12の発明は、固定されたカメラか
ら一、または、複数の移動物体を撮影し、この撮影した
画像から基準時刻における前記移動物体を抽出するため
の移動物体抽出方法を実現できるプログラムを記録した
記録媒体であって、前記カメラからの連続フレーム画像
を記憶する画像記憶機能と、前記画像記憶機能に記憶さ
れている連続フレーム画像の中から基準時刻における基
準フレーム画像を選ぶ基準フレーム画像選択機能と、基
準時刻とは撮影時刻がそれぞれ異なる少なくとも2種類
のフレーム画像である比較フレーム画像を前記画像記憶
機能に記憶されている連続フレーム画像の中から取り出
し、これら複数の比較フレーム画像と前記基準フレーム
画像選択機能で選択した基準フレーム画像との差分をと
って、基準時刻と撮影時刻との差である差分時間間隔が
異なるフレーム間差分画像をそれぞれ生成し、これら複
数のフレーム間差分画像から前記移動物体が存在する候
補領域をそれぞれ抽出するフレーム間差分処理機能と、
前記フレーム間差分処理機能で抽出した複数のフレーム
間差分画像の中で、前記移動物体の見かけ上の移動量が
一定値以上であるという第1の条件と、前記複数のフレ
ーム間差分画像の候補領域の中から高い位置精度を有す
るという第2の条件とを満たす候補領域を、一つの移動
物体に対して一つ選別する領域選別機能と、前記領域選
別機能によって選別された候補領域に基づいて、基準時
刻に存在する前記一、または、複数の移動物体を表す画
像を生成する領域統合機能と、を実現できるプログラム
を記録したことを特徴とする移動物体抽出方法の記録媒
体である。
【0028】請求項13の発明は、固定されたカメラか
ら一、または、複数の移動物体を撮影し、この撮影した
画像から基準時刻における前記移動物体を抽出するため
の移動物体抽出方法を実現できるプログラムを記録した
記録媒体であって、前記カメラからの連続フレーム画像
を記憶する画像記憶機能と、前記画像記憶機能に記憶さ
れている連続フレーム画像の中から基準時刻を挟んで2
枚のフレーム画像を1組とする比較フレーム組画像を選
択するものであって、この場合に2枚のフレーム画像の
撮影時刻の時間間隔が異なる複数組の比較フレーム組画
像を選択する比較フレーム組画像選択機能と、前記比較
フレーム組画像選択機能によって選択した複数組の比較
フレーム組画像における2枚のフレーム画像の差分をそ
れぞれとって、その差分時間間隔が異なるフレーム間差
分画像をそれぞれ生成し、これら複数のフレーム間差分
画像から前記移動物体が存在する候補領域をそれぞれ抽
出するフレーム間差分処理機能と、前記フレーム間差分
処理機能で抽出した複数のフレーム間差分画像の中で、
前記移動物体の見かけ上の移動量が一定値以上であると
いう第1の条件と、前記複数のフレーム間差分画像の候
補領域の中から高い位置精度を有するという第2の条件
とを満たす候補領域を、一つの移動物体に対して一つ選
別する領域選別機能と、前記領域選別機能によって選別
された候補領域に基づいて、基準時刻に存在する前記
一、または、複数の移動物体を表す画像を生成する領域
統合機能と、を実現できるプログラムを記録したことを
特徴とする移動物体抽出方法の記録媒体である。
【0029】本発明は、少なくとも2種類の差分時間間
隔の異なるフレーム間差分画像を利用することで、見か
け上の速度が遅いカメラ遠方の移動物体に対しても差分
時間間隔の大きいフレーム間差分画像から候補領域が抽
出できる様になり、一方見かけ上の速度が速いカメラ近
傍の移動物体に対しては差分時間間隔が小さい時間差分
画像から候補領域を抽出するので、候補領域の過剰な膨
張がなく、移動物体の位置に依存せず画面全体で安定し
て確実に移動物体が抽出できるようにした。
【0030】これにより、移動物体のカメラからの距離
に依存せず、カメラ遠方の移動物体に対してもカメラ近
傍の移動物体に対しても、過剰に候補領域を膨張させる
こと無く、安定して候補領域を抽出できるようになり、
ITS、AHS、といった知的な高度交通システムの実
現に途が開かれる。
【0031】
【発明の実施の形態】以下、本発明の実施例について図
面を参照して説明する。
【0032】実施例1 実施例1を図1から図6に基づいて説明する。
【0033】図1は、本実施例の移動物体抽出装置の全
体の構成図であり、図2は、処理の流れを示したフロー
チャートである。なお、本実施例は、ITS、AHS、
といった高度交通システムにおける車両抽出に適用され
るのものである。
【0034】移動物体抽出装置は、図1に示すように、
画像入力手段101と、画像系列記憶手段102と、フ
レーム間差分処理手段103と、領域選別手段104
と、領域統合手段105と、出力手段106を備える。
これら手段は、装置によって構成してもよく、また、こ
れらの機能を実現するプログラムを記録したFD、M
O、ハードディスクなどの記録媒体に記録して、このプ
ログラムを実行するパソコンなどで実現してもよい。
【0035】以下は図1、図2を参照しながら本実施例
を説明する。
【0036】(ステップ201)画像入力手段101
は、監視カメラとA/D変換器で構成される。
【0037】監視カメラは、例えば高速道路のトンネル
の壁面や、高速道路をまたぐ橋梁に取り付けられ、監視
カメラの近傍から例えば100m先、あるいは200m
先までが見えるような角度に据え付けられている。
【0038】この監視カメラは、ビデオ信号を出力して
おり、例えば30分の1秒間隔で1フレームの画像を出
力している。
【0039】A/D変換器は、監視カメラの映像信号を
逐次ディジタル化しており、画像系列記憶手段102に
リアルタイムでディジタル画像を送信する。連続した映
像は1フレーム毎に区切られた画像の系列として得られ
る。
【0040】図3は、画像入力手段101の典型的な入
力画像の模式図である。そして、この入力画像には、
A、B、Cの3台の車両(移動物体)が撮影されてい
る。
【0041】(ステップ202)画像系列記憶手段10
2は、リングバッファで構成されており、現時点の画像
の他に、1フレーム前、2フレーム前、3フレーム前、
・・・、nフレーム前までの例えば30フレーム分の過
去の画像を記憶している。30フレーム分のリングバッ
ファならば1秒間の映像が記憶されている。
【0042】もちろん、サンプリング間隔を空けて1フ
レーム飛ばして記憶しても良い。
【0043】新しい時点の画像が1フレーム入力される
と、古い画像を1フレーム削除し、解放した記憶領域に
新しい画像を1フレーム記憶する。
【0044】リングバッファのサイズは、フレーム間差
分をとる時間間隔の最大間隔に従って決まる。
【0045】(以下のステップの理論的説明)まず、フ
レーム間差分処理手段103は、次のフレーム画像を抽
出する。
【0046】第1に、現時点(現在時刻)での入力画像
(以下、基準フレーム画像という)を抽出する。なお、
以下の説明では、図3の画像を基準フレーム画像とす
る。
【0047】第2に、少なくとも2種類以上の過去の画
像(以下、比較フレーム画像という)を抽出する。な
お、上記実施例では、比較フレーム画像は、現在時刻を
基準にして過去のフレーム画像を使用するが、これに代
えて将来のフレーム画像を使用してもよい。また、現在
時刻を基準にしてその前後のフレーム画像を使用しても
よい。
【0048】そして、フレーム間差分処理手段103
は、基準フレーム画像と2種類以上の比較フレーム画像
とフレーム間差分処理を実行することで、2種類以上の
時間差の異なるフレーム間差分画像を得る。
【0049】(1)比較フレーム画像の選択方法 まず、比較フレーム画像、すなわち、フレーム間差分を
実行するべきフレーム画像の選択方法について説明す
る。
【0050】フレーム間差分画像に移動物体が撮像され
ていると、2つの画像間で移動物体の位置が変化してい
る。従って、フレーム間差分画像を2値化すると移動物
体の輪郭が現れることになるが、2値化処理により抽出
される領域の大きさは移動物体の「画像中での見かけ上
の速度」に依存する。
【0051】例えば、高速道路の監視カメラの映像のよ
うに、後方から広い範囲を見渡す画像の場合、監視カメ
ラに近い領域では車両が大きく撮影されるために車両の
見かけ上の速度は速い(図3の車両A)。一方、監視カ
メラから遠い領域では車両が小さく撮影されので車両の
見かけ上の速度は遅い(図3の車両C)。特に、無限遠
点(消失点)付近では、車両はほとんど止まって見え
る。
【0052】この様に車両の空間中の位置の違いによっ
て見かけ上の速度が異なるので、時間間隔を短く、例え
ば2フレームとして、2枚の画像のフレーム間差分をと
ると、近傍の車両Aは見かけ上は大きく移動しているの
でフレーム間差分画像から車両領域抽出ができるが、遠
方の車両Cは見かけ上移動していないのでフレーム間差
分画像から車両領域が抽出できないということが起こり
うる。
【0053】(2)移動物体の抽出 ところで、撮影する監視カメラが車両が走行する路面に
対して固定されていれば、車両と監視カメラとの距離に
よって、車両が画像中で投影される位置は計算可能であ
る。
【0054】例えば、図4のように、監視カメラの焦点
距離はfで、z軸上の高さhの位置にあり、監視カメラ
は道路平面に対してロールしていない、すなわち、水平
レベルは保たれるとし、パン角をθ、チルト角をψ(プ
サイ)であるとする。空間座標系では位置をP(x、
y、z)と表現し、Pが画像に投影された位置をqとす
る。qの画像座標系の位置はq(α、β)と表現する。
【0055】このとき、α,βとx,y,zは以下の投
影式で関係付けられる。
【0056】
【数1】 ここで(1),(2)式に、道路平面の拘束条件としてy=0
を代入する。変数が1つ減るので、α,βからx,zを
解くことができ、次式になる。
【0057】
【数2】 ここで、車線の進行方向をz軸、車線の横断方向をx軸
であるとする。車両は車線の横断方向の位置を、例えば
第一車線の中央位置xcに保ちつつ、車線の進行方向に
向かって速度Vで等速直線運動をしていると仮定する。
このとき車両の運動方程式は時刻tを用いて次式で表せ
る。
【0058】
【数3】 いま、画像中でβの位置に投影された車両が、画像中で
の見かけ上の移動量としてΔβ移動するのに必要な時間
間隔ΔTは、空間中の移動距離をΔzとすると、以下の
式で算出される。
【0059】
【数4】 ここで(2)式に、y=0の条件を代入してzを解く
と、zはβの関数になり、以下の式で算出される。
【0060】
【数5】 (7)式を(8)式に代入して整理すると、車両が画像
中でΔβ移動するのに必要な時間ΔTは以下の式で与え
られる。
【0061】
【数6】 ここで付け加えると、(9)式においてxの項は無いの
で、車線(道路平面)が左右に曲がっていたとしても
(9)式の関係は満足される。
【0062】例えば、320×240の解像度でディジ
タル化した画像とする。q(α、β)を取り込みデジタ
ル化した画像をf(I、J)と書く。なお、(I、J)
軸とは、画像の左上を(0、0)とし、右方向をI軸、
下方向をJ軸とした座標系である。図4の(α、β)軸
とはそれぞれ逆方向となる。f(I、J)で時刻tを表
すときは、f(t、I、J)と書く。
【0063】ここで、図4における各座標を簡単にもう
一度説明しておくと、空間座標系がP(x、y、z)、
投影座標系がq(α、β)、デジタル画像の座標系がf
(I、J)である。
【0064】そして、画像中の移動量が5画素になるた
めの時間間隔を、(9)式に基づいてグラフ化したのが
図5である。
【0065】図5の横軸は車両の画像中のJ成分の値で
あり、縦軸は計算上の最適な時間間隔を示している。な
お、車両の速度Vは時速90km/hと仮定している。
【0066】図5の監視カメラ条件は後追い撮影による
画像を想定しており、車両は図3に示すように画像の下
方から上方に向かって移動する。従ってJ=240近辺
が最も監視カメラに近く、J=55付近が消失点であ
り、車両は消失点に向かって移動する。車両が監視カメ
ラに近いところほど時間間隔が小さくても車両が移動す
るが、車両が移動する(画像で上方に移動する)に従っ
て長い時間間隔を設定しないと十分な移動量にならない
ということが分かる。
【0067】(3)位置の精度 一方、抽出される位置の精度という点で考えてみると、
これは時間間隔を短く設定したほうが有利になる。時間
間隔に移動する分だけ抽出される領域が膨張するからで
ある。従って、抽出可能であるならば、なるべく短い時
間間隔を設定する方が良い。
【0068】具体的に言えば、監視カメラから近い車両
Aは、短い時間間隔でも画像中の見かけ上の移動が十分
なので、なるべく短い時間間隔を設定すべきである。
【0069】一方、監視カメラから遠方の車両Cは(空
間中の位置精度は犠牲になるが)、長い時間間隔を設定
し、見かけ上の移動量が十分になる時間間隔を設定すべ
きである。すなわち言い換えれば、全てを長い時間間隔
で計算するのは良くない。
【0070】図5のグラフに示されるように、適切な時
間間隔は画素のJ座標値にて対応して決まる。すべての
J座標値に対応して、すべての適切な時間間隔のフレー
ム間画像を用意することも考えられるが、処理量が膨大
になるので、本実施例では簡略化した方法をとる。
【0071】例えば、図5に従って、画像を3つの領域
に分割する。
【0072】第1の領域をJ=240からJ=190ま
で、第2の領域をJ=190からJ=140まで、第3
の領域をJ=140からJ=55(消失点)までとす
る。
【0073】第1の領域は最適なフレーム間隔が2フレ
ームより小さい範囲であり、第2の領域は最適なフレー
ム間隔が4フレームより小さい範囲であり、第3の領域
は最適なフレーム間隔が4フレームより大きい範囲であ
る。
【0074】従って、2フレームの時間間隔で算出した
フレーム間差分画像は第1の領域に撮像された物体に対
しては、十分な見かけ上の移動量を与える。
【0075】また、4フレームの時間間隔で算出したフ
レーム間差分画像は第1の領域及び第2の領域に撮像さ
れた物体に対して、十分な見かけ上の移動量を与える。
しかし第1の領域に関しては時間間隔の短いフレーム間
差分画像で条件を満たすものがあればそちらを優先して
利用する。従って第1の領域に対しては2フレームの時
間間隔で算出したフレーム間差分画像の結果を用いる。
【0076】残る時間間隔は8フレームである。2フレ
ームの時間間隔、あるいは4フレームの時間間隔で適用
可能な領域以外の領域に対しては、8フレームの時間間
隔を用いる。図5からはJ=115からJ=55(消失
点)までの領域は、8フレームの時間間隔を与えても十
分な見かけ上の移動量(ここでは5画素と設定して計算
している)が得られないが、本実施例では8フレームで
代用する。さらに消失点より上の領域も8フレームとす
る。
【0077】本実施例では3段階の時間間隔を設定した
が、計算手段の処理能力によってはさらに多段階の時間
間隔を設定し、処理できる場合がある。この場合は、同
様に、(9)式や、図5のような解析を行って細かく領
域を分割して適切な時間間隔を設定すれば良い。
【0078】図2では、時間間隔の変化をより一般化さ
せてn通りの時間間隔を設定するとして、処理の手順を
示している。図2に示したようにステップ203からス
テップ207までは時間間隔の違いにより並列に処理が
可能なので、並列実行することも可能である。
【0079】以上説明したような方法によって画像を部
分領域に分割し、画像領域毎に適切な時間間隔を設定
し、当該フレーム間隔の画像を画像系列記憶手段102
から読み出し、必要なフレーム間差分画像を生成する。
【0080】本実施例では、フレーム間差分処理手段1
03は、画像系列記憶手段102に記憶されている画像
系列から、現フレームとの時間間隔が、2、4、8フレ
ーム前の画像を抽出し、フレーム間差分画像を生成す
る。
【0081】すなわち △T1=2(フレーム)(J=240からJ=190ま
で) △T2=4(フレーム)(J=190からJ=140ま
で) △T3=8(フレーム)(J=115からJ=0まで) とする。
【0082】以上では、本実施例の処理を理論的に説明
したが、以下では、再度整理して順番にステップ毎に説
明する。
【0083】(ステップ203)フレーム間差分処理手
段103は、まず、移動物体を抽出する対象画像、すな
わち、基準フレーム画像を、リングバッファから取り込
む。本実施例では、上記したように図3が基準フレーム
画像である。
【0084】(ステップ204)続いて、フレーム間差
分処理手段103は、設定された時間間隔の過去のフレ
ーム画像を、リングバッファから取り込む。すなわち、
基準フレーム画像から2フレーム前、4フレーム前、8
フレーム前の画像を比較フレーム画像として取り込む。
【0085】(ステップ205)続いて、フレーム間差
分処理手段103は、入力した2枚の画像(例えば、基
準フレーム画像と2フレーム前の比較フレーム画像)の
フレーム間差分処理を実行する。差分演算としては輝度
値の差の絶対値を取る。
【0086】 d1(I、J)=|f(t、I、J)−f(t−△T1、I、J)| d2(I、J)=|f(t、I、J)−f(t−△T2、I、J)| … dn(I、J)=|f(t、I、J)−f(t−△Tn、I、J)| (ステップ206)続いて、フレーム間差分された差分
画像に対して2値化処理を施す。2値化しきい値は様々
な設定方法があるが、ここでは予め値を設定しておくと
する。画素値の差の絶対値が、設定したしきい値より大
きければ1に、小さければ0にする。
【0087】2値化画像に対して、ラベリング処理して
ラベル領域を外接長方形で近似する。
【0088】ここで、下記の3つの処理を施す。
【0089】第1に、サイズと位置を検証して、小さな
ラベルや、路面の領域からはみ出した領域を削除するな
どノイズに起因するラベルを削除する処理を施す。
【0090】第2に、各ラベルの大きさや接続関係や距
離を検証して結合する結合処理も行う。
【0091】第3に、過去のフレームとのラベル同士の
対応づけを行い、現フレームでの位置を予測して、隠れ
や重なりがおきていることを認識し、領域を分割する処
理も行う。
【0092】以上の処理をステップ206として実行す
る。このステップはフレーム間差分処理手段103の内
部で実行される。図6にも基づいて説明すると下記の通
りである。
【0093】ノイズ除去などが済み整理されたラベル領
域を、外接長方形により近似して位置と大きさのデータ
に加工する。外接長方形の近似処理が済んだ段階が図6
の上段である。
【0094】図6の上段は、時間間隔が左からそれぞれ
2、4、8フレーム前の比較フレーム画像を模擬してい
る。時間間隔が小さいフレーム間差分画像からは、画像
内の上方の車両Cの領域が抽出できていない(図6aの
上段)。
【0095】また、時間間隔が中のフレーム差分画像で
は画像内の中央に車両Bの領域が出現する(図6bの上
段)。
【0096】さらに、時間間隔が大きいフレーム差分画
像では画像内の下方の車両Aの領域が膨張して大きな領
域が検出されている(図6cの上段)。
【0097】(ステップ207)領域選別手段105に
おける処理を説明する。
【0098】それぞれの抽出領域の底辺の位置を基準と
して、先に説明したように、画像のJ座標の位置で時間
間隔を場合分けする。
【0099】例えば2フレームの時間間隔で算出したフ
レーム間差分画像からは、J=240からJ=190ま
での領域(第1の領域)に、抽出された矩形の底辺が位
置する矩形(車両A)だけを選別する(図6aの中段) 同様に4フレームの時間間隔で算出したフレーム間差分
画像からは、J=190からJ=140までの領域(第
2の領域)に、抽出された矩形の底辺が位置する矩形
(車両B)だけを選別する(図6bの中段) 8フレームの時間間隔で算出したフレーム間差分画像か
らは、J=140よりJ=0までの領域に、抽出された
矩形の底辺が位置する矩形(車両C)だけを抽出する
(図6cの中段)。
【0100】ここで、矩形の底辺を判断基準の位置とす
る理由は、高速道路の様に道路を上から見下ろす監視カ
メラで撮影した画像の場合は、その底辺の位置は、車両
の最後方の接地点に対応するからである。(3)式、
(4)式で導いた投影関係式は物体が道路平面上に存在
すると仮定して導かれているので、画像投影位置から空
間中の奥行き位置に変換する場合は、平面上に存在する
点を参照しなければならないからである。もし、車両の
高さのある点を参照した場合は、画像投影点と空間中の
位置との関係が異なり(9)式の関係が成り立たない。
【0101】あるいは、何らかの方法で車両中の高さや
前後方向の位置が既知の特徴点を正確に抽出できるのな
らば車両の高さycを(3)式(4)式に代入して投影
関係式を解く方法もあるが、一般的な道路には様々な車
両が通過するので、高さや位置を特定できる特徴点を安
定して抽出することは困難である。
【0102】以上をステップ207として実行され、こ
れは領域選別手段104の中で実行される。
【0103】(ステップ208)このように適した時間
間隔に従って選別された抽出領域(図6の中段の3つの
図)を統合して1枚分の画像に対応する領域として統合
する。
【0104】そして、図6の下段のような最終的な領域
抽出結果が得られる。この画像においては、移動物体で
ある車両A、B、Cが抽出されている。
【0105】(ステップ209)領域抽出結果を出力手
段108で出力して、次の画像入力を待つ。
【0106】(移動物体が1つの場合)上記説明では、
車両が3台の場合について説明したが、図7に示すよう
に車両が1台の場合もある。
【0107】この場合も上記と同様にその車両が画面中
に存在する領域で比較フレーム画像を選択し、基準フレ
ーム不画像からフレーム間差分画像を生成すればよい。
【0108】例えば、図7の場合には、上記説明に基づ
いて3つの領域に分けて判断すると、車両は最下段の領
域に存在するために、2フレーム前の比較フレーム画像
を使用すればよい。
【0109】実施例2 実施例2を図8と図9に基づいて説明する。
【0110】実施例2として、領域抽出処理の変更例を
説明する。
【0111】領域抽出処理は、フレーム間差分画像を2
値化し、ラベリング処理し、ラベル領域の外接長方形を
抽出し、矩形位置情報を抽出する処理である。
【0112】ここでラベリング処理は画像処理の中でも
処理量が多く、画像処理装置としてのリアルタイム性を
実現するためには、処理の簡略化が望まれることが多
い。
【0113】このため、画像を入力画像のフルサイズ
(実施例1では320×240画素としている)をその
まま処理するのでなく、解像度を落として処理すること
を考える。
【0114】また、近年の車両形状を考えてみると、流
線形で丸みを帯びている形状が多いなど、車両表面の模
様が少ない車両が存在する。車両表面の模様が少なく滑
らかな場合、車両が移動しても画像上の輝度が見かけ上
は変化しないために、フレーム間差分画像の単純な2値
化では、車両全体が抽出できない場合がある。車両全体
が抽出できないと、車両特徴が先頭部分と後端部分に分
離されることが多い。この様な場合には、解像度を落と
して、画素をブロック化して扱うと車両特徴の分離を防
ぐことができる。例えば、5×5画素を1ブロックとし
て扱い、「ブロック中で輝度変化のあった画素が1つで
も存在したら1ブロック全体が移動物体に属する」、と
すれば、画像特徴の特徴が見かけ上膨張するので(処理
の上では膨張するので)、車両特徴が分離されることは
少なくなる。
【0115】このように、画像の解像度を落として処理
をすることは、処理スピードの面からも、車両特徴の分
離防止の面からも有利であるが、位置精度に関していえ
ば、出力する値がブロック単位になるので位置精度が悪
化するという問題がある。
【0116】そこで実施例2では、位置精度を悪化させ
ること無く、ブロック化の利点を生かすことのできる方
法について説明する。
【0117】図8は、領域抽出処理の変更例の処理の流
れを示した図である。
【0118】(ステップ701)ステップ701の様に
複数の時間間隔をもって2フレームの画像が入力され、
フレーム間差分処理が行われる。図8では、1つの時間
間隔の処理を代表して図示している。
【0119】(ステップ702)フレーム間差分画像を
2値化するとステップ702の様に、車両特徴が分離さ
れる場合がある。
【0120】(ステップ703)ここで、ステップ70
3のように低い解像度の処理と高い解像度の処理に分離
する。
【0121】低い解像度の処理は、フレーム間差分の画
素を例えば5×5のブロックに区切り、ブロック内の画
素が1つでも変化領域と判定されたならブロック全体が
変化領域であると判定し、低い解像度の2値化画像を生
成していく。
【0122】高い解像度の処理は、車両位置の特にJ軸
方向の位置の精度が元の画像の解像度で抽出されるよう
に付け加えた処理である。具体的には高い解像度でJ軸
方向にデータが詳しいプロファイルデータを作成する。
【0123】図9に、高解像度のプロファイルデータ作
成方法の模式図を示している。図9上段がフレーム間差
分画像を2値化した画像であり、黒い画素が「変化領
域」であり、白い画素が「非変化領域」を示している。
【0124】図9下段左の、低解像度の2値化画像の生
成方法は既に説明した通りである。画素の解像度が低く
なっているので、領域の形と外形が膨張した状態になっ
ている。
【0125】図9下段右は、高解像度のプロファイルデ
ータである。ブロック内のそれぞれの行(縦1画素、横
5画素の領域)に対して、変化領域の画素数を数え当該
画素数を内容とするプロファイルデータを作成してい
る。横方向(I軸方向)のデータは圧縮されたために位
置情報が欠落しているが、縦方向(J軸方向)のデータ
は元の解像度のまま残っている。例えば、図9下段右の
情報があれば、領域は図9上段の解像度で言えば、上か
ら3番目の画素位置から始まり、上から9番目の画素位
置まで領域が存在する、ということが分かる。
【0126】(ステップ704)続いて、低い解像度の
2値化画像に対してラベリング処理を行い、外接長方形
を抽出する。解像度が落ちているので、車両特徴は分離
されず1台の車両が1つの領域として抽出されている。
しかし、I軸方向にもJ軸方向にも位置精度は元の画像
より悪化している。
【0127】(ステップ705)高解像度のプロファイ
ルデータを参照し、J軸方向に関する抽出矩形の位置精
度を精緻化する。ステップ704で得られた外接長方形
の上底及び下底の画素位置に相当するプロファイルデー
タを参照すれば、膨張した分を修正して精密に領域位置
を合わせることができる。
【0128】なお、実施例2の方法をとると、J軸方向
の位置精度は元の画像の解像度で抽出できるが、I軸方
向の位置精度は低い解像度のままである。この点を次に
考察する。
【0129】交通流監視装置の目的を考えると、最も基
本的で正確な出力が求められるのは、台数カウントと個
別車両の走行速度である。画像処理によって車両の速度
を計測するには、画像中で車両の位置を抽出し、それを
空間中の位置に変換し、移動距離と移動時間によって速
度を算出することになる。このとき、重要なのは空間中
の車両の、特に進行方向の位置である。車両の進行方向
の位置を算出するには、画像中のJ座標の位置が必要で
ある。I座標の位置は走行車線の識別に必要であるが速
度算出のためにはそれほど有効なデータではない。
【0130】従ってJ軸方向の位置精度が重要である。
そのために、実施例2で説明した方法であれば、領域抽
出処理を簡略化しながらJ軸方向の精度は十分な出力が
獲得できる。
【0131】変更例 (変更例1−1)上記実施例では、比較フレーム画像
は、現在時刻を基準にして過去のフレーム画像を使用し
た。しかし、本発明のポイントは、フレーム間差分処理
の対象となる2枚の画像のフレーム間隔を効果的に設定
するということであり、二つの画像を抽出する方法はこ
れに限られたものではない。
【0132】上記の実施例ではフレーム間差分処理を以
下の形式で実行した。
【0133】 d1(I,J)=|f(t,I,J)−f(t−ΔT1,I,J)| d2(I,J)=|f(t,I,J)−f(t−ΔT2,I,J)| …… dn(I,J)=|f(t,I,J)−f(t−ΔTn,I,J)| 上記の例では、現在時刻tの画像f(t)を基準画像と
して、f(t−ΔT1),f(t−ΔT2)のように過
去のフレームとの差分をとっている。
【0134】これに対して、以下のように現在時刻tに
対する未来のフレームとの差分をとる方法がある。
【0135】これを(変更例1−1)とする。
【0136】 d1(I,J)=|f(t,I,J)−f(t+ΔT1,I,J)| d2(I,J)=|f(t,I,J)−f(t+ΔT2,I,J)| …… dn(I,J)=|f(t,I,J)−f(t+ΔTn,I,J)| 上記の例の場合は、現在時刻に対して、結果がΔTnに
相当する時間だけ遅れて出力されるというデメリットが
ある。しかし、この例の場合は以下のメリットがある。
【0137】フレーム間差分は2つの画像の差分をとる
ので、抽出される車両領域は、2つの画像のそれぞれの
車両領域の論理和の領域が抽出される。例えば、第1の
実施例のように基準時刻の画像(フレーム)f(t)と
過去の画像(フレーム)f(t−ΔT)を利用した場
合、フレーム間差分画像から抽出される車両領域は、フ
レームf(t)とf(t−ΔT)の二つの画像の車両領
域が結合して一つになった領域になる。
【0138】フレームf(t−ΔT)に比べてフレーム
f(t)内の車両は前方に進行しているので(なぜなら
時間が進行しているから)、抽出される車両領域の底辺
位置(最後方の端点の接地点)はf(t−ΔT)の車両
領域の底辺位置に相当する。従って、フレーム間差分処
理によって抽出される車両位置の底辺位置は、第1の実
施例に従えばそれぞれd1.d2・・・dnは、 f(t−ΔT1) f(t−ΔT2) …… f(t−ΔTn) の時刻における車両位置の底辺位置が抽出されることに
なる。
【0139】一方、基準時刻に対して未来の画像を使用
する(変更例1−1)では、フレームf(t)に比べて
フレームf(t+ΔT)内の車両は前方に進行している
ので、抽出される車両領域の底辺位置はf(t)の車両
領域の底辺位置に相当する。従って、フレーム間差分処
理によって抽出される車両位置の底辺位置は、(変更例
1−1)に従えばそれぞれd1.d2・・・dnは、 f(t) f(t) …… f(t) の時刻における車両位置の底辺位置が抽出されることに
なる。
【0140】3次元空間中での車両の速度を計算する場
合は、車両の最後方の端点の接地点の位置を画像中で正
確に抽出することが重要であるが、このように(変更例
1−1)に従えば基準時刻における位置が抽出できるこ
とになる。これが(変更例1−1)のメリットである。
【0141】なお、このように基準時刻に対して未来の
画像を使う方法は、画像系列を蓄積するリングバッファ
があればハードウェア的には問題なく実現できる。
【0142】(変更例1−2)さらに、以下のように現
在時刻tに対して、未来のフレームと過去のフレームを
組み合わせて差分をとる方法がある。これを(変更例1
−2)とする。
【0143】 d1(I,J)= |f{t−(ΔT1)/2,I,J}−f{t+(ΔT1)/2,I,J}| d2(I,J)= |f{t−(ΔT2)/2,I,J}−f{t+(ΔT2)/2,I,J}| …… dn(I,J)= |f{t−(ΔTn)/2,I,J}−f{t+(ΔTn)/2,I,J}| (変更例1−2)では、基準時刻に対して過去と未来に
均等に時間間隔を割り振るので、リングバッファやハー
ドウェアの構成によってはアドレッシングが有利になる
場合がある。また、第1の実施例や変更例(変更例1−
1)と違い、それぞれのフレームを1度ずつしか使用し
ないので、そういう意味でもハードウェア構成に有利に
なる場合がある。また、フレーム間差分により抽出され
る車両領域は、2つの画像のそれぞれの車両領域の論理
和の領域であるので、車両領域の中心位置を車両位置デ
ータとして処理する場合は(変更例1−2)が有効であ
る。
【0144】(変更例1−2)のように基準時刻の車両
位置を抽出するのに、基準時刻の画像は必ずしも使用す
る必要はない。
【0145】なお、(変更例1−1)や(変更例1−
2)の他にも、フレーム間隔を保ちながら、フレーム間
差分を施す画像を様々に選択することが可能である。
【0146】(変更例2)上記実施例では、道路上をほ
ぼまっすぐ走る車両を移動物体としたが、カメラが固定
されていれば移動物体は直線運動に限らず、その他の3
次元空間中の任意の運動をしていてもよい。
【0147】例えば、カメラを中心として円運動をして
いる移動物体の場合には、円運動の方程式を考慮して
(9)式を作成すれば、その移動物体が抽出できる。
【0148】また、移動物体がジェットコースターのよ
うに上下運動をしつつ蛇行して前進するような3次元空
間中の運動をする場合には、その運動方程式に基づいて
抽出すればよい。
【0149】(変更例3)上記実施例では、交通監視シ
ステムに応用した例を説明したが、本発明は、これに限
らず、コンビニエンスストアーなどの店内の監視システ
ムに応用してもよい。
【0150】具体的には、カメラを天井に固定して、下
方を撮影するようにすれば、上記実施例と同様にして移
動物体(人物)を抽出できる。
【0151】
【発明の効果】以上説明したように、本発明によれば、
移動物体のカメラからの距離の違いにより、画像中での
移動物体の見かけ上の移動量が異なることを利用して、
少なくとも2種類の差分時間間隔の異なるフレーム間差
分画像を利用することで、カメラ近傍の移動物体から遠
方の移動物体までを安定して抽出することができる。し
かも候補領域の過剰な膨張はない。
【0152】また、フレーム間差分処理を利用している
ので、季節、天気、時間などの環境変化に対して頑強で
あり、単一の調整値で安定して候補領域を抽出できる。
【0153】さらに、移動物体の候補領域を正確に抽出
できることから、監視領域を通過する移動物体の数、個
別速度の計測、走行軌跡の記録などが可能になる。
【0154】そのために、例えば、交通量諸量の計測を
可能にし、交通流の乱れを認識したり、突発事象の検出
を行うシステムを構成できる。そして、ITS、AH
S、といった知的な高度交通システムには、交通流を認
識するセンシング装置が欠かせない要素であり、特に画
像処理技術を用いたセンシング装置が実用上最も有効で
ある。したがって、本発明は、例えば、ITS、AHS
などのシステムにも適用できるなどの実用上多大な効果
がある。
【図面の簡単な説明】
【図1】移動物体抽出装置の全体構成図である。
【図2】同じく全体の処理の流れである。
【図3】入力画像の模式図である。
【図4】監視カメラと平面の関係を示す図である。
【図5】画像中の位置と最適な時間間隔の関係である。
【図6】領域統合処理の説明図である。
【図7】車両が1台の場合の入力画像の模式図である。
【図8】領域抽出処理の変更例である。
【図9】プロファイルデータ作成方法の模式図である。
【符号の説明】
101…画像入力手段 102…画像系列記憶手段 103…フレーム間差分処理手段 104…領域選別手段 105…領域統合手段 106…出力手段
───────────────────────────────────────────────────── フロントページの続き (72)発明者 小野口 一則 兵庫県神戸市東灘区本山南町8−6−26 株式会社東芝関西研究センター内 Fターム(参考) 5B057 AA16 BA02 CA08 CA12 CA16 CB08 CB12 CB16 CC03 CD07 CE08 CE12 DA08 DA16 DB02 DB08 DC30 DC32 5L096 AA06 BA02 CA04 CA22 DA04 EA03 EA43 FA18 FA66 FA69 GA08 GA26 GA34 HA03

Claims (13)

    【特許請求の範囲】
  1. 【請求項1】固定されたカメラから一、または、複数の
    移動物体を撮影し、この撮影した画像から基準時刻にお
    ける前記移動物体を抽出するための移動物体抽出装置で
    あって、 前記カメラからの連続フレーム画像を記憶する画像記憶
    手段と、 前記画像記憶手段に記憶されている連続フレーム画像の
    中から基準時刻における基準フレーム画像を選ぶ基準フ
    レーム画像選択手段と、 基準時刻とは撮影時刻がそれぞれ異なる少なくとも2種
    類のフレーム画像である比較フレーム画像を前記画像記
    憶手段に記憶されている連続フレーム画像の中から取り
    出し、これら複数の比較フレーム画像と前記基準フレー
    ム画像選択手段で選択した基準フレーム画像との差分を
    とって、基準時刻と撮影時刻との差である差分時間間隔
    が異なるフレーム間差分画像をそれぞれ生成し、これら
    複数のフレーム間差分画像から前記移動物体が存在する
    候補領域をそれぞれ抽出するフレーム間差分処理手段
    と、 前記フレーム間差分処理手段で抽出した複数のフレーム
    間差分画像の中で、前記移動物体の見かけ上の移動量が
    一定値以上であるという第1の条件と、前記複数のフレ
    ーム間差分画像の候補領域の中から高い位置精度を有す
    るという第2の条件とを満たす候補領域を、一つの移動
    物体に対して一つ選別する領域選別手段と、 前記領域選別手段によって選別された候補領域に基づい
    て、基準時刻に存在する前記一、または、複数の移動物
    体を表す画像を生成する領域統合手段と、 を有することを特徴とする移動物体抽出装置。
  2. 【請求項2】固定されたカメラから一、または、複数の
    移動物体を撮影し、この撮影した画像から基準時刻にお
    ける前記移動物体を抽出するための移動物体抽出装置で
    あって、 前記カメラからの連続フレーム画像を記憶する画像記憶
    手段と、 前記画像記憶手段に記憶されている連続フレーム画像の
    中から基準時刻を挟んで2枚のフレーム画像を1組とす
    る比較フレーム組画像を選択するものであって、この場
    合に2枚のフレーム画像の撮影時刻の時間間隔が異なる
    複数組の比較フレーム組画像を選択する比較フレーム組
    画像選択手段と、 前記比較フレーム組画像選択手段によって選択した複数
    組の比較フレーム組画像における2枚のフレーム画像の
    差分をそれぞれとって、その差分時間間隔が異なるフレ
    ーム間差分画像をそれぞれ生成し、これら複数のフレー
    ム間差分画像から前記移動物体が存在する候補領域をそ
    れぞれ抽出するフレーム間差分処理手段と、 前記フレーム間差分処理手段で抽出した複数のフレーム
    間差分画像の中で、前記移動物体の見かけ上の移動量が
    一定値以上であるという第1の条件と、前記複数のフレ
    ーム間差分画像の候補領域の中から高い位置精度を有す
    るという第2の条件とを満たす候補領域を、一つの移動
    物体に対して一つ選別する領域選別手段と、 前記領域選別手段によって選別された候補領域に基づい
    て、基準時刻に存在する前記一、または、複数の移動物
    体を表す画像を生成する領域統合手段と、 を有することを特徴とする移動物体抽出装置。
  3. 【請求項3】前記移動物体が平面上を移動する場合に
    は、 前記領域選別手段は、 前記平面と前記カメラ間の関係と、前記移動物体の推定
    速度と、前記平面上の前記移動物体の位置から前記画像
    上の位置への投影関係とから、前記画像中の前記移動物
    体の見かけ上の移動量が一定値以上になるための差分時
    間間隔である選別時間間隔を算出する選別時間間隔算出
    手段と、 前記フレーム間差分処理手段において生成されたフレー
    ム間差分画像の差分時間間隔と前記選別時間間隔とを比
    較して、前記選別時間間隔より長い差分時間間隔を有す
    るフレーム間差分画像を選択し、この選択したフレーム
    間差分画像が前記第1の条件を満たすものであると判断
    する第1条件判断手段と、 を有することを特徴とする請求項1、2記載の移動物体
    抽出装置。
  4. 【請求項4】前記領域選別手段は、 前記フレーム間差分処理手段において生成したフレーム
    間差分画像における差分時間間隔の最も短いフレーム間
    差分画像から抽出された候補領域を、前記第2の条件を
    満たすものであると判断する第2条件判断手段を有する
    ことを特徴とする請求項1、2、3記載の移動物体抽出
    装置。
  5. 【請求項5】前記領域選別手段は、 前記候補領域の底辺を基準に、前記第1の条件、また
    は、前記第2の条件を判断することを特徴とする請求項
    1、2,3、4記載の移動物体抽出装置。
  6. 【請求項6】前記領域選別手段は、 前記カメラと前記移動物体との距離が大きい場合には差
    分時間間隔の長いフレーム間差分画像に基づいて前記移
    動物体の候補領域を抽出し、 前記カメラと前記移動物体との距離が小さい場合には差
    分時間間隔の短いフレーム間差分画像に基づいて前記移
    動物体の候補領域を抽出することにより、 前記第1条件を満たすフレーム間差分画像を選別するこ
    とを特徴とする請求項1、2記載の移動物体抽出装置。
  7. 【請求項7】前記移動物体が平面上を移動し、かつ、前
    記カメラが前記平面より上方で、前記移動物体の進行方
    向を後方から撮影する角度に据え付けられている場合
    は、 前記領域選別手段は、 前記画像上方にあたる前記カメラから遠方の領域は差分
    時間間隔が長いフレーム間差分画像を抽出し、 前記画像下方にあたる前記カメラから近傍の領域は差分
    時間間隔が短いフレーム間差分画像を抽出することによ
    り、 前記第1条件を満たすフレーム間差分画像を選別するこ
    とを特徴とする請求項1、2記載の移動物体抽出装置。
  8. 【請求項8】前記移動物体が3次元空間中を任意に運動
    している場合には、 前記領域選別手段は、 前記カメラを中心とした前記移動物体の運動状態を示す
    運動方程式と、前記移動物体の位置から前記画像上の位
    置への投影関係とから、前記画像中の前記移動物体の見
    かけ上の移動量が一定値以上になるための差分時間間隔
    である選別時間間隔を算出する選別時間間隔算出手段
    と、 前記フレーム間差分処理手段において生成されたフレー
    ム間差分画像の差分時間間隔と前記選別時間間隔とを比
    較して、前記選別時間間隔より長い差分時間間隔を有す
    るフレーム間差分画像を選択し、この選択したフレーム
    間差分画像が前記第1の条件を満たすものであると判断
    する第1条件判断手段と、 を有することを特徴とする請求項1、2記載の移動物体
    抽出装置。
  9. 【請求項9】前記フレーム間差分処理手段が、前記フレ
    ーム差分画像から前記移動物体の候補領域を抽出する場
    合には、 前記フレーム差分画像の原画像の解像度を落として2値
    化ラベリング処理を行い、候補領域の位置を抽出し,空
    間中の奥行き方向の位置を算出するためのデータの解像
    度は維持し、空間中の左右方向の位置を算出するための
    データの解像度は圧縮して、前記候補領域の精密な位置
    が抽出できるプロファイルデータを作成し、 解像度を落として抽出した前記車両領域の位置を、前記
    プロファイルデータで精緻化して前記移動物体の候補領
    域とすることを特徴とする請求項1、2記載の移動物体
    抽出装置。
  10. 【請求項10】固定されたカメラから一、または、複数
    の移動物体を撮影し、この撮影した画像から基準時刻に
    おける前記移動物体を抽出するための移動物体抽出方法
    であって、 前記カメラからの連続フレーム画像を記憶する画像記憶
    ステップと、 前記画像記憶ステップに記憶されている連続フレーム画
    像の中から基準時刻における基準フレーム画像を選ぶ基
    準フレーム画像選択ステップと、 基準時刻とは撮影時刻がそれぞれ異なる少なくとも2種
    類のフレーム画像である比較フレーム画像を前記画像記
    憶ステップに記憶されている連続フレーム画像の中から
    取り出し、これら複数の比較フレーム画像と前記基準フ
    レーム画像選択ステップで選択した基準フレーム画像と
    の差分をとって、基準時刻と撮影時刻との差である差分
    時間間隔が異なるフレーム間差分画像をそれぞれ生成
    し、これら複数のフレーム間差分画像から前記移動物体
    が存在する候補領域をそれぞれ抽出するフレーム間差分
    処理ステップと、 前記フレーム間差分処理ステップで抽出した複数のフレ
    ーム間差分画像の中で、前記移動物体の見かけ上の移動
    量が一定値以上であるという第1の条件と、前記複数の
    フレーム間差分画像の候補領域の中から高い位置精度を
    有するという第2の条件とを満たす候補領域を、一つの
    移動物体に対して一つ選別する領域選別ステップと、 前記領域選別ステップによって選別された候補領域に基
    づいて、基準時刻に存在する前記一、または、複数の移
    動物体を表す画像を生成する領域統合ステップと、 を有することを特徴とする移動物体抽出方法。
  11. 【請求項11】固定されたカメラから一、または、複数
    の移動物体を撮影し、この撮影した画像から基準時刻に
    おける前記移動物体を抽出するための移動物体抽出方法
    であって、 前記カメラからの連続フレーム画像を記憶する画像記憶
    ステップと、 前記画像記憶ステップに記憶されている連続フレーム画
    像の中から基準時刻を挟んで2枚のフレーム画像を1組
    とする比較フレーム組画像を選択するものであって、こ
    の場合に2枚のフレーム画像の撮影時刻の時間間隔が異
    なる複数組の比較フレーム組画像を選択する比較フレー
    ム組画像選択ステップと、 前記比較フレーム組画像選択ステップによって選択した
    複数組の比較フレーム組画像における2枚のフレーム画
    像の差分をそれぞれとって、その差分時間間隔が異なる
    フレーム間差分画像をそれぞれ生成し、これら複数のフ
    レーム間差分画像から前記移動物体が存在する候補領域
    をそれぞれ抽出するフレーム間差分処理ステップと、 前記フレーム間差分処理ステップで抽出した複数のフレ
    ーム間差分画像の中で、前記移動物体の見かけ上の移動
    量が一定値以上であるという第1の条件と、前記複数の
    フレーム間差分画像の候補領域の中から高い位置精度を
    有するという第2の条件とを満たす候補領域を、一つの
    移動物体に対して一つ選別する領域選別ステップと、 前記領域選別ステップによって選別された候補領域に基
    づいて、基準時刻に存在する前記一、または、複数の移
    動物体を表す画像を生成する領域統合ステップと、 を有することを特徴とする移動物体抽出方法。
  12. 【請求項12】固定されたカメラから一、または、複数
    の移動物体を撮影し、この撮影した画像から基準時刻に
    おける前記移動物体を抽出するための移動物体抽出方法
    を実現できるプログラムを記録した記録媒体であって、 前記カメラからの連続フレーム画像を記憶する画像記憶
    機能と、 前記画像記憶機能に記憶されている連続フレーム画像の
    中から基準時刻における基準フレーム画像を選ぶ基準フ
    レーム画像選択機能と、 基準時刻とは撮影時刻がそれぞれ異なる少なくとも2種
    類のフレーム画像である比較フレーム画像を前記画像記
    憶機能に記憶されている連続フレーム画像の中から取り
    出し、これら複数の比較フレーム画像と前記基準フレー
    ム画像選択機能で選択した基準フレーム画像との差分を
    とって、基準時刻と撮影時刻との差である差分時間間隔
    が異なるフレーム間差分画像をそれぞれ生成し、これら
    複数のフレーム間差分画像から前記移動物体が存在する
    候補領域をそれぞれ抽出するフレーム間差分処理機能
    と、 前記フレーム間差分処理機能で抽出した複数のフレーム
    間差分画像の中で、前記移動物体の見かけ上の移動量が
    一定値以上であるという第1の条件と、前記複数のフレ
    ーム間差分画像の候補領域の中から高い位置精度を有す
    るという第2の条件とを満たす候補領域を、一つの移動
    物体に対して一つ選別する領域選別機能と、 前記領域選別機能によって選別された候補領域に基づい
    て、基準時刻に存在する前記一、または、複数の移動物
    体を表す画像を生成する領域統合機能と、 を実現できるプログラムを記録したことを特徴とする移
    動物体抽出方法の記録媒体。
  13. 【請求項13】固定されたカメラから一、または、複数
    の移動物体を撮影し、この撮影した画像から基準時刻に
    おける前記移動物体を抽出するための移動物体抽出方法
    を実現できるプログラムを記録した記録媒体であって、 前記カメラからの連続フレーム画像を記憶する画像記憶
    機能と、 前記画像記憶機能に記憶されている連続フレーム画像の
    中から基準時刻を挟んで2枚のフレーム画像を1組とす
    る比較フレーム組画像を選択するものであって、この場
    合に2枚のフレーム画像の撮影時刻の時間間隔が異なる
    複数組の比較フレーム組画像を選択する比較フレーム組
    画像選択機能と、 前記比較フレーム組画像選択機能によって選択した複数
    組の比較フレーム組画像における2枚のフレーム画像の
    差分をそれぞれとって、その差分時間間隔が異なるフレ
    ーム間差分画像をそれぞれ生成し、これら複数のフレー
    ム間差分画像から前記移動物体が存在する候補領域をそ
    れぞれ抽出するフレーム間差分処理機能と、 前記フレーム間差分処理機能で抽出した複数のフレーム
    間差分画像の中で、前記移動物体の見かけ上の移動量が
    一定値以上であるという第1の条件と、前記複数のフレ
    ーム間差分画像の候補領域の中から高い位置精度を有す
    るという第2の条件とを満たす候補領域を、一つの移動
    物体に対して一つ選別する領域選別機能と、 前記領域選別機能によって選別された候補領域に基づい
    て、基準時刻に存在する前記一、または、複数の移動物
    体を表す画像を生成する領域統合機能と、 を実現できるプログラムを記録したことを特徴とする移
    動物体抽出方法の記録媒体。
JP35178599A 1999-12-10 1999-12-10 移動物体抽出装置及びその方法 Pending JP2001167282A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35178599A JP2001167282A (ja) 1999-12-10 1999-12-10 移動物体抽出装置及びその方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35178599A JP2001167282A (ja) 1999-12-10 1999-12-10 移動物体抽出装置及びその方法

Publications (1)

Publication Number Publication Date
JP2001167282A true JP2001167282A (ja) 2001-06-22

Family

ID=18419598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35178599A Pending JP2001167282A (ja) 1999-12-10 1999-12-10 移動物体抽出装置及びその方法

Country Status (1)

Country Link
JP (1) JP2001167282A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196786A (ja) * 2001-12-26 2003-07-11 Tietech Co Ltd 移動体検出方法及び移動体検出装置
JP2004265252A (ja) * 2003-03-03 2004-09-24 Matsushita Electric Works Ltd 画像処理装置
JP2004295416A (ja) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd 画像処理装置
JP2006018751A (ja) * 2004-07-05 2006-01-19 Nissan Motor Co Ltd 車両用画像処理装置
JP2006024146A (ja) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science 画像処理による移動物体計測方法及び装置
JP2007013774A (ja) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc 対象物探索装置
US7171027B2 (en) 2002-03-05 2007-01-30 Nissan Motor Co., Ltd. Vehicular image processing apparatus and related method
JP2008500640A (ja) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド 検出および追跡のためのグラフィカルオブジェクトモデル
WO2009078056A1 (ja) * 2007-12-14 2009-06-25 Fujitsu Limited 移動物検知装置及び移動物検知プログラム
JP2009217400A (ja) * 2008-03-07 2009-09-24 Fujitsu Ltd 画像処理装置
WO2010113417A1 (ja) * 2009-04-02 2010-10-07 国立大学法人東京大学 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
JP2012073891A (ja) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd 煙検出用周波数成分特定方法、および煙検出装置
JP2016071734A (ja) * 2014-09-30 2016-05-09 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
JP2020149132A (ja) * 2019-03-11 2020-09-17 セコム株式会社 画像処理装置及び画像処理プログラム
JP2020167508A (ja) * 2019-03-29 2020-10-08 セコム株式会社 画像処理装置及び画像処理プログラム
JP2021128796A (ja) * 2018-06-01 2021-09-02 株式会社ダイフク 物体認識システムおよび物体認識方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003196786A (ja) * 2001-12-26 2003-07-11 Tietech Co Ltd 移動体検出方法及び移動体検出装置
US7171027B2 (en) 2002-03-05 2007-01-30 Nissan Motor Co., Ltd. Vehicular image processing apparatus and related method
JP2004265252A (ja) * 2003-03-03 2004-09-24 Matsushita Electric Works Ltd 画像処理装置
JP2004295416A (ja) * 2003-03-26 2004-10-21 Matsushita Electric Works Ltd 画像処理装置
JP2008500640A (ja) * 2004-05-27 2008-01-10 シーメンス コーポレイト リサーチ インコーポレイテツド 検出および追跡のためのグラフィカルオブジェクトモデル
JP4886678B2 (ja) * 2004-05-27 2012-02-29 シーメンス コーポレーション 検出および追跡のためのグラフオブジェクトモデル
JP2006018751A (ja) * 2004-07-05 2006-01-19 Nissan Motor Co Ltd 車両用画像処理装置
JP4573590B2 (ja) * 2004-07-09 2010-11-04 財団法人生産技術研究奨励会 画像処理による移動物体計測方法及び装置
JP2006024146A (ja) * 2004-07-09 2006-01-26 Foundation For The Promotion Of Industrial Science 画像処理による移動物体計測方法及び装置
JP2007013774A (ja) * 2005-07-01 2007-01-18 Toyota Central Res & Dev Lab Inc 対象物探索装置
JP4723934B2 (ja) * 2005-07-01 2011-07-13 株式会社豊田中央研究所 対象物探索装置
JP4957807B2 (ja) * 2007-12-14 2012-06-20 富士通株式会社 移動物検知装置及び移動物検知プログラム
US8150104B2 (en) 2007-12-14 2012-04-03 Fujitsu Limited Moving object detection apparatus and computer readable storage medium storing moving object detection program
WO2009078056A1 (ja) * 2007-12-14 2009-06-25 Fujitsu Limited 移動物検知装置及び移動物検知プログラム
JP2009217400A (ja) * 2008-03-07 2009-09-24 Fujitsu Ltd 画像処理装置
WO2010113417A1 (ja) * 2009-04-02 2010-10-07 国立大学法人東京大学 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
JP2010244207A (ja) * 2009-04-02 2010-10-28 Univ Of Tokyo 移動物体追跡装置、移動物体追跡方法および移動物体追跡プログラム
JP2012073891A (ja) * 2010-09-29 2012-04-12 Nohmi Bosai Ltd 煙検出用周波数成分特定方法、および煙検出装置
JP2016071734A (ja) * 2014-09-30 2016-05-09 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
US10121067B2 (en) 2014-09-30 2018-11-06 Canon Kabushiki Kaisha Image processing apparatus that determines processing target area of an image based on degree of saliency, image processing method, and storage medium
JP2021128796A (ja) * 2018-06-01 2021-09-02 株式会社ダイフク 物体認識システムおよび物体認識方法
JP7199645B2 (ja) 2018-06-01 2023-01-06 株式会社ダイフク 物体認識システムおよび物体認識方法
JP2020149132A (ja) * 2019-03-11 2020-09-17 セコム株式会社 画像処理装置及び画像処理プログラム
JP7290961B2 (ja) 2019-03-11 2023-06-14 セコム株式会社 画像処理装置及び画像処理プログラム
JP2020167508A (ja) * 2019-03-29 2020-10-08 セコム株式会社 画像処理装置及び画像処理プログラム
JP7195204B2 (ja) 2019-03-29 2022-12-23 セコム株式会社 画像処理装置及び画像処理プログラム

Similar Documents

Publication Publication Date Title
CN111652097B (zh) 一种图像毫米波雷达融合目标检测方法
Zhu et al. VISATRAM: A real-time vision system for automatic traffic monitoring
US5757287A (en) Object recognition system and abnormality detection system using image processing
JP2001167282A (ja) 移動物体抽出装置及びその方法
US8538082B2 (en) System and method for detecting and tracking an object of interest in spatio-temporal space
US8050459B2 (en) System and method for detecting pedestrians
Zhang et al. A longitudinal scanline based vehicle trajectory reconstruction method for high-angle traffic video
JP4363295B2 (ja) ステレオ画像による平面推定方法
KR20160062880A (ko) 카메라 및 레이더를 이용한 교통정보 관리시스템
KR19980701568A (ko) 이미지 시퀀스내의 객체의 움직임을 검출하기 위한 방법 및 장치(method and apparatus for detecting object movement within an image sequence)
KR101548639B1 (ko) 감시 카메라 시스템의 객체 추적장치 및 그 방법
JP2002074368A (ja) 移動物体認識追跡装置
Malinovskiy et al. Video-based vehicle detection and tracking using spatiotemporal maps
CN107038411A (zh) 一种基于视频中车辆运动轨迹的路侧停车行为精确识别方法
CN113034586B (zh) 道路倾角检测方法和检测系统
CN111523385B (zh) 一种基于帧差法的静止车辆检测方法及系统
CN105654084B (zh) 基于激光器的车牌定位方法、装置及系统
JP2003527680A (ja) 輸送手段の動きに対して障害物を検出し、連続したイメージを用いて障害物との接触までの時間を決定するシステムおよび方法
Kanhere et al. Real-time detection and tracking of vehicle base fronts for measuring traffic counts and speeds on highways
CN113221957A (zh) 一种基于Centernet的雷达信息融合特征增强方法
JPH09270014A (ja) 移動物体の抽出装置
KR100631082B1 (ko) 단일 카메라를 사용한 3차원 영상정보 획득방법 및 이를이용한 영상검지방법
JP2002367077A (ja) 交通渋滞判定装置及び交通渋滞判定方法
Nejadasl et al. Optical flow based vehicle tracking strengthened by statistical decisions
Atev et al. A collision prediction system for traffic intersections

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040629

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050426