JP6533044B2 - 移動先レーンに合流する移動アイテムの移動元レーンの判定 - Google Patents

移動先レーンに合流する移動アイテムの移動元レーンの判定 Download PDF

Info

Publication number
JP6533044B2
JP6533044B2 JP2014175601A JP2014175601A JP6533044B2 JP 6533044 B2 JP6533044 B2 JP 6533044B2 JP 2014175601 A JP2014175601 A JP 2014175601A JP 2014175601 A JP2014175601 A JP 2014175601A JP 6533044 B2 JP6533044 B2 JP 6533044B2
Authority
JP
Japan
Prior art keywords
lane
moving
item
processor
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014175601A
Other languages
English (en)
Other versions
JP2015055875A (ja
Inventor
ロバート・ピー・ローズ
ウェンチェン・ウー
トーマス・エフ・ウェイド
ダニエル・エス・ハン
ピーター・ポール
アーロン・エム・バリー
Original Assignee
コンデュエント ビジネス サービシーズ エルエルシー
コンデュエント ビジネス サービシーズ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コンデュエント ビジネス サービシーズ エルエルシー, コンデュエント ビジネス サービシーズ エルエルシー filed Critical コンデュエント ビジネス サービシーズ エルエルシー
Publication of JP2015055875A publication Critical patent/JP2015055875A/ja
Application granted granted Critical
Publication of JP6533044B2 publication Critical patent/JP6533044B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/08Payment architectures
    • G06Q20/14Payment architectures specially adapted for billing systems
    • G06Q20/145Payments according to the detected use or quantity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Traffic Control Systems (AREA)

Description

本願明細書におけるシステム及び方法は、一般に、アイテムフロー処理に関し、特に、移動先レーンに合流する複数の移動元レーンとしての移動アイテムの移動元レーンを判定するのにカメラを使用するシステム及び方法に関する。
コンピュータ化されたシステムは、制御されたレーン又は経路を介したアイテムの移動を容易とするなど、多くの分野において効率を改善するのに有用である。そのようなシステムの例は、倉庫内のコンベアシステム上のアイテムの移動;空港、遊園地、スポーツイベントにおける個人の待機;車内運転施設における食品やその他のアイテムのドライブスルー(又は「ドライブスルー式」)での注文処理などを含む。本願明細書におけるシステム及び方法は、ドライブスルー注文の例を使用して説明される。しかしながら、これらのシステム及び方法は、人間又はアイテムが複数の移動元レーンから少なくとも1つの移動先レーンに合流する全てのタイプの処理に適用可能である。
車両の「ドライブスルー」動作において、顧客は、所定の機能が(各レーンを有する)複数の並列ステーションにおいて行われ且つ車両が他の機能を行うステーションに対して少ないレーンに合流された場合には迅速に且つコスト効率よく供給されることができる。例として、2つ又は3つの並列注文ステーションと支払い及び食品受け取りのための単一レーンとを有するファーストフードレストランが挙げられる。非効率性及び問題は、並列レーンに続く合流領域に存在する。現在、従業員は、移動元レーンが合流ラインと交差するのにともない車両の移動元レーンを追跡するためにビデオカメラやモニタを使用している。これは、他の場所で使用可能な従業員の努力を必要とし、時間を浪費して後続するステーションにおける顧客の不満を作り出す人為的ミスを被る。
本願明細書における例示的な装置は、第1の位置を向いた光学ステレオカメラ(複数の撮像ユニットを有する単一のカメラ又は複数のカメラを有するカメラネットワーク)を含む。複数のカメラ又は撮像装置は、固定されて第1の位置と重複する視野を有する。第1の位置は、単一の副レーンなどの少ない本数の副レーンに合流する複数の平行な主レーンを有する水平面を備える。ステレオカメラは、水平面に平行な水平方向に向けられている。主レーン内の移動アイテムは取引を開始し、副レーンにおいて取引を終了する。
プロセッサは、ステレオカメラに対して動作可能に接続されている。プロセッサは、ステレオカメラの複数のカメラによって得られた移動アイテムの画像間の差異に基づいて水平方向におけるステレオカメラからの移動アイテムの距離(又はカメラネットワークが使用される場合には基準カメラからの距離)を算出する。具体的には、プロセッサは、移動アイテムが第1の位置を通過するのにともない且つ移動アイテムの少なくとも一部が第1の位置内にあるとき移動アイテムの相対位置及び相対距離を検出することによって移動アイテムが副レーンに入ったシーケンスを判定する。プロセッサは、第1の位置を通過する移動アイテムのそれぞれについて時間的な深さプロファイルを作成することによってステレオカメラからの移動アイテムの距離を算出する。
これは、副レーンへの合流前に移動アイテムのそれぞれが位置する主レーンを識別し、プロセッサが「合流順序」で取引の注文を行うのを可能とする。合流順序は、移動アイテムが主レーンから副レーンに入ったシーケンスに対応する。インターフェースは、プロセッサに対して動作可能に接続され、取引を終了する取引装置に対して(合流順序で)取引を出力する。
さらに、プロセッサは、移動アイテムが第1の位置を通過するときに移動アイテムの「初期」シグネチャプロファイルを作り出すことができる。そのような初期シグネチャプロファイルは、移動アイテムの色、形状、高さ及び幅などの項目を含むことができる。装置は、さらに、(移動アイテムが取引を終了する場合に隣接する)副レーンの第2の位置において第2のステレオカメラを備えることができる。それゆえに、プロセッサは、移動アイテムが第2の位置を通過するときに(再度移動アイテムの色、形状、高さ及び幅などを含むことができる)移動アイテムの「確認」シグネチャプロファイルを作り出すことができる。
これらの初期及び確認シグネチャプロファイルは、プロセッサが合流順序を確認又は変更するのを可能とする。具体的には、プロセッサは、初期シグネチャプロファイルと一致する確認シグネチャプロファイルに基づいてインターフェースが取引装置に対して取引を出力する前に合流順序を確認する。それとは反対に、プロセッサは、初期シグネチャプロファイルと一致しない確認シグネチャプロファイルに基づいてインターフェースが取引装置に対して取引を出力する前に合流順序を変更する。
空間的制約を満たすために、いくつかの状況において、ステレオカメラは、移動アイテムの隣に配置されることができ、プロセッサは、移動アイテムの側面画像のみに基づいて距離を算出する。さらに、装置を簡便化してコストを削減するために、ステレオカメラは、固定位置にある静止した非移動ステレオカメラとすることができる。
本願明細書における例示的な方法は、第1の位置を向いた光学ステレオカメラ(又はカメラネットワーク)を使用して画像を取得する。第1の位置は、少ない本数の少なくとも1本の副レーンに合流する複数の平行な主レーンを備え、主レーン内の移動アイテムは取引を開始し、副レーンにおいて取引を終了する。そのような方法は、カメラに対して動作可能に接続されたプロセッサを使用して、カメラからの移動アイテムの距離(又はカメラネットワークが使用される場合には基準カメラからの距離)を算出し、移動アイテムのそれぞれが副レーンへの合流前に位置した主レーンを識別する。それゆえに、本願明細書における方法は、プロセッサを使用して、第1の位置を通過する移動アイテムのそれぞれについての時間的な深さプロファイルを作成することにより、カメラからの移動アイテムの距離を算出する。
そして、これらの方法は、移動アイテムが主レーンから副レーンに入ったシーケンスに対応する合流順序で取引の注文を行う。具体的には、そのような方法は、移動アイテムが第1の位置を通過するときに移動アイテムの相対位置及び相対距離を検出することにより、移動アイテムが副レーンに入ったシーケンスを判定する。また、本願明細書における方法は、プロセッサに対して動作可能に接続されたインターフェースを使用して、取引を終了する取引装置に対して合流順序で取引を出力する。
さらに、いくつかの場合において、これらの方法は、移動アイテムの初期シグネチャプロファイルを作り出すことができる。これらの初期シグネチャプロファイルは、移動アイテムが第1の位置を通過するときの移動アイテムの色、形状、高さ、幅などを含む。また、これらの方法は、移動アイテムの確認シグネチャプロファイルを同様に作り出すことができ、これらの確認シグネチャプロファイルは、移動アイテムが(移動アイテムが取引を終了する場所に隣接する)副レーンの第2の位置を通過するときの移動アイテムの色、形状、高さ、幅などを同様に含む。それゆえに、これらの方法は、確認シグネチャプロファイルが初期シグネチャプロファイルに一致する場合に(インターフェースが取引装置に対して取引を出力する前に)合流順序を確認し、又は、これらの方法は、確認シグネチャプロファイルが初期シグネチャプロファイルに一致しない場合に(インターフェースが取引装置に対して取引を出力する前に)合流順序を変更する。
図1は、本願明細書における様々なシステムの構成要素図である。 図2は、本願明細書における方法及びシステムによって生成される立体画像を示している。 図3は、本願明細書における方法及びシステムによって生成されるシグネチャプロファイルを示すグラフである。 図4は、本願明細書における方法及びシステムによって生成されるシグネチャプロファイルを示す画像及びグラフを示している。 図5Aは、本願明細書における方法及びシステムによって生成されるシグネチャプロファイルを示す画像及びグラフを示している。 図5Bは、本願明細書における方法及びシステムによって生成されるシグネチャプロファイルを示す画像及びグラフを示している。 図5Cは、本願明細書における方法及びシステムによって生成されるシグネチャプロファイルを示す画像及びグラフを示している。 図5Dは、本願明細書における方法及びシステムによって生成されるシグネチャプロファイルを示す画像及びグラフを示している。 図6は、本願明細書における装置を示す概略図である。 図7は、本願明細書における装置を示す概略図である。 図8は、本願明細書におけるシステムを示す概略図である。 図9は、本願明細書における装置を示す概略図である。 図10は、本願明細書における様々な方法のフロー図である。
上述したように、コンピュータ化されたシステムは、そのような制御されたレーン又は経路を通過するアイテムの移動を容易とするなど、多くの分野において効率を改善するのに有用である。この分野において、本願明細書におけるシステム及び方法は、合流レーンを横切るように車両の移動元レーンを判定するための立体視システム及び方法を提供する。
本願明細書におけるシステムの一例は、図1に示されている。この例示的なシステムは、様々なモジュールを含む。アイテム100は、ドライブスルーレーンのための合流線(関心領域−ROI)と関連する領域のステレオペア(複数のビュー)映像又は画像を取得する立体視映像キャプチャモジュールを表す。アイテム102は、撮像画像内のROIを識別するROI選択モジュールを表す。アイテム104は、ROI内の車両の存在を判定する車両検出モジュールを表す。アイテム106は、ROI又はROIの深さマップにおける特徴の距離を判定する深さ推定モジュールを表す。アイテム108は、距離情報を使用して合流線についての領域における関心車両の移動元レーンを判定するレーン判定モジュールを表す。アイテム110は、関心車両の特徴を抽出し、元の注文レーンにおいて撮像された車両特徴とのマッチングを行う車両識別及びマッチングモジュールを表す。これらのモジュールは、以下においてより詳細に説明する。
立体視映像キャプチャモジュール100は、少なくとも2つのカメラ又は2つのカメラビューを含む。カメラの相対位置は、アイテムがカメラから配置されている異なる距離を確実に判定するのに十分異なる角度を提供するためにインストール時に測定又は設定される。本願明細書における方法及びシステムは、2つのビューがレーンの面に平行な水平線に沿って粗く設定されるように、カメラを整列させることによって処理を簡略化することができる。関心領域の3次元幾何形状を把握するために較正が行われる。市販のステレオカメラは、本願明細書におけるシステム及び方法とともに使用されることができる。
図2は、ビデオカメラによって撮像されたサンプルビデオフレームを図示している。図2に示されたサンプルビデオフレームは、異なる角度から同時に得られる同一の関心領域の2つのビュー120、122を含む。2つのビュー120、122間の差異は、2つのビューが同じ面積からなり、実質的に同時に得られる(略同時に得られる)ことから、それらが僅かに異なる角度から得られるという理由だけで発生する。
ROI選択モジュール102は、撮像された画像内のROIを識別する。合流線は、(後述するように、図6及び図7に示される合流領域216などの)実世界空間内の物理又は仮想線である。合流線又は領域は、レーン数が減少する位置をマーク解除する。ROIは、画像空間内で視認されるような合流線まわりの領域であり、そのような用語は互換的に使用される。
ROIは、セットアップ時の地点又は領域の手動選択によってビデオ監視設定において確立されることができる。この例において、ROIは、図2においてボックス128として示されている。本願明細書におけるシステムは、ROIが双方のレーンをカバーするのに十分大きいように且つ信号ロバスト性のために車両進入地点にROIを配置しているが、ROIはまた、計算効率のために十分に小さい。物理又は仮想合流線及び対応する画像ROIは、車両合流の移動元レーンを固有に判定するためにトラフィックフローにおける十分上流であるとともに、検出されたいかなる車両も合流リソースを占有する次の車両であるようにトラフィックフローにおける十分下流に配置されている。ROIを配置するための1つの代替例は、塗装線、リフレクタ又はポストなどの現実空間における既知のマーカの自動検出を使用する。
他の代替例において、ROIは、現在のフレームについての全ての検出された車両画素を含み、それゆえに、フレーム間において位置を変更することができる。このアプローチの利点は、距離推定及び車線判定モジュールのために全ての検出された車両画素を使用するということである。しかしながら、車両検出からのノイズ(例えば、動き検出方法によって移動車両の一部と誤解される可能性があるシャドウ画素)は、そのような代替例において制御されるべきである。
上述したように、車両検出モジュール104は、ROIにおける車両の存在を判定する。車両検出モジュール104は、一般に、特徴又はアクティビティ検出器である。それは距離推定のために車両(又は特徴)の存在を判定する。車両検出は、様々な方法で行われることができる。
一例において、車両検出は、形態学的フィルタリング及びサイズ閾値判別が続く(フレーム間の差異、オプティカルフローなどの)動き検出によって行われる。このアプローチは、リアルタイム実装によく適することができるという計算的利点を有する。しかしながら、そのようなアプローチは、移動物体が画素における車両の大きさについて視認されるときに根拠を失うことがある(カメラの前方における小さな物体又は非常に遠くの巨大な物体とすることができる)。これは、一般的ではなく、ステレオカメラ動作深さ範囲及び視覚ベースの物体認識方法の有効活用を制限することによって実際に容易に解決される。
他の例において、視覚ベースの物体認識方法は、フレーム間に適用されることができる。これは、ロバストな車両検出を生み出すが、はるかに高い計算コストを要し、リアルタイム実装速度を満たす上での課題を追加する。さらに他の例は、動き検出、物体認識及び車両検出のための追跡方法の組み合わせである。この場合、動き検出の最初の発生は、物体認識をトリガする。車両認識が確認された場合、物体追跡は、物体がシーンを離れるまで将来のフレームについて使用される。車両認識が確認されない場合には、動き検出は、次のフレームについて続行され、処理が繰り返される。
少なくとも2つの(立体視用)カメラの相対位置及びカメラ較正パラメータの先験的な知識を与えられた深さ推定モジュール106に関して、深さ推定モジュール106は、対応一致及び視差較正を低減する。それゆえに、上述したカメラ情報は、標準的なカメラ較正手順を介して収集され、カメラが固定されている場合には一定のままとされる。水平にラインアップして同一のカメラ内部パラメータとともに固定されたベースラインを有する簡略化されたステレオカメラについて、深さdは、d=ft/(Δj)として算出される。ここで、fは焦点距離であり、tはベースラインであり、Δjは、画素単位での視差である。視差は、同じ視認される特徴の画素列位置の差異である。
視差と距離との関係の一例は、図2に示される2つの異なるフレーム120、122に図示された2台の車両の前輪においてみられる。車124の前輪は、SUV126の前輪よりもステレオペア120、122においてはるかに大きな視差を有する。それゆえに、本願明細書におけるシステム及び方法は、SUV126が車124よりもセンサから離れているという結論を出す。
いくつかの例において、深さ推定モジュール106は、レーン判定モジュール108への入力を提供するために密又は疎な深さマップを使用する。密な深さマップを算出する場合、本願明細書におけるシステム及び方法は、ステレオペア120、122における(対応する)画素と重複する全てについての深さを推定する。一例において、これは、以下のステップを含む。ステレオペア120、122における対応する点をみつけること、及び、これらの点についての視差、それゆえに深さを算出すること、そして、対応が直接みつけられることができない(少なくともロバストにみつからない)画素の深さを補間すること。この例(水平視差)において使用される簡略化されたステレオカメラについて、対応一致は、ペア間で同じ画素行で発生し、それゆえに、検索は、より迅速でよりロバストである。
多くのステレオカメラ製造業者について、密な深さマップを算出するためのツールは、多くの場合、カメラとともに提供される。しかしながら、この特定の例において、制限されたROI及び主として水平視差により、計算負荷を低減するために固有の密な深さマップを実装することが有益であり得る。それゆえに、本願明細書におけるシステム及び方法は、従来の密な深さマップの使用に代えて、本願明細書において疎な深さマップと称されるものを算出する。
本願明細書におけるシステム及び方法によって行われる疎な深さマップの計算は、(全てのデータ/画素点未満の)少ない数の関心のあるキー点についての深さを求める。深さ(視差)計算は、密な深さマップ導出と同様であるが、ハリスコーナー、スケール不変特徴変換(SIFT)関心点、高速ロバスト特徴(SURF)関心点などの画像特徴にローカライズされる。これは、多くの密なマップ構造の作成が近いテクスチャレス領域(非関心点によるもの)についての適切な距離推定をみつけるという課題の解決にフォーカスしていることから、密な深さマップを導出するよりもはるかに計算効率が高い。
疎な深さマップ算出において、必要とされる全てのものは、車両に関する十分な距離情報が1つの移動アイテムと他とを固有に区別するために収集されることができるように、十分な数のROI内のデータポイントである。結果として、これらの点は、疎な対応をみつけるために通常使用される関心点とすることができる。移動アイテムがエッジを有することから、この目的のために十分な点がROI内に存在すると予想することは非常に合理的である。しかしながら、疎な深さマップが選択された場合には、図2に示される固定されたROI128よりもむしろ全ての検出された車両画素を含むROIを使用することが時々有益である。
レーン判定モジュール108は、合流車線に入る前の関心車両の移動元レーンを判定する。移動元レーンは、センサまでの関心車両の側面の距離(すなわち、検出された車両の距離)を求め、異なるレーンがカメラに対して位置する距離を照合することによって判定される。
固定されたROI128の場合には、本願明細書におけるシステム及び方法は、実行する時間的な深さプロファイルを記憶し、この深さプロファイルを経時的に観察して閾値のセットと深さプロファイルを比較することによってレーン情報を判定する。深さプロファイルは、1つ以上の点から取ることができ、ロバストな解決策は、検出された車両の複数の関心点の深さにメジアンフィルタを適用することによってプロファイルを生成する。本願明細書におけるシステム及び方法によって生成されるメジアンフィルタリングされた深さプロファイルの例が図3に示されている。レーン情報(レーン1対レーン2)は、プロファイル130において異なるステップとして明確に示されている。
動的ROIを使用する場合、全ての検出された車両画素の深さは、本願明細書におけるシステム及び方法によって算出される。レーン判定モジュール108は、車両の結果として得られた深さ(例えば、ROIにおける車両画素深さの中央値)を算出する。そして、先頭車両の距離(元のレーン)は、車両がフレームにおいて右から左に移動する場合には、車両のブロブの最も左の画素の深さに基づいている。上述したように、動的ROIの算出は、ROIがフレーム毎に変化しており、固定されたROIのアプローチよりも通常は大きいことから、距離推定及び他の要因の点でより計算的に高価である。また、動的ROIは、動き検出が車両検出のために使用された場合には、影やその他の誤って検出された動きに起因するノイズの影響を受けやすくすることができる。
合流レーンに接近する車両についてのレーン情報の時間的なビューは、上述したように、正確な車両順序を維持するためには通常十分である。しかしながら、所定のノイズや顧客の挙動(割り込み、歩行者、車両での走り去りなど)に生じる問題の可能性がある。そのため、車両識別及びマッチングモジュール110は、合流位置において、色、形状、高さ、幅などの初期画像特徴を収集することができ、注文完了領域(例えば、注文受け取り窓)の近くに位置する第2のカメラを使用して得られたそのような画像特徴を比較することができる。
図4〜図5(D)は、本願明細書におけるシステム及び方法の特徴及び動作をさらにハイライトした例を図示している。図4は、車両検出モジュール104が車両の存在を宣言する第1のフレームまでの映像を解析した結果を示している。具体的には、図4において、左2つの画像140、142は、ステレオカメラによって取得されたステレオペアである。再度、ボックス128は、予め定義されたROIを表している。
車両検出モジュール104は、最も左の画像140の全フレームについて形態学的フィルタリング及びサイズ閾値判別が続く動き検出を行う。しかしながら、ボックス128内の検出された動き画素のみがさらなる処理を必要とする。この実装において、簡便さと計算上の利点のために、動き検出のためのフレーム間差分及びオプティカルフローの組み合わせが使用される。
第3の画像144は、深さ推定モジュール106がステレオペアを解析したときに生成された結果として得られた密な深さマップである。いくつかの例において、深さ推定モジュール106は、フレーム全体について及び全てのフレームについての密な深さマップを算出する。他の例において、深さ推定モジュール106は、ROI内及びROIにおいて検出されたN個超(例えば、N=100)の動き画素を含むフレームについての深さマップを算出するに過ぎない。これは、深さ推定モジュール106の算出をかなり低減する。
検出された動き画素数がN個以下である場合には、車両検出モジュール104は、関心車両がROIのビューにおいて検出されないと結論を出す。その場合、現在のフレームについての時間的な深さデータは、この例ではこのステレオカメラによって許容される最大深さフィールドである関心領域の最大深さに設定される。
ROIのビューにおいて検出された関心車両が存在する場合には、ROIにおいて検出された動き画素の得られた深さの中央値は、深さ推定モジュール106による時間的な深さデータとして記憶される。この実行する時間的な深さデータは、関心期間にわたるカメラまでの関心車両の距離を表し、本願明細書において「時間的な深さデータ」マップ、プロファイル又はグラフと称される項目146においてグラフィカルに示される。この実行する時間的な深さデータは、さらに、例えば、7.5fpsビデオについて2秒の遅延に変換する15タップのメジアンフィルタによってフィルタリングされることができる。
図4における最も右の項目146は、合流領域に接近する可能性のある車両の距離を表す、現在のフレームまでの得られた時間的な深さデータである。迅速な応答のために、レーン判定モジュール108は、現在のフレームの深さデータに基づいてレーン情報を判定することができる。代わりに、深さ推定モジュール106は、よりロバストな判定結果を得るために最新のM個のデータ点(例えば、M=10)を使用することができる。ロバスト性は、さらに、車速を組み込むことによって改善することができ、通常の車両の予想長さは、動的にM個選択されることができる。
レーン判定の一例において、全てのM個の深さデータが10から20フィートの間にある場合、車両は、遠いレーン(レーン2)にある。データが全て0から10フィートの間にある場合、車両は、近くのレーン(レーン1)にある。そうでない場合は、車両は存在せず、これは0としてラベル付けされることができる。ここで留意すべきは、レーン情報(0、1又は2)の切り替えは、車両の開始又は終了を示すということである。このアプローチによって発生する1つの問題は、2台の連続した車両が非常に小さな間隔で同一レーンにあるときである。しかしながら、この問題は、より高いビデオ取得レートを使用することによって対処される。例えば、30fpsビデオを使用することにより、レーン判定モジュール108は、20mphでの車両走行について1フィートの間隔を解決することができる。
図5C〜図5Dは、図4に示される処理にしたがって解析されるステレオフレームの4つの試験ビデオ系列の最終結果(すなわち、最後のステレオペア・フレームまで)を図示している。最後のステレオペアは、図5A〜図5Dにおいて項目150、152、160、162;170、172;及び180、182として表されている。生成される密な深さマップは、図5A〜図5Dにおいて項目154、164、174、184として表され、チャート化された時間的な深さデータは、図5A〜図5Dにおいて項目156、166、176、186として示されている。
車両が合流レーンに入った順序の「結果」は、例えば図5(A)における時間的な深さデータマップ156におけるステップを観察することによってみることができ、レーン1が最初に入る(時間的な深さデータマップ156において上段ステップが続く下段ステップ)。それとは反対に、例えば図5(D)における時間的な深さデータマップ186において、レーン2が最初に入る(時間的な深さデータマップ186において下段ステップが続く上段ステップ)。図4及び図5(A)〜図5(D)において、非ゼロのレーン状態が現在のフレームについて検出された場合、最も左の画像の左上隅など、識別されたレーン情報が表示されることができる(及びレーン1については赤及びレーン2については青による色コードとすることができる)。この方法からの結果は、分析された4つ全ての試験ビデオシーケンスについて車両が合流レーンに入った真の順序と一致する。
ここで留意すべきは、上述した全ての画像系列が、距離情報が動いている車両についてのROIにおけるレーン判定のために使用されるのみであることを示しているということである。
図6は、例えば、アイテム(人、在庫、バルク材料など)が移動するドライブスルー注文システム又は他のシステムの一部とすることができる合流レーン200、202、204の平面図である。項目210、212及び214は、例えば、処理が開始されて注文が行われて潜在的に支払われる発注ステーションを備えることができる装置を表す。項目230は、合流領域216(この例ではROI)を向いたステレオカメラ230を表す。カメラネットワークの複数のカメラ(又はステレオカメラの撮像装置)は、固定されて第1の位置216と重複する視野を有する。二重破線は、本願明細書におけるステレオカメラの別個のカメラビューを表す。項目240は、中央処理装置(CPU)又は他の種類のプロセッサなどのコンピュータ化された装置である。項目240は、上述した図1に示された項目の多くを含むことができる。
項目232は、合流レーン206内の移動アイテムの順序を確認するために使用されることができる他のステレオカメラを表す。具体的には、ステレオカメラ232は、そのようなアイテムが、行われる処理における次のステップ又は取引が部分的又は完全に完了するステーション(項目220)に到達する前に合流レーン206内の移動アイテムの画像を記録するように配置される。それゆえに、項目220は、ステーション210、212又は214に置かれた注文が受け取られて潜在的に支払われるステーションを備えることができる。
図7は、図6と同様であるが、第2の合流レーン208を使用した第2の取引完了ステーション222を含む。ここで、任意の確認ステレオカメラ234もまた、レーン208に合流する移動アイテムを確認するのに使用されることができる。
それゆえに、本願明細書における例示的なシステムは、第1の位置216を向いた光学ステレオカメラ230(複数の撮像ユニット又はカメラを有するカメラ230)などのカメラを含む。例えば、第1の位置216は、単一の副レーン206などの少ない本数の副レーンに合流する複数の平行な主レーン200、202、204を有する水平面を含む。この例において、ステレオカメラ230は、レーン200、202、204の水平面に略平行な水平面内で互いに位置決めされたカメラを有する。主レーン200、202、204内の移動アイテム(例えば、車両、物品、人、車両内の人などの任意の種類のアイテム)は取引を開始し、副レーン206内において取引を終了する。
プロセッサ240は、ステレオカメラ230に対して動作可能に接続されている。プロセッサ240は、ステレオカメラ230の複数のカメラによって得られた移動アイテムの画像間の差異に基づいて水平方向におけるステレオカメラ230からの移動アイテムの距離を算出する。具体的には、プロセッサ240は、上述したように、移動アイテムが第1の位置216を通過するときに移動アイテムの相対位置及び相対距離を検出することにより、移動アイテムが副レーン206に入ったシーケンスを判定する。プロセッサ240は、移動アイテムのうちの少なくとも一部が第1の位置内にあるとき、第1の位置216を通過する移動アイテムのそれぞれについての時間的な深さマップ又はプロファイルを作成することにより、ステレオカメラ230からの移動アイテムの距離を算出する。
これは、副レーン206への合流前に移動アイテムのそれぞれが位置した主レーン200、202、204を識別し、プロセッサ240が「合流順序」で取引の注文を行うのを可能とする。合流順序は、移動アイテムが主レーン200、202、204から副レーン206に入ったシーケンスに対応する。項目240におけるインターフェースは、プロセッサ240に対して動作可能に接続されており、取引を終了する取引装置220に対して(合流順序で)取引を出力する。
さらに、プロセッサ240は、移動アイテムが第1の位置216を通過するときの移動アイテムの「初期」シグネチャプロファイルを作り出すことができる。そのような初期シグネチャプロファイルは、移動アイテムの色、形状、高さ、幅などの項目を含むことができる。装置は、さらに、(移動アイテムが取引を終了する場所に隣接する)副レーン206の第2の位置において第2のステレオカメラ230を備えることができる。それゆえに、プロセッサ240は、移動アイテムが第2の位置206を通過するときの(再度、移動アイテムの色、形状、高さ、幅などを含むことができる)移動アイテムの「確認」シグネチャプロファイルを同様に作り出すことができる。さらに、初期シグネチャプロファイルは、上述した時間的な深さデータチャートのパターンに基づくことができ、確認プロファイルは、(それらが潜在的に確認ステレオカメラ232に近いことから異なる強度レベルからなる場合であっても)時間的な深さデータチャートのそのようなパターンのマッチングを行うことができる。
これらの初期及び確認シグネチャプロファイルは、プロセッサ240が合流順序を確認又は変更するのを可能とする。具体的には、プロセッサ240は、初期シグネチャプロファイルに一致する確認シグネチャプロファイルに基づいてインターフェースが取引装置220に対して取引を出力する前に合流順序を確認する。それとは反対に、プロセッサ240は、確認シグネチャプロファイルが初期シグネチャプロファイルに一致しない場合に、インターフェースが取引装置に対して取引を出力する前に合流順序を変更する(確認シグネチャプロファイルのシーケンスによって示される順序に順序を変更する)。
空間的制約を満たすために、いくつかの状況において、ステレオカメラ230は、移動アイテムの隣に配置されることができ、プロセッサ240は、(例えば、図2に示されるような)移動アイテムの側面画像のみに基づいて距離を算出する。さらに、装置を簡略化してコストを低減するために、ステレオカメラ230は、固定位置にある静止した非移動ステレオカメラ230とすることができる。
図8に示されるように、本願明細書における例示的なシステム及び方法は、様々な異なる物理位置256に位置する様々なコンピュータ化された装置240、254を含む。コンピュータ化された装置240、254は、印刷サーバ、印刷装置、パーソナルコンピュータなどを含むことができ、(有線又は無線)ローカル又はワイドエリアネットワーク252を介して通信する(互いに動作可能に接続されている)。したがって、処理は、ステレオカメラの位置において局所的に行われる必要がなく、ネットワーク252を介してステレオカメラに対して接続された中央処理システムを使用して行われることができる。
図9は、本願明細書におけるシステム及び方法によって使用されることができ、且つ、例えば、サーバ、パーソナルコンピュータ、ポータブル計算装置などを備えることができるコンピュータ化された装置240の1つの例示的構成を図示している。コンピュータ化された装置240は、コントローラ/プロセッサ264と、プロセッサ264及びコンピュータ化された装置240の外部のコンピュータ化されたネットワーク252に対して動作可能に接続された通信ポート(入力/出力)270とを含む。また、コンピュータ化された装置240は、(電源262を介して)外部電源268から供給された電源で動作するグラフィカル・ユーザインターフェース・アセンブリ266、カメラ272などの少なくとも1つのアクセサリ機能要素を含むことができる。
入力/出力装置270は、コンピュータ化された装置240との通信のために使用される。プロセッサ264は、コンピュータ化された装置の様々な動作を制御する。(光学、磁気、キャパシタベースなどとすることができる)持続的コンピュータ記憶媒体装置260は、プロセッサ264によって読み取り可能であり、コンピュータ化された装置が本願明細書において上述したものなどのその様々な機能を行うのを可能とするようにプロセッサ264が実行する命令を記憶する。電源222は、蓄電要素(例えば、バッテリなど)を備えることができる。
図10は、本願明細書における例示的な方法を図示するフローチャートである。項目300において、これらの方法は、第1の位置を向いた光学ステレオカメラ又はカメラネットワークを使用して(例えば、合流領域216を向いた第1のステレオカメラ230を使用して)画像を取得する。本願明細書における装置は、複数の撮像ユニットを有する単一のステレオカメラ又は複数のカメラを有するカメラネットワークを使用することができる。カメラネットワークの複数のカメラ(ステレオカメラの撮像装置)は、固定されて第1の位置216と重複する視野を有する。再度、第1の位置は、少ない本数の少なくとも1本の副レーンに合流する複数の平行な主レーンを含み、主レーン内の移動アイテムは取引を開始し、副レーンにおいて取引を終了する。
項目302において、そのような方法は、副レーンへの合流前に移動アイテムのそれぞれが位置した主レーンを識別するように、カメラに対して動作可能に接続されたプロセッサを使用してカメラからの移動アイテムの距離(又はカメラネットワークが使用される場合には基準カメラからの距離)を算出する。それゆえに、本願明細書における方法は、プロセッサを使用して、第1の位置を通過する移動アイテムのそれぞれについての(項目304に示される)時間的な深さプロファイルを作成するためにカメラからの移動アイテムの距離を算出する。
さらに、いくつかの場合において、これらの方法は、項目306において移動アイテムの初期シグネチャプロファイルを作り出すことができる。これらの初期シグネチャプロファイルは、(項目300において取得された画像を使用して)移動アイテムが第1の位置を通過するときの移動アイテムの色、形状、高さ、幅などを含む。
項目308において、これらの方法は、次に、プロセッサを使用して、移動アイテムが主レーンから副レーンに入ったシーケンスに対応する合流順序で取引の注文を行う。具体的には、そのような方法は、(項目300において取得された画像を使用して)移動アイテムが第1の位置を通過するときに移動アイテムの相対位置及び相対距離を検出することにより、移動アイテムが副レーンに入ったシーケンスを判定する。
また、これらの方法は、項目310によって示されるように(移動アイテムが取引を終了する場所に隣接する)副レーンの第2の位置を向いた第2のカメラを使用して追加の画像を同様に取得することができる。それゆえに、注文完了レーン206を向いた第2のカメラ232は、そのような追加画像を取得するのに使用されることができる。そして、これらの追加画像は、項目312において移動アイテムの確認シグネチャプロファイルを作成するのに使用される。これらの確認シグネチャプロファイルは、移動アイテムが(移動アイテムが取引を終了する場所に隣接する)副レーンの第2の位置を通過するときの移動アイテムの色、形状、高さ、幅などを同様に含む。
それゆえに、項目314において、これらの方法は、確認シグネチャプロファイルが初期シグネチャプロファイルに一致した場合に(インターフェースが取引装置に対して取引を出力する前に)合流順序を確認し、又は、これらの方法は、確認シグネチャプロファイルが初期シグネチャプロファイルに一致しない場合に(インターフェースが取引装置に対して取引を出力する前に)合流順序を変更する。具体的には、項目314は、確認シグネチャプロファイルのシーケンスに一致する順序に取引順序を変更する。そして、項目316において、本願明細書における方法は、プロセッサに対して動作可能に接続されたインターフェースを使用して、取引を終了する取引装置に対して合流順序で取引を出力する。

Claims (10)

  1. 第1の位置を向き、それぞれ異なる角度から前記第1の位置を撮像するように配置された少なくとも2つの撮像装置を備えるカメラネットワークであり、前記撮像装置が、固定されて前記第1の位置と重複する視野を有し、前記第1の位置が、少ない本数の少なくとも1つの副レーンに合流する複数の平行な主レーンを備え、前記主レーン内の移動アイテムが、前記主レーンにおいて取引を開始して前記副レーンにおいて前記取引を終了するカメラネットワークと、
    前記カメラネットワークに対して動作可能に接続され、前記カメラネットワークからの前記移動アイテムの距離を算出して前記副レーンへの合流前に前記移動アイテムのそれぞれが位置する前記主レーンを識別し、前記移動アイテムが前記主レーンから前記副レーンに入ったシーケンスに対応する合流順序で前記取引の注文を行うプロセッサと、
    前記プロセッサに対して動作可能に接続され、前記合流順序で前記取引を出力するインターフェースとを備える、装置。
  2. 前記プロセッサが、前記移動アイテムが前記第1の位置を通過するときに前記移動アイテムの相対位置及び相対距離を検出することによって前記移動アイテムが前記副レーンに入った前記シーケンスを判定する、請求項1に記載の装置。
  3. 前記プロセッサが、前記第1の位置を通過する前記移動アイテムのそれぞれについての時間的な深さプロファイルを作成することによって前記カメラネットワークにおける前記撮像装置の基準装置からの前記移動アイテムの前記距離を算出する、請求項1に記載の装置。
  4. 第1の位置を向き、それぞれ異なる角度から前記第1の位置を撮像するように配置された複数のカメラを備える光学ステレオカメラであり、前記複数のカメラが、固定されて前記第1の位置と重複する視野を有し、前記第1の位置が、少ない本数の少なくとも1つの副レーンに合流する複数の平行な主レーンを備え、前記主レーン内の移動アイテムが、前記主レーンにおいて取引を開始して前記副レーンにおいて前記取引を終了する光学ステレオカメラと、
    前記ステレオカメラに対して動作可能に接続され、前記複数のカメラによって得られた前記移動アイテムの画像間の差異に基づいて前記ステレオカメラからの前記移動アイテムの距離を算出して前記副レーンへの合流前に前記移動アイテムのそれぞれが位置する前記主レーンを識別し、前記移動アイテムが前記主レーンから前記副レーンに入ったシーケンスに対応する合流順序で前記取引の注文を行うプロセッサと、
    前記プロセッサに対して動作可能に接続され、前記合流順序で前記取引を出力するインターフェースとを備える、装置。
  5. 前記プロセッサが、前記移動アイテムが前記第1の位置を通過するときに前記移動アイテムの相対位置及び相対距離を検出することによって前記移動アイテムが前記副レーンに入った前記シーケンスを判定する、請求項4に記載の装置。
  6. 前記プロセッサが、前記第1の位置を通過する前記移動アイテムのそれぞれについての時間的な深さプロファイルを作成することによって前記ステレオカメラからの前記移動アイテムの前記距離を算出する、請求項4に記載の装置。
  7. 第1の位置を向き、それぞれ異なる角度から前記第1の位置を撮像するように配置された複数のカメラを備える光学ステレオカメラであり、前記複数のカメラが、固定されて前記第1の位置と重複する視野を有し、前記第1の位置が、少ない本数の少なくとも1つの副レーンに合流する複数の平行な主レーンを有する水平面を備え、前記ステレオカメラが、前記水平面に平行な水平方向に向けられており、前記主レーン内の移動アイテムが、前記主レーンにおいて取引を開始して前記副レーンにおいて前記取引を終了する光学ステレオカメラと、
    前記ステレオカメラに対して動作可能に接続され、前記複数のカメラによって得られた前記移動アイテムの画像間の差異に基づいて前記水平方向における前記ステレオカメラからの前記移動アイテムの距離を算出して前記副レーンへの合流前に前記移動アイテムのそれぞれが位置する前記主レーンを識別し、前記移動アイテムが前記主レーンから前記副レーンに入ったシーケンスに対応する合流順序で前記取引の注文を行うプロセッサと、
    前記プロセッサに対して動作可能に接続され、前記合流順序で前記取引を出力するインターフェースとを備える、装置。
  8. 前記プロセッサが、前記移動アイテムが前記第1の位置を通過するときに前記移動アイテムの相対位置及び相対距離を検出することによって前記移動アイテムが前記副レーンに入った前記シーケンスを判定する、請求項7に記載の装置。
  9. 前記プロセッサが、前記移動アイテムが前記第1の位置を通過するときに前記移動アイテムの色、形状、高さ及び幅のうちの少なくとも1つを含む前記移動アイテムの初期シグネチャプロファイルを作り出し、
    前記装置が、さらに、前記移動アイテムが前記取引を終了する場所に隣接する前記副レーンの第2の位置において第2のステレオカメラを備え、
    前記プロセッサが、前記移動アイテムが前記第2の位置を通過するときの前記移動アイテムの前記色、形状、高さ及び幅のうちの少なくとも1つを含む前記移動アイテムの確認シグネチャプロファイルを作り出し、
    前記プロセッサが、前記初期シグネチャプロファイルと一致する前記確認シグネチャプロファイルに基づいて前記インターフェースが前記取引を出力する前に前記合流順序を確認し、
    前記プロセッサが、前記初期シグネチャプロファイルと一致しない前記確認シグネチャプロファイルに基づいて前記インターフェースが前記取引を出力する前に前記合流順序を変更する、請求項7に記載の装置。
  10. 第1の位置を向き、それぞれ異なる角度から前記第1の位置を撮像するように配置された少なくとも2つの撮像装置を備えるカメラネットワークであり、前記撮像装置が、固定されて前記第1の位置と重複する視野を有し、前記第1の位置が、少ない本数の少なくとも1つの副レーンに合流する複数の平行な主レーンを備え、前記主レーン内の移動アイテムが、前記主レーンにおいて取引を開始して前記副レーンにおいて前記取引を終了するカメラネットワークを使用して画像を取得することと、
    前記カメラネットワークに対して動作可能に接続されたプロセッサを使用して、前記カメラネットワークにおける前記撮像装置の基準装置からの前記移動アイテムの距離を算出して前記副レーンへの合流前に前記移動アイテムのそれぞれが位置する前記主レーンを識別することと、
    前記プロセッサを使用して、前記移動アイテムが前記主レーンから前記副レーンに入ったシーケンスに対応する合流順序で前記取引の注文を行うことと、
    前記プロセッサに対して動作可能に接続されたインターフェースを使用して、前記合流順序で前記取引を出力することとを備える、方法。
JP2014175601A 2013-09-10 2014-08-29 移動先レーンに合流する移動アイテムの移動元レーンの判定 Expired - Fee Related JP6533044B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US14/022,488 2013-09-10
US14/022,488 US9503706B2 (en) 2013-09-10 2013-09-10 Determining source lane of moving item merging into destination lane

Publications (2)

Publication Number Publication Date
JP2015055875A JP2015055875A (ja) 2015-03-23
JP6533044B2 true JP6533044B2 (ja) 2019-06-19

Family

ID=52478757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014175601A Expired - Fee Related JP6533044B2 (ja) 2013-09-10 2014-08-29 移動先レーンに合流する移動アイテムの移動元レーンの判定

Country Status (4)

Country Link
US (1) US9503706B2 (ja)
JP (1) JP6533044B2 (ja)
KR (1) KR102096230B1 (ja)
DE (1) DE102014217361B4 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9865056B2 (en) 2013-10-09 2018-01-09 Conduent Business Services, Llc Video based method and system for automated side-by-side drive thru load balancing
US9361690B2 (en) * 2013-10-09 2016-06-07 Xerox Corporation Video based method and system for automated side-by-side traffic load balancing
US9228829B2 (en) * 2013-10-31 2016-01-05 Industrial Technology Research Institute Method and system for measuring distance
US10044988B2 (en) 2015-05-19 2018-08-07 Conduent Business Services, Llc Multi-stage vehicle detection in side-by-side drive-thru configurations
US10387945B2 (en) 2016-05-05 2019-08-20 Conduent Business Services, Llc System and method for lane merge sequencing in drive-thru restaurant applications
KR102187211B1 (ko) 2018-04-23 2020-12-04 코그넥스코오포레이션 스테레오-시간적 이미지 시퀀스들로부터 향상된 3-d 데이터 재구성을 위한 방법들 및 장치
US11023955B1 (en) * 2019-09-27 2021-06-01 Valyant AI, Inc. Outside ordering system
CN115050190B (zh) * 2022-06-13 2024-01-23 天翼数字生活科技有限公司 一种道路车辆监控方法及其相关装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040249497A1 (en) * 2000-07-12 2004-12-09 Autocart, Llc System, method and process for order and delivery of classified goods and services through an amalgamated drive-thru complex
US20020156682A1 (en) * 2001-04-19 2002-10-24 Ncr Corporation Scaleable drive-thru solution for quick service vending
US6556916B2 (en) * 2001-09-27 2003-04-29 Wavetronix Llc System and method for identification of traffic lane positions
US6793068B2 (en) * 2002-02-04 2004-09-21 Conagra Foods, Inc. Food transport routing systems, devices, and guides for food processing systems and related methods
US6940393B2 (en) 2002-06-24 2005-09-06 Nimesa Corporation System and method for improved queuing, service-time, and capacity in drive-through operations
US20050033505A1 (en) * 2002-12-05 2005-02-10 Premier Wireless, Inc. Traffic surveillance and report system
US7426450B2 (en) 2003-01-10 2008-09-16 Wavetronix, Llc Systems and methods for monitoring speed
US7110964B2 (en) * 2003-08-29 2006-09-19 Exit41, Inc. Order processing
US8209219B2 (en) * 2004-04-13 2012-06-26 Hyperactive Technologies, Inc. Vision-based measurement of bulk and discrete food products
WO2006012645A2 (en) * 2004-07-28 2006-02-02 Sarnoff Corporation Method and apparatus for total situational awareness and monitoring
US7451041B2 (en) * 2005-05-06 2008-11-11 Facet Technology Corporation Network-based navigation system having virtual drive-thru advertisements integrated with actual imagery from along a physical route
US7454287B2 (en) 2005-07-18 2008-11-18 Image Sensing Systems, Inc. Method and apparatus for providing automatic lane calibration in a traffic sensor
US7573400B2 (en) 2005-10-31 2009-08-11 Wavetronix, Llc Systems and methods for configuring intersection detection zones
US8248272B2 (en) 2005-10-31 2012-08-21 Wavetronix Detecting targets in roadway intersections
US7541943B2 (en) 2006-05-05 2009-06-02 Eis Electronic Integrated Systems Inc. Traffic sensor incorporating a video camera and method of operating same
US7501976B2 (en) 2006-11-07 2009-03-10 Dan Manor Monopulse traffic sensor and method
US8228205B2 (en) * 2008-01-23 2012-07-24 Mark Iv Ivhs, Inc. Vehicle lane discrimination in an electronic toll collection system
US7884740B2 (en) 2008-03-28 2011-02-08 National Chiao Tung University Multi-lane vehicle detection apparatus
US7895797B2 (en) * 2008-04-10 2011-03-01 Restaurant Technology, Inc. Drive-thru system and method
FR2932466B1 (fr) * 2008-06-13 2010-12-17 Sidel Participations Installation de convoyage multivoies
JP5142898B2 (ja) * 2008-09-10 2013-02-13 株式会社東芝 カメラシステム
US8620753B2 (en) * 2010-04-14 2013-12-31 Restaurant Technology, Inc. Restaurant management system and method
US8471683B2 (en) * 2010-06-09 2013-06-25 3M Innovative Properties Company Multilane vehicle tracking system
US20120246007A1 (en) * 2011-03-22 2012-09-27 Restaurant Application Development International LLC Personalized and dynamic restaurant interfaces and systems
JP5931662B2 (ja) * 2012-09-14 2016-06-08 株式会社東芝 道路状況監視装置、及び道路状況監視方法
US20140267793A1 (en) * 2013-03-15 2014-09-18 Delphi Display Systems, Inc. System and method for vehicle recognition in a dynamic setting

Also Published As

Publication number Publication date
US9503706B2 (en) 2016-11-22
US20150070471A1 (en) 2015-03-12
KR102096230B1 (ko) 2020-04-03
DE102014217361B4 (de) 2024-05-02
JP2015055875A (ja) 2015-03-23
DE102014217361A1 (de) 2015-03-12
KR20150029551A (ko) 2015-03-18

Similar Documents

Publication Publication Date Title
JP6533044B2 (ja) 移動先レーンに合流する移動アイテムの移動元レーンの判定
US10452931B2 (en) Processing method for distinguishing a three dimensional object from a two dimensional object using a vehicular system
CA2958832C (en) Method and axle-counting device for contact-free axle counting of a vehicle and axle-counting system for road traffic
Jafari et al. Real-time RGB-D based people detection and tracking for mobile robots and head-worn cameras
Koch et al. Automated pothole distress assessment using asphalt pavement video data
US7899211B2 (en) Object detecting system and object detecting method
US20040125207A1 (en) Robust stereo-driven video-based surveillance
Fujisawa et al. Pedestrian counting in video sequences based on optical flow clustering
de Paula et al. Automatic on-the-fly extrinsic camera calibration of onboard vehicular cameras
US9213900B2 (en) Automated vision-based clutter detector and notifier
Sekkal et al. Simple monocular door detection and tracking
JP6617150B2 (ja) 物体検出方法及び物体検出装置
Jalalat et al. Vehicle detection and speed estimation using cascade classifier and sub-pixel stereo matching
Ibisch et al. Arbitrary object localization and tracking via multiple-camera surveillance system embedded in a parking garage
JP5587852B2 (ja) 画像処理装置及び画像処理方法
KR102188164B1 (ko) 3차원 데이터를 이용한 도로 인식 방법
Sato et al. Efficient hundreds-baseline stereo by counting interest points for moving omni-directional multi-camera system
JP5785515B2 (ja) 歩行者検出装置及び方法、並びに車両用衝突判定装置
JP4144300B2 (ja) ステレオ画像による平面推定方法および物体検出装置
Zheng Feature recognition and obstacle detection for drive assistance in indoor environments
Garibotto et al. 3D scene analysis by real-time stereovision
Ling et al. Multiple pedestrian detection using ir led stereo camera
Heimonen et al. A human detection framework for heavy machinery
Yenamandra et al. Cammirror: Single-camera-based distance estimation for physical analytics applications
JP2017175483A (ja) 撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180904

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20181010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181214

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190523

R150 Certificate of patent or registration of utility model

Ref document number: 6533044

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees