JP7360520B1 - オブジェクト追跡統合方法及び統合装置 - Google Patents

オブジェクト追跡統合方法及び統合装置 Download PDF

Info

Publication number
JP7360520B1
JP7360520B1 JP2022141099A JP2022141099A JP7360520B1 JP 7360520 B1 JP7360520 B1 JP 7360520B1 JP 2022141099 A JP2022141099 A JP 2022141099A JP 2022141099 A JP2022141099 A JP 2022141099A JP 7360520 B1 JP7360520 B1 JP 7360520B1
Authority
JP
Japan
Prior art keywords
image
detection result
target object
target
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022141099A
Other languages
English (en)
Other versions
JP2023156963A (ja
Inventor
峻因 郭
志昇 ▲ライ▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wistron Corp
Original Assignee
Wistron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wistron Corp filed Critical Wistron Corp
Application granted granted Critical
Publication of JP7360520B1 publication Critical patent/JP7360520B1/ja
Publication of JP2023156963A publication Critical patent/JP2023156963A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/753Transform-based matching, e.g. Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】監視範囲を拡大するように、複数の撮像装置によって撮影された画像において検出されたターゲットを関連付けるように適合された、オブジェクト追跡統合方法及び統合装置を提供する。【解決手段】方法は、1つ以上の第1の画像及び1つ以上の第2の画像を取得する。第1の画像は、第1の撮像装置から撮影され、第2の画像は、第2の撮像装置から撮影される。方法はさらに、第1の画像及び第2の画像における1つ以上のターゲットオブジェクトを検出し、第1の画像におけるターゲットオブジェクトの検出結果と、第2の画像におけるターゲットオブジェクトの検出結果とを照合し第1の画像の検出結果と第2の画像の検出結果との照合結果に従って、ターゲットオブジェクトの検出結果を更新する。これにより、関連付けの精度及び監視範囲を向上させることができる。【選択図】図2

Description

本発明は、画像検出技術に関し、特にオブジェクト追跡統合方法及び統合装置に関する。
近年、通信、センシング、半導体等の技術が急速に発展している。既存の問題を解決するために、どのようにこれらの先端技術を利用するかは、盛んな研究開発トピックの一つである。私たちの暮らしの中では、安全のために、道路、店舗、会社、又は住宅に監視システムが設置され、特定の地域の監視を容易にしている。ユーザはリアルタイムに監視画面を見ることができるが、人手による監視はコストが高く、かつ人為的過失が避けられない。
既存の画像認識技術は、特定のオブジェクトを検出することに役立つ可能性があることは留意しておくべきである。しかしながら、撮影視野によって制限され、複数の撮像装置(例えば、カメラ又はビデオカメラ)を配備することが要求される場合がある。これに加えて、異なるカメラ又はビデオカメラによって撮影された画像を更に統合することはできず、かつ異なる画像間の関連性を手動でチェックすることが要求されることに変わりはない。
本発明は、監視範囲を拡大するように、複数の撮像装置によって撮影された画像において検出されたターゲットを関連付けるように適合された、オブジェクト追跡統合方法及び統合装置に関するものである。
本発明の実施形態は、以下のステップを含む(ただし、これらに限定されない)オブジェクト追跡統合方法を提供する。1つ以上の第1画像及び1つ以上の第2画像を取得する。前記第1の画像は、第1の撮像装置からの画像であり、かつ前記第2の画像は、第2の撮像装置からの画像である。前記第1の画像及び前記第2の画像における1つ以上のターゲットオブジェクトを検出する。前記第1の画像におけるターゲットオブジェクトの検出結果と、前記第2の画像におけるターゲットオブジェクトの検出結果とを照合する。前記第1の画像の検出結果と前記第2の画像の検出結果との照合結果に従って、前記ターゲットオブジェクトの検出結果を更新する。
本発明の実施形態は、メモリと、プロセッサと、を含む(ただし、これらに限定されるものではない)統合装置を提供する。前記メモリは、プログラムコードを格納するように構成される。前記プロセッサは、前記メモリに結合される。前記プロセッサは、前記プログラムコードをロード及び実行したときに、1つ以上の第1の画像及び1つ以上の第2の画像を取得し、前記第1の画像及び前記第2の画像において1つ以上のターゲットオブジェクトを検出し、前記第1の画像におけるターゲットオブジェクトの検出結果と、前記第2の画像におけるターゲットオブジェクトの検出結果とを照合し、前記第1の画像の検出結果と前記第2の画像の検出結果との照合結果に従って、前記ターゲットオブジェクトの検出結果を更新するように構成される。前記第1の画像は、第1の撮像装置からの画像であり、前記第2の画像は、第2の撮像装置からの画像である。
以上の説明に基づき、本発明の実施の形態のオブジェクト追跡統合方法及び統合装置によれば、異なる撮像装置からの画像の検出結果が合成される。従って、監視範囲を拡大することができ、単一の撮像装置の監視死角を緩和することができる。
上述したことをより理解しやすくするため、以下、図面に示すいくつかの実施形態について詳細に説明する。
添付図面は、本開示の更なる理解を提供するために含まれ、本明細書に組み込まれ、本明細書の一部を構成するものである。図面は、本開示の例示的な実施形態を図示し、かつ説明と一緒に、本開示の原理を説明するのに役立つ。
本開示の一実施形態によるシステムのコンポーネントブロック図である。 本発明の一実施形態によるオブジェクト追跡統合方法のフローチャートである。 本発明の一実施形態による路側機の概略図である。 本発明の一実施形態による検出結果の概略図である。 本発明の一実施形態によるマルチサイズ検出の概略図である。 本発明の一実施形態による検出結果及び追跡結果のバウンディングボックスの概略図である。 本発明の一実施形態による軌跡照合の概略図である。 本発明の一実施形態による第1の画像の検出結果の概略図である。 本発明の一実施形態による第2の画像の検出結果の概略図である。 本開示の一実施形態によるオブジェクト照合の概略図である。
図1は、本発明の一実施形態によるシステム1のコンポーネントブロック図である。図1を参照すると、システム1は、第1の撮像装置20、第2の撮像装置30、及び統合装置100を含む(ただし、これらに限定されない)。なお、図1では、2つの撮像装置を例に挙げて説明するが、撮像装置の数はこれに限定されないことに留意されたい。
第1の撮像装置20及び第2の撮像装置30は、撮像機能を有するカメラ、ビデオカメラ、モニタ、スマートフォン、又は路側機であって、所定の視野内の画像を撮影するために使用されるものであってよい。
統合装置100は、スマートフォン、タブレット型コンピュータ、サーバ、クラウドホスト、又はコンピュータホストであってよい。統合装置100は、メモリ110、通信トランシーバ130、及びプロセッサ150を含む(ただし、これらに限定されるものではない)。
メモリ110は、固定又は取り外し可能なランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、フラッシュメモリ(flash memory)、従来のハードディスク(HDD)、ソリッドステートドライブ(SSD)、若しくは同様の構成要素の任意のタイプであってよい。一実施形態では、メモリ110は、プログラムコード、ソフトウェアモジュール、設定、データ(例えば、画像、検出結果など)又はファイルを格納するために使用され、かつその実施形態は後に詳細に説明される。
通信トランシーバ130は、第4世代(4G)又は他の世代の移動体通信、Wi-Fi、Bluetooth、赤外線、RFID(無線周波数識別)、Ethernet(イーサネット)、光ネットワークをサポートする通信トランシーバ、シリアル通信インタフェース(RS-232等)でもよく、若しくはUSB(ユニバーサルシリアルバス)、thunderbolt、又は他の通信伝送インタフェースであってもよい。本発明の実施形態では、通信トランシーバ130は、他の電子機器(例えば、撮像装置20及び30)との間でデータを送信又は受信するために使用される。
プロセッサ150は、メモリ110及び通信トランシーバ130に結合される。プロセッサ150は、中央演算処理装置(CPU)、グラフィックス処理装置(GPU)、又は他のプログラム可能な汎用又は特殊用途マイクロプロセッサ、デジタル信号プロセッサ(DSP)、プログラマブルコントローラ、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、ニューラルネットワーク加速器又は他の同様のコンポーネント、又は上記のコンポーネントの組合せであってよい。一実施形態では、プロセッサ150は、統合装置100の動作の全て又は一部を実行するように構成され、かつメモリ110に格納された様々なプログラムコード、ソフトウェアモジュール、ファイル及びデータをロード並びに実行することができる。いくつかの実施形態では、プロセッサ150の機能は、ソフトウェア又はチップを通じて実装されてもよい。
いくつかの実施形態では、第1の撮像装置20及び第2の撮像装置30のいずれか1つは、統合装置100と統合されて独立した装置を形成してもよい。
以下、本発明の実施の形態で説明した方法を、システム1における各種デバイス、コンポーネント、及びモジュールと併せて説明する。なお、本方法の各処理は、実際の実施状況に従って調整することができ、かつこれに限定されるものではない。
図2は、本発明の実施形態によるオブジェクト追跡統合方法のフローチャートである。図2を参照すると、プロセッサ150は、1つ以上の第1画像と1つ以上及び第2画像を取得する(ステップS210)。具体的には、第1の画像は、第1の撮像装置20からの画像であり、第2の画像は、第2の撮像装置30からの画像である。第1の撮像装置20の撮影角度及び/又は撮影方向は、第2の撮像装置30の撮影角度及び/又は撮影方向と異なっている。第1の撮像装置20の撮影範囲及び第2の撮像装置30の撮影範囲は少なくとも部分的に重なっている。
例えば、図3Aは、本発明の実施形態に係る路側機(RSU)R1及びR2の概略図である。図3Aを参照すると、路側機R1及びR2は、交差点の2つの対向する角部に配置される。2つの路側機R1、R2の撮像装置の重複する撮影範囲(図中の2つの三角形)は、4つの縞々をほぼカバーしている。図3Aに示す撮影範囲は単なる一例であり、その形状、大きさ、位置、設定環境は変更可能であることに留意されたい。例えば、第1の撮像装置20及び第2の撮像装置30は、店舗、ロビー、又は駐車場にあるモニタであり、かつどのような場所に設置されてもよい。
プロセッサ150は、1つ以上の第1画像及び1つ以上の第2画像における1つ以上のターゲットオブジェクトを検出する(ステップS220)。具体的には、ターゲットオブジェクトは、人、動物、車両、機械、又は他の特定のオブジェクトであってもよい。1フレームの画像については、オブジェクト検出技術を使ってもよい。オブジェクト検出のアルゴリズムは、例えば、YOLO(you only look once)、SSD(single shot detector)、又はR-CNNなど、多数存在する。複数の連続した画像に対しては、(マルチ)オブジェクト追跡技術を使用してもよい。オブジェクト追跡の主な機能は、前後の画像フレームによって縁取られている同じオブジェクトを追跡することである。なお、オブジェクト追跡のための多くのアルゴリズムもあり、例えば、オプティカルフロー、シンプルオンラインアンドリアルタイムトラッキング(SORT)又はディープソート、ジョイント検出、及びエンベディング(JDE)がある。
一実施形態では、ターゲットオブジェクトの検出結果は、ターゲットオブジェクトの代表情報、例えば、オブジェクトタイプ、バウンディングボックス、識別コード、及び/又は座標を含む。路側機アプリケーションを例にとると、オブジェクトタイプは、歩行者、自転車、オートバイ、自動車、及び大型車両とすることができる。バウンディングボックス(又は着目領域(ROI)と呼ばれる)は、画像におけるターゲットオブジェクトを縁取るために使用する領域である。一実施形態では、バウンディングボックスは、例えば、黒、赤、青、黄、及び/又は緑など、異なる色で画像上に表示されてもよい。識別コード(又は参照番号)は、異なるオブジェクトタイプ又はターゲットオブジェクトを区別するための特定のコード形態である。座標は、第1画像又は第2画像におけるピクセル座標であり、かつバウンディングボックスによってカバーされる範囲内であれば、どこにあってもよい。
例えば、図3Bは、本発明の一実施形態による検出結果の概略図である。図3を参照して、路側機の設定環境を例にとると、左右の画像は、それぞれ第1の画像と第2の画像である。2つの画像では、ターゲットオブジェクトO1(自動車を例とする)及びターゲットオブジェクトO2(歩行者を例とする)がそれぞれ検出される。一実施形態では、例えば、記号「O1」及び「O2」を、車及び歩行者の識別符号として使用してもよい。
一実施形態では、プロセッサ150は、第1の画像から(小さな)着目領域を切り出して、この着目領域のみを有する切り出し画像を生成してもよい。すなわち、切り出し画像は、画像の一部が切り出されたものである。この切り出し画像は、より小さなターゲットオブジェクトを検出するために使用してもよい。プロセッサ150は、ディープラーニングに基づく検出モデルを介して、第1の画像及び切り出し画像における1つ以上のターゲットオブジェクトをそれぞれ検出し、かつ第1の画像及び切り出し画像におけるターゲットオブジェクトの検出結果を結合してもよい。例えば、2つの画像の検出結果の和を取る。結合処理中、第1の画像及び切り出し画像における同じターゲットオブジェクトのいずれか1つが同時に検出された場合、交差オーバーユニオン(IoU)を、非最大抑制(NMS)アルゴリズムによってフィルタリングすることが困難な場合がある。それ故に、プロセッサ150は、切り出し画像の検出結果から境界付近の検出を除外してもよい。その後、プロセッサ150は、NMSアルゴリズムを再使用して、両者の最終結果を得てもよい。前述の第1の画像は、第2の画像に置き換えられてもよく、かつその詳細は繰り返さないことに留意されたい。
図4は、本発明の一実施形態によるマルチサイズ検出の概略図である。図4を参照すると、入力画像における下側画像は、上側画像の切り出し画像である。検出モデルは、2つの画像をそれぞれ推論して検出結果を得てもよい。推論結果(すなわち、検出結果)の下側画像に示すように、上側画像と比較して、3台の車が検出されている(画像内の黒いバウンディングボックスによってマークされている)。重複する検出を除外した後、最終的な結合結果は、5台の車(画像内の黒いバウンディングボックスによってマークされている)を含む。
いくつかの高速移動環境(例えば、道路又は鉄道)では、オブジェクト追跡の検出結果が不安定になる可能性があることに留意されたい。例えば、図5は、本発明の実施形態による検出結果及び追跡結果のバウンディングボックスの概略図である。図5を参照すると、追跡結果のバウンディングボックスの一部がターゲットオブジェクトの縁に正しく近づかない場合がある(自動車を例とする)。一実施形態では、追跡照合検出のために、プロセッサ150は、オブジェクト検出から得られたバウンディングボックスを使用して、オブジェクト追跡から得られたバウンディングボックスを置き換えてもよい。検出と一致しない追跡に対して、プロセッサ150は、カルマンフィルタを使用することによってその位置を予測してもよい。さらに、異なるオブジェクトタイプに対して、プロセッサ150は、安定した追跡の識別を容易にするように、類似性に従ってオブジェクトを異なるグループに割り当ててもよい。
一実施形態では、検出結果は、ピクセル位置を含む。プロセッサ150は、ホモグラフィ変換を使用することによって、1つ以上の第1画像及び1つ以上の第2画像における1つ以上のターゲットオブジェクトのピクセル位置を、共通空間における位置及び移動速度に変換してもよい。具体的には、撮像装置20、30の撮影角度及び/又は撮影方向が異なるので、その後に続く照合(関連付け又は合成)要件のために、画像におけるターゲットオブジェクトの位置を共通空間(又は座標系)にコンバートしてもよい。
共通空間は、例えば、緯度経度座標系であり、かつ座標コンバートの式は、以下の通りである。
Sはホモグラフィ変換後のスケーリング係数、u,vはピクセル座標、Hは緯度経度座標からピクセル座標に変換したホモグラフィ行列(h11,h12,h13,h21,h22,h23,h31,h32,h33は行列内の要素)、かつx,yはu,vに対応する緯度経度座標である。既知のピクセル座標及び対応する緯度経度座標からホモグラフィ行列が導出されてもよい。その後、逆行列によりピクセル座標を緯度経度座標にコンバートする。共通空間は、他の2次元又は3次元の空間若しくは座標系であってもよいことに留意されたい。例えば、球面極座標系又は他の地理的座標系である。
共通空間の位置(又は座標)を決定した後、プロセッサ150は、先行フレーム及び後続フレームの画像に基づいて、移動距離、軌跡及び移動速度を判定してもよい。さらに、プロセッサ150は、ターゲットオブジェクトの軌跡又は位置を電子地図上にマッピングしてもよい。
図2を参照すると、プロセッサ150は、1つ以上の第1の画像における1つ以上のターゲットオブジェクトの検出結果と、1つ以上の第2の画像における1つ以上のターゲットオブジェクトの検出結果とを照合する(ステップS230)。例えば、図6は、本発明の一実施形態による軌跡照合の概略図である。図6を参照すると、電子地図上にマッピングされたターゲットオブジェクトO3及びO4の軌跡T1及びT2の間に差異が存在する可能性がある。プロセッサ130は、2つの軌跡T1、T2の類似性を判断し、かつそれに応じて同じターゲットオブジェクトであるかを判定してもよい。
一実施形態では、プロセッサ150は、第1の画像又は第2の画像から検出されたターゲットオブジェクトにおける第1のオブジェクトの代表情報を決定してもよい。代表情報は、前述の検出結果から得られるオブジェクトの種類、バウンディングボックス、識別コード、移動速度、軌跡、及び/又は座標であってもよい。
プロセッサ150は、第1のオブジェクトの代表情報に従って、第1のオブジェクトが追跡ターゲットであるかを判定してもよい。プロセッサ150は、オブジェクトタイプ又は識別コードに従って、第1のオブジェクトを分類してもよい。異なる要件に依存して、オブジェクトタイプは様々な外観特徴に関連してもよいことに留意されたい。人を例としてとると、外観特徴は、例えば、肌の色、性別、身長、又は、太り具合又は痩せ具合である。自動車を例としてとると、外観特徴は、例えば、ブランド、車種、色、又はモデルである。
一方、追跡ターゲットは、第1の画像及び/又は第2の画像における照合された又は照合されていないターゲットオブジェクトである。照合されたとは、2つの画像におけるターゲットオブジェクトが同じであることを確認したことを意味する。照合されていないとは、画像におけるターゲットオブジェクトが他の画像において同一であるものが見つからなかったことを意味する。プロセッサ150は、第1オブジェクトの代表情報と追跡ターゲットの代表情報との同一性又は類似性を比較してもよい。例えば、プロセッサ150は、第1のオブジェクトのオブジェクトタイプが追跡ターゲットのものと同一であるかを確認し、かつ第1のオブジェクトと追跡ターゲットの位置、速度、及び/又は軌跡を更に比較してもよい。
プロセッサ150は、追跡ターゲットの判定結果に従って、ターゲットオブジェクトの検出結果を照合してもよい。第1のオブジェクトが追跡ターゲットではない(すなわち、第1のオブジェクトが以前に出現していないターゲットである)ことに応じて、プロセッサ150は、第1の画像における第1のオブジェクトが第2の画像における第2のオブジェクトであるかを判定してもよい。すなわち、複数の撮像装置のターゲット照合が行われる。
一実施形態では、プロセッサ150は、オブジェクトタイプ、バウンディングボックス又は識別コードなどのようなものとの比較に加えて、第1の画像における第1のオブジェクトの軌跡及び移動速度に従って許容範囲を決定してもよい。プロセッサ150は、先行画像と後続画像とを比較することによって、軌跡及び移動速度を判定してもよい。プロセッサ150は、第1のオブジェクトの軌跡の最後の位置を中心として取り、かつ外側に拡張して許容範囲を形成してもよい。例えば、外側に拡張する距離は、移動速度と、第1の画像及び第2の画像間の撮影時間差との積である。プロセッサ150は、第2画像における第2のオブジェクトが許容範囲内にあるかを判定してもよい。この許容範囲は、軌跡見積もり及び/又は時間差内の移動におけるエラーに対するものである。第2のオブジェクトが許容範囲内にある場合、プロセッサ150は、第2のオブジェクトと第1のオブジェクトとが同一であると認定してもよい。第2のオブジェクトが許容範囲内でない場合、プロセッサ150は、第2のオブジェクトと第1のオブジェクトとを異なるオブジェクトとみなしてもよい。同様に、プロセッサ150は、第2の画像における第2のオブジェクトに基づいて別の許容範囲を決定し、かつ第1画像における第1オブジェクトが許容範囲内にあるかを判定してもよい。
例えば、図7Aは、本発明の実施形態による第1の画像の検出結果の概略図であり、図7Bは、本発明の実施形態による第2の画像の検出結果の概略図である。図7Aを参照すると、時刻t1においてターゲットオブジェクトO6があり、かつ時刻t2においてターゲットオブジェクトO5が出現している。図7Bを参照すると、ターゲットオブジェクトO5は、時刻t2に出現する。
図8は、本発明の実施形態によるオブジェクト照合の概略図である。図8を参照して、第2の画像を例にとると、時刻t1から時刻t2までのターゲットオブジェクトO5の軌跡の最後の位置(例えば、時刻t2における位置)から外側に拡張する円が許容範囲SRとしてとらえられる。ターゲットオブジェクトO5の移動速度が毎秒10m、かつ第1の画像及び第2の画像間の撮影時間の差が0.1秒であると仮定すると、許容範囲SRの半径は1mであり得る。第1の画像におけるターゲットオブジェクトO5は、許容範囲SR内に位置しているので、2つの画像におけるターゲットオブジェクトO5は、同一であるとみなされる。ターゲットオブジェクトO6は、許容範囲SR内に位置していないので、ターゲットオブジェクトO5とO6とは異なるものとみなされる。
一実施形態では、プロセッサ150は、結合最適化アルゴリズムを使用することによって、1つ以上の第1の画像における1つ以上のターゲットオブジェクトと、1つ以上の第2の画像における1つ以上のターゲットオブジェクトとをペアリングしてもよい。結合最適化アルゴリズムは、例えば、ハンガリアンアルゴリズム、クーン・ムンクレスアルゴリズム(K-Mアルゴリズム)、又はデュアル法である。例えば、第1の画像及び第2の画像における任意の軌跡の最後の位置に関して、プロセッサ150は、ハバーシン式を使用して、2つの位置の緯度経度座標間の距離を計算し、かつそれに応じて距離支出(Distance spending)行列を決定してもよい。距離支出は、任意の位置から別の位置までの撮影距離を表す。プロセッサ150は、最大距離閾値を設定し、ハンガリアンアルゴリズムを使用して、第1の画像及び第2の画像における軌跡が互いに照合するか又は対になるかを判定してもよい。
図2を参照すると、プロセッサ150は、1つ以上の第1の画像の検出結果と1つ以上の第2の画像の検出結果との照合結果に従って、ターゲットオブジェクトの検出結果を更新してもよい(ステップS240)。一実施形態では、第1のオブジェクトが追跡ターゲットであるという事実に応じて、プロセッサ150は、追跡ターゲットの位置を更新してもよい。例えば、第1オブジェクトの位置を追跡ターゲットの最終位置とし、かつそれに応じて移動速度、軌跡などのような情報を更新する。
一実施形態では、第1のオブジェクトが追跡オブジェクトでなく、かつ第1のオブジェクトと第2のオブジェクトが同じであることに応じて、プロセッサ150は、2つのオブジェクトの代表情報を統合して、新しい単一の追跡オブジェクトとして使用することができる。例えば、2つのオブジェクトの位置の中間点を最終位置とし、かつ同じ識別コードを使用する。
一実施形態では、第1のオブジェクトが追跡オブジェクトでなく、かつ第1のオブジェクトと第2のオブジェクトが異なることに応じて、プロセッサ150は、それぞれ、2つのオブジェクトを2つの新しい追跡オブジェクトとして使用することができる。
上記の説明では、2つの撮像装置の画像統合が説明のための例として取り上げられたことに留意されたい。しかしながら、本発明の精神に従って、より多くの撮像装置の画像統合に拡張することができる。
要約すると、本発明の実施形態のオブジェクト追跡統合方法及び統合装置では、異なる撮像装置からの画像におけるターゲットオブジェクトが照合することができる。ここで、ターゲットの照合(関連付け)は、共通空間における位置、軌跡、及び移動速度を使用して行われ、かつ追跡ターゲットも更新することができる。このようにすれば、照合精度を向上させることができ、かつ複数の撮像装置による監視対象領域を拡大することができる。さらに、単一の撮像装置は、オブジェクトの重なりによる検出漏れを回避することができる。本発明の実施形態は、交通管理、業務監視、作業監視等の応用場面にもまた適用してもよい。
本発明の範囲又は精神から逸脱することなく、開示された実施形態に様々な修正及び変形を加えることができることは、当業者にとって明らかであろう。上記に鑑み、本発明は、以下の特許請求の範囲及びその均等物の範囲内に入ることを条件として、修正及び変形を対象とすることが意図される。
本発明のオブジェクト追跡統合方法及び統合装置は、電子機器及びその制御方法に適用することができる。
1 システム
20 撮像装置
30 撮像装置
100 統合装置
110 メモリ
130 通信トランシーバ
150 プロセッサ
S210~S240 ステップ
R1 路側機
R2 路側機
O1 目標物
O2 目標物
O3 目標物
O4 目標物
O5 目標物
O6 目標物
T1 軌跡
T2 軌跡
t1 タイムポイント
t2 タイムポイント
SR 許容範囲

Claims (6)

  1. オブジェクト追跡統合方法であって、
    少なくとも1つの第1の画像及び少なくとも1つの第2の画像を取得するステップであって、ここで、前記少なくとも1つの第1の画像は第1の撮像装置からの画像であり、かつ前記少なくとも1つの第2の画像は第2の撮像装置からの画像である、ステップと、
    前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における少なくとも1つのターゲットオブジェクトを検出するステップと、
    前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合するステップと、
    前記少なくとも1つの第1の画像の検出結果と前記少なくとも1つの第2の画像の検出結果との照合結果に従って、前記少なくとも1つのターゲットオブジェクトの検出結果を更新するステップと、
    を備え
    前記検出結果はピクセル位置を含み、
    前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像において前記少なくとも1つのターゲットオブジェクトを検出する前記ステップは、
    前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトのピクセル位置を、ホモグラフィ変換によって共通空間における位置及び移動速度に変換するステップ、
    を備え、
    前記少なくとも1つのターゲットオブジェクトの検出結果を更新する前記ステップは、
    前記第1のオブジェクトが追跡ターゲットであると判定した場合に、前記追跡ターゲットの位置を更新するステップ、
    を備える、オブジェクト追跡統合方法。
  2. 請求項1に記載のオブジェクト追跡統合方法であって
    前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合する前記ステップは、
    前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトと前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトとを結合最適化アルゴリズムを用いてペアリングするステップ
    備える、オブジェクト追跡統合方法。
  3. 請求項1に記載のオブジェクト追跡統合方法であって、
    前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果とを照合する前記ステップは、
    前記少なくとも1つのターゲットオブジェクトのうちの第1のオブジェクトの代表情報を決定するステップと、
    前記第1のオブジェクトの前記代表情報に従って、前記第1のオブジェクトが追跡ターゲットであるかを判定するステップと、
    前記追跡ターゲットの判定結果に従って、前記少なくとも1つのターゲットオブジェクトの検出結果を照合するステップと、
    を備える、オブジェクト追跡統合方法。
  4. 請求項に記載のオブジェクト追跡統合方法であって、
    前記代表情報は、オブジェクトタイプ、バウンディングボックス、識別コード、及び座標のうち少なくとも1つを含み、又
    記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合する前記ステップは、
    前記追跡ターゲットでないと判定した場合に、前記少なくとも1つの第1の画像における第1のオブジェクトが、前記少なくとも1つの第2の画像における第2のオブジェクトであるか否かを判定するステップであって、
    前記少なくとも1つの第1の画像における前記第1のオブジェクトの軌跡及び移動速度に従って許容範囲を決定し、
    前記第2の画像内の前記第2のオブジェクトが前記許容範囲内にあるかを判断するステップ、
    を備える、オブジェクト追跡統合方法。
  5. 請求項1に記載のオブジェクト追跡統合方法であって、
    前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトを検出する前記ステップは、
    前記第1の画像から着目領域を切り出して、前記着目領域のみを有する切り出し画像を生成するステップと、
    前記第1の画像における前記少なくとも1つのターゲットオブジェクトの前記検出結果と、前記切り出し画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを結合するステップと、を備え、又は
    前記少なくとも1つの第1の画像において前記少なくとも1つのターゲットオブジェクトを検出する前記ステップ は、
    オブジェクト追跡によって得られたバウンディングボックスを、オブジェクト検出によって得られたバウンディングボックスに置き換えるステップを備える、オブジェクト追跡統合方法。
  6. 統合装置であって、
    プログラムコードを格納するように構成されたメモリと、
    前記メモリに結合されたプロセッサであって、前記プログラムコードをロード及び実行したときに、
    少なくとも1つの第1の画像と少なくとも1つの第2の画像を取得し、ここで前記少なくとも1つの第1の画像は第1の撮像装置からの画像であり、前記少なくとも1つの第2の画像は第2の撮像装置からの画像であり、
    前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における少なくとも1つのターゲットオブジェクトを検出し、
    前記少なくとも1つの第1の画像における前記少なくとも1つのターゲットオブジェクトの検出結果と、前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトの検出結果とを照合し、
    前記少なくとも1つの第1の画像の前記検出結果と前記少なくとも1つの第2の画像の前記検出結果との照合結果に従って、前記少なくとも1つのターゲットオブジェクトの前記検出結果を更新するように構成された、プロセッサと、
    を備え、
    前記検出結果はピクセル位置を含み、
    前記プロセッサは、さらに、
    前記少なくとも1つの第1の画像及び前記少なくとも1つの第2の画像における前記少なくとも1つのターゲットオブジェクトのピクセル位置を、ホモグラフィ変換によって共通空間における位置及び移動速度に変換し、
    前記第1のオブジェクトが追跡ターゲットであると判定した場合に、前記追跡ターゲットの位置を更新するように構成された、統合装置。
JP2022141099A 2022-04-13 2022-09-06 オブジェクト追跡統合方法及び統合装置 Active JP7360520B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW111114105 2022-04-13
TW111114105A TW202341006A (zh) 2022-04-13 2022-04-13 物件追蹤整合方法及整合裝置

Publications (2)

Publication Number Publication Date
JP7360520B1 true JP7360520B1 (ja) 2023-10-12
JP2023156963A JP2023156963A (ja) 2023-10-25

Family

ID=88242089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022141099A Active JP7360520B1 (ja) 2022-04-13 2022-09-06 オブジェクト追跡統合方法及び統合装置

Country Status (4)

Country Link
US (1) US20230334675A1 (ja)
JP (1) JP7360520B1 (ja)
CN (1) CN116958195A (ja)
TW (1) TW202341006A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117854211B (zh) * 2024-03-07 2024-05-28 南京奥看信息科技有限公司 一种基于智能视觉的目标对象识别方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170148174A1 (en) 2015-11-20 2017-05-25 Electronics And Telecommunications Research Institute Object tracking method and object tracking apparatus for performing the method
JP2019121019A (ja) 2017-12-28 2019-07-22 キヤノン株式会社 情報処理装置、3次元位置推定方法、コンピュータプログラム、及び記憶媒体
JP2020191036A (ja) 2019-05-24 2020-11-26 日本放送協会 オブジェクト軌跡生成装置及びそのプログラム
JP2021002152A (ja) 2019-06-20 2021-01-07 株式会社Pfu 画像処理装置、制御方法及び制御プログラム
JP2021082294A (ja) 2019-11-21 2021-05-27 エヌビディア コーポレーション 自律マシン適用におけるradarセンサを使用する障害物インスタンスの検出のためのディープ・ニューラル・ネットワーク
KR102282117B1 (ko) 2020-01-31 2021-07-27 엘지전자 주식회사 인공지능 디스플레이 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170148174A1 (en) 2015-11-20 2017-05-25 Electronics And Telecommunications Research Institute Object tracking method and object tracking apparatus for performing the method
JP2019121019A (ja) 2017-12-28 2019-07-22 キヤノン株式会社 情報処理装置、3次元位置推定方法、コンピュータプログラム、及び記憶媒体
JP2020191036A (ja) 2019-05-24 2020-11-26 日本放送協会 オブジェクト軌跡生成装置及びそのプログラム
JP2021002152A (ja) 2019-06-20 2021-01-07 株式会社Pfu 画像処理装置、制御方法及び制御プログラム
JP2021082294A (ja) 2019-11-21 2021-05-27 エヌビディア コーポレーション 自律マシン適用におけるradarセンサを使用する障害物インスタンスの検出のためのディープ・ニューラル・ネットワーク
KR102282117B1 (ko) 2020-01-31 2021-07-27 엘지전자 주식회사 인공지능 디스플레이 장치

Also Published As

Publication number Publication date
TW202341006A (zh) 2023-10-16
CN116958195A (zh) 2023-10-27
JP2023156963A (ja) 2023-10-25
US20230334675A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
US11941887B2 (en) Scenario recreation through object detection and 3D visualization in a multi-sensor environment
CN112292711B (zh) 关联lidar数据和图像数据
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
CN110264495B (zh) 一种目标跟踪方法及装置
WO2019129255A1 (zh) 一种目标跟踪方法及装置
CN111932901B (zh) 道路车辆跟踪检测设备、方法及存储介质
US20220373353A1 (en) Map Updating Method and Apparatus, and Device
CN104935879A (zh) 用于活动顺序验证的基于视觉的监视系统
CN104933436B (zh) 具有动态完整性评分的基于视觉的多摄像头工厂监测
JP7360520B1 (ja) オブジェクト追跡統合方法及び統合装置
CN114969221A (zh) 一种更新地图的方法及相关设备
US11520073B2 (en) Multiple sensor aggregation
JP2017215743A (ja) 画像処理装置、外界認識装置
Dinh et al. Development of a tracking-based system for automated traffic data collection for roundabouts
JP2021092996A (ja) 計測システム、車両、計測方法、計測装置及び計測プログラム
Choi et al. State Machine and Downhill Simplex Approach for Vision‐Based Nighttime Vehicle Detection
CN112906428A (zh) 影像侦测区域取得方法及空间使用情况的判定方法
Ibisch et al. Towards highly automated driving in a parking garage: General object localization and tracking using an environment-embedded camera system
CN115100632A (zh) 膨胀点云识别方法、装置、计算机设备和存储介质
Bota et al. A framework for object detection, tracking and classification in urban traffic scenarios using stereovision
KR20200142716A (ko) 주행 정보 제공 방법, 차량맵 제공 서버 및 방법
KR102067553B1 (ko) 셀룰러 네트워크 기반 이동통신단말로의 건물cctv 영상 전송을 활용한 상황 전달 시스템
US20240233387A1 (en) Scenario recreation through object detection and 3d visualization in a multi-sensor environment
US20220262122A1 (en) Image collection apparatus and image collection method
Perng et al. Multi-sensor fusion in safety monitoring systems at intersections

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230919

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230929

R150 Certificate of patent or registration of utility model

Ref document number: 7360520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150