JP7174252B2 - 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム - Google Patents

物体情報処理装置、物体情報処理方法及び物体情報処理プログラム Download PDF

Info

Publication number
JP7174252B2
JP7174252B2 JP2019083755A JP2019083755A JP7174252B2 JP 7174252 B2 JP7174252 B2 JP 7174252B2 JP 2019083755 A JP2019083755 A JP 2019083755A JP 2019083755 A JP2019083755 A JP 2019083755A JP 7174252 B2 JP7174252 B2 JP 7174252B2
Authority
JP
Japan
Prior art keywords
objects
information processing
object information
group
grouping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019083755A
Other languages
English (en)
Other versions
JP2020182100A (ja
Inventor
正人 小野
高秀 星出
靖 松原
真二 深津
憲一 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019083755A priority Critical patent/JP7174252B2/ja
Priority to PCT/JP2020/016060 priority patent/WO2020218023A1/ja
Priority to US17/601,664 priority patent/US20220180639A1/en
Priority to CN202080030553.5A priority patent/CN113711583B/zh
Publication of JP2020182100A publication Critical patent/JP2020182100A/ja
Application granted granted Critical
Publication of JP7174252B2 publication Critical patent/JP7174252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像上でオブジェクトをトラッキングする技術に関する。
複数のカメラで撮影した映像を水平垂直方向にリアルタイムでつなぎ合わせて、広い競技空間を持つフィールド競技の様子全体を写したパノラマ映像を合成する技術が知られている。この技術を用い、映像をリアルタイムでつなぎ合わせることで、広大な監視エリアの遠隔地監視に適用することが考えられている。
映像による遠隔地監視では、映像から監視対象オブジェクトをリアルタイムで検出およびトラッキングし、映像に監視対象オブジェクトの情報を重畳表示できることが望ましい。
石井陽子、徳永徹郎、外村喜秀、日高浩太、「Kirari! Tracker:LiDARと深層学習エンジンを用いたリアルタイム特定人物追跡システムの検討」、映像情報メディア学会、冬季大会、2017年、15B-3
しかしながら、複数の映像をつなぎ合わせたパノラマ映像は高精細映像であることから、パノラマ映像上でオブジェクトの検出およびトラッキングを行うと処理に時間がかかり、リアルタイム性に影響があるという問題があった。
本発明は、上記に鑑みてなされたものであり、複数の映像をつなぎ合わせた合成映像においてリアルタイムにオブジェクトをトラッキングすることを目的とする。
本発明に係る物体情報処理装置は、撮影領域の一部を重ねて撮影された複数の映像データをつないで合成する合成映像上のオブジェクトをトラッキングする物体情報処理装置であって、前記複数の映像データのそれぞれで検出およびトラッキングされたオブジェクトのうち、前記映像データが重ね合わされた重複領域内に存在するオブジェクトを候補オブジェクトとして抽出する候補抽出部と、重なり度合いが所定の閾値以上の複数の候補オブジェクトをグループにまとめるグループ化部と、前記グループおよびグループ化されていない前記オブジェクトに統合オブジェクトIDを付与する統合部と、を備え、前記グループ化部は、重複領域において映像データが重ねられた数に応じてグループにまとめる候補オブジェクトの数を変え、前記グループ化部は、前記複数の候補オブジェクトのそれぞれが前記重複領域以外の非重複領域において前記統合オブジェクトIDが成立していた場合、重なり度合いが所定の閾値以上であっても当該複数の候補オブジェクトをグループにまとめないことを特徴とする
本発明に係る物体情報処理方法は、撮影領域の一部を重ねて撮影された複数の映像データをつないで合成する合成映像上のオブジェクトをトラッキングする物体情報処理装置による物体情報処理方法であって、前記複数の映像データのそれぞれで検出およびトラッキングされたオブジェクトのうち、前記映像データが重ね合わされた重複領域内に存在するオブジェクトを候補オブジェクトとして抽出するステップと、重なり度合いが所定の閾値以上の複数の候補オブジェクトをグループにまとめるステップと、前記グループおよびグループ化されていない前記オブジェクトに統合オブジェクトIDを付与するステップと、を有し、前記複数の候補オブジェクトをグループにまとめるステップでは、重複領域において映像データが重ねられた数に応じてグループにまとめる候補オブジェクトの数を変え、前記複数の候補オブジェクトをグループにまとめるステップでは、前記複数の候補オブジェクトのそれぞれが前記重複領域以外の非重複領域において前記統合オブジェクトIDが成立していた場合、重なり度合いが所定の閾値以上であっても当該複数の候補オブジェクトをグループにまとめないことを特徴とする
本発明に係る物体情報処理プログラムは、上記物体情報処理装置の各部としてコンピュータを動作させる。
本発明によれば、複数の映像をつなぎ合わせた合成映像においてリアルタイムにオブジェクトをトラッキングすることができる。
本実施形態の物体情報処理装置を用いて構成した広視野角遠隔監視システムの構成を示す図である。 広視野角遠隔監視システムが入力した映像のそれぞれにおいてオブジェクトを検出した様子を示す図である。 複数の映像をつなぎ合わせた様子を示す図である。 広視野角遠隔監視システムが出力するパノラマ映像の表示例を示す図である。 本実施形態の物体情報処理装置の構成を示す機能ブロック図である。 本実施形態の物体情報処理の流れを示すフローチャートである。 フレームデータをつなぎ合わせたパノラマ映像と検出されたオブジェクトの例を示す図である。 グループ化の処理の流れを示すフローチャートである。 グループ化しない例を説明するための図である。 複数の重複領域において同一のオブジェクトが検出される例を示す図である。 複数の重複領域において検出された同一のオブジェクトを含むグループを再グループ化する例を示す図である。 統合オブジェクトIDを引継ぐグループまたはオブジェクトを特定できない例を示す図である。 統合オブジェクトIDを付与する処理の流れを示すフローチャートである。 統合オブジェクトIDを付与する例を示す図である。
以下、本発明の実施の形態について図面を用いて説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。
図1を参照し、本発明にかかる物体情報処理を用いた広視野角遠隔監視システムの構成を説明する。同図に示す広視野角遠隔監視システムは、複数の映像を合成してパノラマ映像を生成するとともに、映像から監視対象のオブジェクトの物体情報を取得し、MMTP(MPEG Media Transport Protocol)を利用してIPネットワーク経由でパノラマ映像、音および物体情報を同期伝送する処理を低遅延に実現するシステムである。広視野角遠隔監視システムは、例えば、航空管制、公共空間監視、および防災監視などの広視野角での監視に用いることができる。
図1の広視野角遠隔監視システムは、合成処理サーバ100、物体情報統合サーバ200、デコードサーバ300、および統合物体情報受信サーバ400を備える。
合成処理サーバ100は、合成処理部110、エンコード処理部120、および物体検出・トラッキング処理部130を備える。合成処理サーバ100は、複数の撮像系(例えば4Kカメラ)のそれぞれから映像と音を入力し、各映像から対象のオブジェクトの検出およびトラッキングを行うとともに(図2A)、映像をつなげてパノラマ映像を合成する(図2B)。
合成処理部110は、入力した複数の映像をリアルタイムにつなぎ合わせてパノラマ映像を合成する。合成処理部110は、映像をつなぎ合わせるつなぎ目を動的に変更してもよいし、つなぎ目を設定ファイル等で事前に静的に設定してもよい。
エンコード処理部120は、合成処理部110の合成したパノラマ映像および音データをエンコードし、MMTPストリームに変換してデコードサーバ300へ送出する。
物体検出・トラッキング処理部130は、各映像から対象のオブジェクトの検出およびトラッキングを実施する。物体検出・トラッキング処理部130は、各映像でのオブジェクトのトラッキング結果を物体情報統合サーバ200へ送信するとともに、合成処理部110へ送信する。
物体情報統合サーバ200は、物体検出・トラッキング処理部130が各映像において検出およびトラッキングしたオブジェクトについて、オブジェクトの各映像上の座標をパノラマ映像上の座標へ変換する。合成する前の映像でオブジェクトを検出する場合、映像が重ね合わされた重複領域では、重複された映像のそれぞれで同一のオブジェクトが検出されることがある。物体情報統合サーバ200は、本発明にかかる物体情報処理により、重複領域で検出されたオブジェクトで同一と推定されるオブジェクトのトラッキング結果を統合する。本発明にかかる物体情報処理の詳細については後述する。
デコードサーバ300は、合成処理サーバ100から受信したMMTPストリームをデコードし、パノラマ映像および音を出力する。
統合物体情報受信サーバ400は、物体情報統合サーバ200から物体情報のMMTPパケットを受信し、物体情報を出力する。
表示系(例えばパノラマスクリーン)は、デコードサーバ300から出力されたパノラマ映像に、統合物体情報受信サーバ400から出力された物体情報を重畳させて表示する(図2C)。このとき、表示系は、パノラマ映像のフレームデータに付いているタイムスタンプと同じタイムスタンプを持つ物体情報を重畳させる。
(物体情報処理装置の構成)
図3を参照し、本実施形態の物体情報処理装置1の構成について説明する。物体情報処理装置1は、映像処理装置3の合成したパノラマ映像におけるオブジェクトのトラッキング結果を出力する装置である。より具体的には、物体情報処理装置1は、映像処理装置3から各映像でのオブジェクトのトラッキング結果を受信し、オブジェクトの各映像上の座標(以下、「ローカル座標」と称する)をパノラマ映像上の座標(以下、「グローバル座標」と称する)へ変換し、重複領域で同一と思われるオブジェクトのトラッキング結果を統合する。物体情報処理装置1は、図1の広視野角遠隔監視システムの物体情報統合サーバ200に相当し、映像処理装置3は合成処理サーバ100に相当する。
図3に示す物体情報処理装置1は、トラッキング結果受信部11、グループ化候補判定部12、グループ化部13、および統合部14を備える。物体情報処理装置1が備える各部は、演算処理装置、記憶装置等を備えたコンピュータにより構成して、各部の処理がプログラムによって実行されるものとしてもよい。このプログラムは物体情報処理装置1が備える記憶装置に記憶されており、磁気ディスク、光ディスク、半導体メモリ等の記録媒体に記録することも、ネットワークを通して提供することも可能である。
トラッキング結果受信部11は、オブジェクトの各映像でのトラッキング結果を受信し、オブジェクトのローカル座標をグローバル座標へ変換する。トラッキング結果は、オブジェクトのローカル座標およびローカルオブジェクトIDを含む。トラッキング結果は、検出したオブジェクトの名称、信頼度(オブジェクトの名称の正しさ)、色、およびオブジェクトの加速度と移動方向を含んでもよい。ローカルオブジェクトIDは、各映像でトラッキングされているオブジェクトに付与される識別子である。前の世代(過去のフレーム)で検出されたオブジェクトと同じであると判定されたオブジェクトには同じローカルオブジェクトIDが付与される。なお、ローカルオブジェクトIDは映像ごとにオブジェクトに付与されるので、同じオブジェクトであっても写っている映像が異なる場合は、映像のそれぞれで異なるローカルオブジェクトIDが当該オブジェクトに付与される。
グループ化候補判定部12は、重複領域内で検出されたオブジェクトを統合の対象として抽出する。重複領域の座標は事前に算出済みである。物体情報処理装置1は、重複領域の座標を映像処理装置3から受信してもよい。
グループ化部13は、重複領域において、重複された映像のそれぞれで検出されたオブジェクトの重なり度合いが大きいオブジェクトを同じオブジェクトであると推定してグループ化する。また、グループ化部13は、隣り合う重複領域(1つの映像内の異なる重複領域)に同じローカルオブジェクトIDの付与されたオブジェクトを含むグループをまとめて再グループ化する。
統合部14は、グループおよびグループ化されていないオブジェクトのそれぞれに、パノラマ映像上でのトラッキング結果となる統合オブジェクトIDを付与する。この統合オブジェクトIDを用いることで、同一のオブジェクトをパノラマ映像上で継続してトラッキングすることができる。
(物体情報処理)
次に、図4および図5を参照して、本実施形態の物体情報処理について説明する。
ステップS1において、映像処理装置3は、複数のカメラのそれぞれから映像を入力し、入力した映像のそれぞれから同時刻のフレームデータを取得する。
ステップS2において、映像処理装置3は、各映像からオブジェクトを検出し、各映像においてオブジェクトをトラッキングする。映像処理装置3は、オブジェクト検出処理の高速化のために、各映像から取得されたフレームデータのサイズを縮小したデータを用いてオブジェクトを検出してもよい。オブジェクトの検出およびトラッキングは、各映像で並行して行ってよい。トラッキングとは、現在のフレームデータで検出されたオブジェクトと過去のフレームデータで検出されたオブジェクトとの同一性を判定し、オブジェクトの移動を追跡することである。
映像処理装置3は、同時刻の隣接するフレームデータF1,F2の特徴点が一致するようにフレームデータF1,F2を重ね合わせてパノラマ映像を合成する。図5に左右に隣接するフレームデータF1,F2を重ね合わせた様子を示す。フレームデータF1,F2が重ね合わせられた領域が重複領域である。重ね合わせられていない領域を非重複領域と称する。なお、上下に隣接するフレームデータを重ね合わせてパノラマ映像を合成してもよいし、上下左右に並べたフレームデータを重ね合わせてパノラマ映像を合成してもよい。
また、映像処理装置3は、パノラマ映像を合成する前の各映像からオブジェクトを検出し、オブジェクトをトラッキングする。図5の例では、映像処理装置3は、フレームデータF1からは6つのオブジェクトO11~O16を検出し、フレームデータF2からは6つのオブジェクトO21~O26を検出した。各映像でのオブジェクトのトラッキング結果は物体情報処理装置1へ送信される。
ステップS3において、物体情報処理装置1は、各映像のオブジェクトのトラッキング結果を受信し、各オブジェクトのローカル座標をグローバル座標に変換する。
ステップS4において、物体情報処理装置1は、各オブジェクトについて、重複領域内に存在するか否か判定する。重複領域内に存在するオブジェクトがグループ化される候補である。図5の例では、フレームデータF1で検出されたオブジェクトO14,O15,O16が重複領域内に存在し、フレームデータF2で検出されたオブジェクトO21,O22,O23が重複領域内に存在する。
ステップS5において、物体情報処理装置1は、複数映像に同時に映る同一オブジェクトと推定されるローカルオブジェクトをグループ化する。物体情報処理装置1は、隣接するフレームデータのそれぞれの重複領域で検出されたオブジェクトのうち、重なり度合いが所定の閾値以上のオブジェクトを同一のオブジェクトであると推定し、グループ化する。図5の例では、フレームデータF1で検出されたオブジェクトO14とフレームデータF2で検出されたオブジェクトO21をグループG1とし、フレームデータF1で検出されたオブジェクトO16とフレームデータF2で検出されたオブジェクトO23をグループG2としてグループ化した。グループ化処理の詳細については後述する。
ステップS6において、物体情報処理装置1は、オブジェクトをグループ化した各グループおよびグループ化していない各オブジェクトに統合オブジェクトIDを付与する。図5の例では、グループおよびオブジェクトの下に記載した数字が付与された統合オブジェクトIDである。具体的には、グループG1,G2の統合オブジェクトIDはそれぞれ「0004」,「0007」である。グループ化されていないオブジェクトO11,O12,O13,O15の統合オブジェクトIDはそれぞれ「0001」,「0002」,「0003」,「0005」である。グループ化されていないオブジェクトO22,O24,O25,O26の統合オブジェクトIDはそれぞれ「0006」,「0008」,「0009」,「0010」である。統合オブジェクトIDを付与する処理の詳細については後述する。
(グループ化)
次に、図6を参照して、グループ化処理について説明する。グループ化処理は、重複領域内で検出されたオブジェクトに対して実施される。
ステップS51において、グループ化部13は、隣接するフレームデータのそれぞれで検出されたオブジェクトの重なり度合いが閾値以上のオブジェクトの組を抽出する。あるオブジェクトについて、隣接するフレームデータにおいて重なり度合いが閾値以上のオブジェクトがない場合、そのオブジェクトはグループ化の対象外である。なお、重複領域においてフレームデータが重ねられた数に応じて抽出するオブジェクトの数を変えてもよい。例えば、フレームデータを上下左右に並べて重ねる場合、フレームデータの角部分では4枚のフレームデータが重ねられる。この場合、グループ化部13は、グループ化の対象として4つのオブジェクトを抽出してもよい。
ステップS52において、グループ化部13は、重なり度合いが閾値以上のオブジェクトの組のうち、いずれのオブジェクトも非重複領域において統合オブジェクトIDが成立していた組はグループ化の対象外とする。例えば、図7に示すように、過去世代において、オブジェクトO11には非重複領域において「0001」の統合オブジェクトIDが付与されており、オブジェクトO21には非重複領域において「0002」の統合オブジェクトIDが付与されていたとする。つまり、過去世代においてオブジェクトO11,O21は別オブジェクトとして認識されていた。現世代において、オブジェクトO11,O21の重なり度合いが閾値以上であっても、オブジェクトO11,O21のそれぞれは非重複領域において統合オブジェクトIDが成立しているので別オブジェクトである。したがって、グループ化部13は、オブジェクトO11,O21の組はグループ化の対象外とする。
例えば、統合部14は、非重複領域でオブジェクトに統合オブジェクトIDを付与したときに、当該オブジェクトのフラグをオンにする。グループ化部13は、どちらのフラグもオンのオブジェクトの組はグループ化の対象外とする。いずれか一方のオブジェクトのフラグがオンで他方のオブジェクトのフラグがオフのオブジェクトの組はグループ化の対象である。
なお、グループ化の対象外とする方法として、検出されたオブジェクトを示す名称が推定されている場合、グループ化部13は、名称が異なるオブジェクトの組をグループ化の対象外としてもよい。例えば、人間と推定されたオブジェクトと信号と推定されたオブジェクトの組はグループ化の対象外とする。
また、オブジェクトの色が明らかに互いに異なる場合、グループ化部13は、そのオブジェクトの組をグループ化の対象外としてもよい。
さらに、グループ化部13は、オブジェクトの移動方向を把握し、オブジェクトが互いに異なる移動をしている場合、そのオブジェクトの組をグループ化の対象外としてもよい。
ステップS53において、グループ化部13は、オブジェクトの重なり度合いが閾値以上のオブジェクトの組のうち、ステップS52で除外されなかった組をグループ化する。
グループ化部13は、以下のステップS54,S55において、同じオブジェクトを含むグループをまとめて再グループ化してもよい。
ステップS54において、グループ化部13は、隣り合う重複領域に同じオブジェクトを含むグループが存在するか否か判定する。隣り合う重複領域とは、1つのフレームデータ内の複数の重複領域である。例えば、図8Aの例では、フレームデータF2の左側と右側の重複領域が隣り合う重複領域である。同じオブジェクトであるか否かは、ローカルオブジェクトIDが同一であるか否かで判定できる。
図8Aの例では、フレームデータF1で検出されたオブジェクトO11とフレームデータF2で検出されたオブジェクトO21がグループG1としてグループ化されている。また、フレームデータF3で検出されたオブジェクトO31とフレームデータF2で検出されたオブジェクトO21がグループG2としてグループ化されている。グループG1とグループG2は同一のオブジェクトO21を含んでいる。
ステップS55において、グループ化部13は、同じオブジェクトを含むグループをまとめて再グループ化する。図8Bの例では、同じオブジェクトO21を含むグループG1,G2がグループG3として再グループ化される。
(統合オブジェクトIDの付与)
次に、統合オブジェクトIDを付与する処理について説明する。
例えば、図9に示すように、グループ化されたオブジェクトが変化した場合、前世代でグループに付与された統合オブジェクトIDを引継ぐグループを特定できない。図9の例では、前世代においてオブジェクトO11の統合オブジェクトIDは「0001」であり、オブジェクトO12,O21を含むグループG1の統合オブジェクトIDは「0002」であり、オブジェクトO13,O22を含むグループG2の統合オブジェクトIDは「0003」である。現世代において、オブジェクトO11,O21の組がグループ化されてグループG3となり、オブジェクトO12,O22の組がグループ化されてグループG4となり、オブジェクトO13がグループ化されなかったとする。
図9の例では、現世代において、オブジェクトO13,O22を含むグループG2の統合オブジェクトID「0003」は、オブジェクトO22を含むグループG4が引継げばよいのか、オブジェクトO13が引継げばよいのか不明である。さらに、グループG3は、前世代のオブジェクトO11の統合オブジェクトID「0001」を引き継げばよいのか、オブジェクトO21を含むグループG1の統合オブジェクトID「0002」を引継げばよいのか不明である。
そこで、本実施形態では、オブジェクトが各映像においてトラッキングされている時間(生存期間)を管理し、生存期間の長いオブジェクトから順番に統合オブジェクトIDを付与する。例えば、図9の例では、オブジェクトO13の生存期間がオブジェクトO22の生存期間よりも長いとすると、オブジェクトO13から処理が実施されて、オブジェクトO13がグループG2の統合オブジェクトID「0003」を引継ぐ。このとき、引継ぐ統合オブジェクトIDがなくなったオブジェクトO22は処理順序が後回しにされる。例えば、オブジェクトO22の処理順序は新規に検出されたオブジェクトと同程度に引き下げられる。オブジェクトO22は、前世代で統合オブジェクトIDが付与されていないオブジェクトとして扱われる。
また、図9の例では、グループG3は統合オブジェクトID「0001」または「0002」のいずれを引継げばよいのか不明である。本実施形態では、複数の統合オブジェクトIDを引継ぐことができる場合、より長い生存期間の統合オブジェクトIDを引継ぐ。生存期間が最も長い統合オブジェクトIDとは、より過去に払い出された統合オブジェクトIDである。具体的には、統合オブジェクトID「0001」の生存期間が統合オブジェクトID「0002」の生存期間よりも長いとすると、グループG3は統合オブジェクトID「0001」を引継ぐ。
図10を参照し、統合オブジェクトIDを付与する処理について説明する。図10の処理は、全てのグループおよびグループ化されていない全てのオブジェクトに対して実施される。
ステップS61において、統合部14は、生存期間の最も長いオブジェクトまたは生存期間の最も長いオブジェクトを含むグループを選択する。
ステップS62において、統合部14は、前世代において処理対象のオブジェクトまたはグループに統合オブジェクトIDが付与されているか否かを判定する。処理対象がグループの場合、グループに含まれるオブジェクトの少なくともいずれかに統合オブジェクトIDが付与されているか否かを判定する。
前世代において統合オブジェクトIDが付与されていない場合は、ステップS63において、統合部14は、処理対象のオブジェクトまたはグループに対して新たに統合オブジェクトIDを付与する。
ステップS64において、統合部14は、処理対象のグループは、異なる統合オブジェクトIDが付与された複数のオブジェクトを含むか否かを判定する。
処理対象がオブジェクトの場合または処理対象のグループが異なる統合オブジェクトIDが付与された複数のオブジェクトを含まない場合、つまり、引継ぐ統合オブジェクトIDが一つに定まる場合、ステップS65において、統合部14は、処理対象のオブジェクトまたはグループに前世代の統合オブジェクトIDを引継がせる。
処理対象のグループが異なる統合オブジェクトIDが付与された複数のオブジェクトを含む場合、ステップS66において、統合部14は、処理対象のグループに生存期間が最も長い統合オブジェクトIDを引継がせる。
統合部14は、以上の処理を全てのグループおよびオブジェクトに対して実施する。
図11を参照し、統合オブジェクトIDを付与する例を説明する。
図11の例では、前世代(1フレーム前)において、一方のフレームデータからは5つのオブジェクトO11,O12,O13,O14,O15が検出され、他方のフレームデータからは5つのオブジェクトO21,O22,O23,O24,O25が検出された。オブジェクトO14とオブジェクトO21がグループG1としてグループ化され、オブジェクトO15とオブジェクトO22がグループG2としてグループ化された。オブジェクトO11,O12,O13のそれぞれには統合オブジェクトID「0001」,「0002」,「0003」が付与された。グループG1,G2のそれぞれには統合オブジェクトID「0004」,「0005」が付与された。オブジェクトO23,O24,O25のそれぞれには統合オブジェクトID「0006」,「0007」,「0008」が付与された。
現世代(最新フレーム)において、一方のフレームデータからは新たにオブジェクトO16が検出された。他方のフレームデータからは新たに2つのオブジェクトO26,O27が検出された。前世代で検出されたオブジェクトO25は現世代では検出されなかった。
オブジェクトO13と新たに検出されたオブジェクトO26がグループG3としてグループ化された。オブジェクトO15とオブジェクトO21がグループG4としてグループ化された。オブジェクトO14とオブジェクトO22はグループ化されなかった。
前世代でグループ化されておらず、現世代でもグループ化されていないオブジェクトO11,O12,O23,O24は、前世代の統合オブジェクトIDを引継ぐ。
グループ化されていない新たに検出されたオブジェクトO16,O27のそれぞれには、新たな統合オブジェクトID「0009」,「0011」が払い出される。
現世代が検出されなかったオブジェクトO25に付与されていた統合オブジェクトID「0008」は削除される。
前世代でグループ化されていたオブジェクトO14,O15,O21,O22および現世代でグループ化されたオブジェクトO13,O26に対する処理について考える。ここで、オブジェクトの生存期間は、オブジェクトO13,O14,O15,O21,O22,O26の順に長いものとする。
まず、オブジェクトO13を含むグループG3が処理対象となる。オブジェクトO13は、前世代で統合オブジェクトID「0003」が付与されている。グループG3に含まれるオブジェクトO26は新たに検出されたオブジェクトであり、統合オブジェクトIDは付与されていない。したがって、グループG3は、オブジェクトO13の統合オブジェクトID「0003」を引継ぐ。
続いて、オブジェクトO14が処理対象となる。オブジェクトO14は、前世代でグループG1に含まれている。グループG1には統合オブジェクトID「0004」が付与されている。したがって、オブジェクトO14は、グループG1の統合オブジェクトID「0004」を引継ぐ。
なお、前世代でグループG1に含まれていたオブジェクトO21は、前世代で統合オブジェクトIDが付与されていないオブジェクトとして扱われて、処理の順番が下げられる。
続いて、オブジェクトO15を含むグループG4が処理対象となる。オブジェクトO15は、前世代でグループG2に含まれている。グループG2には統合オブジェクトID「0005」が付与されている。オブジェクトO21は、前世代でグループG1に含まれていたが、オブジェクトO14の処理の際に統合オブジェクトIDが付与されていないオブジェクトとされている。したがって、グループG4は、グループG2の統合オブジェクトID「0005」を引継ぐ。
なお、前世代でグループG2に含まれていたオブジェクトO22は、前世代で統合オブジェクトIDが付与されていないオブジェクトとして扱われて、処理の順番が下げられる。
最後に、オブジェクトO22が処理対象となる。オブジェクトO22は、前世代でグループG2に含まれていたが、オブジェクトO15の処理の際に統合オブジェクトIDが付与されていないオブジェクトとされている。したがって、オブジェクトO22には、新たな統合オブジェクトID「0010」が払い出される。
以上の処理により、統合部14は、統合オブジェクトIDを適切に引継がせることができる。
以上説明したように、本実施形態によれば、グループ化候補判定部12が、同時に撮影された複数のフレームデータのそれぞれで検出およびトラッキングされたオブジェクトのうち、フレームデータが重ね合わされた重複領域内に存在するオブジェクトを候補オブジェクトとして抽出し、グループ化部13が、重なり度合いが所定の閾値以上の複数の候補オブジェクトをグループにまとめて、統合部14が、グループおよびグループ化されていないオブジェクトに統合オブジェクトIDを付与することにより、映像を合成するときに物体のトラッキング処理を各映像において並行して行うことができるので、トラッキング処理時間を短縮できるとともに、映像の合成処理と並行して本実施形態の物体情報処理を実施できる。その結果、合成映像においてリアルタイムでオブジェクトをトラッキングできる。
1…物体情報処理装置
11…トラッキング結果受信部
12…グループ化候補判定部
13…グループ化部
14…統合部
3…映像処理装置
100…合成処理サーバ
110…合成処理部
120…エンコード処理部
130…物体検出・トラッキング処理部
200…物体情報統合サーバ
300…デコードサーバ
400…統合物体情報受信サーバ

Claims (5)

  1. 撮影領域の一部を重ねて撮影された複数の映像データをつないで合成する合成映像上のオブジェクトをトラッキングする物体情報処理装置であって、
    前記複数の映像データのそれぞれで検出およびトラッキングされたオブジェクトのうち、前記映像データが重ね合わされた重複領域内に存在するオブジェクトを候補オブジェクトとして抽出する候補抽出部と、
    重なり度合いが所定の閾値以上の複数の候補オブジェクトをグループにまとめるグループ化部と、
    前記グループおよびグループ化されていない前記オブジェクトに統合オブジェクトIDを付与する統合部と、を備え
    前記グループ化部は、重複領域において映像データが重ねられた数に応じてグループにまとめる候補オブジェクトの数を変え、
    前記グループ化部は、前記複数の候補オブジェクトのそれぞれが前記重複領域以外の非重複領域において前記統合オブジェクトIDが成立していた場合、重なり度合いが所定の閾値以上であっても当該複数の候補オブジェクトをグループにまとめない
    ことを特徴とする物体情報処理装置。
  2. 前記グループ化部は、同一の映像データ内の複数の前記重複領域のそれぞれに同じ前記候補オブジェクトを含むグループが存在する場合、当該複数のグループを一つのグループにまとめる
    ことを特徴とする請求項1に記載の物体情報処理装置。
  3. 前記統合部は、生存期間が最も長い前記オブジェクトを含む前記グループまたは生存期間が最も長い前記オブジェクトから順番に、前記統合オブジェクトIDを付与する
    ことを特徴とする請求項1または2に記載の物体情報処理装置。
  4. 撮影領域の一部を重ねて撮影された複数の映像データをつないで合成する合成映像上のオブジェクトをトラッキングする物体情報処理装置による物体情報処理方法であって、
    前記複数の映像データのそれぞれで検出およびトラッキングされたオブジェクトのうち、前記映像データが重ね合わされた重複領域内に存在するオブジェクトを候補オブジェクトとして抽出するステップと、
    重なり度合いが所定の閾値以上の複数の候補オブジェクトをグループにまとめるステップと、
    前記グループおよびグループ化されていない前記オブジェクトに統合オブジェクトIDを付与するステップと、を有し、
    前記複数の候補オブジェクトをグループにまとめるステップでは、重複領域において映像データが重ねられた数に応じてグループにまとめる候補オブジェクトの数を変え、
    前記複数の候補オブジェクトをグループにまとめるステップでは、前記複数の候補オブジェクトのそれぞれが前記重複領域以外の非重複領域において前記統合オブジェクトIDが成立していた場合、重なり度合いが所定の閾値以上であっても当該複数の候補オブジェクトをグループにまとめない
    ことを特徴とする物体情報処理方法。
  5. 請求項1ないし3のいずれかに記載の物体情報処理装置の各部としてコンピュータを動作させる物体情報処理プログラム。
JP2019083755A 2019-04-25 2019-04-25 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム Active JP7174252B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019083755A JP7174252B2 (ja) 2019-04-25 2019-04-25 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム
PCT/JP2020/016060 WO2020218023A1 (ja) 2019-04-25 2020-04-10 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム
US17/601,664 US20220180639A1 (en) 2019-04-25 2020-04-10 Object information processing device, object information processing method, and object information processing program
CN202080030553.5A CN113711583B (zh) 2019-04-25 2020-04-10 物体信息处理装置、物体信息处理方法以及计算机可读记录介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019083755A JP7174252B2 (ja) 2019-04-25 2019-04-25 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2020182100A JP2020182100A (ja) 2020-11-05
JP7174252B2 true JP7174252B2 (ja) 2022-11-17

Family

ID=72941936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019083755A Active JP7174252B2 (ja) 2019-04-25 2019-04-25 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム

Country Status (4)

Country Link
US (1) US20220180639A1 (ja)
JP (1) JP7174252B2 (ja)
CN (1) CN113711583B (ja)
WO (1) WO2020218023A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220247970A1 (en) * 2022-03-14 2022-08-04 Facebook Technologies, Llc Offloading Visual Frames to a Gateway Device
US11588910B2 (en) * 2022-03-14 2023-02-21 Meta Platforms Technologies, Llc Offloading visual frames to a gateway device
US11880950B2 (en) 2022-03-14 2024-01-23 Meta Platforms Technologies, Llc Selective offload of workloads to edge devices

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206140A (ja) 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
JP2015201005A (ja) 2014-04-07 2015-11-12 パナソニック株式会社 軌跡解析装置および軌跡解析方法
JP2016046639A (ja) 2014-08-21 2016-04-04 セコム株式会社 認証装置
JP2016218610A (ja) 2015-05-18 2016-12-22 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP2017021446A (ja) 2015-07-07 2017-01-26 株式会社リコー 画像処理装置及び画像処理方法
WO2019073920A1 (ja) 2017-10-12 2019-04-18 ソニー株式会社 情報処理装置、移動装置、および方法、並びにプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102170693B1 (ko) * 2014-07-18 2020-10-27 한화테크윈 주식회사 영상재생장치 및 영상재생장치에서 영상정보 제공 방법
JP6593588B2 (ja) * 2015-02-16 2019-10-23 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法
CN105006003A (zh) * 2015-07-09 2015-10-28 北京航空航天大学 基于随机投影蕨的实时目标跟踪算法
CN106803899B (zh) * 2015-11-26 2019-10-01 华为技术有限公司 合并图像的方法和装置
JP6755713B2 (ja) * 2016-05-25 2020-09-16 キヤノン株式会社 追尾装置、追尾方法及びプログラム
CN106502475B (zh) * 2016-10-26 2019-07-16 青岛海信电器股份有限公司 一种红外触控点识别方法、红外触控装置及显示装置
JP6865110B2 (ja) * 2017-05-31 2021-04-28 Kddi株式会社 オブジェクト追跡方法および装置
CN107580199A (zh) * 2017-09-08 2018-01-12 深圳市伊码泰珂电子有限公司 重叠视域多摄像机协同的目标定位与跟踪系统
WO2019180917A1 (ja) * 2018-03-23 2019-09-26 日本電気株式会社 オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013206140A (ja) 2012-03-28 2013-10-07 Secom Co Ltd 移動物体追跡装置
JP2015201005A (ja) 2014-04-07 2015-11-12 パナソニック株式会社 軌跡解析装置および軌跡解析方法
JP2016046639A (ja) 2014-08-21 2016-04-04 セコム株式会社 認証装置
JP2016218610A (ja) 2015-05-18 2016-12-22 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP2017021446A (ja) 2015-07-07 2017-01-26 株式会社リコー 画像処理装置及び画像処理方法
WO2019073920A1 (ja) 2017-10-12 2019-04-18 ソニー株式会社 情報処理装置、移動装置、および方法、並びにプログラム

Also Published As

Publication number Publication date
US20220180639A1 (en) 2022-06-09
JP2020182100A (ja) 2020-11-05
WO2020218023A1 (ja) 2020-10-29
CN113711583B (zh) 2023-05-12
CN113711583A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
JP7174252B2 (ja) 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム
US10721439B1 (en) Systems and methods for directing content generation using a first-person point-of-view device
CN101421747B (zh) 组合多个视频流的系统和方法
JP6621063B2 (ja) カメラ選択方法及び映像配信システム
US11721040B2 (en) Imaging system, calibration method, and calibrator
US10116910B2 (en) Imaging apparatus and method of providing imaging information
US20180091704A1 (en) Video synchronization apparatus, and video synchronization method
JP5197910B2 (ja) デジタル情報信号を受信する装置
EP2993884B1 (en) Image processing device, image processing method and program
US20220256231A1 (en) Systems and methods for synchronizing data streams
GB2517730A (en) A method and system for producing a video production
US20160210516A1 (en) Method and apparatus for providing multi-video summary
WO2020213430A1 (ja) 映像処理装置、映像処理方法及び映像処理プログラム
US20220165308A1 (en) Point of view video processing and curation platform
JP2021119459A (ja) 生成装置、生成方法
CN107205158A (zh) 一种基于时间戳的多路音视频流同步解码方法
JP2012015788A (ja) 映像受信装置、及びその制御方法
KR20100128620A (ko) 파노라믹 동영상 생성 시스템
KR101868057B1 (ko) 파노라마 영상 생성 방법 및 그 장치
KR102599664B1 (ko) 다시점 영상을 전송하기 위한 시스템의 동작 방법 및 이를 수행하는 시스템
WO2014092553A2 (en) Method and system for splitting and combining images from steerable camera
KR102505117B1 (ko) 원격지 스트리밍에 최적화된 다면 영상 스트리밍 시스템
US20210289194A1 (en) System, method, and computer program for generating volumetric video
WO2013150724A1 (ja) 送信装置、再生装置及び送受信方法
KR20230098394A (ko) 원거리의 장면을 모니터링하기 위한 영상 서비스 제공 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7174252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150