JP7064144B2 - 情報統合方法、情報統合装置、及び情報統合プログラム - Google Patents

情報統合方法、情報統合装置、及び情報統合プログラム Download PDF

Info

Publication number
JP7064144B2
JP7064144B2 JP2018185025A JP2018185025A JP7064144B2 JP 7064144 B2 JP7064144 B2 JP 7064144B2 JP 2018185025 A JP2018185025 A JP 2018185025A JP 2018185025 A JP2018185025 A JP 2018185025A JP 7064144 B2 JP7064144 B2 JP 7064144B2
Authority
JP
Japan
Prior art keywords
area
label
information
areas
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018185025A
Other languages
English (en)
Other versions
JP2020057043A (ja
Inventor
馨亮 長谷川
正人 小野
功次 難波
高秀 星出
徹也 山口
朗 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018185025A priority Critical patent/JP7064144B2/ja
Priority to PCT/JP2019/036122 priority patent/WO2020066698A1/ja
Priority to US17/279,216 priority patent/US11836942B2/en
Publication of JP2020057043A publication Critical patent/JP2020057043A/ja
Application granted granted Critical
Publication of JP7064144B2 publication Critical patent/JP7064144B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、空間から空間へ伝送するオブジェクトの位置情報を統合する技術に関し、特に同一オブジェクトを計測したDepthマップとトラッキングデータの位置情報を統合する。
現在、競技空間をまるごとリアルタイムに伝送する技術が研究開発されている。この技術は、現地会場で取得した複数のセンサ情報を利用用途に応じてリアルタイムに統合・加工しつつ、同会場で取得した映像・音声に同期させて伝送する技術である。
図9は、当該技術を実現するシステムの一例について、全体イメージを示す図である。伝送装置100は、競技会場の被写界深度計測センサ31と位置情報トラッキングセンサ32からセンサ情報を受信して、被写体であるオブジェクトの3次元位置情報を取得して統合等するとともに、同会場の撮像装置33と集音装置34からメディア情報を受信し、時刻情報(タイムスタンプ)に基づきオブジェクトの3次元位置情報とメディア情報を同期して、遠隔会場の映像制御装置51と音声制御装置52に配信する。
そして、映像制御装置51は、例えば、メディア情報の映像データを裸眼3D表示スクリーン53に出力して虚像表示パネル54に表示し、オブジェクトの3次元位置情報を用いて映像素材の位置・サイズを制御する。音声制御装置52は、例えば、メディア情報の音声データを競技音用と歓声音用の各波面合成用スピーカアレイ55,56にそれぞれ出力し、オブジェクトの3次元位置情報を用いて音声素材の位置を制御する。
これにより、遠隔会場で再現する映像素材・音声素材の位置・サイズを競技会場のオブジェクトの動きに応じて制御すること、例えば利用用途に応じてリアルタイムにオブジェクトを加工・変換することが可能となり、奥行表現や音像定位等といった様々な再現表現を高臨場感で時間的・空間的に同期して行うことができる。
柿沼、外4名、"機械学習を用いた4Kリアルタイム被写体抽出フレームワーク"、映像情報メディア学会、冬季大会、2017年、15B-2 石井、外3名、"kirari! Tracker : LiDARと深層学習エンジンを用いたリアルタイム特定人物追跡システムの検討"、映像情報メディア学会、冬季大会、2017年、15B-3
上述したように、伝送装置100は、複数のセンサからセンサ情報を受信し、オブジェクトの3次元位置情報を取得して、メディア情報に同期させて配信する。しかし、センサの種類により、複数のセンサでそれぞれ取得されるセンサ情報の精度に差がある。そこで、各センサ情報を組み合わせて統合することにより、オブジェクトの3次元位置情報の精度を向上させることが切望されている。
例えば、図10に示すように、Depthマップより求めたオブジェクトの画像座標上の位置情報(オブジェクトの輪郭の座標情報)と、トラッキングデータに含まれるラベル情報(選手A,選手B)及びオブジェクトを囲う矩形枠の画像座標上の位置情報(座標情報)とを組み合わせることで、オブジェクト領域に対してラベルが付与されたオブジェクトの位置情報の精度を向上させることが考えられる。これは、Depthマップはオブジェクトの輪郭情報の精度は高いが奥行情報の精度は低く、その一方でトラッキングデータは、輪郭情報の精度は低いが奥行情報の精度は高い、という特性を考慮している。
しかしながら、Depthマップとトラッキングデータが共に正確でない場合、Depthマップより求めたオブジェクトの位置情報と、トラッキングデータに含まれるオブジェクトの位置情報及びラベル情報とを、一意に組み合わせることは困難である。例えば、図11に示すように、1つのラベルに対して2つのエリア(Depthマップから切り出されたオブジェクト領域)が含まれる場合、1つのラベルに対してノイズに相当するエリアも含まれる場合には、1つのラベルに複数のエリアが対応している状態にあるので、ラベルに対応するエリアを特定することができない。
本発明は、上記事情を鑑みてなされたものであり、オブジェクトの位置情報の精度を向上することを目的とする。
本発明の情報統合方法は、第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置で行う情報統合方法において、情報統合装置が、前記センサ情報として、オブジェクトのDepthマップと、画像中のオブジェクトの領域であるラベル領域及び当該オブジェクトを示すラベルを含むトラッキングデータと、を受信する第1のステップと、前記Depthマップに含まれる複数のオブジェクト領域のうち、オブジェクト領域に対して前記トラッキングデータに含まれるラベル領域に重なる重複領域の割合が最も大きいオブジェクト領域、又は前記トラッキングデータに含まれるラベル領域に重なる重複領域の面積が最も大きいオブジェクト領域に、前記トラッキングデータに含まれるラベル領域に対応するラベルを紐付ける第2のステップと、を行うことを特徴とする。
上記情報統合方法において、前記第2のステップでは、比較する複数の前記重複領域の割合が同じ場合、又は比較する複数の前記重複領域の面積が同じ場合、前記複数のオブジェクト領域を包含する一つの領域に前記ラベルを紐付けることを特徴とする。
上記情報統合方法において、前記第2のステップでは、1つのオブジェクト領域が複数のラベル領域の各領域に含まれる場合、前記1つのオブジェクト領域と同一である複数のオブジェクト領域に各ラベル領域に対応するラベルをそれぞれ紐付けることを特徴とする。
上記情報統合方法において、前記第2のステップでは、前記複数のオブジェクト領域にノイズ領域が含まれない場合には前記重複領域の割合が最も大きいオブジェクト領域にラベルを紐付け、前記複数のオブジェクト領域にノイズ領域が含まれる場合には前記重複領域の面積が最も大きいオブジェクト領域にラベルを紐付けることを特徴とする。
本発明の情報統合装置は、第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置に含まれる情報統合装置において、前記センサ情報として、オブジェクトのDepthマップと、画像中のオブジェクトの領域であるラベル領域及び当該オブジェクトを示すラベルを含むトラッキングデータと、を受信するセンサ情報受信部と、前記Depthマップに含まれる複数のオブジェクト領域のうち、オブジェクト領域に対して前記トラッキングデータに含まれるラベル領域に重なる重複領域の割合が最も大きいオブジェクト領域、又は前記トラッキングデータに含まれるラベル領域に重なる重複領域の面積が最も大きいオブジェクト領域に、前記トラッキングデータに含まれるラベル領域に対応するラベルを紐付けるラベリング部と、を備えることを特徴とする。
本発明の情報統合プログラムは、上記情報統合方法をコンピュータに実行させることを特徴とする。
本発明によれば、オブジェクトの位置情報の精度を向上できる。
伝送装置の機能例を示す図である。 ラベリング手法を説明する際の参照図である。 情報統合装置の機能例を示す図である。 手法1の処理フロー例を示す図である。 手法1のラベリング例を示す図である。 手法2の処理フロー例を示す図である。 手法2のラベリング例を示す図である。 手法3の処理フロー例を示す図である。 伝送装置による同期伝送のイメージを示す図である。 課題を説明する際の参照図である。 課題を説明する際の参照図である。
以下、本発明を実施する一実施の形態について図面を用いて説明する。
<伝送装置の構成>
まず、伝送装置の構成について説明する。図1は、伝送装置100が備える機能の例を示す図である。伝送装置100は、競技会場(第1空間)内のオブジェクトに関するセンサ情報とメディア情報を同期して遠隔会場(第2空間)に伝送する装置である。
伝送装置100は、競技会場からセンサ情報とメディア情報を受ける受信側と、センサ情報に基づき求めたオブジェクト毎の3次元位置情報とメディア情報を遠隔会場に配信する配信側とで構成される。受信側と配信側の間は、伝送路により相互通信可能に接続されている。
受信側は、図1に示すように、オブジェクト位置情報配信機能101と、メディア情報エンコード機能102と、位置情報・メディア情報括り付け管理機能103と、で構成される。
オブジェクト位置情報配信機能101は、複数のセンサにより得た位置情報を受信し、これを統合して被写体の三次元位置を特定可能な位置情報を生成して、配信側に伝送する機能を備える。複数のセンサにより得た位置情報とは、例えば、被写界深度計測センサ31で得た被写体の奥行き方向の位置データ(例えばDepthマップ)と、位置情報トラッキングセンサ32により得た被写体の二次元的な位置情報(トラッキングデータ)である。
Depthマップとは、オブジェクト領域のみを切り出し、当該オブジェクト領域外をマスクしたデータである。また、Depthマップとは、ステレオカメラで撮影した画像間のピクセル毎のズレの大きさであり、視差情報から3角測量法により距離情報に変換される。Depthマップは、視差マップとも呼ばれ、距離情報に相当する。非特許文献1には、機械学習を用いた被写体抽出を行う方法が記載されており、その際に被写体とカメラとの視差・深度を計算した結果がDepthマップとして得られる。
トラッキングデータとは、ラベルと当該ラベルに紐付いたオブジェクトの位置情報である。ラベルは、オブジェクトを識別するために用いられ、音源の特定やオブジェクトのプロファイルとの紐付けに活用される。非特許文献2には、LiDARと深層学習エンジンを用いてオブジェクトのトラッキングを行う方法が記載されており、被写体の3次元位置が矩形で表されている。
メディア情報エンコード機能102は、撮像装置33と集音装置34が出力するメディア情報を受信し、メディア情報の映像データと音声データをそれぞれエンコード処理して配信側に伝送する機能を備える。
位置情報・メディア情報括り付け管理機能103は、時刻情報に基づき、オブジェクト位置情報配信機能101が処理したオブジェクトの位置情報と、メディア情報エンコード機能102が処理したメディア情報とを関連付けて管理する機能を備える。
配信側は、図1に示すように、オブジェクト位置情報受信機能104と、メディア情報デコード機能105と、オブジェクト位置情報統合機能106と、で構成される。
オブジェクト位置情報受信機能104は、オブジェクト位置情報配信機能101から伝送された位置情報を受信して保持し、映像制御装置51又は音声制御装置52からの位置情報取得要求に応じて保持した位置情報を配信する機能を備える。配信方法としては、例えば、Websocketインタフェイスによるpush配信、MIDIインタフェイスによるバッファリングを伴う配信を用いる。オブジェクト位置情報受信機能104は、位置情報取得要求の受付時にフレームレートの指定を受け、接続毎に要求された位置情報を指定フレームレートに変換して配信する。
メディア情報デコード機能105は、メディア情報エンコード機能102から伝送されたメディア情報を受信して、映像制御装置51及び音声制御装置52に配信する機能を備える。
オブジェクト位置情報統合機能106は、オブジェクトを複数の方向から計測することで得られた複数視点の位置情報を時刻情報で紐付けて管理し、複数視点の位置情報を結合することで精度の高い位置情報を生成して保持し、映像制御装置51又は音声制御装置52からの位置情報取得要求に応じて保持した高精度の位置情報を配信する機能を備える。オブジェクト位置情報統合機能106が用いている接続インタフェイスは、オブジェクト位置情報受信機能104と同一であり、WebsocketインタフェイスやMIDIインタフェイス等に対応する。
以上が伝送装置100の備える機能の例である。センサ情報に着目すると、伝送装置100は、次のように動作する。例えば、被写界深度計測センサ31と位置情報トラッキングセンサ32の組を4つ用意して競技会場の東西南北に配置した場合、オブジェクト位置情報配信機能101は、4つの組でそれぞれ計測されたセンサ情報を受信して、組毎に、Depthマップの位置情報とトラッキングデータの位置情報を統合して伝送する。オブジェクト位置情報受信機能104は、組毎のオブジェクトの位置情報を受信して保持し、位置情報取得要求に応じて配信する。オブジェクト位置情報統合機能106は、各組の位置情報を結合することで精度の高い位置情報を生成し、位置情報取得要求に応じて配信する。
<発明の概要>
本実施形態では、本発明の課題を解決するため、図2に示すように、Depthマップとトラッキングデータをラベルで対応付ける方式を提案する。ラベリングの手法は、Depthマップの特性を考慮して、互いに重なる領域の割合を基準とする手法1を用いる。また、人物以外の被写体領域(ノイズ)の混入に対処するため、互いに重なる領域の面積を基準とする手法2を用いる。手法1と手法2は、設定ファイルにより手動で切り替えて使用可能であり、自動で切り替えて使用可能でもある(手法3)。
<情報統合装置の構成>
そこで、本実施形態では、オブジェクト位置情報配信機能101に情報統合装置1を搭載する。図3は、情報統合装置1の機能ブロックの例を示す図である。情報統合装置1は、センサ情報受信部11と、センサ情報記憶部12と、ラベリング部13と、位置情報統合部14と、を備えて構成される。
センサ情報受信部11は、複数のセンサで取得した位置情報を受信する機能を備える。ここでは、センサ情報として、被写界深度計測センサ31から出力されたオブジェクトのDepthマップと、位置情報トラッキングセンサ32から出力されたトラッキングデータと、を受信する場合を例に説明する。受信するDepthマップとトラッキングデータは、同一オブジェクトを所定時間間隔で計測したデータである。Depthマップには、オブジェクトの奥行情報を示す深度値(奥行き方向の位置を特定するデータ)が含まれている。ここで、Depthマップにより特定される被写体の二次元領域をオブジェクト領域と呼ぶこととする。トラッキングデータには、オブジェクトを示すラベルと画像中で当該オブジェクトが占める領域(ラベル領域)を特定する情報が含まれている。
センサ情報記憶部12は、センサ情報受信部11が受信したDepthマップとトラッキングデータを紐付けて読み出し可能に記憶する機能を備える。紐付けられるDepthマップとトラッキングデータは、付与されたタイムスタンプの時刻が同一であることが望ましいが、互いの時刻差が閾値以下であるものを紐付けてもよい。
ラベリング部13は、手法1として、Depthマップに含まれる複数のオブジェクト領域のうち、オブジェクト領域に対してトラッキングデータに含まれるラベル領域に重なる重複領域の割合が最も大きいオブジェクト領域に、トラッキングデータに含まれるラベル領域に対応するラベルを紐付ける機能を備える。
また、ラベリング部13は、手法2として、Depthマップに含まれる複数のオブジェクト領域のうち、トラッキングデータに含まれるラベル領域に重なる重複領域の面積が最も大きいオブジェクト領域に、トラッキングデータに含まれるラベル領域に対応するラベルを紐付ける機能を備える。
また、ラベリング部13は、手法3として、複数のオブジェクト領域にノイズ領域が含まれない場合には、ラベル領域との重複領域の割合が最も大きいオブジェクト領域にラベルを紐付ける手法1を行い、複数のオブジェクト領域にノイズ領域が含まれる場合には、ラベル領域との重複領域の面積が最も大きいオブジェクト領域にラベルを紐付ける手法2に切り替える機能を備える。なお、ノイズ領域か否かの判定は、例えば、領域の面積が所定の閾値よりも小さいオブジェクト領域をノイズ領域と判定する方法、あるいは、他のオブジェクト領域との面積の差の絶対値が所定の閾値より大きい場合にノイズ領域と判定する方法などがある。
更に、ラベリング部13は、上記手法1や手法2で複数の紐付け候補がある場合(つまり、重複領域の割合や面積が等しいオブジェクト領域が複数ある場合)には、複数の候補を包含する統合された1つの領域を生成してその領域にラベルを紐付けるか、あるいは、所定の基準に基づき何れか1つのオブジェクト領域を選択してラベルを紐付ける等により、複数のオブジェクト領域に同じラベルが付されることがないようにする機能を備えてもよい。
更に、ラベリング部13は、1つのオブジェクト領域が複数のラベル領域の各領域に含まれる場合、1つのオブジェクト領域と同一である複数のオブジェクト領域に各ラベル領域に対応するラベルをそれぞれ紐付ける機能を備える。
位置情報統合部14は、ラベル付けにより組み合わせられたDepthマップによるオブジェクトの位置情報とトラッキングデータの位置情報とを統合することにより、高精度なオブジェクトの3次元位置情報を算出する機能を備える。
上述した情報統合装置1は、CPU、メモリ、入出力インタフェイス等を備えたコンピュータで実現できる。また、情報統合装置1としてコンピュータを機能させるための情報統合プログラム、情報統合プログラムの記憶媒体を作成することも可能である。
<情報統合装置の動作(手法1)>
次に、情報統合装置1の手法1の動作について説明する。図4は、ラベリング部13で行う手法1の処理フローを示す図である。手法1は、トラッキングデータの2次元領域に対して、最も重なるエリアの割合が大きなオブジェクト領域にラベルを紐付ける手法である。
ステップS101;
まず、ラベリング部13は、Depthマップをセンサ情報記憶部12から読み出し、読み出したDepthマップに含まれる深度値を2値化する。2値化処理は、既存の方法を用いて実現可能であり、例えば、OpenCV(Open Source Computer Vision Library)のinRange関数を用いて行う。
ステップS102;
次に、ラベリング部13は、2値化後のDepthマップに含まれるオブジェクトの輪郭の座標群を検出し、当該輪郭内の面積sを計算する。本実施形態では、同一ラベルにラベリングされる候補として2つのオブジェクト領域が検出されたと仮定し、ラベリング部13は、2つの候補オブジェクト領域の面積s1,s2をそれぞれ計算する。
ステップS103;
次に、ラベリング部13は、当該Depthマップに対応するトラッキングデータをセンサ情報記憶部12から読み出し、読み出したトラッキングデータに含まれるラベル領域に対して、2つの候補オブジェクト領域がそれぞれ重なる各重複エリアの重複面積s1’,s2’をそれぞれ算出する。同一時刻のトラッキングセンサがない場合、例えば、Depthマップのタイムスタンプの近傍時刻のトラッキングデータを用いれば良い。例えば、Depthマップのタイムスタンプの近傍時刻の複数のトラッキングデータを用いて線形補間することで、Depthマップのタイムスタンプにおけるトラッキングデータを生成し、これを用いればよい。あるいは、原則としてDepthマップのタイムスタンプの近傍時刻のトラッキングデータ(最も時刻が近いもの)を割り当てることとし、既にDepthマップのタイムスタンプに割当済みのトラッキングデータがあれば割当をスキップし、まだ割り当てられていないDepthマップのタイムスタンプがあれば、一つ前のタイムスタンプに割り当てたトラッキングデータを繰り返し割り当てるようにしてもよい。
以下では、トラッキングデータに含まれるラベル領域が画像中の被写体領域を表す矩形2次元領域である場合を例に説明する。
ステップS104;
最後に、ラベリング部13は、2つの候補オブジェクト領域について、各重複エリアの重複面積s1’,s2’を各候補オブジェクト領域の面積s1,s2でそれぞれ除算することにより、各候補オブジェクト領域の面積sに対する重複面積s’の割合(s1’/s1,s2’/s2)を求め、最も大きい割合の候補オブジェクト領域に対してトラッキングデータのラベルを割り当てる。これにより、図5(a)に示すように、例えば、候補オブジェクト領域1(area1)の重複面積s’の割合が20%、候補オブジェクト領域2(area2)の重複面積s’の割合が50%の場合、ラベル1(label1)は候補オブジェクト領域2に対してのみ紐付けられる。
一方、s1’/s1=s2’/s2の場合、ラベリング部13は、2つの候補オブジェクト領域1,2を同一オブジェクト領域12として扱い、当該同一オブジェクト領域12に対してラベル1を割り当てる。例えば、図5(b)に示すように、2つの候補オブジェクト領域1,2の各全エリアが矩形2次元領域に含まれ、s1’/s1=s2’/s2=100%となる場合が想定される。
その他、1つの候補オブジェクト領域1が2つの矩形2次元領域の各領域に含まれる場合、ラベリング部13は、当該1つの候補オブジェクト領域1を別々のオブジェクト領域1として当該別々のオブジェクト領域1に各矩形2次元領域のラベル1,2をそれぞれ割り当てる。例えば、図5(c)に示すように、1つの候補オブジェクト領域1の全エリアが2つの矩形2次元領域の各領域に含まれ、「矩形2次元領域1に対するs1’/s1」=「矩形2次元領域2に対するs1’/s1」=100%となる場合が想定される。
以上より、手法1によれば、同期するDepthマップとトラッキングデータにおいて、1つのラベルに対して複数の候補オブジェクト領域が対応する場合、最も重なる領域の割合が大きな候補オブジェクト領域にラベルを紐付けるので、Depthマップのオブジェクト領域に対してトラッキングデータのラベルを正しく関連付けることができ、Depthマップでのオブジェクトの位置情報とトラッキングデータのオブジェクトの位置情報を正しく組み合わせることができる。その結果、正しい組み合わせの位置情報を統合することが可能となり、オブジェクトの3次元位置情報の精度を向上できる。
<情報統合装置の動作(手法2)>
次に、情報統合装置1の手法2の動作について説明する。図6は、ラベリング部13で行う手法2の処理フローを示す図である。手法2は、トラッキングの2次元領域に対して、最も重なるエリアの面積が大きなオブジェクト領域にラベルを紐付ける手法である。
ステップS201;
まず、ラベリング部13は、Depthマップをセンサ情報記憶部12から読み出し、読み出したDepthマップに含まれる深度値を2値化する。
ステップS202;
次に、ラベリング部13は、2値化後のDepthマップに含まれるオブジェクトの輪郭の座標群を検出する。そして、ラベリング部13は、当該Depthマップに対応するトラッキングデータをセンサ情報記憶部12から読み出し、検出していたオブジェクトの輪郭の座標群を用いて、読み出したトラッキングデータに含まれる枠線内の矩形2次元領域に対して、2つの候補オブジェクト領域がそれぞれ重なる各重複エリアの重複面積s1’,s2’をそれぞれ算出する。
ステップS203;
最後に、ラベリング部13は、2つの候補オブジェクト領域について、s1’,s2’で最も大きい面積の候補オブジェクト領域に対してトラッキングデータのラベルを割り当てる。これにより、図7(a)に示すように、例えば、候補オブジェクト領域1の重複面積s’が30、候補オブジェクト領域2の重複面積s’が20の場合、ラベル1は候補オブジェクト領域1に対してのみ紐付けられる。
一方、s1’=s2’の場合、例えば、ラベリング部13は、2つの候補オブジェクト領域1,2を統合したオブジェクト領域12に対してラベル1を割り当てる。
その他、図7(b)に示すように、2つの候補オブジェクト領域1,2の各全エリアが2つの矩形2次元領域の各領域に含まれ、s1’/s1=s2’/s2=100%となる場合にも、ラベリング部13は、当該2つの候補オブジェクト領域1,2を同一オブジェクト領域12として扱い、当該同一オブジェクト領域12に対して各矩形2次元領域のラベル1,2をそれぞれ割り当てる。
その他、1つの候補オブジェクト領域1が2つの矩形2次元領域の各領域に含まれる場合、ラベリング部13は、当該1つの候補オブジェクト領域1を別々のオブジェクト領域1として当該別々のオブジェクト領域1に各矩形2次元領域のラベル1,2をそれぞれ割り当てる。例えば、図7(c)に示すように、1つの候補オブジェクト領域1の全エリアが2つの矩形2次元領域の各領域に含まれ、「矩形2次元領域1に対するs1」=「矩形2次元領域2に対するs1」となる場合が想定される。
以上より、手法2によれば、同期するDepthマップとトラッキングデータにおいて、1つのラベルに対して複数の候補オブジェクト領域が対応する場合、最も重なるエリアの面積が大きな候補オブジェクト領域にラベルを紐付けるので、Depthマップのオブジェクト領域に対してトラッキングデータのラベルを正しく関連付けることができ、Depthマップでのオブジェクトの位置情報とトラッキングデータのオブジェクトの位置情報を正しく組み合わせることができる。その結果、正しい組み合わせの位置情報を統合することが可能となり、オブジェクトの3次元位置情報の精度を向上できる。
<情報統合装置の動作(手法3)>
次に、情報統合装置1の手法3の動作について説明する。図8は、ラベリング部13で行う手法3の処理フローを示す図である。手法3は、手法1と手法2のラベリング手法を切り替える手法である。通常は手法1を用いてラベリングを行い、ノイズと思われるエリアが検出された場合には手法2に切り替え、ノイズと思われるオブジェクト領域をラベリング対象から除去する。
ステップS301;
まず、ラベリング部13は、Depthマップをセンサ情報記憶部12から読み出し、読み出したDepthマップに含まれる深度値を2値化する。
ステップS302;
次に、ラベリング部13は、2値化後のDepthマップに含まれる2つの候補オブジェクト領域の輪郭の座標群をそれぞれ検出し、当該2つの候補オブジェクト領域の面積s1,s2をそれぞれ計算する。
ステップS303;
次に、ラベリング部13は、2つの候補オブジェクト領域のうちいずれかの面積が閾値A以下であるか否か、2つの候補オブジェクト領域の面積差が閾値B以上であるか否かを判定する。そして、いずれの候補オブジェクト領域の面積も閾値A以下でない場合、かつ、2つの候補オブジェクト領域の面積差が閾値B以上でない場合、ステップS304へ進む。一方、いずれかの候補オブジェクト領域の面積が閾値A以下である場合、又は、2つの候補オブジェクト領域の面積差が閾値B以上である場合、ステップS305へ進む。
ステップS304;
ラベリング部13は、2つの候補オブジェクト領域をノイズ領域でないとみなし、重なる領域の割合を基準にした手法1を用いてラベリングする。
ステップS305;
ラベリング部13は、閾値A以下の面積を持つ候補オブジェクト領域をノイズ領域とみなし、重なる領域の面積を基準とした手法2を用いてラベリングする。また、オブジェクト領域同士の面積差を計算し、面積差(の絶対値)が閾値B以上である場合に小さい面積を持つ方のオブジェクト領域をノイズ領域とみなしてもよい。オブジェクト領域の大きさが他のオブジェクト領域と比べて著しい差がある場合は、ノイズである可能性が高いからである。
以上より、手法3によれば、Depthマップにノイズ領域が含まれる場合、重なる領域の割合を基準にした手法1から、重なる領域の面積を基準とした手法2に切り替えるので、Depthマップのオブジェクト領域に対してトラッキングデータのラベルをより正しく関連付けることができ、オブジェクトの3次元位置情報の精度を更に向上できる。
<ラベル付けを行う際の位置情報の算出方法>
Depthマップからオブジェクトの輪郭の座標群(位置情報)を検出する方法は、既存の方法を用いて実現可能である。例えば、Depthマップの深度値の最大値及び最小値からZ値(奥行)を求め、Depthマップの輪郭,奥行,内部パラメータより、輪郭座標のX値(幅),Y値(高さ)を算出する(Depthマップの最大/最小値方式)。Z値(奥行)については、Depthマップの深度値の最頻値を用いてもよい(Depthマップの最頻値方式)。Depthマップの最大/最小値方式と最頻値方式は、選択可能である。
また、矩形2次元領域を把握するために用いるトラッキングデータの枠線の位置情報は、位置情報トラッキングセンサ32から出力された位置情報を用いて新たに求めてもよい。例えば、トラッキングデータのローカル座標系をZ値(奥行)として使用し、Depthマップの輪郭,奥行,内部パラメータより、枠線座標のX値(幅),Y値(高さ)を算出する(トラッキングデータ奥行方式)。また、トラッキングデータにのみに対して、ローカル座標系をグローバル座標系に変換し、矩形から重心点生成し、時間サブサンプリング処理した値を用いてもよい(トラッキングスルー方式)。トラッキングデータ奥行方式とトラッキングスルー方式は、選択可能である。
<効果>
本実施形態によれば、情報統合装置1が、Depthマップに含まれる複数のオブジェクト領域のうち、オブジェクト領域に対してトラッキングデータに含まれるラベル領域に重なる重複領域の割合が最も大きいオブジェクト領域に、トラッキングデータに含まれるラベルを紐付けるので、Depthマップでのオブジェクトの位置情報とトラッキングデータのオブジェクトの位置情報を正しく組み合わせ可能となり、オブジェクトの3次元位置情報の精度を向上できる。
また、本実施形態によれば、情報統合装置1が、Depthマップに含まれる複数のオブジェクト領域のうち、トラッキングデータに含まれるラベル領域に重なる重複領域の面積が最も大きいオブジェクト領域に、トラッキングデータに含まれるラベルを紐付けるので、Depthマップでのオブジェクトの位置情報とトラッキングデータのオブジェクトの位置情報を正しく組み合わせ可能となり、オブジェクトの3次元位置情報の精度を向上できる。
また、本実施形態によれば、情報統合装置1が、複数のオブジェクト領域にノイズ領域が含まれない場合、ラベル領域との重複領域の割合が最も大きいオブジェクト領域にラベルを紐付ける手法1を行い、複数のオブジェクト領域にノイズ領域が含まれる場合、ラベル領域との重複領域の面積が最も大きいオブジェクト領域にラベルを紐付ける手法2に切り替えるので、オブジェクトの3次元位置情報の精度を更に向上できる。
1…情報統合装置
11…センサ情報受信部
12…センサ情報記憶部
13…ラベリング部
14…位置情報統合部
31…被写界深度計測センサ
32…位置情報トラッキングセンサ
33…撮像装置
34…集音装置
51…映像制御装置
52…音声制御装置
53…裸眼3D表示スクリーン
54…虚像表示パネル
55…波面合成用スピーカアレイ(競技音用)
56…波面合成用スピーカアレイ(歓声音用)
100…伝送装置
101…オブジェクト位置情報配信機能
102…メディア情報エンコード機能
103…位置情報・メディア情報括り付け管理機能
104…オブジェクト位置情報受信機能
105…メディア情報デコード機能
106…オブジェクト位置情報統合機能

Claims (6)

  1. 第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置で行う情報統合方法において、
    情報統合装置が、
    前記センサ情報として、オブジェクトのDepthマップと、画像中のオブジェクトの領域であるラベル領域及び当該オブジェクトを示すラベルを含むトラッキングデータと、を受信する第1のステップと、
    前記Depthマップに含まれる複数のオブジェクト領域のうち、オブジェクト領域に対して前記トラッキングデータに含まれるラベル領域に重なる重複領域の割合が最も大きいオブジェクト領域、又は前記トラッキングデータに含まれるラベル領域に重なる重複領域の面積が最も大きいオブジェクト領域に、前記トラッキングデータに含まれるラベル領域に対応するラベルを紐付ける第2のステップと、
    を行うことを特徴とする情報統合方法。
  2. 前記第2のステップでは、
    比較する複数の前記重複領域の割合が同じ場合、又は比較する複数の前記重複領域の面積が同じ場合、前記複数のオブジェクト領域を包含する一つの領域に前記ラベルを紐付けることを特徴とする請求項1に記載の情報統合方法。
  3. 前記第2のステップでは、
    1つのオブジェクト領域が複数のラベル領域の各領域に含まれる場合、前記1つのオブジェクト領域と同一である複数のオブジェクト領域に各ラベル領域に対応するラベルをそれぞれ紐付けることを特徴とする請求項1又は2に記載の情報統合方法。
  4. 前記第2のステップでは、
    前記複数のオブジェクト領域にノイズ領域が含まれない場合には前記重複領域の割合が最も大きいオブジェクト領域にラベルを紐付け、前記複数のオブジェクト領域にノイズ領域が含まれる場合には前記重複領域の面積が最も大きいオブジェクト領域にラベルを紐付けることを特徴とする請求項1乃至3のいずれかに記載の情報統合方法。
  5. 第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置に含まれる情報統合装置において、
    前記センサ情報として、オブジェクトのDepthマップと、画像中のオブジェクトの領域であるラベル領域及び当該オブジェクトを示すラベルを含むトラッキングデータと、を受信するセンサ情報受信部と、
    前記Depthマップに含まれる複数のオブジェクト領域のうち、オブジェクト領域に対して前記トラッキングデータに含まれるラベル領域に重なる重複領域の割合が最も大きいオブジェクト領域、又は前記トラッキングデータに含まれるラベル領域に重なる重複領域の面積が最も大きいオブジェクト領域に、前記トラッキングデータに含まれるラベル領域に対応するラベルを紐付けるラベリング部と、
    を備えることを特徴とする情報統合装置。
  6. 請求項1乃至4のいずれかに記載の情報統合方法をコンピュータに実行させることを特徴とする情報統合プログラム。
JP2018185025A 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム Active JP7064144B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018185025A JP7064144B2 (ja) 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム
PCT/JP2019/036122 WO2020066698A1 (ja) 2018-09-28 2019-09-13 情報統合方法、情報統合装置、及び情報統合プログラム
US17/279,216 US11836942B2 (en) 2018-09-28 2019-09-13 Information integration method, information integration device, and information integration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185025A JP7064144B2 (ja) 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム

Publications (2)

Publication Number Publication Date
JP2020057043A JP2020057043A (ja) 2020-04-09
JP7064144B2 true JP7064144B2 (ja) 2022-05-10

Family

ID=69952676

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185025A Active JP7064144B2 (ja) 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム

Country Status (3)

Country Link
US (1) US11836942B2 (ja)
JP (1) JP7064144B2 (ja)
WO (1) WO2020066698A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7121277B2 (ja) * 2018-09-28 2022-08-18 日本電信電話株式会社 情報同期装置、情報同期方法及び情報同期プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282979A (ja) 2008-05-20 2009-12-03 Ricoh Co Ltd 画像処理装置及び画像処理方法
WO2017130639A1 (ja) 2016-01-28 2017-08-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6641731B2 (ja) * 2015-06-05 2020-02-05 ソニー株式会社 送信装置及び送信方法、並びに受信装置及び受信方法
US10839573B2 (en) * 2016-03-22 2020-11-17 Adobe Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282979A (ja) 2008-05-20 2009-12-03 Ricoh Co Ltd 画像処理装置及び画像処理方法
WO2017130639A1 (ja) 2016-01-28 2017-08-03 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
南 憲一 外3 名,解説 放送・通信 スポーツやライブイベントを離れた場所でもあたかもそこにいるかのように楽しめるイマーシブテレプレゼンス技術の研究開発,画像ラボ 第28巻 第10号,日本,日本工業出版株式会社,2017年10月10日,第28 巻 第10 号,pp. 7-13,ISSN 0915-6755

Also Published As

Publication number Publication date
WO2020066698A1 (ja) 2020-04-02
US20220028105A1 (en) 2022-01-27
US11836942B2 (en) 2023-12-05
JP2020057043A (ja) 2020-04-09

Similar Documents

Publication Publication Date Title
US8154616B2 (en) Data processing apparatus and method, and recording medium
US11640694B2 (en) 3D model reconstruction and scale estimation
JP6669063B2 (ja) 画像処理装置および方法
US20130095920A1 (en) Generating free viewpoint video using stereo imaging
JP7058277B2 (ja) 再構成方法および再構成装置
CN102395036A (zh) 用于提供3d增强现实图像的设备和方法
JP2019101795A (ja) 生成装置、生成方法及びプログラム
US11803980B2 (en) Method for generating layered depth data of a scene
JP6216169B2 (ja) 情報処理装置、情報処理方法
WO2018216341A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2019028393A1 (en) METHODS AND SYSTEMS FOR DETECTING AND ANALYZING A REGION OF INTEREST FROM MULTIPLE VIEWPOINTS
KR20130137076A (ko) 실시간 관심 지역을 나타내는 3차원 지도를 제공하는 장치 및 방법
US11430178B2 (en) Three-dimensional video processing
JP7064144B2 (ja) 情報統合方法、情報統合装置、及び情報統合プログラム
JP7068584B2 (ja) 情報統合方法、情報統合装置、及び情報統合プログラム
US11830213B2 (en) Remote measurements from a live video stream
KR101747800B1 (ko) 입체음향 생성 장치 및 이를 이용한 입체 컨텐츠 생성 시스템
KR102298047B1 (ko) 디지털 콘텐츠를 녹화하여 3d 영상을 생성하는 방법 및 장치
JPH10255071A (ja) 画像処理システム
KR20230067307A (ko) 아바타를 이용한 3차원 모델링 공간에서 이동 방법
JP2023047882A (ja) 画像生成装置、画像生成方法およびプログラム
JP2024062512A (ja) 情報処理装置、移動デバイス、システム、制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7064144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150