JP2020057046A - 情報統合方法、情報統合装置、及び情報統合プログラム - Google Patents

情報統合方法、情報統合装置、及び情報統合プログラム Download PDF

Info

Publication number
JP2020057046A
JP2020057046A JP2018185037A JP2018185037A JP2020057046A JP 2020057046 A JP2020057046 A JP 2020057046A JP 2018185037 A JP2018185037 A JP 2018185037A JP 2018185037 A JP2018185037 A JP 2018185037A JP 2020057046 A JP2020057046 A JP 2020057046A
Authority
JP
Japan
Prior art keywords
position information
information
rectangle
information integration
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018185037A
Other languages
English (en)
Other versions
JP7068584B2 (ja
Inventor
馨亮 長谷川
Kyosuke Hasegawa
馨亮 長谷川
正人 小野
Masato Ono
正人 小野
功次 難波
Koji Nanba
功次 難波
高秀 星出
Takahide Hoshiide
高秀 星出
徹也 山口
Tetsuya Yamaguchi
徹也 山口
朗 小野
Akira Ono
朗 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2018185037A priority Critical patent/JP7068584B2/ja
Priority to US17/280,264 priority patent/US12014516B2/en
Priority to PCT/JP2019/036127 priority patent/WO2020066699A1/ja
Publication of JP2020057046A publication Critical patent/JP2020057046A/ja
Application granted granted Critical
Publication of JP7068584B2 publication Critical patent/JP7068584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

【課題】伝送先で行うオブジェクト表現に対する影響を軽減する。【解決手段】情報統合装置1の位置情報受信部11は、複数のセンサにより複数の方面からそれぞれ計測され、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域に関する方面毎の位置情報を受信し、位置情報統合部13は、当該方面毎の位置情報を用いて、オブジェクトを囲む最小の矩形又は最大の矩形を算出する。【選択図】図2

Description

本発明は、空間から空間へ伝送するオブジェクトの位置情報を統合する技術に関し、特にオクルージョンの生じたオブジェクト領域を示す矩形を求める。
現在、競技空間をまるごとリアルタイムに伝送する技術が研究開発されている。この技術は、現地会場で取得した複数のセンサ情報を利用用途に応じてリアルタイムに統合・加工しつつ、同会場で取得した映像・音声に同期させて伝送する技術である。
図12は、当該技術を実現するシステムの一例について、全体イメージを示す図である。伝送装置100は、競技会場の被写界深度計測センサ31と位置情報トラッキングセンサ32からセンサ情報を受信して、被写体であるオブジェクトの3次元位置情報を取得して統合等するとともに、同会場の撮像装置33と集音装置34からメディア情報を受信し、時刻情報(タイムスタンプ)に基づきオブジェクトの3次元位置情報とメディア情報を同期して、遠隔会場の映像制御装置51と音声制御装置52に配信する。
そして、映像制御装置51は、例えば、メディア情報の映像データを裸眼3D表示スクリーン53に出力して虚像表示パネル54に表示し、オブジェクトの3次元位置情報を用いて映像素材の位置・サイズを制御する。音声制御装置52は、例えば、メディア情報の音声データを競技音用と歓声音用の各波面合成用スピーカアレイ55,56にそれぞれ出力し、オブジェクトの3次元位置情報を用いて音声素材の位置を制御する。
これにより、遠隔会場で再現する映像素材・音声素材の位置・サイズを競技会場のオブジェクトの動きに応じて制御すること、例えば利用用途に応じてリアルタイムにオブジェクトを加工・変換することが可能となり、奥行表現や音像定位等といった様々な再現表現を高臨場感で時間的・空間的に同期して行うことができる。
柿沼、外4名、"機械学習を用いた4Kリアルタイム被写体抽出フレームワーク"、映像情報メディア学会、冬季大会、2017年、15B-2 石井、外3名、"kirari! Tracker : LiDARと深層学習エンジンを用いたリアルタイム特定人物追跡システムの検討"、映像情報メディア学会、冬季大会、2017年、15B-3
被写界深度計測センサ31と位置情報トラッキングセンサ32は、通常、オブジェクトを一つの視点のみから計測する。しかし、オブジェクトを一つの視点のみから計測する場合、計測されるセンサ情報の内容としては十分でないため、オブジェクトの位置情報の精度が粗くなり、映像素材と音声素材の位置・サイズを適切に制御することが難しく、映像制御装置51と音声制御装置52で制御するオブジェクトの表現に影響が生じる。
例えば、図13に示すように、A面から見ると2人の選手は重なって見えるが、B面から見ると2人の選手は独立して見えるので、オクルージョンの発生時には、重なって見えるオブジェクトを判別できず、奥側に隠れたオブジェクトの表現が困難となる。また、図14の右下図に示すように、左下図と比較して、オブジェクトの位置情報を表す矩形の精度が十分に得られない場合、オブジェクトの奥行表現が破綻してしまう。例えば、矩形に人物以外の領域が多く含まれると、その余分な部分も含めて人物と認識して奥行表現処理が施されてしまい、床面に対する人物の接地感等が破綻する。
本発明は、上記事情を鑑みてなされたものであり、伝送先で行うオブジェクト表現に対する影響を軽減することを目的とする。
本発明の情報統合方法は、第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置で行う情報統合方法において、情報統合装置が、複数のセンサにより複数の方面からそれぞれ計測され、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域に関する方面毎の位置情報を受信する第1のステップと、前記方面毎の位置情報を用いて、前記オブジェクトを囲む最小の矩形又は最大の矩形を、前記オブジェクトを囲む矩形として算出する第2のステップと、を行うことを特徴とする。
上記情報統合方法において、前記第2のステップでは、前記最小の矩形を算出する場合、共有座標系での前記オブジェクトの領域の方面毎の位置座標を算出し、所定軸の座標において、前記オブジェクトの領域の各方面に係る複数の最大値の中で最小の値を除いた値のうち最小の値を前記オブジェクトの最大値とし、前記オブジェクトの領域の各方面に係る複数の最小値の中で最大の値を除いた値のうち最大の値を前記オブジェクトの最小値とする矩形を、前記オブジェクトを囲む矩形として算出することを特徴とする。
上記情報統合方法において、前記第2のステップでは、求めた前記オブジェクトの最大値と最小値の大小関係に矛盾がある場合、前記最大の矩形を、前記オブジェクトを囲む矩形として算出することを特徴とする。
上記情報統合方法において、前記複数の方面は、前記オブジェクトを俯瞰する方面を含むことを特徴とする。
本発明の情報統合装置は、第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置に含まれる情報統合装置において、複数のセンサにより複数の方面からそれぞれ計測され、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域に関する方面毎の位置情報を受信する位置情報受信部と、前記方面毎の位置情報を用いて、前記オブジェクトを囲む最小の矩形又は最大の矩形を、前記オブジェクトを囲む矩形として算出する位置情報統合部と、を備えることを特徴とする。
本発明の情報統合プログラムは、上記情報統合方法をコンピュータに実行させることを特徴とする。
本発明によれば、伝送先で行うオブジェクト表現に対する影響を軽減できる。
伝送装置の機能例を示す図である。 情報統合装置の機能例を示す図である。 手法1の処理フロー例を示す図である。 グローバル座標系でのオブジェクトの位置座標例を示す図である。 最小矩形の算出例を示す図である。 オブジェクト3のXmaxの算出時の参照図である。 オブジェクト3のXminの算出時の参照図である。 手法2の処理フロー例を示す図である。 最大矩形の算出例を示す図である。 オブジェクト3の最大矩形の算出時の参照図である。 手法3の処理フロー例を示す図である。 伝送装置による同期伝送のイメージを示す図である。 課題を説明する際の参照図である。 課題を説明する際の参照図である。
以下、本発明を実施する一実施の形態について図面を用いて説明する。
<伝送装置の構成>
まず、伝送装置の構成について説明する。図1は、伝送装置100が備える機能の例を示す図である。伝送装置100は、競技会場(第1空間)内のオブジェクトに関するセンサ情報とメディア情報を同期して遠隔会場(第2空間)に伝送する装置である。
伝送装置100は、競技会場からセンサ情報とメディア情報を受ける受信側と、センサ情報に基づき求めたオブジェクト毎の3次元位置情報とメディア情報を遠隔会場に配信する配信側とで構成される。受信側と配信側の間は、伝送路により相互通信可能に接続されている。
受信側は、図1に示すように、オブジェクト位置情報配信機能101と、メディア情報エンコード機能102と、位置情報・メディア情報括り付け管理機能103と、で構成される。
オブジェクト位置情報配信機能101は、複数のセンサにより得た位置情報を受信し、これを統合して被写体の三次元位置を特定可能な位置情報を生成して、配信側に伝送する機能を備える。複数のセンサにより得た位置情報とは、例えば、被写界深度計測センサ31で得た被写体の奥行き方向の位置データ(例えばDepthマップ)と、位置情報トラッキングセンサ32により得た被写体の二次元的な位置情報(トラッキングデータ)である。
Depthマップとは、オブジェクト領域のみを切り出し、当該オブジェクト領域外をマスクしたデータである。また、Depthマップとは、ステレオカメラで撮影した画像間のピクセル毎のズレの大きさであり、視差情報から3角測量法により距離情報に変換される。Depthマップは、視差マップとも呼ばれ、距離情報に相当する。非特許文献1には、機械学習を用いた被写体抽出を行う方法が記載されており、その際に被写体とカメラとの視差・深度を計算した結果がDepthマップとして得られる。
トラッキングデータとは、ラベルと当該ラベルに紐付いたオブジェクトの位置情報である。ラベルは、オブジェクトを識別するために用いられ、音源の特定やオブジェクトのプロファイルとの紐付けに活用される。非特許文献2には、LiDARと深層学習エンジンを用いてオブジェクトのトラッキングを行う方法が記載されており、被写体の3次元位置が矩形で表されている。
メディア情報エンコード機能102は、撮像装置33と集音装置34が出力するメディア情報を受信し、メディア情報の映像データと音声データをそれぞれエンコード処理して配信側に伝送する機能を備える。
位置情報・メディア情報括り付け管理機能103は、時刻情報に基づき、オブジェクト位置情報配信機能101が処理したオブジェクトの位置情報と、メディア情報エンコード機能102が処理したメディア情報とを関連付けて管理する機能を備える。
配信側は、図1に示すように、オブジェクト位置情報受信機能104と、メディア情報デコード機能105と、オブジェクト位置情報統合機能106と、で構成される。
オブジェクト位置情報受信機能104は、オブジェクト位置情報配信機能101から伝送された位置情報を受信して保持し、映像制御装置51又は音声制御装置52からの位置情報取得要求に応じて保持した位置情報を配信する機能を備える。配信方法としては、例えば、Websocketインタフェイスによるpush配信、MIDIインタフェイスによるバッファリングを伴う配信を用いる。オブジェクト位置情報受信機能104は、位置情報取得要求の受付時にフレームレートの指定を受け、接続毎に要求された位置情報を指定フレームレートに変換して配信する。
メディア情報デコード機能105は、メディア情報エンコード機能102から伝送されたメディア情報を受信して、映像制御装置51及び音声制御装置52に配信する機能を備える。
オブジェクト位置情報統合機能106は、オブジェクトを複数の方向から計測することで得られた複数視点の位置情報を時刻情報で紐付けて管理し、複数視点の位置情報を結合することで精度の高い位置情報を生成して保持し、映像制御装置51又は音声制御装置52からの位置情報取得要求に応じて保持した高精度の位置情報を配信する機能を備える。オブジェクト位置情報統合機能106が用いている接続インタフェイスは、オブジェクト位置情報受信機能104と同一であり、WebsocketインタフェイスやMIDIインタフェイス等に対応する。
以上が伝送装置100の備える機能の例である。センサ情報に着目すると、伝送装置100は、次のように動作する。例えば、被写界深度計測センサ31と位置情報トラッキングセンサ32の組を4つ用意して競技会場の東西南北に配置した場合、オブジェクト位置情報配信機能101は、4つの組でそれぞれ計測されたセンサ情報を受信して伝送する。オブジェクト位置情報受信機能104は、組毎のオブジェクトの位置情報を受信して保持し、位置情報取得要求に応じて配信する。オブジェクト位置情報統合機能106は、各組の位置情報を結合することで精度の高い位置情報を生成し、位置情報取得要求に応じて配信する。
<発明の概要>
本実施形態では、本発明の課題を解決するため、被写界深度計測センサ31と位置情報トラッキングセンサ32(以下、センサ)を競技空間内の異なる位置にそれぞれ配置し、各センサで同一オブジェクトの位置をそれぞれ計測し、各センサからのセンサ情報を組み合わせることにより、オブジェクト領域の位置を適切に表現する矩形を算出する。すなわち、各視点(アングル)で欠落した位置情報を補い、又は不要な位置情報を削除することにより、映像制御装置51と音声制御装置52で制御するオブジェクトの表現に生じる影響を軽減する。
具体的には、オブジェクトが重なる場合を考慮したオクルージョン考慮モード(手法1)として、各面でのオブジェクトの幅と奥行情報からオブジェクトの最も狭い矩形を算出する。手法1の実行有無は、予め用意された設定ファイルで指定可能である。また、オブジェクトが重ならない場合を考慮したオクルージョン未考慮モード(手法2)として、各面の矩形が囲む最大の矩形を算出する。更に、センサ情報が不足する場合、手法1で得られたデータに矛盾がある場合、手法1が実行されない場合等、手法1の実行が適当でない場合には、手法2を実行する(手法3)。
<情報統合装置の構成>
そこで、本実施形態では、オブジェクト位置情報統合機能106に情報統合装置1を搭載する。図2は、情報統合装置1の機能ブロックの例を示す図である。情報統合装置1は、位置情報受信部11と、位置情報記憶部12と、位置情報統合部13と、を備えて構成される。情報統合装置1は、オブジェクト位置情報配信機能101に搭載してもよい。
位置情報受信部11は、複数のセンサにより複数の方面からそれぞれ計測され、オブジェクトの領域に関する方面毎の位置情報を受信する機能を備える。特に本実施形態では、位置情報受信部11は、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域、つまり、オクルージョンの生じたオブジェクト領域の位置を示す位置情報を各センサからそれぞれ受信する。
位置情報記憶部12は、位置情報受信部11が受信した方面毎の位置情報を読み出し可能に記憶する機能を備える。
位置情報統合部13は、手法1として、方面毎の位置情報を用いて、オブジェクトを囲む最小の矩形を、オブジェクトを囲む矩形として算出する機能を備える。
また、位置情報統合部13は、手法2として、方面毎の位置情報を用いて、オブジェクトを囲む最大の矩形を、オブジェクトを囲む矩形として算出する機能を備える。
また、位置情報統合部13は、手法1を用いてオブジェクトを囲む最小の矩形を算出する場合、共有座標系でのオブジェクトの領域の方面毎の位置座標を算出し、所定軸の座標において、オブジェクトの領域の各方面に係る複数の最大値の中で最小の値を除いた値のうち最小の値をオブジェクトの最大値とし、オブジェクトの領域の各方面に係る複数の最小値の中で最大の値を除いた値のうち最大の値をオブジェクトの最小値とする矩形を、オブジェクトを囲む矩形として算出する機能を備える。
また、位置情報統合部13は、手法3として、オブジェクトを囲む最小の矩形を算出する手法1を行い、求めたオブジェクトの最大値と最小値の大小関係に矛盾がある場合、オブジェクトを囲む最大の矩形を、オブジェクトを囲む矩形として算出する手法2を行う機能(手法1から手法2へ移行する機能)を備える。
また、位置情報統合部13は、1方面の位置情報のみを受信して2方面以上の位置情報を受信しない等、センサ情報が不足する場合、オブジェクトを囲む最小の矩形を算出する手法1が実行されない場合、オブジェクトを囲む最大の矩形を算出する手法2を行う機能を備える。
なお、方面とは、オブジェクトを中心にして例えば東西南北の4方面のみに限らず、2面以上の方面であればよい。また、中心のオブジェクトから見てやや斜め上方向の位置等、オブジェクトを俯瞰する方面でもよい。
上述した情報統合装置1は、CPU、メモリ、入出力インタフェイス等を備えたコンピュータで実現できる。また、情報統合装置1としてコンピュータを機能させるための情報統合プログラム、情報統合プログラムの記憶媒体を作成することも可能である。
<情報統合装置の動作(手法1)>
次に、情報統合装置1の手法1の動作について説明する。位置情報統合部13は、各センサから受信した位置情報を統合することで、オブジェクトを囲む最小の矩形(の端点の位置)を算出する。入力される位置情報はある方向から見たオブジェクト毎の位置を特定できるデータであれば任意のものが利用できるが、ここでは、Depthマップを用いる場合を例に説明する。Depthマップに限らず、トラッキングデータ等、時刻毎のオブジェクトの二次元又は三次元的な位置座標を表現できるデータであれば何でも良い。図3は、位置情報統合部13で行う手法1の処理フローを示す図である。手法1は、オブジェクトを囲む最小の矩形を算出する手法である。
ステップS101;
まず、位置情報統合部13は、オブジェクト領域に関する方面毎の位置情報を位置情報記憶部12から読み出し、読み出した方面毎の位置情報を用いて、各方面での幅及び奥行情報に対応する共有座標系での位置座標を算出する。以下、ステップS101について詳述する。
例えば、位置情報統合部13は、まず、Depthマップに含まれるオブジェクト領域からオブジェクトの幅(横幅、縦幅)を算出する(ステップS101a)。オブジェクト領域の輪郭に関する精度は高いので、ローカル座標系でのオブジェクト領域の輪郭の最小値と最大値(オブジェクト外形領域点群のXmin,Xmax,Ymin,Ymax;Xは横軸、Yは縦軸、言い換えれば、オブジェクト領域の端点の位置座標)を取得してオブジェクトの幅とする。
例えば、位置情報統合部13は、次に、Depthマップの深度情報又はトラッキングデータの奥行情報からオブジェクトの奥行を算出する(ステップS101b)。当該深度情報又は奥行情報はオブジェクト領域内でバラツキが大きく、利用シーンとして高い精度は求められないので、Depthマップ又はトラッキングデータから1つの値のみを取得してオブジェクトまでの奥行とする。例えば、深度値の最頻値を奥行とする。
ここで、ステップS101a,S101bについて説明する。例えば、Depthマップの深度値の最大値及び最小値からZ値(奥行)を求め、Depthマップの輪郭,奥行,内部パラメータより、輪郭座標のX値(幅),Y値(高さ)を算出する(Depthマップの最大/最小値方式)。このとき、Z値(奥行)については、Depthマップの深度値の最頻値を用いてもよい(Depthマップの最頻値方式)。Depthマップの最大/最小値方式と最頻値方式は、選択可能である。
また、例えば、トラッキングデータのローカル座標系をZ値(奥行)として使用し、Depthマップの輪郭,奥行,内部パラメータより、枠線座標のX値(幅),Y値(高さ)を算出する(トラッキングデータ奥行方式)。また、トラッキングデータにのみに対して、ローカル座標系をグローバル座標系に変換し、矩形から重心点を生成し、時間サブサンプリング処理した値を用いてもよい(トラッキングスルー方式)。トラッキングデータ奥行方式とトラッキングスルー方式は、選択可能である。
ステップS101bの後、位置情報統合部13は、ステップS101a,S101bで算出したローカル座標系の幅及び奥行情報を、全方面で共通の共有座標系であるグローバル座標系に変換する(ステップS101c)。
これにより、グローバル座標系におけるオブジェクトの領域の位置座標(Xi,min,Xi,max,Yi,min,Yi,max,Zi,min,Zi,max)が算出される。iは、各方面を示す識別子である。
図4は、グローバル座標系におけるオブジェクトの位置座標の例を示す図である。図4の水平方向をX軸、鉛直方向をY軸、奥行方向をZ軸とする。4つのオブジェクト1〜4に対して、4つのセンサ35A〜35Dが東西南北に設置されている。各センサ35A〜35Dから見えるオブジェクトnを表すラベルをLabelnとする。オクルージョンにより複数のオブジェクトが重なって見える場合には、Labelm,nというように、重なって見えるオブジェクト全てに対応する1つのラベルを重なって見えるオブジェクト領域全体に付与する。
オブジェクト3を例に説明する。A面のセンサ35Aから見ると、オブジェクト3はオブジェクト4に重なって見えるため、Label3,4とする。Label3,4の左端がXA,minとなり、Label3,4の右端がXA,maxとなる。奥行方向については、上述したように1つの値のみを取得するため、例えば、センサ35Aから見てオブジェクト3の最も手前までの位置がZA,min,ZA,maxとなる。
B面のセンサ35Bからオブジェクト3を見ると、オブジェクト3はオブジェクト1に重なって見えるため、Label1,3とする。Label1,3の左端がZB,minとなり、Label1,3の右端がZB,maxとなる。水平方向については、センサ35Bから見てオブジェクト3の最も手前までの位置がXB,min,XB,maxとなる。
なお、グローバル座標系の位置座標を算出する場合、位置情報統合部13は、センサから出力された全フレーム分のセンサ情報ではなく、時間サンプリングにより、例えば4フレームのうち1フレームのみのセンサ情報を用いて位置座標を算出してもよい。
ステップS102;
次に、位置情報統合部13は、ステップS101で算出したグローバル座標系でのオブジェクトの位置座標(Xi,min,Xi,max,Yi,min,Yi,max,Zi,min,Zi,max)を用いて、オブジェクトを囲む最小の矩形を算出する。以下、ステップS102について詳述する。
各オブジェクト1〜4を囲む矩形は、オクルージョンを考慮し、A〜D各面でのオブジェクトの幅と奥行情報から最も小さい矩形を算出する。具体的には、位置情報統合部13は、式(1)〜式(6)を用いて、オブジェクトを囲む最小の矩形(Xmin,Xmax,Ymin,Ymax,Zmin,Zmax)を算出する。
max=min(Xi,maxの中で最小の値を除くX) ・・・式(1)
min=max(Xi,minの中で最大の値を除くX) ・・・式(2)
max=min(Zi,maxの中で最小の値を除くZ) ・・・式(3)
min=max(Zi,minの中で最大の値を除くZ) ・・・式(4)
max=min(Yi,max) ・・・式(5)
min=max(Yi,min) ・・・式(6)
これにより、図5に示すように、各オブジェクト1〜4をそれぞれ囲む最小の矩形Obj1〜Obj4がそれぞれ算出される。なお、オブジェクト1を囲む最小の矩形Obj1については、オブジェクト1,3がオクルージョン状態にあり、オブジェクト1の一辺(上辺)の位置を特定する位置情報がないので、オブジェクト1の一部に余スペースが含まれる状態で算出される。
オブジェクト3を例に最小の矩形の算出方法を説明する。
図6に示すように、A面のセンサ35Aから見ると、A面(Label3,4)の右端がXA,maxとなる。C面のセンサ35Cから見ると、C面(Label3,4)の左端がXC,maxとなる。一方、B面のセンサ35Bから見ると、B面(Label1,3)に対応する位置がXB,maxとなる。D面のセンサ35Dから見ると、D面(Label1,3)に対応する位置がXD,maxとなる。これらのXA,max,XB,max,XC,max,XD,maxを式(1)にあてはめると、最小の値であるXD,maxを除いた値のうち、最小の値であるXB,maxが、オブジェクト3のX軸方向のXmaxとなる。
また、図7に示すように、A面のセンサ35Aから見ると、A面(Label3,4)の左端がXA,minとなる。C面のセンサ35Cから見ると、C面(Label3,4)の右端がXC,minとなる。一方、B面のセンサ35Bから見ると、B面(Label1,3)に対応する位置がXB,minとなる。D面のセンサ35Dから見ると、D面(Label1,3)に対応する位置がXD,minとなる。これらのXA,min,XB,min,XC,min,XD,minを式(2)にあてはめると、最大の値であるXB,minを除いた値のうち、最大の値であるXA,min又はXC,minが、オブジェクト3のX軸方向のXminとなる。
Z軸方向のZmaxとZminについても式(3)と式(4)を用いて同様に計算する。Y軸方向のYmaxについては、式(5)に従い、YA,max,YB,max,YC,max,YD,maxの中で最小の値をYmaxとする。Y軸方向のYminについては、式(6)に従い、YA,min,YB,min,YC,min,YD,minの中で最大の値をYminとする。
その結果、オクルージョンが生じたオブジェクトについて、可能な限りオブジェクトを囲む最小の矩形が算出される。なお、式(1)〜式(4)で「最小の値を除く」「最大の値を除く」とする理由は、グローバル座標系において最もX座標が小さい又は大きいセンサ35で算出したXi,max又はXi,minは、オブジェクトの矩形としては不適であるからである。
以上より、手法1によれば、オブジェクトに関するA〜D各方面での幅及び奥行情報を用いて、オブジェクトを囲む最小の矩形を算出するので、重なって見えるオブジェクトを判別可能となり、奥側に隠れたオブジェクトを表現できる。その結果、映像制御装置51と音声制御装置52で行われるオブジェクト表現に対する影響を軽減できる。
<情報統合装置の動作(手法2)>
次に、情報統合装置1の手法2の動作について説明する。図8は、位置情報統合部13で行う手法2の処理フローを示す図である。手法2は、オブジェクトを囲む最大の矩形を算出する手法である。
ステップS201;
まず、位置情報統合部13は、ステップS101と同様に、オブジェクト領域に関する方面毎の位置情報を位置情報記憶部12から読み出し、読み出した方面毎の位置情報を用いて、各方面での幅及び奥行情報に対応するグローバル座標系での位置座標を算出する。
ステップS202;
次に、位置情報統合部13は、ステップS201で算出したグローバル座標系でのオブジェクトの位置座標(Xi,min,Xi,max,Yi,min,Yi,max,Zi,min,Zi,max)を用いて、オブジェクトを囲む最大の矩形を算出する。以下、ステップS202について詳述する。
各オブジェクト1〜4を囲む矩形は、オクルージョンが生じている場合であっても、オクルージョンを考慮することなく、A〜D各面でのオブジェクトの幅と奥行情報から最も大きい矩形を算出する。具体的には、位置情報統合部13は、式(7)〜式(12)を用いて、オブジェクトを囲む最大の矩形(Xmin,Xmax,Ymin,Ymax,Zmin,Zmax)を算出する。
max=max(XA,max,XC,max) ・・・式(7)
min=min(XA,min,XC,min) ・・・式(8)
max=max(ZB,max,ZD,max) ・・・式(9)
min=min(ZB,min,ZD,min) ・・・式(10)
max=max(YA,max,YB,max,YC,max,YD,max) ・・・式(11)
min=min(YA,min,YB,min,YC,min,YD,min) ・・・式(12)
これにより、図9に示すように、各オブジェクト1〜4をそれぞれ囲む最大の矩形Obj1〜Obj4がそれぞれ算出される。
オブジェクト3を例に最大の矩形の算出方法を説明する。
図10に示すように、A面のセンサ35Aから見ると、A面(Label3,4)の右端がXA,maxとなる。C面のセンサ35Cから見ると、C面(Label3,4)の左端がXC,maxとなる。これらのXA,max,XB,maxを式(7)にあてはめると、XA,maxとXC,maxの中で最大の値が、オブジェクト3のX軸方向のXmaxとなる。
また、図10に示すように、A面のセンサ35Aから見ると、A面(Label3,4)の左端がXA,minとなる。C面のセンサ35Cから見ると、C面(Label3,4)の右端がXC,minとなる。これらのXA,min,XB,minを式(8)にあてはめると、XA,minとXC,minの中で最小の値が、オブジェクト3のX軸方向のXminとなる。
また、図10に示すように、B面のセンサ35Bから見ると、B面(Label1,3)の右端がXB,maxとなる。D面のセンサ35Dから見ると、D面(Label1,3)の左端がXD,maxとなる。これらのXB,max,XD,maxを式(9)にあてはめると、XB,maxとXD,maxの中で最大の値が、オブジェクト3のZ軸方向のZmaxとなる。
また、図10に示すように、B面のセンサ35Bから見ると、B面(Label1,3)の左端がXB,minとなる。D面のセンサ35Dから見ると、D面(Label1,3)の右端がXD,minとなる。これらのXB,min,XD,minを式(10)にあてはめると、XB,minとXD,minの中で最小の値が、オブジェクト3のZ軸方向のZminとなる。なお、図10では、例えばXB,minとXD,minが互いに一致する例を示しているが、B面のセンサ35BとD面のセンサ35Dの位置によっては、各センサから見えるオブジェクト1,3の重なり具合が異なるので、例えばXB,min<XD,minの場合、Zmin=XB,minとなる。
以上より、手法2によれば、オブジェクトに関するA〜D各方面での幅及び奥行情報を用いて、オブジェクトを囲む最大の矩形を算出するので、1つのオブジェクトに対してバラバラであったA〜D各方面の各センサからの位置情報が1つの矩形として一意に統合され、個々のオブジェクトを容易に判別できる。その結果、映像制御装置51と音声制御装置52で行われるオブジェクト表現に対する影響を軽減できる。
<情報統合装置の動作(手法3)>
次に、情報統合装置1の手法3の動作について説明する。図11は、位置情報統合部13で行う手法3の処理フローを示す図である。手法3は、通常は手法1を用いてオブジェクトを囲む最小の矩形を算出し、手法1で算出したオブジェクトの座標データに矛盾するデータが含まれる場合、手法2を用いてオブジェクトを囲む最大の矩形を算出する手法である。
ステップS301;
まず、位置情報統合部13は、ステップS101と同様に、オブジェクト領域に関する方面毎の位置情報を位置情報記憶部12から読み出し、読み出した方面毎の位置情報を用いて、各方面での幅及び奥行情報に対応するグローバル座標系での位置座標を算出する。
ステップS302;
次に、位置情報統合部13は、ステップS101と同様に、ステップS301で算出したグローバル座標系でのオブジェクトの位置座標(Xi,min,Xi,max,Yi,min,Yi,max,Zi,min,Zi,max)を用いて、オブジェクトを囲む最小の矩形を算出する。
ステップS303;
次に、位置情報統合部13は、ステップS302で算出したオブジェクトの位置座標を参照し、Xmin>Xmax、Ymin>Ymax、又はZmin>Zmaxであるか否かを判定する。これらの不等式のうち1つでも成立する場合、ステップS304へ進む。一方、いずれも成立しない場合、処理を終了する。
ステップS304;
位置情報統合部13は、ステップS302で算出したオブジェクトの位置座標に矛盾が生じたと判定し、オブジェクトを囲む最大の矩形を算出する。
その他、位置情報統合部13は、ステップS301のタイミングで、1方面の位置情報のみを受信して2方面以上の位置情報を受信しない場合、ステップS302,S303をスキップしてステップS304へ進むようにしてもよい。また、位置情報統合部13は、位置情報統合装置1の設定ファイルに手法1が指定されていない場合、手法2を用いてオブジェクトの位置座標を算出するようにしてもよい。
以上より、手法3によれば、通常は手法1を用いてオブジェクトを囲む最小の矩形を算出し、手法1で算出したオブジェクトの座標データに矛盾するデータが含まれる場合等には、手法2を用いてオブジェクトを囲む最大の矩形を算出するので、少なくとも手法2によりオブジェクトを囲む最大の矩形が算出される。それ故、1つのオブジェクトに対してバラバラであったA〜D各方面の各センサからの位置情報が1つの矩形として一意に統合され、個々のオブジェクトを容易に判別できる。その結果、映像制御装置51と音声制御装置52で行われるオブジェクト表現に対する影響を軽減できる。
<効果>
本実施形態によれば、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域に関する方面毎の位置情報を用いて、オブジェクトを囲む最小の矩形を算出するので、重なって見えるオブジェクトを判別可能となり、奥側に隠れたオブジェクトを表現でき、オブジェクト表現に対する影響を軽減できる。
また、本実施形態によれば、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域に関する方面毎の位置情報を用いて、オブジェクトを囲む最大の矩形を算出するので、1つのオブジェクトに対してバラバラであった各方面の各センサからの位置情報が1つの矩形として一意に統合され、個々のオブジェクトを容易に判別でき、オブジェクト表現に対する影響を軽減できる。
また、本実施形態によれば、オブジェクトを囲む最小の矩形を算出する手法1を行い、求めたオブジェクトの最大値と最小値の大小関係に矛盾がある場合、最大の矩形を算出するので、少なくとも手法2によりオブジェクトを囲む最大の矩形が算出されることから、1つのオブジェクトに対してバラバラであった各方面の各センサからの位置情報が1つの矩形として一意に統合され、個々のオブジェクトを容易に判別でき、オブジェクト表現に対する影響を軽減できる。
1…情報統合装置
11…位置情報受信部
12…位置情報記憶部
13…位置情報統合部
31…被写界深度計測センサ
32…位置情報トラッキングセンサ
33…撮像装置
34…集音装置
51…映像制御装置
52…音声制御装置
53…裸眼3D表示スクリーン
54…虚像表示パネル
55…波面合成用スピーカアレイ(競技音用)
56…波面合成用スピーカアレイ(歓声音用)
100…伝送装置
101…オブジェクト位置情報配信機能
102…メディア情報エンコード機能
103…位置情報・メディア情報括り付け管理機能
104…オブジェクト位置情報受信機能
105…メディア情報デコード機能
106…オブジェクト位置情報統合機能

Claims (6)

  1. 第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置で行う情報統合方法において、
    情報統合装置が、
    複数のセンサにより複数の方面からそれぞれ計測され、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域に関する方面毎の位置情報を受信する第1のステップと、
    前記方面毎の位置情報を用いて、前記オブジェクトを囲む最小の矩形又は最大の矩形を、前記オブジェクトを囲む矩形として算出する第2のステップと、
    を行うことを特徴とする情報統合方法。
  2. 前記第2のステップでは、
    前記最小の矩形を算出する場合、共有座標系での前記オブジェクトの領域の方面毎の位置座標を算出し、所定軸の座標において、前記オブジェクトの領域の各方面に係る複数の最大値の中で最小の値を除いた値のうち最小の値を前記オブジェクトの最大値とし、前記オブジェクトの領域の各方面に係る複数の最小値の中で最大の値を除いた値のうち最大の値を前記オブジェクトの最小値とする矩形を、前記オブジェクトを囲む矩形として算出することを特徴とする請求項1に記載の情報統合方法。
  3. 前記第2のステップでは、
    求めた前記オブジェクトの最大値と最小値の大小関係に矛盾がある場合、前記最大の矩形を、前記オブジェクトを囲む矩形として算出することを特徴とする請求項2に記載の情報統合方法。
  4. 前記複数の方面は、
    前記オブジェクトを俯瞰する方面を含むことを特徴とする請求項1乃至3のいずれかに記載の情報統合方法。
  5. 第1空間内のオブジェクトに関するメディア情報とセンサ情報を同期して第2空間に伝送する伝送装置に含まれる情報統合装置において、
    複数のセンサにより複数の方面からそれぞれ計測され、何れかの方面においてオブジェクト同士が重なるオブジェクトについて、当該オブジェクトの領域に関する方面毎の位置情報を受信する位置情報受信部と、
    前記方面毎の位置情報を用いて、前記オブジェクトを囲む最小の矩形又は最大の矩形を、前記オブジェクトを囲む矩形として算出する位置情報統合部と、
    を備えることを特徴とする情報統合装置。
  6. 請求項1乃至4のいずれかに記載の情報統合方法をコンピュータに実行させることを特徴とする情報統合プログラム。
JP2018185037A 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム Active JP7068584B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018185037A JP7068584B2 (ja) 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム
US17/280,264 US12014516B2 (en) 2018-09-28 2019-09-13 Information integration method, information integration device, and information integration program
PCT/JP2019/036127 WO2020066699A1 (ja) 2018-09-28 2019-09-13 情報統合方法、情報統合装置、及び情報統合プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018185037A JP7068584B2 (ja) 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム

Publications (2)

Publication Number Publication Date
JP2020057046A true JP2020057046A (ja) 2020-04-09
JP7068584B2 JP7068584B2 (ja) 2022-05-17

Family

ID=69952113

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018185037A Active JP7068584B2 (ja) 2018-09-28 2018-09-28 情報統合方法、情報統合装置、及び情報統合プログラム

Country Status (3)

Country Link
US (1) US12014516B2 (ja)
JP (1) JP7068584B2 (ja)
WO (1) WO2020066699A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7121277B2 (ja) * 2018-09-28 2022-08-18 日本電信電話株式会社 情報同期装置、情報同期方法及び情報同期プログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779429A (ja) * 1993-09-08 1995-03-20 Toshiba Corp 画像監視装置
JP2003337946A (ja) * 2002-05-17 2003-11-28 Matsushita Electric Ind Co Ltd 物体認識装置および記録媒体
JP2015114716A (ja) * 2013-12-09 2015-06-22 シャープ株式会社 画像データ再生装置および画像データ生成装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060049933A1 (en) * 2004-09-09 2006-03-09 Kelley Sean P Method and apparatus for tactical planning
US8957940B2 (en) * 2013-03-11 2015-02-17 Cisco Technology, Inc. Utilizing a smart camera system for immersive telepresence
KR102569900B1 (ko) * 2018-12-04 2023-08-23 현대자동차주식회사 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0779429A (ja) * 1993-09-08 1995-03-20 Toshiba Corp 画像監視装置
JP2003337946A (ja) * 2002-05-17 2003-11-28 Matsushita Electric Ind Co Ltd 物体認識装置および記録媒体
JP2015114716A (ja) * 2013-12-09 2015-06-22 シャープ株式会社 画像データ再生装置および画像データ生成装置

Also Published As

Publication number Publication date
WO2020066699A1 (ja) 2020-04-02
US20220114749A1 (en) 2022-04-14
US12014516B2 (en) 2024-06-18
JP7068584B2 (ja) 2022-05-17

Similar Documents

Publication Publication Date Title
US9544706B1 (en) Customized head-related transfer functions
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
CN103747236A (zh) 结合人眼跟踪的立体视频处理系统及方法
WO2017141584A1 (ja) 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
EP3665656B1 (en) Three-dimensional video processing
JP2021136465A (ja) 受信装置、コンテンツ伝送システム、及びプログラム
WO2020066699A1 (ja) 情報統合方法、情報統合装置、及び情報統合プログラム
WO2019034804A2 (en) THREE-DIMENSIONAL VIDEO PROCESSING
KR101752691B1 (ko) 시점 선택이 가능한 3차원 가상 콘텐츠 동영상을 제공하는 장치 및 그 방법
KR20190058040A (ko) Ip를 통한 멀티카메라 비디오 분배 및 결합 시스템 및 그 방법
WO2020066698A1 (ja) 情報統合方法、情報統合装置、及び情報統合プログラム
CN113454685A (zh) 基于云的相机标定
KR101747800B1 (ko) 입체음향 생성 장치 및 이를 이용한 입체 컨텐츠 생성 시스템
KR101794492B1 (ko) 다시점 영상 디스플레이 시스템
KR20180108967A (ko) 멀티비전 화면 영상 렌더링 시스템, 장치 및 방법
JP6664456B2 (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP7091043B2 (ja) 画像処理装置、画像処理システム、および画像処理方法
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
JP4423416B2 (ja) 映像合成処理システム
US12033355B2 (en) Client/server distributed camera calibration
JP2001148806A (ja) 映像合成演算処理装置、その方法及びシステム
JP7121277B2 (ja) 情報同期装置、情報同期方法及び情報同期プログラム
JP2011048545A (ja) 画像合成装置及びプログラム
Xue et al. A motion parallax rendering approach to real-time stereoscopic visualization for aircraft virtual assembly
JP2023183059A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7068584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150