JP2020178237A - 映像処理装置、映像処理方法及び映像処理プログラム - Google Patents

映像処理装置、映像処理方法及び映像処理プログラム Download PDF

Info

Publication number
JP2020178237A
JP2020178237A JP2019079285A JP2019079285A JP2020178237A JP 2020178237 A JP2020178237 A JP 2020178237A JP 2019079285 A JP2019079285 A JP 2019079285A JP 2019079285 A JP2019079285 A JP 2019079285A JP 2020178237 A JP2020178237 A JP 2020178237A
Authority
JP
Japan
Prior art keywords
area
frame data
prohibited area
data
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019079285A
Other languages
English (en)
Other versions
JP7231825B2 (ja
Inventor
小野 正人
Masato Ono
正人 小野
高秀 星出
Takahide Hoshiide
高秀 星出
松原 靖
Yasushi Matsubara
靖 松原
深津 真二
Shinji Fukatsu
真二 深津
憲一 南
Kenichi Minami
憲一 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2019079285A priority Critical patent/JP7231825B2/ja
Priority to US17/599,065 priority patent/US20220199120A1/en
Priority to PCT/JP2020/015299 priority patent/WO2020213430A1/ja
Priority to CN202080029286.XA priority patent/CN113711580A/zh
Publication of JP2020178237A publication Critical patent/JP2020178237A/ja
Application granted granted Critical
Publication of JP7231825B2 publication Critical patent/JP7231825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/16Image acquisition using multiple overlapping images; Image stitching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/66Transforming electric information into light information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals

Abstract

【課題】複数の映像データを連結する際に、連結箇所での移動物体の不自然な移動を抑制する。【解決手段】フレーム取得手段22が、カメラC1,C2から入力された映像データのそれぞれから、同時に撮影されたフレームデータを取得する。禁止領域設定手段24が、隣接するフレームデータの重複領域において検出されたオブジェクトの位置およびオブジェクトの移動方向に基づき、シーム算出の際に計算対象としない禁止領域を設定する。シーム算出手段25が、禁止領域に含まれる画素をシーム算出の計算対象としないで、互いに隣接するフレームデータのシームを算出する。連結フレーム出力手段26が、シームに従ってフレームデータを連結し、連結フレームデータ15を出力する。【選択図】図2

Description

本発明は、撮影領域の一部を重ねて撮影された複数の映像をつなぐ技術に関する。
非特許文献1では、複数のカメラで撮影した映像を水平垂直方向にリアルタイムでつなぎ合わせて、広い競技空間を持つフィールド競技の様子全体を写したサラウンド映像を合成している。隣接する映像をつなげる際、隣接する映像が重複する重複領域につなぎ目(シーム)を設定する。隣接する映像をシームで切り取って連結することで合成映像が得られる。
特許文献1では、複数の映像をつなぎ合わせる際にシームを目立たなくさせるために、シームが通らない禁止領域を設定している。例えば、人物などの移動物体に禁止領域を設定することで、移動物体がシームに重なることで発生する移動物体の欠損や伸長を回避できる。
特開2019−36906号公報
佐藤孝子、難波功次、小野正人、菊地由実、山口徹也、小野朗、「競技空間全体の高臨場ライブ中継に向けたサラウンド映像合成・同期伝送技術」、NTT技術ジャーナル、日本電信電話株式会社、2017, Vol. 29, No. 10, pp. 19-23
移動物体の移動に伴い、シームが、移動物体に設定した禁止領域を避けて大きく変化することがある。この場合、移動物体が不自然に移動したように見えてしまうという問題があった。例えば、あるフレームにおいて移動物体の右側に設定されたシームが、次のフレームにおいて移動物体の左側に設定された場合、前のフレームでは左側の映像に写った移動物体が合成後の映像に用いられ、次のフレームでは右側の映像に写った移動物体が合成後の映像に用いられる。左側の映像を撮影するカメラと右側の映像を撮影するカメラの視差により、重複領域において、左右の映像上での移動物体の位置がずれていると、移動物体が急に動いたように見えたり、進行方向とは逆方向に動いたように見えたり、もしくは止まったように見えたりする。
本発明は、上記に鑑みてなされたものであり、複数の映像データを連結する際に、連結箇所での移動物体の不自然な移動を抑制することを目的とする。
本発明に係る映像処理装置は、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置であって、前記複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得手段と、互いに隣接する前記フレームデータが重ねられた重複領域につなぎ目を通さない禁止領域を設定する禁止領域設定手段と、前記禁止領域を通らないように前記つなぎ目を算出するシーム算出手段と、前記つなぎ目に従って前記複数のフレームデータを連結して連結フレームデータを出力する連結フレーム出力手段と、を備え、前記禁止領域設定手段は、前記フレームデータから検出されたオブジェクトが前記重複領域に進入した際、前記オブジェクトの位置および移動方向に基づいて前記禁止領域を設定することを特徴とする。
本発明に係る映像処理方法は、撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置による映像処理方法であって、前記複数の映像データから、同時に撮影された複数のフレームデータを取得するステップと、互いに隣接する前記フレームデータが重ねられた重複領域につなぎ目を通さない禁止領域を設定するステップと、前記禁止領域を通らないように前記つなぎ目を算出するステップと、前記つなぎ目に従って前記複数のフレームデータを連結して連結フレームデータを出力するステップと、を有し、前記禁止領域を設定するステップでは、前記フレームデータから検出されたオブジェクトが前記重複領域に進入した際、前記オブジェクトの位置および移動方向に基づいて前記禁止領域を設定することを特徴とする。
本発明に係る映像処理プログラムは、上記の映像処理装置の各手段としてコンピュータを動作させることを特徴とする。
本発明によれば、複数の映像データを連結する際に、連結箇所での移動物体の不自然な移動を抑制することができる。
本実施形態の映像処理装置を用いて構成した広視野角遠隔監視システムの構成を示す図である。 本実施形態の映像処理装置のハードウエア構成および機能ブロックを説明する図である。 本実施形態の映像処理装置の処理の流れを示すフローチャートである。 重複フレームデータの例を示す図である。 重複フレームデータの重複領域に禁止領域を設定した例を示す図である。 フレームデータをシームで連結した連結フレームデータの例を示す図である。 禁止領域を設定する処理の流れを示すフローチャートである。 重複領域で検出されたオブジェクトの例を示す図である。 検出されたオブジェクトを含む一定の領域を禁止領域として設定した例を示す図である。 オブジェクトの移動方向に基づいて禁止領域を設定した例を示す図である。 図10の重複フレームデータからシームを求めた例を示す図である。 オブジェクトの進入方向側に設定した禁止領域とシームの時系列の変化を示す図である。 オブジェクトの進行方向側に設定した禁止領域とシームの時系列の変化を示す図である。
以下、本発明の実施の形態について図面を用いて説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。
図1を参照し、本発明にかかる映像処理を用いた広視野角遠隔監視システムの構成を説明する。同図に示す広視野角遠隔監視システムは、複数の映像を合成してパノラマ映像を生成するとともに、映像から監視対象の物体の物体情報を取得し、MMTP(MPEG Media Transport Protocol)を利用してIPネットワーク経由でパノラマ映像、音および物体情報を同期伝送する処理を低遅延に実現するシステムである。広視野角遠隔監視システムは、例えば、航空管制、公共空間監視、および防災監視などの広視野角での監視に用いることができる。
図1の広視野角遠隔監視システムは、合成処理サーバ100、物体情報統合サーバ200、デコードサーバ300、および統合物体情報受信サーバ400を備える。
合成処理サーバ100は、合成処理部110、エンコード処理部120、および物体検出・トラッキング処理部130を備える。合成処理サーバ100は、複数の撮像系(例えば4Kカメラ)のそれぞれから映像と音を入力し、映像をつなげてパノラマ映像を合成するとともに、各映像から対象の物体の検出およびトラッキングを行う。
合成処理部110は、入力した複数の映像をリアルタイムにつなぎ合わせてパノラマ映像を合成する。合成処理部110は、映像をつなぎ合わせるシームを動的に変更する。合成処理部110は、シームを求める際、移動物体のトラッキング結果を利用した本発明にかかる映像処理を用いて合成品質の向上を図る。本発明にかかる映像処理の詳細については後述する。
エンコード処理部120は、合成処理部110の合成したパノラマ映像および音データをエンコードし、MMTPストリームに変換してデコードサーバ300へ送出する。
物体検出・トラッキング処理部130は、各映像から対象の物体の検出およびトラッキングを実施する。物体検出・トラッキング処理部130は、各映像での処理の実施結果(トラッキング情報)を物体情報統合サーバ200へ送信するとともに、合成処理部110へ送信する。
物体情報統合サーバ200は、物体検出・トラッキング処理部130から入力される各映像のトラッキング情報について、物体の各映像上の座標をパノラマ映像上の座標へ変換する。物体情報統合サーバ200は、映像が重ね合わされた重複領域において、映像のそれぞれに現れる同一と推定される物体のトラッキング情報を統合する。物体情報統合サーバ200は、トラッキング情報に付加情報を追加した物体情報をMMTPパケット化して統合物体情報受信サーバ400へ送出する。付加情報は外部サーバへ問い合わせて取得してもよい。
デコードサーバ300は、合成処理サーバ100から受信したMMTPストリームをデコードし、パノラマ映像および音を出力する。
統合物体情報受信サーバ400は、物体情報統合サーバ200から物体情報のMMTPパケットを受信し、物体情報を出力する。
表示系(例えばパノラマスクリーン)では、デコードサーバ300から出力されたパノラマ映像に統合物体情報受信サーバ400から出力された物体情報が重畳されて表示される。
(映像処理装置の構成)
図2を参照し、本実施形態の映像処理装置1の構成について説明する。映像処理装置1は、図1の合成処理部110に相当する。
図2に示す映像処理装置1は、複数のカメラC1,C2により撮影領域の一部を重ねて撮影された複数の映像データを連結して1つの映像データを生成し、連結した映像データを表示装置Dに出力する装置である。映像処理装置1は、各映像データの同時に撮影されたフレームデータにおける適切なシームを探索し、探索されたシームで各フレームデータをつないで、映像データを再構成する。本実施形態では、水平方向に並べた2台のカメラC1,C2で撮影した映像データを合成するが、これに限るものではない。3台以上のカメラで撮影した映像データを合成してもよいし、垂直方向に並べたカメラで撮影した映像データを合成してもよいし、水平方向と垂直方向に複数台のカメラを並べて撮影した映像データを合成してもよい。
図2に示す映像処理装置1は、記憶装置10、処理装置20および入出力インタフェース30を備える一般的なコンピュータである。一般的なコンピュータが映像処理プログラムを実行することにより、図2に示す機能を実現する。
記憶装置10は、ROM(Read only memory)、RAM(Random access memory)、ハードディスク等であって、処理装置20が処理を実行するために必要な入力データ、出力データおよび中間データなどの各種データを記憶する。
処理装置20は、中央処理装置(CPU)またはグラフィクスプロセシングユニット(GPU)であって、記憶装置10に記憶されたデータを読み書きしたり、入出力インタフェース30とデータを入出力したりして、映像処理装置1における処理を実行する。
入出力インタフェース30は、キーボード、マウスなどの入力装置Iおよび複数のカメラC1,C2からの入力を受け付け、入力されたデータを処理装置20に入力する。入出力インタフェース30は、さらに、処理装置20による処理結果をディスプレイなどの表示装置Dに出力する。処理結果の連結フレームデータを伝送する場合、入出力インタフェース30は、エンコードした連結フレームデータをネットワークを介して送出してもよい。入力装置I、複数のカメラC1,C2、および表示装置Dは、通信インタフェースおよび通信ネットワークを介して、映像処理装置1に接続されても良い。また複数のカメラC1,C2に代わって、予め撮影された複数の撮影データを記憶した録画機または記憶装置を映像処理装置1に接続し、映像処理装置1に予め撮影された複数の撮影データを処理させても良い。
記憶装置10は、設定データ11、フレーム情報データ12、禁止領域データ13、シームデータ14、および連結フレームデータ15を記憶する。記憶装置10は、コンピュータが実行する映像処理プログラムを記憶してもよい。
設定データ11は、映像処理装置1の処理に必要なパラメータ等の設定情報である。設定データ11は、例えば、映像処理装置1に入力される映像データの数およびその配列、禁止領域データ13の算出に用いるパラメータを含む。
フレーム情報データ12は、複数のカメラC1,C2が出力する複数の映像データにおいて、同時に撮影された各フレームデータの情報である。フレーム情報データ12は、フレームデータに、カメラの識別子、画素値、フレームレート、輝度値などの情報を対応づけたデータである。
禁止領域データ13は、シーム算出の際に計算対象としない禁止領域を示すデータである。禁止領域は、後述の禁止領域設定手段24により設定される。
シームデータ14は、後述するシーム算出手段25によって各フレームデータのつなぎ目を算出した結果のデータである。
連結フレームデータ15は、同時に撮影された複数のフレームデータをシームデータ14に従って結合した連結後のフレームデータである。連結フレームデータ15は、映像処理装置1が出力する映像データを構成する一つのフレームデータとなる。
処理装置20は、設定取得手段21、フレーム取得手段22、オブジェクト検出手段23、禁止領域設定手段24、シーム算出手段25、および連結フレーム出力手段26を備える。
設定取得手段21は、映像処理装置1の処理に必要なパラメータを取得して、設定データ11に記憶させる。設定取得手段21は、ユーザにより入力装置Iから入力された情報に従ってパラメータを取得する。設定取得手段21は、カメラC1,C2から入力された各映像データ等を解析することによってパラメータを取得してもよい。
フレーム取得手段22は、カメラC1,C2から入力された映像データのそれぞれから、同時に撮影されたフレームデータを取得する。フレーム取得手段22は、取得した各フレームデータについて、フレーム情報データ12を生成して記憶する。フレーム取得手段22は、カメラC1,C2から映像データを入力するときに各映像データを同期させて、各フレームデータのタイムスタンプを合わせる。フレーム取得手段22は、複数のカメラC1,C2での撮影により生じた視差の影響を低減するための補正処理および色補正処理を実施してもよい。
オブジェクト検出手段23は、図1の物体検出・トラッキング処理部130に相当する。オブジェクト検出手段23は、フレームデータのそれぞれから対象のオブジェクトを検出するとともに、検出したオブジェクトのトラッキングを実施する。トラッキングとは、現在のフレームデータで検出されたオブジェクトと過去のフレームデータで検出されたオブジェクトとの同一性を判定し、オブジェクトの移動を追跡することである。検出対象のオブジェクトは、例えば人物などの監視対象となる移動物体である。
禁止領域設定手段24は、隣接するフレームデータの重複領域において検出されたオブジェクトの位置およびオブジェクトの移動方向に基づいて禁止領域を設定する。禁止領域設定手段24は、特許文献1と同様に、フレームデータの輝度値に基づいて禁止領域を設定してもよい。検出されたオブジェクトに基づく禁止領域の設定方法の詳細については後述する。
シーム算出手段25は、同時に撮影された複数のフレームデータを取得し、禁止領域データ13が示す禁止領域に含まれる画素をシーム算出の計算対象としないで、互いに隣接するフレームデータのつなぎ目であるシームデータ14を算出する。より具体的には、シーム算出手段25は、隣接方向のラインの検索範囲の各画素のうち、直前に算出されたシームの画素との特徴値の差分が最も少ない画素を、このラインにおけるシームとして算出する。このとき、シーム算出手段25は、禁止領域に含まれる画素を探索範囲に含めない。なお、シーム算出手段25は、フレームデータを縮小した縮小フレームデータを用いてシームを算出してもよい。この場合、シーム算出手段25は、禁止領域を縮小して適用する。
連結フレーム出力手段26は、シーム算出手段25が算出したシームデータ14に従って複数のフレームデータを連結し、重複のない連結フレームデータ15を出力する。
(映像処理装置の動作)
次に、図3を参照して、映像処理装置1による映像処理方法を説明する。映像処理装置1は、カメラC1,C2のそれぞれから入力した映像データにおいて、同時に撮影された各フレームデータについて、以下のステップS1〜S7の処理を繰り返す。
ステップS1において、フレーム取得手段22は、カメラC1,C2のそれぞれから入力した映像データから、同時刻に撮影された各フレームデータを取得する。
ステップS2において、フレーム取得手段22は、ステップS1で取得した各フレームデータの特徴点を対応付けて、重複フレームデータを生成する。
図4に重複フレームデータの例を示す。図4では、2台のカメラC1,C2で同時に撮影されたフレームデータF1,F2から生成された重複フレームデータを示している。フレーム取得手段22は、フレームデータF1の撮影領域の右側の特徴点とフレームデータF2の撮影領域の左側の特徴点とが一致するように、フレームデータF1,F2を重ねて重複フレームデータを生成する。なお、図4では、重複フレームデータが矩形になるようにフレームデータF1,F2を重ねているが、各カメラC1,C2のロール角が異なる場合はフレームデータが斜めに配設されることもある。
ステップS3において、フレーム取得手段22は、ステップS2で生成した重複フレームデータに重複領域を設定する。図4では、フレームデータF1の撮影領域の右側とフレームデータF2の撮影領域の左側が重複した領域が重複領域Rである。
ステップS4において、禁止領域設定手段24は、フレームデータF1,F2から検出されたオブジェクトに基づいて禁止領域を設定する。図5では、禁止領域Pを図示している。禁止領域を設定する処理の詳細については後述する。
ステップS5において、シーム算出手段25は、禁止領域に含まれる画素をシーム算出の計算対象としないで、フレームデータの隣接方向に直交する方向にシームを形成する画素を順次特定してシームを算出する。例えば、図5では、フレームデータF1,F2が水平方向に隣接するので、シーム算出手段25は、禁止領域Pに含まれる画素をシーム算出の計算対象としないで、重複領域Rの横のラインから1つの画素をシームとして決定し、縦方向に順次シームを形成する画素を算出してシームSELを求める。
ステップS6において、連結フレーム出力手段26は、シームに従って、各フレームデータを連結し、連結フレームデータ15を生成する。図6にフレームデータをシームで連結した連結フレームデータの例を示す。図6では、シームSELで切り離したフレームデータF1とフレームデータF2とをつなぎ合わせて連結フレームデータを生成している。
ステップS7において、連結フレーム出力手段26は、ステップS6で生成した連結フレームデータ15を出力する。この連結フレームデータ15は、映像処理装置1が出力する映像データのフレームデータとなる。
(禁止領域の設定)
次に、図7を参照して、禁止領域の設定処理について説明する。
ステップS41において、オブジェクト検出手段23は、各フレームデータについて、対象のオブジェクトの検出およびトラッキングを実施する。禁止領域設定手段24は、重複領域で検出されたオブジェクトのフレームデータ上での位置情報および移動方向を取得する。ステップS41の処理は禁止領域を設定する前に実施すればよい。例えば、ステップS1において各映像データからフレームデータを取得後にステップS41の処理を実施してもよい。別の装置がオブジェクトの検出およびトラッキングを実施し、映像処理装置1がオブジェクトの検出結果を受信してもよい。
図8に、重複領域Rで検出されたオブジェクトOを示す。同図に示すオブジェクトOは、水平方向に並べたフレームデータF1,F2の左側(フレームデータF1側)から右側(フレームデータF2側)へ移動している。
なお、オブジェクト検出手段23は、重複領域RではフレームデータF1,F2のそれぞれにおいて同一のオブジェクトOを検出する。カメラC1,C2の視差により、オブジェクトOのフレームデータF1での検出位置とオブジェクトOのフレームデータF2での検出位置とがずれることがある。オブジェクトOはフレームデータF1からフレームデータF2の方向へ移動しているので、オブジェクト検出手段23は、オブジェクトOのフレームデータF1での検出位置をオブジェクトOの位置としてもよい。フレームデータF1,F2でのオブジェクトの検出位置を連結フレームデータ上の座標に変換し、その座標をオブジェクトOの位置としてもよい。この場合、フレームデータF1,F2でオブジェクトOの検出位置が微妙にずれていても同一オブジェクトと判断すれば同じ座標とする。
ステップS42において、禁止領域設定手段24は、シームがオブジェクトをまたいで生成されないように、重複領域で検出されたオブジェクトを含む一定の領域を禁止領域として設定する。図9に、オブジェクトOを含む領域を禁止領域P1として設定した様子を示す。禁止領域設定手段24は、例えば、オブジェクトOを検出した検出枠に基づいて禁止領域P1を設定する。
ステップS43において、禁止領域設定手段24は、設定データ11のパラメータおよびオブジェクトの移動方向に基づき、ステップS42で設定した禁止領域と重複領域の辺との間の領域を禁止領域として設定する。図10の例では、禁止領域設定手段24は、禁止領域P1からオブジェクトが重複領域Rに進入した辺(重複領域Rの左側の辺)までの間の領域を禁止領域P2とする。禁止領域設定手段24は、オブジェクトの移動方向に基づき、図10のように禁止領域P1からオブジェクトの進入方向側の重複領域Rの辺までの領域を禁止領域としてもよいし、禁止領域P1からオブジェクトの進行方向側の辺(図9では重複領域Rの右側の辺)までの領域を禁止領域としてもよい。あるいは、禁止領域設定手段24は、禁止領域P1のみを禁止領域としてもよい。禁止領域設定手段24は、設定データ11のパラメータに基づき、禁止領域P1から重複領域Rの辺までの間に設定する禁止領域P2の形状および範囲等を変化させてもよい。
なお、禁止領域設定手段24は、さらに、フレームデータの輝度値が所定の閾値よりも高い部分に禁止領域を設定する処理を実施してもよい。設定データ11により、閾値等を調整することが可能である。設定によっては、輝度値に基づく禁止領域の設定を実施しなくてもよい。
図11に示すように、シーム算出手段25は、オブジェクトに基づいて設定された禁止領域Pを通らないようにシームSELを求める。
上記の禁止領域を設定する処理により、図12に示すように、オブジェクトが重複領域Rを進む間、禁止領域Pはオブジェクトが重複領域Rに進入した辺からオブジェクトの現在位置までの領域に設定され、シームSELはオブジェクトの進行方向側を通る。その結果、オブジェクトが重複領域Rを進む間は、進入元のフレームデータF1中のオブジェクトの画像が連結フレームデータに用いられるので、重複領域Rの各フレームデータF1,F2においてオブジェクトの位置がずれている場合であっても、合成映像において重複領域Rでのオブジェクトの不自然な移動を抑制できる。なお、重複領域Rにおける各フレームデータF1,F2上のオブジェクトの検出位置がほぼ同じ(所定の範囲内)になったタイミングで、禁止領域設定手段24は、オブジェクトの現在位置から進行方向にある重複領域Rの辺までの領域を禁止領域Pとするようにしてもよい。
図13は、オブジェクトの進行方向側に禁止領域Pを設定した様子を示す図である。図13の例では、フレームデータF2からフレームデータF1に向けてオブジェクトが進行している。図13では、オブジェクトが重複領域Rを進む間、オブジェクトの現在位置からオブジェクトの進行方向側の重複領域Rの辺までの領域に禁止領域Pが設定される。シームSELは、オブジェクトの後ろ側を通る。
なお、複数のオブジェクトが重複領域に進入した際、オブジェクトが同一方向の場合は、その総和を禁止領域にしてもよい。例えば、同一方向に移動するオブジェクトをまとめて扱い、禁止領域を設定する。オブジェクトの移動方向が別々の場合は、オブジェクトそれぞれの移動方向に基づいて禁止領域を設定してもよい。または、オブジェクトのそれぞれに優先度をつけて禁止領域を設定してもよい。
以上説明したように、本実施形態によれば、フレーム取得手段22が、カメラC1,C2から入力された映像データのそれぞれから、同時に撮影されたフレームデータを取得し、禁止領域設定手段24が、隣接するフレームデータの重複領域において検出されたオブジェクトの位置およびオブジェクトの移動方向に基づき、シーム算出の際に計算対象としない禁止領域を設定し、シーム算出手段25が、禁止領域に含まれる画素をシーム算出の計算対象としないで、互いに隣接するフレームデータのシームを算出し、連結フレーム出力手段26が、シームに従ってフレームデータを連結し、連結フレームデータ15を出力することにより、シームの急激な変化を抑え、オブジェクトの不自然な移動を抑制できる。
1…映像処理装置
10…記憶装置
11…設定データ
12…フレーム情報データ
13…禁止領域データ
14…シームデータ
15…連結フレームデータ
20…処理装置
21…設定取得手段
22…フレーム取得手段
23…オブジェクト検出手段
24…禁止領域設定手段
25…シーム算出手段
26…連結フレーム出力手段
30…入出力インタフェース
100…合成処理サーバ
110…合成処理部
120…エンコード処理部
130…物体検出・トラッキング処理部
200…物体情報統合サーバ
300…デコードサーバ
400…統合物体情報受信サーバ

Claims (5)

  1. 撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置であって、
    前記複数の映像データから、同時に撮影された複数のフレームデータを取得するフレーム取得手段と、
    互いに隣接する前記フレームデータが重ねられた重複領域につなぎ目を通さない禁止領域を設定する禁止領域設定手段と、
    前記禁止領域を通らないように前記つなぎ目を算出するシーム算出手段と、
    前記つなぎ目に従って前記複数のフレームデータを連結して連結フレームデータを出力する連結フレーム出力手段と、を備え、
    前記禁止領域設定手段は、前記フレームデータから検出されたオブジェクトが前記重複領域に進入した際、前記オブジェクトの位置および移動方向に基づいて前記禁止領域を設定する
    ことを特徴とする映像処理装置。
  2. 前記禁止領域設定手段は、前記オブジェクトの位置から前記オブジェクトの進入方向側の前記重複領域の辺までの間の領域または前記オブジェクトの位置から前記オブジェクトの進行方向側の前記重複領域の辺までの間の領域を禁止領域として設定する
    ことを特徴とする請求項1に記載の映像処理装置。
  3. 撮影領域の一部を重ねて撮影された複数の映像データをつなぐ映像処理装置による映像処理方法であって、
    前記複数の映像データから、同時に撮影された複数のフレームデータを取得するステップと、
    互いに隣接する前記フレームデータが重ねられた重複領域につなぎ目を通さない禁止領域を設定するステップと、
    前記禁止領域を通らないように前記つなぎ目を算出するステップと、
    前記つなぎ目に従って前記複数のフレームデータを連結して連結フレームデータを出力するステップと、を有し、
    前記禁止領域を設定するステップでは、前記フレームデータから検出されたオブジェクトが前記重複領域に進入した際、前記オブジェクトの位置および移動方向に基づいて前記禁止領域を設定する
    ことを特徴とする映像処理方法。
  4. 前記禁止領域を設定するステップでは、前記オブジェクトの位置から前記オブジェクトの進入方向側の前記重複領域の辺までの間の領域または前記オブジェクトの位置から前記オブジェクトの進行方向側の前記重複領域の辺までの間の領域を禁止領域として設定する
    ことを特徴とする請求項3に記載の映像処理方法。
  5. 請求項1または2に記載の映像処理装置の各手段としてコンピュータを動作させることを特徴とする映像処理プログラム。
JP2019079285A 2019-04-18 2019-04-18 映像処理装置、映像処理方法及び映像処理プログラム Active JP7231825B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019079285A JP7231825B2 (ja) 2019-04-18 2019-04-18 映像処理装置、映像処理方法及び映像処理プログラム
US17/599,065 US20220199120A1 (en) 2019-04-18 2020-04-03 Image processing device, image processing method, and image processing program
PCT/JP2020/015299 WO2020213430A1 (ja) 2019-04-18 2020-04-03 映像処理装置、映像処理方法及び映像処理プログラム
CN202080029286.XA CN113711580A (zh) 2019-04-18 2020-04-03 影像处理装置、影像处理方法和影像处理程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019079285A JP7231825B2 (ja) 2019-04-18 2019-04-18 映像処理装置、映像処理方法及び映像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020178237A true JP2020178237A (ja) 2020-10-29
JP7231825B2 JP7231825B2 (ja) 2023-03-02

Family

ID=72837758

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019079285A Active JP7231825B2 (ja) 2019-04-18 2019-04-18 映像処理装置、映像処理方法及び映像処理プログラム

Country Status (4)

Country Link
US (1) US20220199120A1 (ja)
JP (1) JP7231825B2 (ja)
CN (1) CN113711580A (ja)
WO (1) WO2020213430A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3889593A1 (en) 2020-03-31 2021-10-06 Yokogawa Electric Corporation Reaction analysis device, reaction analysis system, and reaction analysis method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200727B (zh) * 2020-11-06 2023-11-21 星宸科技股份有限公司 图像缝合装置、图像处理芯片、及图像缝合方法
WO2022157984A1 (ja) * 2021-01-25 2022-07-28 三菱電機株式会社 画像合成装置、画像合成方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170140791A1 (en) * 2015-11-12 2017-05-18 Intel Corporation Multiple camera video image stitching by placing seams for scene objects
JP2017103672A (ja) * 2015-12-03 2017-06-08 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2017102785A (ja) * 2015-12-03 2017-06-08 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US20180095583A1 (en) * 2016-09-30 2018-04-05 Lg Display Co., Ltd. Display device with built-in touch screen and driving method thereof
JP2019036906A (ja) * 2017-08-21 2019-03-07 日本電信電話株式会社 映像処理装置、映像処理方法及び映像処理プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4899367B2 (ja) * 2005-07-27 2012-03-21 日産自動車株式会社 俯瞰画像表示システム及び俯瞰画像の表示方法
WO2016165016A1 (en) * 2015-04-14 2016-10-20 Magor Communications Corporation View synthesis-panorama
US9911213B2 (en) * 2015-12-18 2018-03-06 Ricoh Co., Ltd. Panoramic image stitching using objects
KR102558473B1 (ko) * 2016-09-30 2023-07-25 삼성전자주식회사 이미지를 표시하기 위한 방법 및 그 전자 장치
JP6715217B2 (ja) * 2017-06-26 2020-07-01 日本電信電話株式会社 映像処理装置、映像処理方法および映像処理プログラム
US10244164B1 (en) * 2017-09-11 2019-03-26 Qualcomm Incorporated Systems and methods for image stitching
US10917565B1 (en) * 2019-03-08 2021-02-09 Gopro, Inc. Image capture device with a spherical capture mode and a non-spherical capture mode
US11341614B1 (en) * 2019-09-24 2022-05-24 Ambarella International Lp Emirror adaptable stitching

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170140791A1 (en) * 2015-11-12 2017-05-18 Intel Corporation Multiple camera video image stitching by placing seams for scene objects
JP2017103672A (ja) * 2015-12-03 2017-06-08 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2017102785A (ja) * 2015-12-03 2017-06-08 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
US20180095583A1 (en) * 2016-09-30 2018-04-05 Lg Display Co., Ltd. Display device with built-in touch screen and driving method thereof
JP2019036906A (ja) * 2017-08-21 2019-03-07 日本電信電話株式会社 映像処理装置、映像処理方法及び映像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3889593A1 (en) 2020-03-31 2021-10-06 Yokogawa Electric Corporation Reaction analysis device, reaction analysis system, and reaction analysis method

Also Published As

Publication number Publication date
JP7231825B2 (ja) 2023-03-02
CN113711580A (zh) 2021-11-26
US20220199120A1 (en) 2022-06-23
WO2020213430A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
WO2020213430A1 (ja) 映像処理装置、映像処理方法及び映像処理プログラム
US9049384B2 (en) Video processing apparatus, camera apparatus, video processing method, and program
US9774896B2 (en) Network synchronized camera settings
US20180091704A1 (en) Video synchronization apparatus, and video synchronization method
RU2019131371A (ru) Система устройства просмотра смешанной реальности и способ для него
JP7080103B2 (ja) 撮像装置、その制御方法、および、プログラム
KR101769118B1 (ko) 텔레프레젠스 영상 합성 장치, 텔레프레젠스 영상 합성 시스템 및 원격지 촬영 장치
KR20180125878A (ko) 비디오 카메라 및 클라이언트 디바이스를 포함하는 시스템 및 그에 의해 수행되는 방법
CN106534618B (zh) 伪现场解说实现方法、装置和系统
JP2009071478A (ja) 情報通信端末および情報通信システム
WO2020218023A1 (ja) 物体情報処理装置、物体情報処理方法及び物体情報処理プログラム
CN107172413A (zh) 现实场景视频显示方法和系统
JP2013115527A (ja) テレビ会議システム及びテレビ会議方法
JPWO2014192804A1 (ja) デコーダ及び監視システム
JP6004978B2 (ja) 被写体画像抽出装置および被写体画像抽出・合成装置
JP2011151773A (ja) 映像処理装置及び制御方法
JP2019036906A (ja) 映像処理装置、映像処理方法及び映像処理プログラム
US11076224B2 (en) Processing of data of a video sequence in order to zoom to a speaker detected in the sequence
JPWO2019038885A1 (ja) 情報処理装置および画像出力方法
JP4423416B2 (ja) 映像合成処理システム
JP2001148806A (ja) 映像合成演算処理装置、その方法及びシステム
JP2019036902A (ja) 映像処理装置、映像処理方法および映像処理プログラム
JP5004680B2 (ja) 画像処理装置、画像処理方法、テレビ会議システム、テレビ会議方法、プログラムおよび記録媒体
WO2021192096A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP3171349B2 (ja) 映像通信方式

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230130

R150 Certificate of patent or registration of utility model

Ref document number: 7231825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150