JP2020013216A - 装置、制御方法、及びプログラム - Google Patents

装置、制御方法、及びプログラム Download PDF

Info

Publication number
JP2020013216A
JP2020013216A JP2018133471A JP2018133471A JP2020013216A JP 2020013216 A JP2020013216 A JP 2020013216A JP 2018133471 A JP2018133471 A JP 2018133471A JP 2018133471 A JP2018133471 A JP 2018133471A JP 2020013216 A JP2020013216 A JP 2020013216A
Authority
JP
Japan
Prior art keywords
image
camera
cameras
virtual viewpoint
mask
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018133471A
Other languages
English (en)
Other versions
JP7179515B2 (ja
Inventor
英人 榊間
Hideto Sakakima
英人 榊間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018133471A priority Critical patent/JP7179515B2/ja
Priority to PCT/JP2019/026682 priority patent/WO2020013077A1/ja
Publication of JP2020013216A publication Critical patent/JP2020013216A/ja
Priority to US17/144,663 priority patent/US11557081B2/en
Application granted granted Critical
Publication of JP7179515B2 publication Critical patent/JP7179515B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】仮想視点画像の品質の低下を抑制する。【解決手段】目標オブジェクトを複数のカメラにより複数の方向から撮影することで得られる画像に基づき、該目標オブジェクトを含む仮想視点画像を生成する装置であって、前記複数のカメラによる撮影に基づく複数の画像の中から、前記目標オブジェクトにおける特定位置が他のオブジェクトにより遮蔽されていない画像を、当該画像の画素値に基づいて選択する選択手段と、前記選択手段により選択された画像に基づき、前記仮想視点画像における前記特定位置に対応する画素の値を決定する決定手段と、前記決定手段により決定された画素の値に基づき、前記仮想視点画像を生成する生成手段とを有することを特徴とする装置である。【選択図】図2

Description

本発明は、異なる位置に設置した複数のカメラを用いて撮影することで取得される画像に基づいて仮想視点画像を生成する技術に関する。
昨今、複数のカメラを互いに異なる位置に設置して多視点で同期撮影することで得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。この技術によれば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザーに高臨場感を与えることが出来る。
仮想視点コンテンツの生成及び閲覧は、複数のカメラが撮影した画像をサーバ等の画像生成装置に集約し、該画像生成装置にて、3次元モデル生成、レンダリング等の処理を実行し、ユーザー端末に仮想視点コンテンツを送付することで実現できる。
画像生成装置にて実行される3次元モデルの生成方法として、ビジュアルハルと呼ばれる形状推定方法が良く知られている。ビジュアルハル等によって生成された3次元モデルは、モデルを形成する空間上の点やボクセルによって表現される。これらの点やボクセルに色情報を持たせるため、複数のカメラによって撮影された画像を使用して、点やボクセル毎の色付け処理を行う。この色付け処理により点やボクセルに色を付ける際、仮想視点とカメラとの位置関係によって色付けに使用するカメラが選択され、選択されたカメラの撮影画像を使用して色付け処理が実行されることが知られている。
特許文献1は、カメラからオブジェクトまでの距離を算出し、該算出した距離に応じて光線情報を補正して仮想視点画像を生成する手法を開示している。
特開2012−128884号公報
しかし、特許文献1では、実際に撮影に使用したカメラとオブジェクトとの位置関係によっては、オクルージョンが生じるという可能性を考慮していない。従って、オクルージョンが発生しているカメラの撮影画像に基づいて仮想視点画像の画素値を決定した結果、生成される仮想視点画像の品質が低下する虞がある。
そこで本発明は、上記の課題に鑑み、複数のカメラによる撮影に基づく複数の画像の中から適切に選択した画像を用いて画素値を決定することで、仮想視点画像の品質の低下を抑制することを目的とする。
本発明は、目標オブジェクトを複数のカメラにより複数の方向から撮影することで得られる画像に基づき、該目標オブジェクトを含む仮想視点画像を生成する装置であって、前記複数のカメラによる撮影に基づく複数の画像の中から、前記目標オブジェクトにおける特定位置が他のオブジェクトにより遮蔽されていない画像を、当該画像の画素値に基づいて選択する選択手段と、前記選択手段により選択された画像に基づき、前記仮想視点画像における前記特定位置に対応する画素の値を決定する決定手段と、前記決定手段により決定された画素の値に基づき、前記仮想視点画像を生成する生成手段とを有することを特徴とする装置である。
本発明により、仮想視点画像の品質の低下を抑制することが可能となる。
第1の実施形態における、画像生成システムの概略構成を示すブロック図。 第1の実施形態における、画像生成装置の構成を示すブロック図。 第1の実施形態における、仮想視点画像を生成する処理のフローチャート。 第1の実施形態における、色付け用画像選択処理の概要を説明する模式図。 第1の実施形態における、色付け用画像選択処理のフローチャート。 第1の実施形態における、色付け用画像選択処理を補足説明する模式図。 第1の実施形態における、撮影に使用したカメラの情報を保持するリスト。 第2の実施形態及び第3の実施形態における、画像生成装置の機能ブロック図。 第2の実施形態における、マスク情報を説明する図。 第2の実施形態及び第3の実施形態における色付け用画像選択処理のフローチャート。 第2の実施形態及び第3の実施形態における、カメラとオブジェクトとの位置関係を説明する図。 第2の実施形態における、撮影に使用したカメラの情報を保持するリスト。 第2の実施形態における、マスク情報を説明する図。 第3の実施形態における、マスク情報を説明する図。 第3の実施形態における、撮影に使用したカメラの情報を保持するリスト。
以下、図面を参照して本発明の実施形態を詳細に説明する。但し、以下の実施形態は本発明を限定するものではなく、また、以下で説明する特徴の組み合わせの全てが本発明の課題解決に必須のものとは限らない。尚、同一の構成については、同じ符号を付して説明する。また、以下に記載する構成要素の相対配置、形状等は、あくまで例示であり、本発明をそれらのみに限定する趣旨のものではない。
[第1の実施形態]
本実施形態では、3次元モデルを構成する点に色付けを行う際、色付けに使用される撮影画像の候補の中から外れ値を持つ撮影画像を除外した後に、撮影画像の選択、色付けを行う。
<画像生成システムについて>
以下、本実施形態における画像生成システムについて、図1を用いて説明する。図1は、野球場やサッカースタジアム等の競技場、コンサートホール、等の施設に複数のカメラ及びマイクを設置し、撮影及び集音を行うシステムの概略構成を示す図である。
画像生成システム100は、センサシステム110a〜センサシステム110z、スイッチングハブ121、画像生成装置122、コントローラ123、及びエンドユーザ端末126を有する。センサシステムの集合を、撮影装置群101とする。
コントローラ123は、制御ステーション124と、仮想カメラ操作ユーザーインタフェース125と、を有する。尚、本明細書では、ユーザーインタフェースをUIと略記する。制御ステーション124は、画像生成システム100を構成するそれぞれのブロックに対して、ネットワーク180a〜ネットワーク180zやネットワーク190a〜ネットワーク190cを通じて、動作状態の管理制御、パラメータ設定制御、等を行う。ここで、ネットワークは、Ethernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEを採用して良いし、インターコネクトInfiniband、産業用イーサーネット、等を組合せて構成されても良い。また、これらに限定されず、他の種別のネットワークであっても良い。
初めに、26セットのセンサシステム、つまりセンサシステム110a〜センサシステム110zで取得される画像及び音声を、それぞれのセンサシステムから画像生成装置122に送信する動作を説明する。本実施形態における画像生成システム100では、センサシステム110a〜センサシステム110zはそれぞれ、スイッチングハブ121を介して画像生成装置122と接続される。
尚、以下で特別な説明がない場合、センサシステム110aからセンサシステム110zまでの26セットのシステムを区別せずセンサシステム110と記載する。各センサシステム110内の装置についても同様に、特別な説明がない場合は区別せず、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。また、センサシステムの台数を26と記載しているが、あくまでも一例であり、台数をこれに限定するものではない。また、本実施形態では、特に断りがない限り、画像という概念が、静止画と動画との両方の概念を含むものとして説明する。つまり、本実施形態の画像生成システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像生成システム100により提供される仮想視点コンテンツには、仮想視点における画像(所謂、仮想視点画像)と音声(所謂、仮想視点音声)とが含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、以下では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理される。
センサシステム110a〜センサシステム110zはそれぞれ、カメラを1台ずつ(カメラ112a〜カメラ112z)を有する。即ち、画像生成システム100は、同一の撮影対象領域を複数の方向から撮影するための複数のカメラを有する。画像生成システム100内で、各センサシステム110がスイッチングハブ121と接続され、各センサシステム110がスイッチングハブ121を経由して中央装置との間でデータを送受信する、所謂、スター型のネットワークが構築される。
センサシステム110aは、マイク111a、カメラ112a、雲台113a、外部センサ114a、及びカメラアダプタ120aを有する。尚、このセンサシステムの構成はあくまで一例であり、センサシステム110aは、少なくとも1台のカメラアダプタ120aと、1台のカメラ112a又は1台のマイク111aとを有していれば良い。また例えば、センサシステム110aは、1台のカメラアダプタ120aと、複数のカメラ112aとで構成されても良いし、1台のカメラ112aと、複数のカメラアダプタ120aとで構成されても良い。即ち、画像生成システム100において、カメラ112の数はNであり、カメラアダプタ120の数はMである(但し、NとMは共に1以上の整数)。また、センサシステム110aは、図1に示す装置以外の装置を含んでいても良い。また、センサシステム110aにおいて、カメラ112aとカメラアダプタ120aとが同一筐体で一体化されて構成されても良い。その場合、マイク111aは一体化されたカメラ112aに内蔵されても良いし、カメラ112aの外部に接続されていても良い。マイク111aにて集音された音声のデータと、カメラ112aにて撮影された画像のデータとは、カメラアダプタ120aを介し、スイッチングハブ121へ伝送される。また、本明細書では、カメラで撮影された画像を「撮影画像」と記載する。
センサシステム110b〜センサシステム110zについては、センサシステム110aと同様の構成なので説明を省略する。但し、センサシステム11b〜センサシステム110zがセンサシステム110aと同じ構成に限定されるものではなく、それぞれのセンサシステム110が異なる構成でも良い。
画像生成装置122は、センサシステム110から取得した撮影画像に基づき、仮想視点画像を生成する処理を行う。
タイムサーバ127は時刻情報及び同期信号を配信する機能を有し、スイッチングハブ121を介して各センサシステム110に時刻情報及び同期信号を配信する。時刻情報と同期信号とを受信したカメラアダプタ120a〜120zは、該受信した時刻情報と同期信号とに基づきカメラ112a〜112zをゲンロックさせ画像フレーム同期を行う。即ち、タイムサーバ127は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像生成システム100は、同じタイミングで撮影された複数の画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれに起因する、生成した仮想視点画像の品質低下を抑制できる。尚、本実施形態では、タイムサーバ127が複数のカメラ112の時刻同期を管理するものとするが、これに限らず、時刻同期のための処理を各カメラ112又は各カメラアダプタ120が独立して行っても良い。
画像生成装置122によって生成された仮想視点画像は、エンドユーザ端末126に送信され、エンドユーザ端末126を操作するユーザーは、指定した視点に応じた画像閲覧及び音声視聴が出来る。また、画像生成装置122は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化した上で、MPEG−DASHプロトコルを使ってエンドユーザ端末126に送信しても良い。或いは、画像生成装置122は、非圧縮の仮想視点画像をエンドユーザ端末126に送信しても良い。特に圧縮符号化を行う前者のケースではエンドユーザ端末126としてスマートフォンやタブレット等を想定しており、後者のケースでは非圧縮画像を表示可能なディスプレイを想定している。つまり、エンドユーザ端末126の種別に応じて、画像フォーマットを切り替え可能である。また、画像の送信プロトコルはMPEG−DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法を用いても良い。
制御ステーション124は、仮想視点画像を生成する対象のスタジアム等の3次元モデルのデータを画像生成装置122に送信する。さらに、制御ステーション124はカメラ設置時に、キャリブレーションを実施する。具体的には、撮影対象のフィールド上にマーカーを設置し、各カメラ112で撮影した画像を用いて、各カメラの世界座標における位置及び向き、並びに、焦点距離を導出する。導出された各カメラの位置、向き、焦点距離の情報は、画像生成装置122に送信される。画像生成装置122に送信された三次元モデルのデータ及び各カメラの情報は、画像生成装置122が仮想視点画像を生成する際に使用する。
仮想カメラ操作UI125は、画像を生成する仮想視点を指定する情報を、画像生成装置122に送信する。画像生成装置122は、指定された仮想視点に対応する画像を生成し、生成した仮想視点画像をエンドユーザ端末126に送信する。以上が、本実施形態における仮想視点画像生成システムの内容である。
<画像生成装置の構成について>
以下、本実施形態における画像生成装置の構成について、図2を用いて説明する。まず、画像生成装置122のソフトウェア構成について、図2(a)を用いて説明する。
撮影画像入力部201は、センサシステム110からスイッチングハブ121を介して送信される画像データ及び音声データを入力する入力処理部である。撮影画像入力部201に入力されたデータは、後述の3次元モデル生成部203と、撮影画像選択部208とに送信される。
通信制御部202は、撮影装置群101と画像生成装置122との間の通信、及び、制御ステーション124と画像生成装置122との間の通信、を制御する処理部である。画像生成装置122は、制御ステーション124から送信された、スタジアム等の3次元形状を示すデータ(3次元モデルデータ)及び各カメラの設置に関わる情報等を取得する。
3次元モデル生成部203は、撮影画像入力部201から送信される、複数のカメラ夫々で撮影された画像のデータに基づき、オブジェクトの3次元形状を表すデータ、つまり、3次元モデルを生成する。3次元モデルは、例えばビジュアルハル等の形状推定方法を用いて生成できる。尚、本実施形態では、3次元モデルは点の集合で構成されるものとして以降の説明を行う。また、3次元モデルを構成する点を「構成点」と記載する。各構成点は、オブジェクト上のそれぞれ異なる特定位置に対応する。なお、3次元モデルの生成方法はビジュアルハルには限定されない。また、3次元モデルの形式も限定されず、例えば3次元モデルがボクセルの集合で表されてもいてもよいし、ポリゴンメッシュで表されていてもよい。
3次元モデル色付け部204は、複数のカメラで撮影された画像を使用して、3次元モデル生成部203によって生成された3次元モデルに色付け処理を行う。詳しくは、3次元モデル色付け部204は、3次元モデルの構成点毎に、複数のカメラで撮影された画像の中から使う画像を選択的に決定し、該決定した画像から適切な画素値を取得すること等により、色付けを行う。
仮想視点画像生成部205は、生成された3次元モデルに基づき、仮想視点からオブジェクトを見たときの画像、所謂、仮想視点画像を生成する処理を行う。例えば、仮想視点画像は、3次元空間に配置した3次元モデルを、仮想視点へ投影することにより生成することが可能である。
映像出力部206は、仮想視点画像生成部205にて生成された仮想視点画像のデータを含む映像データを、エンドユーザ端末126に出力する処理を行う。エンドユーザ端末126に応じた映像フォーマットの変換処理は、映像出力部206にて実行される。
仮想視点情報取得部207は、仮想カメラ操作UI125を介して指定された仮想視点を示す情報を取得し、該取得した情報を、仮想視点画像生成部205と後述する撮影画像選択部208とに送信する。
撮影画像選択部208は、複数のカメラで撮影された画像の中から、3次元モデルに対する色付けを行う際に使う画像を選択する処理を行う。撮影画像選択部208で選択された画像を使用して、3次元モデル色付け部204は、色付け処理を実行する。なお、本実施形態では画像生成装置122が複数のカメラによる撮影に基づく画像として複数の撮影画像を取得し、その中から選択された撮影画像の画素値に基づいて色づけ処理を実行するものとする。ただしこれに限らず、画像生成装置122は撮影に基づく画像として、撮影画像から所定のオブジェクトの領域が抽出された前景画像などを取得してもよい。そして画像生成装置122は、複数のカメラによる撮影に基づく複数の前景画像の中から選択された前景画像の画素値に基づいて、色づけ処理を実行してもよい。なお、画像生成装置122の構成は上記に限定されない。例えば3次元モデル生成部203など、上記の構成要素の一部が画像生成装置122とは別の装置に実装されていてもよい。
続けて、画像生成装置122のハードウェア構成について、図2(b)を用いて説明する。図2(b)は、画像生成装置122のハードウェア構成を示すブロック図である。画像生成装置は、CPU211と、RAM212と、ROM213と、二次記憶装置214と、入出力インタフェース215とを有する。これらの構成要素は、バスによって接続され、構成要素間でデータを送受信することが可能である。
CPU211は、RAM212をワークメモリとして用いて、ROM213に格納されたプログラムを実行し、システムバスを介して画像生成装置122の各構成要素を統括的に制御する。これにより、図2(a)に示したモジュールが実現されたり、後述する図3や図5に示す処理が実行されたりする。
二次記憶装置214は、画像生成装置122で取り扱われる種々のデータが格納される装置であり、例えば、HDD、光ディスクドライブ、フラッシュメモリ等が用いられる。CPU211は、システムバスを介して、二次記憶装置214へのデータの書き込みと二次記憶装置214に格納されたデータの読出しとを行う。入出力インタフェース215は、画像生成装置122とその外部の装置との間におけるデータの送受信を行う。以上が、本実施形態における画像生成装置の構成の内容である。
<仮想視点画像を生成する処理について>
以下、本実施形態における仮想視点画像を生成する処理について、図3を用いて説明する。図3は、仮想視点画像を1フレーム生成する処理の流れを示すフローチャートである。
ステップS301にて、3次元モデル生成部203は、複数のカメラで撮影された画像に基づき、3次元モデルを生成する。尚、以下では、「ステップS〜」を単純に「S〜」と略記する。
S302にて、撮影画像選択部208は、複数のカメラで撮影された画像の中から、3次元モデルの構成点に対する色付けに使う画像を選択する。尚、本ステップで実行する処理の詳細については、図5及び図6を用いて後述する。
S303にて、3次元モデル色付け部204は、S302で選択された画像を使用して、3次元モデルの構成点に対する色付け処理を行う。
S304にて、3次元モデル色付け部204は、3次元モデルの全ての構成点について色付け処理を行ったか判定する。S304の判定結果が真の場合、S305に進む。一方、S304の判定結果が偽の場合、S302に戻り、未処理の構成点に対する色付け処理を実行する。
S305にて、仮想視点画像生成部205は、色付け処理を行った3次元モデルに基づき、仮想視点画像を生成する。以上が、本実施形態における仮想視点画像を生成する処理の内容である。
なお、本実施形態では、画像生成装置122が、撮影画像に基づいて生成された3次元モデルの各構成要素(各点)に色付け処理を行った後で、レンダリングを行って仮想視点画像を生成する場合を中心に説明する。この場合、色づけされた3次元モデルの構成要素の色と仮想視点とに基づいて、仮想視点画像の各画素の値が決定される。ただし、仮想視点画像の生成方法(画素値の決定方法)はこれに限定されない。例えば画像生成装置122は、3次元モデルに直接色付けは行わず、生成される仮想視点画像の各画素が3次元モデルのどの構成要素に対応するかを判定し、選択された撮影画像における該構成要素に対応する画素値に基づき仮想視点画像の画素値を決定してもよい。
<色付け用画像選択処理について>
以下、互いに異なる位置に設置した複数のカメラを用いて同一の撮影対象領域を撮影することで取得される撮影画像の中から、3次元モデルの構成点への色付けに使う撮影画像を選択する処理(色付け用画像選択処理とする)について説明する。色付け用画像選択処理は、図3のS302で実行される。
まず、色付け用画像選択処理の概要について、サッカースタジアムにおいてゴールネット裏からフィールド方向を見る仮想視点に応じた仮想視点画像を生成するケースを例に挙げて、図4を用いて説明する。
図4(a)は、本実施形態で生成する仮想視点画像の一例であり、ゴールネット裏から見た画像を表す図である。図4(b)は、そのときのゴールネットと、ゴール枠と、仮想視点を示す仮想カメラとの位置関係を説明するための、上側から観察した図である。図4(a)及び図4(b)において、符号401は、ゴール枠を示し、符号402は、ゴールネットを示している。尚、説明のため、図4(b)は、ゴール枠401のうちクロスバーの部分を省略した図となっている。符号403は、撮影対象のオブジェクトを示し、このケースでは選手(具体的にはゴールキーパー)である。符号404は、仮想カメラを示し、この仮想カメラからの視点で仮想視点画像を生成する。符号405〜409は、仮想視点画像を生成するために必要な撮影画像を撮影するカメラを示す。
本実施形態の課題は、図4(a)及び図4(b)により説明できる。図4(a)は、ゴールネット402裏にセットした仮想カメラ404で撮影した画像、つまり仮想視点画像を示す。従来、このような仮想視点画像を生成する場合、オブジェクトを表現する3次元モデルを構成する各点への色付けにおいて、オブジェクトへの向きが仮想カメラと近いカメラが選択されていた。例えば、図4(b)のケースでは、仮想カメラ404と向きが近いカメラ407が選択され、そのカメラによって撮影された画像で色付けが行われる。その際、カメラ407で撮影された画像にはゴールネット402が撮影されており、そのまま色付けを行うと、オブジェクト403を表現する3次元モデルにゴールネット402の色が着色されてしまうという問題がある。
そこで本実施形態では、例えば、構成点410に色付けを行うケースにおいて、カメラ407ではなく、各カメラと構成点410とを結んだ線上にゴールネット402が存在しないカメラ(図4では、カメラ406、カメラ408等が候補となる)を選択する。これにより、構成点410に対する適切な色付け処理が可能になる。
以下、本実施形態における色付け用画像選択処理について、図5及び図6を用いて説明する。図6は、図4と同様に、オブジェクトとカメラとの位置関係を示す模式図である。図6において、符号601はゴール枠を示し、符号602はゴールネットを示し、符号603は撮影対象の目標オブジェクトを示す。また、符号604は、仮想視点画像を生成するにあたって指定される位置、つまりその位置に設置されたものとされるカメラ(所謂、仮想カメラ)を示し、符号605〜609は、実際に撮影に使用するカメラを示す。尚、説明のため、図6は、ゴール枠601のうちクロスバーの部分を省略した図となっている。以下、オブジェクト(選手)603の3次元モデルを構成する点の一つである構成点610に対し色付けを行う処理について、図5を用いて説明する。
S501にて、3次元モデルの構成点610から、判定対象のカメラに対し、仮想的に光線を投影する。
S502にて、S501での投影結果に基づき、判定対象のカメラの設置位置から構成点が可視か、言い換えると、このカメラが構成点を画像として捉えているか判定する。S502の判定結果が真の場合、S503に進む。一方、S502の判定結果が偽の場合、S504に進む。
S502でYESの場合、S503にて、判定対象のカメラの位置から構成点が可視であることを示す情報を記録する。本実施形態では、可視判定か否かを示す情報が、図7に示すリストにおいて、カメラIDと対応付けされて記載される。
一方、S502でNOの場合、S504にて、判定対象のカメラの位置から構成点が可視ではないことを示す情報を記録する。このようにS503又はS504にて、実際に撮影に使用したカメラの夫々に対する、可視可能か否かを示す可視判定情報が記録されていく。
S505にて、S502における可視判定が、撮影に使用した全てのカメラについてなされたか、判定する。S505の判定結果が偽の場合、S506に進み、判定対象のカメラIDを更新、即ち、判定対象のカメラを変更した上で、S501に戻る。一方、S505の判定結果が真の場合、S507に進む。
ここで、S501〜S506の処理について、図6を用いて補足説明する。図6に示すケースでは、カメラ605〜609のうちカメラ609のみ、構成点610がオブジェクト(選手)603の3次元モデルを構成する別の点によって遮蔽されるため可視と判定されない(S502でNO)。なお、ゴールネット602は構成点610を遮蔽するオブジェクトとして定義されないものとし、カメラ607は可視と判定されるものとする。また、S502での判定の結果取得される、各カメラに対する可視であるか否かを示す情報は、S503又はS504にて、図7に示すようなリスト701を用いて記録される。リスト701には、可視判定の結果を示す情報を保持する列が設けられており、各カメラに対し、可視の場合“1”が記録される一方、不可視の場合“0”が記録される。
S505の後、S507にて、可視と判定されたカメラの撮影画像に含まれる構成点に対応する画素について、その画素値を取得する。そして、取得した画素値を、図7に示すリスト701に記載する。本ステップで取得する画素値の一部又は全部は、後続の処理にて構成点に対する色付けに用いられる。
S508にて、取得した画素値(具体的にはRGB値)の中に例外値があるか否か判定する。そして、例外値がある場合は、該例外値に対応するカメラを、選択候補から除外する。例えば、図6に示すケースでは、カメラ605〜608のうちカメラ607のみ、構成点610からの光線がオブジェクト(ゴールネット)602を通ってカメラに到達することから、その画素値が例外値となる(図7参照)。よって、カメラ607を選択候補から除外する。尚、画素値が例外値かの判定手法としては、複数のカメラの撮影画像について着目画素に対応する画素値の平均値を算出し、該算出した平均値からの差が、所定の閾値以上のものを例外として扱う等の手法が考えられるが、これに限らない。
S509にて、S507で除外されたカメラを除く可視のカメラの中から、構成点610の色付けに使用するカメラで撮影した撮影画像を選択する。このときの選択手法として例えば、仮想カメラ604からの距離が最も近いカメラを選択する手法を採用できる。図6に示すケースでは、仮想カメラ604からの距離が最も近いカメラは、除外されたカメラ607を除くとカメラ606である。従って、色付けに使用するカメラとして、カメラ606を選択する。尚、本ステップの選択手法はこれに限らない。例えば、除外されていないカメラのうち撮影方向が仮想カメラ604と最も近いカメラが選択されてもよい。また、複数のカメラが選択され、選択された複数のカメラに対応する複数の画素値に基づいて算出された色を用いて、色づけ処理がされてもよい。以上が、本実施形態における色付け用画像選択処理の内容である。
<本実施形態の効果について>
本実施形態により、例えば図6に示すようなケースで構成点610に色付けを行う際、オブジェクト(ゴールネット)602の色のような本来付けるべきでない色を3次元モデルに付けてしまうカメラを除外した上で、色付けすることが可能となる。よって、より高品質な仮想視点画像を生成することが可能となる。なお、本実施形態では、オブジェクトの位置情報等に基づいて構成点610を撮影できない(不可視の)カメラを除外し、不可視のカメラ以外の中からさらに画素値が例外値となるカメラを除外するものとした。このようにして残った候補のカメラから色付けに用いるカメラを選択することで、構成点610を正しく撮影しているカメラを選択できる可能性が高くなる。ただしこれに限らず、不可視のカメラの除外と、画素値が例外値となるカメラの、何れか一方を行わなくてもよい。この方法によれば、除外のための判定に係る処理を削減することができる。
[第2の実施形態]
本実施形態では、3次元モデルの構成点の色付けに使う撮影画像を選択する際に、予め設定されたマスク情報を利用する。尚、以下では既述の実施形態との差分について主に説明し、既述の実施形態と同様の内容については説明を適宜省略する。
<画像生成装置の構成について>
以下、本実施形態における画像生成装置122のソフトウェア構成について、図8を用いて説明する。尚、本実施形態における画像生成装置122のハードウェア構成については、第1の実施形態と同様である。
図8の通信制御部801は、制御ステーション124における通信を制御する機能ブロック(モジュール)であり、制御ステーション124と画像生成装置122との間における通信処理を行う。制御ステーション124は、通信制御部801を介して、スタジアムの3次元形状を示すデータ(3次元モデルデータ)及び各カメラの設置に関わる情報等に加え、マスク情報を送信する。
マスク情報設定部802は、撮影に使用した複数のカメラについて、カメラ毎に、撮影画像内で色付けに利用できる領域であるか否か等を示すマスク情報を設定する処理を行う。ここで、マスク情報について、図9を用いて説明する。
本実施形態におけるマスク情報とは、撮影画像内のオクルージョン領域に関する情報であって、該当領域を色付けに使用して良いか等を示す情報である。オクルージョン領域とは、目標オブジェクトとカメラとを結ぶ直線上に存在する他のオブジェクト(遮蔽オブジェクトとする)によって目標オブジェクトが遮られる可能性が生じる領域である。例えば、マスク情報は、ゴール枠等の遮蔽オブジェクトの背面に隠れてしまう目標オブジェクトを表す3次元モデルに対して色付け処理を行う際に、該当領域の画素値を使用して色付けを行わないよう明示的に示すための画像である。図9(a)は、あるカメラから撮影した撮影画像901を示す。撮影画像901内の符号902は、ゴール枠を示し、ゴール枠902により、オブジェクト(選手)903の一部が遮蔽されている。遮蔽されている領域に亘って存在するオブジェクト(選手)903の3次元モデルに対し、撮影画像901を使用して色付けを行ってしまうと、オブジェクト(選手)903の3次元モデルのうち頭の部分にゴール枠902の色が着色されることになる。そのような誤った色付けを回避するため、本実施形態では、図9(b)に示すマスク画像904を使用する。マスク画像904内の黒領域は、ゴール枠による領域を示しており、このように、色付けに使用してはいけない領域を明示することで、色付けの際に該当領域の画素値を使用することを回避できる。
ユーザーインタフェース803は、制御ステーション124に対してユーザーが各種指示を行うためのインタフェースである。ユーザーは、ユーザーインタフェース803を介して、マスク情報の設定を行う。
<色付け用画像選択処理について>
以下、本実施形態における色付け用画像選択処理について、図10を用いて説明する。尚、本実施形態における仮想視点画像を生成する処理の全体フローは第1の実施形態と同様であるため(図3参照)、説明を省略する。図10に示す色付け用画像選択処理は、図3のS302で実行される。
S1001にて、3次元モデルの構成点から、判定対象のカメラに対し、光線を投影する。S1001の処理は、図5のS501の処理と同様である。
S1002にて、S1001での投影結果に基づき、判定対象のカメラの位置から構成点が可視か判定する。S1002の処理は、図5のS502の処理と同様である。S1002の判定結果が真の場合、S1003に進む。一方、S1002の判定結果が偽の場合、S1005に進む。
まず、S1002でYESの場合について説明する。この場合、S1003にて、判定対象のカメラの位置から構成点が可視であることを示す情報を記録し、S1004にて、判定対象のカメラの撮影画像に対するマスク情報を記録する。S1004では、撮影画像において、構成点に対応する画素が、(オクルージョン領域であることを示す)マスク領域に属するか判定すること等により、記録するマスク情報が生成されることになる。
ここで、本実施形態で使用するマスク情報について、図13を用いて詳しく説明する。図13(a)に示す撮影画像1301には、遮蔽オブジェクト(ゴール枠)1302と遮蔽オブジェクト(ゴールネット)1303とで一部が遮蔽された、オブジェクト(選手)1304が写っている。本実施形態では、撮影画像1301に対するマスク情報として、図13(b)に示すマスク情報1305を導入する。マスク情報1305では、ゴール枠のような完全に遮蔽するオブジェクトによるマスク領域1306に加え、ゴールネットのような一部領域のみ遮蔽するオブジェクトによるマスク領域1307を新たに定義する。マスク領域1307は、その領域全ての画素が色付けに使用できない領域ではなく、生成する仮想視点画像よっては、該画素が色付けに使用できる領域である。このようにマスク領域を設定することにより、色付けに完全に使用できないマスク領域とそれ以外のマスク領域とを明示化し、その情報に基づいて、使用する撮影画像を選択する。マスク情報の具体的な内容は、ユーザーによって指定されてもよい。マスク情報設定部802は、ユーザーインタフェース803を介してユーザーによって指定された内容に基づき、マスク情報を設定する処理を行う。
続けて、S1002でNOの場合について説明する。この場合、S1005にて、判定対象のカメラの位置から構成点が可視でないことを示す情報を記録する。
S1004又はS1005の後、S1006にて、S1002における可視判定が、撮影に使用した全てのカメラについてなされたか、判定する。S1006の判定結果が偽の場合、S1007に進み、判定対象のカメラIDを更新、即ち、判定対象のカメラを変更した上で、S1001に戻る。一方、S1006の判定結果が真の場合、S1008に進む。
S1008にて、S1004で記録したマスク情報に基づき、構成点の色付けに使用するカメラの撮影画像を選択する。
ここで、本実施形態における色付け用画像選択処理について、図11を用いて補足説明する。図11は、ゴールネット裏から選手を捉える仮想視点画像を生成する際に色付け用画像を選択するケースを示す模式図である。図11において、符号1101はゴール枠を示し、符号1102はゴールネットを示し、符号1103はオブジェクト(選手)を示す。図11は、オブジェクト1103に対応する構成点の一つである、構成点1110に対する色付け処理において、カメラ1105〜1109でそれぞれ撮影された画像の中から、マスク情報を使用して1画像を選択するケースを示す。
図12は、本実施形態における色付け用画像選択処理(図10)で作成されるリストの一例を示す図である。カメラリスト1201は、可視か否か示す情報、マスク情報、及び画素値を、カメラ毎に保持するリストである。前述したように、可視か否か示す情報は、S1003又はS1005でカメラリスト1201に記録される。また、マスク情報は、S1004でカメラリスト1201に記録される。本実施形態におけるマスク情報は、マスクの有無、及び、マスク領域の場合のマスク種別を示す。ここでは、マスク情報が取り得る値として、該当領域がマスク領域でない(マスクがない)ことを示す値を“0”と定義する。また、該当領域がゴール枠のような完全に遮蔽するオブジェクトによるマスク領域であることを示す値を“1”、該当領域がゴールネットのような遮蔽される領域と遮蔽されない領域とが混在するマスク領域であることを示す値を“2”と定義する。
図10のS1007における選択処理は、図12に示したカメラリスト1201を使用して実行する。カメラリスト1201に登録されているカメラ1105〜1109のうち、カメラ1109は不可視であり、カメラ1108はゴール枠で完全に遮蔽されることがマスク情報により判明するため、これらのカメラを選択候補から除外する。そして、残ったカメラ(つまり、マスク情報の値が“2”のカメラ)の中で例外値判定を行うことで、カメラ1107を選択候補から除外することができる。なお、マスク情報の値が“0”のカメラがあった場合は、そのカメラは例外値判定されることなく選択候補となる。最終的に残ったカメラのうち、選択されたカメラ(例えば仮想カメラ1104に最も近いカメラ1106)の撮影画像を、色付け用画像として選択する。なお、本実施形態では例外値判定の対象となるマスク領域がゴールネットに対応する場合の例を示したが、マスク領域に対応するオブジェクトはこれに限定されない。例えば、撮影対象が陸上競技である場合には、ハンマー投げのネットや幅跳びの砂場に対応するマスク領域が設定されてもよい。
<本実施形態の効果について>
本実施形態によれば、例外値判定の対象となるカメラをマスク情報に基づいて絞り込むため、第1の実施形態より短時間で、複数の撮影画像の中から色付け用画像を選択することが可能である。
[第3の実施形態]
本実施形態では第2の実施形態と同様に、3次元モデルの構成点の色付けに使う撮影画像を選択する際に、予め設定されたマスク情報を利用する。但し、本実施形態では、第2の実施形態で説明したマスク種別の情報に加え、色の情報についてもマスク情報として設定し、該設定したマスク情報を利用することで、より高速な撮影画像の選択を可能とする。尚、本実施形態におけるソフトウェア構成、及び、色付け用画像の選択処理のフローについては、第2の実施形態と同様である(図8、図10参照)。
本実施形態で使用するマスク情報について、図14を用いて説明する。図14(a)に示す撮影画像1401には、遮蔽オブジェクト(ゴール枠)1402と遮蔽オブジェクト(ゴールネット)1403とで一部が遮蔽された、オブジェクト(選手)1404が写っている。本実施形態では、撮影画像1401に対するマスク情報として、図14(b)に示すマスク情報1405を導入する。図14(b)に示すように、本実施形態も第2の実施形態と同様、ゴール枠のような完全に遮蔽するオブジェクトによるマスク領域1406に加え、ゴールネットのような一部領域のみ遮蔽するオブジェクトによるマスク領域1407を定義する。また、マスク領域の夫々に対し、色の情報を設定する。図14の例では、ユーザーは、マスク領域1406の色情報(具体的にはRGB値)として(255,255,255)を設定し、マスク領域1407の色情報として (224,224,224)を指定している。これらの色情報は、マスク領域に位置する物体(ゴール枠およびゴールネット)の色に応じた値である。マスク情報の具体的な内容は、ユーザーによって指定されてもよいし、自動で設定されてもよい。マスク情報設定部802は、ユーザーインタフェース803を介してユーザーによって指定された内容に基づき、マスク情報を設定する処理を行う。
図15は、本実施形態における色付け用画像選択処理(図10)で作成されるリストの一例を示す図である。リスト1501は、可視か否か示す情報、種別と色とに関する情報を含むマスク情報、及び画素値を、カメラ毎に保持するリストである。ここでは、カメラとオブジェクトとの位置関係が、第2の実施形態と同様のケースを例に挙げて説明する(図11参照)。
可視判定結果とマスク情報とに基づき、カメラ1105〜1107が色付けに使う候補のカメラであることを導出できる。すなわち、オブジェクト1103により構成点1110が遮蔽されるカメラ1109、及び、マスク情報が“1”のゴール枠と構成点1110とが重なるカメラ1108が、色づけの選択候補から除外される。次いで、マスクの色情報と、撮影画像内の該当領域の画素値とを比較することで、構造点とカメラとを結んだ直線状に存在する何らかのオブジェクトによってカメラが遮蔽されているか、判定できる。図15の例では、カメラ1107のマスク領域の色値と撮影画像の画素値とが近いため、カメラ1107はオブジェクト(具体的にはゴールネット)によって遮蔽されたカメラであることが分かり、色付けの選択候補から除外される。このように、マスク領域の色値と撮影画像の画素値とを比較することで、カメラが遮蔽されているか判定することが可能である。尚、判定手法は、画素値とマスク領域の色値との差が一定の閾値以内であれば遮蔽されているとみなす手法等が考えられるが、これに限らない。このようにマスクの色情報(RGB値)と画素値とを比較することで、複数のカメラ間の画素値を比較して例外値判定をする必要がなくなり、該当カメラが遮蔽されているか否かを直ちに判定することが可能となる。よって、例えば、仮想カメラの位置に近いカメラから順番に判定していく手法を採用する場合に、判定対象のカメラが遮蔽物によって遮蔽されていないと判断できれば、その段階で色付けに使われるカメラの探索を終了することが可能となる。尚、本実施形態ではマスク情報が“1”のゴール枠と構成点1110とが重なるカメラ1108を初めに除外したが、これに限らず、カメラ1108についても撮影画像の画素値とマスク情報の色値(255,255,255)を比較して除外判定を行ってもよい。また、マスクの色情報の形式は上記に限定されず、例えば輝度情報であってもよいし、一つのマスク種別が複数の色情報に対応していてもよい。
<本実施形態の効果について>
本実施形態によれば、第2の実施形態より短時間で、複数の撮影画像の中から色付け用画像を選択することが可能である。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
122 画像生成装置
208 撮影画像選択部
204 3次元モデル色付け部
205 仮想視点画像生成部

Claims (13)

  1. 目標オブジェクトを複数のカメラにより複数の方向から撮影することで得られる画像に基づき、該目標オブジェクトを含む仮想視点画像を生成する装置であって、
    前記複数のカメラによる撮影に基づく複数の画像の中から、前記目標オブジェクトにおける特定位置が他のオブジェクトにより遮蔽されていない画像を、当該画像の画素値に基づいて選択する選択手段と、
    前記選択手段により選択された画像に基づき、前記仮想視点画像における前記特定位置に対応する画素の値を決定する決定手段と、
    前記決定手段により決定された画素の値に基づき、前記仮想視点画像を生成する生成手段と
    を有することを特徴とする装置。
  2. 前記複数のカメラの夫々について、設置位置から前記特定位置が可視か判定することで、可視か否かを示す可視判定情報を導出する導出手段を更に有することを特徴とする請求項1に記載の装置。
  3. 前記選択手段は、前記可視判定情報に基づき、前記画像を選択することを特徴とする請求項2に記載の装置。
  4. 前記特定位置に対応する画素値が例外値となる画像を、前記選択手段による選択候補から除外する除外手段を更に有することを特徴とする請求項1乃至3の何れか1項に記載の装置。
  5. 前記複数のカメラによる撮影に基づく複数の画像に基づき、前記特定位置に対応する複数の画素値の平均値を算出する算出手段と、
    前記複数のカメラによる撮影に基づく画像の夫々について、前記特定位置に対応する画素値と前記算出した平均値との間の差が所定の閾値以上が判定することで、該画素値が前記例外値か判定する判定手段と
    を更に有することを特徴とする請求項4に記載の装置。
  6. 前記撮影に基づく画像におけるオクルージョン領域を指定するマスク情報を設定する設定手段を更に有し、
    前記選択手段は、前記マスク情報を用いて前記画像を選択することを特徴とする請求項5の何れか1項に記載の装置。
  7. 前記マスク情報は、マスクが有るか無いか、及び、マスクが有る場合のマスク種別を示す情報を含むことを特徴とする請求項6に記載の装置。
  8. 前記マスク情報は、前記マスクの領域に対応する色に関する情報を更に含むことを特徴とする請求項7に記載の装置。
  9. 前記複数のカメラによる撮影に基づく画像の夫々について、前記特定位置に対応する画素値と前記マスクの領域に対応する色の値とを比較した結果に基づいて、前記選択手段は、前記画像を選択することを特徴とする請求項8に記載の装置。
  10. 前記複数のカメラの夫々に対する前記マスク情報が保持されたリストを作成する作成手段を更に有し、
    前記選択手段は、前記リストを用いて前記画像を選択することを特徴とする請求項6乃至9の何れか1項に記載の装置。
  11. 前記作成手段は、前記複数のカメラによる撮影に基づく画像の夫々について、前記特定位置に対応する画素が、前記オクルージョン領域であることを示すマスク領域に属するか判定することで、前記リストを作成することを特徴とする請求項10に記載の装置。
  12. 目標オブジェクトを複数のカメラにより複数の方向から撮影することで得られる画像に基づき、該目標オブジェクトを含む仮想視点画像を生成する装置の制御方法であって、
    前記複数のカメラによる撮影に基づく複数の画像の中から、前記目標オブジェクトにおける特定位置が他のオブジェクトにより遮蔽されていない画像を、当該画像の画素値に基づいて選択する選択ステップと、
    前記選択ステップにより選択された画像に基づき、前記仮想視点画像における前記特定位置に対応する画素の値を決定する決定ステップと、
    前記決定ステップにより決定された画素の値に基づき、前記仮想視点画像を生成する生成ステップと
    を有することを特徴とする制御方法。
  13. コンピュータに、請求項12に記載の方法を実行させるための、プログラム。
JP2018133471A 2018-07-13 2018-07-13 装置、制御方法、及びプログラム Active JP7179515B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018133471A JP7179515B2 (ja) 2018-07-13 2018-07-13 装置、制御方法、及びプログラム
PCT/JP2019/026682 WO2020013077A1 (ja) 2018-07-13 2019-07-04 装置、制御方法、及びプログラム
US17/144,663 US11557081B2 (en) 2018-07-13 2021-01-08 Image processing apparatus, control method for an image processing apparatus, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018133471A JP7179515B2 (ja) 2018-07-13 2018-07-13 装置、制御方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020013216A true JP2020013216A (ja) 2020-01-23
JP7179515B2 JP7179515B2 (ja) 2022-11-29

Family

ID=69142562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018133471A Active JP7179515B2 (ja) 2018-07-13 2018-07-13 装置、制御方法、及びプログラム

Country Status (3)

Country Link
US (1) US11557081B2 (ja)
JP (1) JP7179515B2 (ja)
WO (1) WO2020013077A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967199A (zh) * 2021-03-05 2021-06-15 北京字跳网络技术有限公司 图像处理方法和装置
JP2021117876A (ja) * 2020-01-29 2021-08-10 Kddi株式会社 画像処理装置、方法及びプログラム
WO2022019149A1 (ja) * 2020-07-21 2022-01-27 ソニーグループ株式会社 情報処理装置、3dモデル生成方法、情報処理方法およびプログラム
KR20220066760A (ko) * 2020-11-16 2022-05-24 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3912089A4 (en) 2019-02-28 2022-12-07 Stats Llc SYSTEM AND METHOD FOR RE-IDENTIFYING PLAYERS IN BROADCAST VIDEO
JP2020197497A (ja) * 2019-06-05 2020-12-10 株式会社ソニー・インタラクティブエンタテインメント 三次元計測装置、三次元計測方法およびプログラム
JP7500231B2 (ja) 2020-03-05 2024-06-17 キヤノン株式会社 画像生成システム、その制御方法及びプログラム。
JP2022014358A (ja) 2020-07-06 2022-01-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
CN112967200A (zh) * 2021-03-05 2021-06-15 北京字跳网络技术有限公司 图像处理方法、装置、电子设备、介质和计算机程序产品
JP2022184354A (ja) * 2021-06-01 2022-12-13 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法
JP2006024141A (ja) * 2004-07-09 2006-01-26 Sony Corp 画像処理装置及び方法、プログラム
JP2009116532A (ja) * 2007-11-05 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法および仮想視点画像生成装置
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2013061850A (ja) * 2011-09-14 2013-04-04 Canon Inc ノイズ低減のための画像処理装置及び画像処理方法
JP2015045920A (ja) * 2013-08-27 2015-03-12 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5373931B2 (ja) 2012-03-22 2013-12-18 日本電信電話株式会社 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム
US8619082B1 (en) * 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
EP3016076A1 (en) * 2014-10-31 2016-05-04 Thomson Licensing Method and apparatus for removing outliers from a main view of a scene during 3D scene reconstruction
US10846836B2 (en) * 2016-11-14 2020-11-24 Ricoh Company, Ltd. View synthesis using deep convolutional neural networks
JP7072378B2 (ja) 2017-12-13 2022-05-20 キヤノン株式会社 画像生成装置およびその制御方法、画像生成システム、プログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10191396A (ja) * 1996-12-26 1998-07-21 Matsushita Electric Ind Co Ltd 中間視点画像生成方法および視差推定方法および画像伝送方法
JP2006024141A (ja) * 2004-07-09 2006-01-26 Sony Corp 画像処理装置及び方法、プログラム
JP2009116532A (ja) * 2007-11-05 2009-05-28 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法および仮想視点画像生成装置
JP2009211335A (ja) * 2008-03-04 2009-09-17 Nippon Telegr & Teleph Corp <Ntt> 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2013061850A (ja) * 2011-09-14 2013-04-04 Canon Inc ノイズ低減のための画像処理装置及び画像処理方法
JP2015045920A (ja) * 2013-08-27 2015-03-12 日本電信電話株式会社 仮想視点映像生成装置、仮想視点映像生成方法、及び仮想視点映像生成プログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021117876A (ja) * 2020-01-29 2021-08-10 Kddi株式会社 画像処理装置、方法及びプログラム
JP7197526B2 (ja) 2020-01-29 2022-12-27 Kddi株式会社 画像処理装置、方法及びプログラム
WO2022019149A1 (ja) * 2020-07-21 2022-01-27 ソニーグループ株式会社 情報処理装置、3dモデル生成方法、情報処理方法およびプログラム
KR20220066760A (ko) * 2020-11-16 2022-05-24 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
KR102544972B1 (ko) 2020-11-16 2023-06-20 주식회사 핏투게더 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템
CN112967199A (zh) * 2021-03-05 2021-06-15 北京字跳网络技术有限公司 图像处理方法和装置

Also Published As

Publication number Publication date
JP7179515B2 (ja) 2022-11-29
US20210133944A1 (en) 2021-05-06
US11557081B2 (en) 2023-01-17
WO2020013077A1 (ja) 2020-01-16

Similar Documents

Publication Publication Date Title
JP7179515B2 (ja) 装置、制御方法、及びプログラム
US10742951B2 (en) Image generation apparatus and method of generating virtual view-point image
US11677925B2 (en) Information processing apparatus and control method therefor
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP2019191989A (ja) 仮想視点画像を生成するシステム、方法及びプログラム
JP2018191254A (ja) 画像処理装置、画像処理方法、情報処理装置、撮像装置および画像処理システム
KR20170138800A (ko) 멀티 스티커를 이용한 영상 생성 방법 및 장치
JP2016063248A (ja) 画像処理装置および画像処理方法
JP6812181B2 (ja) 画像処理装置、画像処理方法、及び、プログラム
US20240185480A1 (en) Image processing system, image processing method, and storage medium
JP6821398B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021119459A (ja) 生成装置、生成方法
US11295453B2 (en) Image processing apparatus, transmission method, and storage medium
JP7190849B2 (ja) 画像生成装置、画像生成装置の制御方法及びプログラム
EP3926949A1 (en) Control apparatus, control method, and program
US20230291865A1 (en) Image processing apparatus, image processing method, and storage medium
JP2019075740A (ja) 画像処理システム、画像処理装置、画像伝送方法、及び、プログラム
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021034921A (ja) 画像処理装置、画像処理装置の制御方法、システム、およびプログラム
JP2021093648A (ja) 画像データ処理装置、画像データ処理方法、及びプログラム
JP2020046944A (ja) 画像処理装置、制御方法、及びプログラム
JP2023019086A (ja) 伝送制御装置、伝送制御装置の動作方法及びプログラム
JP2021184522A (ja) 画像処理装置、画像処理方法およびプログラム
JP2024035420A (ja) 情報処理装置、情報処理方法、プログラム
JP2019080183A (ja) 画像伝送装置、画像伝送方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221116

R151 Written notification of patent or utility model registration

Ref document number: 7179515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151