JP7072378B2 - 画像生成装置およびその制御方法、画像生成システム、プログラム - Google Patents

画像生成装置およびその制御方法、画像生成システム、プログラム Download PDF

Info

Publication number
JP7072378B2
JP7072378B2 JP2017238921A JP2017238921A JP7072378B2 JP 7072378 B2 JP7072378 B2 JP 7072378B2 JP 2017238921 A JP2017238921 A JP 2017238921A JP 2017238921 A JP2017238921 A JP 2017238921A JP 7072378 B2 JP7072378 B2 JP 7072378B2
Authority
JP
Japan
Prior art keywords
dimensional model
coloring
evaluation
captured images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017238921A
Other languages
English (en)
Other versions
JP2019106064A (ja
Inventor
英人 榊間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017238921A priority Critical patent/JP7072378B2/ja
Priority to US16/214,654 priority patent/US10742951B2/en
Publication of JP2019106064A publication Critical patent/JP2019106064A/ja
Application granted granted Critical
Publication of JP7072378B2 publication Critical patent/JP7072378B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Description

本発明は、複数のカメラからの撮影画像を用いて仮想視点画像を生成する技術に関する。
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像(複数視点画像)を用いて仮想視点コンテンツを生成する技術が注目されている。このような仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。
複数視点画像に基づく仮想視点コンテンツは、サーバなどの画像生成装置に複数のカメラが撮影した画像を集約し、集約された画像から三次元モデルを生成し、レンダリングなどの処理を行うことで生成される。生成された仮想視点コンテンツは、ユーザ端末に送付され、ユーザにより閲覧される。
画像生成装置により用いられる三次元モデルの生成方法として、Visual Hullと呼ばれる形状推定方法が知られている。Visual Hullなどによって生成された三次元モデルは、空間上の点やボクセルの集合によって表現される。そして、これらの点やボクセルに色情報を持たせるために、複数のカメラによる撮影画像を使用して、点やボクセル毎の色付け処理が行われる。
特許文献1には、複数のカメラによる撮影画像から仮想視点画像を生成する際にどのカメラの画像を使用するかを選択すること、及び、仮想視点画像のフレーム毎にカメラを再選択して色付け処理を行うことが記載されている。特許文献1によれば、フレーム毎に適切なカメラの画像を選択することが可能となり、フレーム間での色の差を軽減した、比較的高品位な仮想視点画像を生成できる。
特開2011-228845号公報
複数の撮影画像から三次元モデルを生成する場合、生成される三次元モデルの形状の精度は撮影時の被写体の状態などによって異なることがある。例えばVisual Hullでは、くぼんだ形状の被写体を精度よく三次元モデル化することが困難であり、本来の被写体の状態に応じた形状を正しく推定することができない可能性がある。従来の方法で三次元モデルへの色づけ処理を行う場合、三次元モデルの形状推定の精度が低いと、生成される仮想視点画像の品質を低下させたり、画像を破綻させたりする可能性があった。
本発明は、上記の課題に鑑みてなされたものであり、形状推定の精度の高い三次元モデルが得られない場合にも、当該三次元モデルに基づいて生成される仮想視点画像の画質の低下を抑制することを目的とする。
本発明の一態様による画像生成装置は以下の構成を備える。すなわち、
複数のカメラ撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置であって、
複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価手段と、
前記評価手段による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択手段と、
前記選択手段により選択された色付け方法で前記三次元モデルの色付けを行う色付け手段と、を備え
前記評価手段は、
前記複数の撮影画像それぞれにおける、前記三次元モデルを構成する要素に対応する位置の色を特定し、
前記複数の撮影画像それぞれにおける前記位置の色に基づいて決まる色の差が所定値以上となる前記三次元モデルを構成する要素の割合に基づいて、前記三次元モデルを評価する。
本発明によれば、形状推定の精度の高い三次元モデルが得られない場合にも、当該三次元モデルに基づいて生成される仮想視点画像の画質の低下を抑制することが可能となる。
実施形態に関わる画像生成システムの構成例を示すブロック図。 実施形態に関わる画像生成装置の機能構成例示すブロック図。 画像生成装置のハードウエア構成例を示すブロック図。 画像生成装置による仮想視点画像の生成処理を示すフローチャート。 くぼみが存在する被写体の三次元モデルの生成状態を説明する図。 実施形態に関わる、三次元モデルの精度評価方法を説明する図である。 実施形態に関わる、三次元モデルへの色付け方法を説明する図である。
以下、本発明の実施形態について、図面を使用して詳細に説明する。
<第1実施形態>
第1実施形態は、三次元モデルを構成する点に色付けを行う際、色付けに用いられる候補となる撮影画像の中から外れ値を持つ撮影画像を排除した上で色付けを行う処理について説明する実施形態である。
図1は、実施形態に関わる画像生成システムの構成例を示すブロック図である。以下、競技場(スタジアム)やコンサートホールなどの施設に複数のカメラ及びマイクを設置し撮影及び集音を行う本実施形態の画像生成システムについて、図1のシステム構成図を用いて説明する。画像生成システム100は、センサシステム110a~110z、画像生成装置122、コントローラ123、スイッチングハブ121、及びエンドユーザ端末126を有する。
センサシステム110aにおいて、マイク111aは、集音した音声を電気的な音声信号に変換して出力する。カメラ112aは、被写体を撮影して得られた画像を電気的な画像信号(以下、撮影画像)として出力する。雲台113aは、カメラ112aの姿勢(パン、チルト)を変更する。外部センサ114aはカメラ112aの温度、振動などを検出する。カメラアダプタ120aは、マイク111aから取得された音声信号、カメラ112aから取得された撮影画像をネットワークケーブル180a上に出力する。また、カメラアダプタ120aは、ネットワークケーブル180aを介して入力されたコマンドに応じて、雲台113aを制御し、カメラ112aの姿勢を変更する。
なお、センサシステム110aは、上記の構成に限定されるものではなく、少なくとも1台のカメラアダプタ120aと、1台のカメラ112aまたは1台のマイク111aを有していれば良い。また例えば、センサシステム110aは1台のカメラアダプタ120aと、複数のカメラ112aで構成されてもよいし、1台のカメラ112aと複数のカメラアダプタ120aで構成されてもよい。即ち、画像生成システム100内の複数のカメラ112と複数のカメラアダプタ120はN対M(NとMは共に1以上の整数)で対応する。また、センサシステム110aは、マイク111a、カメラ112a、雲台113a、及びカメラアダプタ120a以外の装置を含んでいてもよい。また、カメラ112とカメラアダプタ120が一体となって構成されていてもよい。
センサシステム110b~110zは、センサシステム110aと同様の構成を有しているものとする。但し、センサシステム110b~110zの各々がセンサシステム110aと同じ構成であることに限定されるものではなく、それぞれが異なる構成であってもよい。本実施形態の画像生成システム100では、センサシステム110a~110zは、それぞれ1台ずつのカメラ112a~カメラ112zを有するものとする。こうして、画像生成システム100は、被写体を複数の方向から撮影するための複数のカメラ112a~112zを有する。
センサシステム110a~110zは、それぞれネットワークケーブル180a~180zを介してスイッチングハブ121に接続されており、スター型のネットワークを構成している。センサシステム110a~110zは、スイッチングハブ121を経由して相互にデータ送受信を行うことができる。また、センサシステム110a~110zは、それぞれネットワークケーブル180a~180zとスイッチングハブ121を介して画像生成装置122に接続される。したがって、マイク111a~111zにて集音された音声と、カメラ112a~112zにて撮影された画像は、カメラアダプタ120a~120zを介してスイッチングハブ121へ伝送され、画像生成装置122に伝送される。
なお、本実施形態では、センサシステム110aのカメラ112aとカメラアダプタ120aが分離された構成にしているが、同一筺体で一体化されていてもよい。その場合、マイク111aは一体化されたカメラ112aに内蔵されてもよいし、カメラ112aの外部に接続されていてもよい。このことは、センサシステム110b~110zについても同様である。
なお、本実施形態の画像生成システム100では、26セットのセンサシステムを有する構成を記載しているが、あくまでも一例であり、センサシステムの台数をこれに限定するものではない。なお、本実施形態では、特に断りがない限り、画像という文言が、動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像生成システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像生成システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれる例を中心に説明するが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくても良い。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であっても良い。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。
タイムサーバ127は時刻及び同期信号を配信する機能を有し、スイッチングハブ121を介してセンサシステム110a~110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a~120zは、カメラ112a~112zを時刻と同期信号を基にGenlockさせ画像フレーム同期を行う。即ち、タイムサーバ127は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像生成システム100は同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できるため、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。なお、本実施形態ではタイムサーバ127がカメラ112a~112zの時刻同期を管理するものとするが、これに限らず、時刻同期のための処理をカメラ112a~112zの各々、又はカメラアダプタ120a~120zの各々が独立して行ってもよい。
画像生成装置122は、ネットワークケーブル190bを介してセンサシステム110a~110zから取得したデータを基に、仮想視点画像を生成する処理を行う。画像生成装置122によって生成された仮想視点画像は、エンドユーザ端末126に送信され、エンドユーザ端末126を操作するユーザは視点の指定に応じた画像閲覧及び音声視聴が出来る。なお、本実施形態では、仮想視点コンテンツに音声データ(オーディオデータ)が含まれる場合の例を中心に説明するが、必ずしも音声データが含まれていなくても良い。
また、画像生成装置122は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化したうえで、MPEG-DASHプロトコルを使ってエンドユーザ端末126へ送信することができる。また、画像生成装置122は、仮想視点画像を非圧縮でエンドユーザ端末126へ送信することもできる。とくに圧縮符号化を行う前者はエンドユーザ端末126としてスマートフォンやタブレットを想定しており、後者は非圧縮画像を表示可能なディスプレイを想定している。すなわち、画像生成装置122は、エンドユーザ端末126の種別に応じて画像フォーマットが切り替え可能である。また、画像生成装置122が用いる画像の送信プロトコルには、MPEG-DASHに限らず、例えば、HLS(HTTP Live Streaming)やその他の送信方法が用いられても良い。
コントローラ123は制御ステーション124と仮想カメラ操作UI125を有する。制御ステーション124は画像生成システム100を構成するそれぞれのブロックに対してネットワークケーブル180a~180z、及びネットワークケーブル190aを通じて動作状態の管理及びパラメータ設定制御などを行う。また、制御ステーション124は、カメラ112a~112zの設置情報を画像生成装置122に送信する。設置情報は、カメラ112a~112zの各々の位置、向き及び姿勢の少なくとも何れかを示す情報である。仮想カメラ操作UI125は、ユーザ操作などに基づいて指定された仮想視点の位置及び向きの少なくとも何れかを示す視点情報を画像生成装置122に送信する。画像生成装置122は、指定された仮想視点の画像を生成し、エンドユーザ端末126へ送信する。なお、カメラの設置情報と仮想視点の視点情報は、ネットワークケーブル190a、190bを介して画像生成装置122に送信されてもよいし、コントローラ123と画像生成装置122を直接に接続するケーブルを介して送信されてもよい。
ここで、ネットワークはEthernet(登録商標)であるIEEE標準準拠のGbE(ギガビットイーサーネット)や10GbEでもよいし、インターコネクトInfiniband、産業用イーサーネット等を組合せて構成されてもよい。また、これらに限定されず、他の種別のネットワークであってもよい。
なお、制御ステーション124は、仮想視点画像の生成対象となる場所(スタジアム等)の三次元モデルを画像生成装置122に送信する。さらに、制御ステーション124はカメラ設置時に、キャリブレーションを実施する。具体的には、撮影対象のフィールド上にマーカーを設置し、カメラ112の撮影画像により、各カメラの世界座標における位置と向き、および焦点距離を算出する。該算出された各カメラの位置、向き、焦点距離の情報は、画像生成装置122に送信される。送信された三次元モデルおよび各カメラの情報は、画像生成装置122が仮想視点画像を生成する際に使用される。
次に、本実施形態の画像生成装置122の機能構成を説明する。図2Aは、画像生成装置122の機能構成例を示すブロック図である。以下、画像生成装置122が撮影画像を処理するための機能について説明する。
撮影画像入力部201は、スイッチングハブ121を介して、センサシステム110a~110zから送信される撮影画像及び音声信号を入力する。撮影画像入力部201より入力された撮影画像は、三次元モデル生成部202へ送信される。三次元モデル生成部202は、撮影画像入力部201より入力される撮影画像と制御ステーション124から入力される設置情報を基に、三次元モデルを生成する。三次元モデルの生成は、例えばVisual Hullなどの形状推定方法により実行される。ただし三次元モデルの生成にはその他の方法が用いられてもよい。本実施形態では、三次元モデルは点で構成されるものとして以降の説明を行う。ただし三次元モデルはボクセルやポリゴンにより構成されていてもよい。
色付け処理部203は、三次元モデル生成部202によって生成された三次元モデルに、撮影画像を使用して色付け処理を行う。より具体的には、色付け処理部203は、三次元モデルを構成する点毎に、設置情報に基づいて点とカメラとの位置関係から複数の撮影画像を選択し、選択した複数の撮影画像から適切な画素値を取得して色付けを行う。なお、色づけ処理部203は、撮影画像から特定の被写体の領域が抽出された部分画像を取得し、当該部分画像を用いて色付けを行ってもよい。仮想視点画像生成部204は、色づけされた三次元モデルを利用して、指定された仮想視点に対応する仮想視点画像を生成する。仮想視点画像生成部204は、例えば、三次元空間に配置した三次元モデルを仮想視点へ投影することにより仮想視点画像を生成する。映像出力部205は、仮想視点画像生成部204にて生成された仮想視点画像を映像としてエンドユーザ端末126へ出力する。なお、エンドユーザ端末126に応じた映像フォーマットの変換処理は映像出力部205にて実施される。
仮想視点情報取得部206は、仮想カメラ操作UI125により指定される仮想視点の視点情報を取得する。仮想視点画像生成部204では、仮想視点情報取得部206が取得した視点情報に基づいて仮想視点画像が生成される。精度評価部207は、三次元モデル生成部202にて生成された三次元モデルの生成結果の精度を評価(精度評価という)し、その評価結果(精度情報)を色付け方式決定部208へ提供する。精度評価部207は、三次元モデルの仮想視点から観察される部分について精度を評価するようにしてもよい。色付け方式決定部208は、精度評価部207の評価結果(精度情報)に基づき、三次元モデルに対する色付け方法を決定し、色付け処理部203へ通知する。色付け処理部203は、色づけ方式決定部208から通知された色付け方法を用いて三次元モデルへの色付け処理を行う。なお、図1Bに示す画像生成装置122の複数の構成要素は、複数の装置に分かれて実装されていてもよい。例えば、三次元モデル生成部202及び色づけ処理部203が、仮想視点画像生成部204とは別の装置に実装されていてもよい。
図2Bは、画像生成装置122のハードウエア構成例を示すブロック図である。図2Bにおいて、CPU251は、ROM252またはRAM253に格納されたプログラムを実行することにより、後述する処理を含む各種制御を実現する。ROM252は、不揮発性の読み出し専用メモリである。RAM253は、随時に読み書きが可能なメモリであり、記憶装置256に格納されているプログラムを展開するための領域、CPU251の作業領域を提供する。機器I/F254は、コントローラ123と接続するためのインターフェースである。ネットワークI/F255は、画像生成システムが形成するネットワーク(具体的にはスイッチングハブ121)と接続するためのインターフェースである。記憶装置256は、CPU251により実行されるプログラム、撮影画像、生成された三次元モデル、音声信号などを格納する。図2Aに示した各機能部は、CPU251が所定のプログラムを実行することにより実現されてもよいし、各機能部の一部または全部が専用のハードウエアにより実現されてもよい。
次に、以上のような構成を備えた画像生成システム100における画像生成装置122の動作について説明する。図3は、画像生成装置122による仮想視点画像の生成処理を示すフローチャートである。図3のフローチャートは、仮想視点画像を1フレーム生成する処理の流れを示している。本実施形態では、被写体の形状と、複数の撮影画像から生成される被写体の三次元モデルの形状との対応を評価し、その評価の結果に基づいて、三次元モデルの色付けを行うのに用いる色付け方法を選択することにより、仮想視点画像の破綻を低減または防止する。
ステップS301において、三次元モデル生成部202は、カメラ112a~112zのうちの複数のカメラによって撮影された撮影画像と制御ステーション124から取得される設置情報に基づいて三次元モデルを生成する。次に、ステップS302において、精度評価部207は、ステップS301で生成した三次元モデルの生成結果の精度評価を行い、その評価結果に基づいて精度情報を生成する。この精度評価は、上述した被写体の形状と三次元モデルの形状との対応の評価の一例である。具体的な評価方法については後述する。ステップS303において、色付け方式決定部208は、ステップS301にて作成した三次元モデルへの色付け処理に用いる色付け方法を、ステップS302にて出力した三次元モデルの精度情報に基づき決定する。ステップS302~ステップS303の処理は、生成されたすべての三次元モデルについて実施される(ステップS304)。
ステップS304にて、全ての三次元モデルについて精度の評価及び色付け処理方法が決定されたと判定されると、ステップS305において色付け処理部203は、決定された色付け方法に従って三次元モデルの色付けを行う。その後、ステップS306にて、仮想視点画像生成部204は、色付け処理を行った三次元モデルを使用して仮想視点画像を生成する。
次に、三次元モデルが高精度に生成できない場合の例について説明する。図4は、三次元モデルを生成する対象となる被写体及び生成される三次元モデルについて説明する図である。図4(a)は、被写体401を上面から見た図であり、図示のように被写体401は凹部を有する。図4(b)の点線で示す形状が、被写体401について生成された三次元モデル404であり、カメラ402およびカメラ403により撮影された撮影画像を用いて三次元モデル生成部202が形状推定を行った結果である。なお、図4(b)では2台のカメラを図示しているが、実際には任意の数のカメラから得られた撮影画像を用いて形状推定が行われる。Visual Hullによる形状推定では、凹部の形状を推定することが困難であり、三次元モデル404に示されるように凹部領域406が埋められた三次元モデルが生成されてしまう可能性がある。
このような三次元モデル404に色付け処理を行う際の課題について説明を加える。点405は、三次元モデル404を構成する点であり、凹部領域406に残ってしまった実在しない点である。三次元モデル404を構成する点への色付け処理を行う際、例えばカメラ402及びカメラ403を用いて得られたそれぞれの撮影画像から得られる色の値を平均化するなどして色付けを行う。三次元モデル404の点405は被写体401には存在しないため、点405に対して色付けを行うと誤った位置に対して色付けを行ってしまうことになる。
図4(b)の例では、カメラ402から得られる撮影画像において点405に対応する色は被写体401の凹部領域406に接する部分407の色である。また、カメラ403から得られる撮影画像において点405に対応する色は被写体401の凹部領域406に接する部分408の色である。よって、カメラ402とカメラ403の撮影画像それぞれから被写体の異なる位置の色を参照して色付け処理を行ってしまうことになり、点405に色付けされる色は本来の色から大きく異なるものとなってしまう可能性がある。結果として誤った位置に誤った色付けが行われてしまうため、画像の画質が低下してしまう可能性がある。
次に、図5を用いて、三次元モデルの精度評価方法について説明する。図5は、図4と同様に上面から被写体及び三次元モデルを示した図である。図5(a)に示される被写体501は、被写体401のような凹部領域406が存在せず、精度のよい三次元モデルが生成され得る。
図5(b)において、被写体501の形状推定により生成された三次元モデル504が点線で示されている。三次元モデル504を構成する点505は、カメラ502とカメラ503によって撮影されているとする。三次元モデル504では、被写体501の形状にくぼみなどが無いため、被写体501が精度よく形状推定されている。よって、三次元モデル504の点505は被写体501上に実在する点に対応しており、カメラ502による撮影画像とカメラ503による撮影画像の点505に対応する位置の値(色)は近いものとなる。
一方、図4で説明したように、被写体の形状と被写体を推定した結果である三次元モデルの形状との間に差がある場合、複数の撮影画像における三次元モデルを構成する同一の点に対応する位置の値(色)に差が生じる。例えば、上述のように凹部領域406を有する被写体401を形状推定すると、凹部領域406が埋められた状態の三次元モデル404が得られてしまう場合がある。その場合、三次元モデル404を構成する誤った点(被写体には存在しない点)である点405に対応する、カメラ402とカメラ403の撮影画像の色が、それぞれ部分407と部分408を撮影した色となり、双方の色に差が生じる。以上から、三次元モデルの精度の評価は、複数の撮影画像における、三次元モデルを構成する同一の点に対応する位置の色に基づいて行えることが理解される。
例えば、複数の撮影画像から得られる同一の点に対応する位置の色の差に基づいて三次元モデルの精度を評価することができる。すなわち、上述のように三次元モデルの生成精度が低い場合、三次元モデルを構成する点を捉える複数のカメラからの撮影画像における、その点に対応する位置の色に差が生じる。よって、三次元モデルを構成する点のそれぞれについて、複数のカメラからの撮影画像から得られる色の差を算出し、算出された差が所定値以上となる点の数の三次元モデルを構成する点の総数に対する割合が大きい場合、その三次元モデルの生成精度が低いと判定できる。上記の所定値は、例えば画像生成装置122に対するユーザ操作に基づいて決定されてもよいし、自動で設定されてもよい。なお、三次元モデルを構成する点の総数に代えて、仮想視点から観察される範囲の三次元モデルを構成する点の数を用いてもよい。また、三次元モデルを構成する点に関する色の差には、色の差が最も大きい撮影画像の組み合わせから得られる値を採用してもよい。あるいは、カメラから点へ向かう直線の向きの差が最も大きくなる2つのカメラから得られた撮影画像を用いて色の差を計算するようにしてもよい。また、3つ以上の撮影画像の画素値を用いて計算された値を色の差として用いてもよい。
第1実施形態における三次元モデルへの色付け処理について、図を用いて説明を行う。図6は、図4(b)で示した、生成された三次元モデルの精度が低い場合の色付け処理方法について説明する。図6を用いて説明する処理はステップS305(図3)にて実施される。本実施形態では、色付け処理方法の切り替えの一例として、三次元モデルの評価精度が所定の基準に至らない場合に、三次元モデルの色付けを単一のカメラからの撮影画像を用いて行うように切り替える。
図6において、仮想カメラ601は仮想視点画像の生成のために仮想カメラ操作UI125により指定された仮想視点を表す。カメラ602およびカメラ603は、三次元モデルの精度が高いと判断された場合の色付けに使用される撮影画像を提供する。三次元モデルの精度が高い場合、仮想視点と同一の視点で撮影するカメラが存在しなければ、複数のカメラによる複数の撮影画像を用いて三次元モデルの色づけを行うことで、より実際の色に近い高画質の仮想視点画像を生成できる。例えば、仮想視点に近い複数のカメラによる撮影画像のそれぞれから三次元モデルの同一の点に対応する画素を抽出し、抽出された画素の画素値を平均化した値をその点の色付けに用いることができる。一方、図4で説明したように、三次元モデルの生成精度が低い場合、精度が高い場合と同様に複数のカメラで撮影された複数の撮影画像の画素値を平均化するなどして色付けを行うと、誤って生成された三次元モデルの点に誤った色を付けてしまうことになる。そこで、三次元モデルの精度が低いと判断された場合は、色付けに使用する撮影画像を一つに制限する処理を行う。図6においては、仮想カメラ601に近いカメラ602からの撮影画像のみを使用して色付け処理を行う。このような処理によれば、本来存在しない点に色付けを行うことにはなるが、仮想視点に対応する視点から実際に見た場合と大きく異なる色で色づけされる可能性は低減される。その結果、三次元モデルの精度が低い状態であっても、画像が破綻する可能性を低減することが可能となる。
なお、本実施形態では、三次元モデルの評価に応じて、当該三次元モデルに適用する色付け処理を切り替えたが、これに限られるものではない。三次元モデルを構成する個々の点について上記色の差を算出することで個々の点に関する精度を評価することができるので、三次元モデルを構成する点ごとに色付け方法を選択し切り替えるようにしてもよい。ただし、三次元モデルごとに色づけ方法を決定する方法によれば、生成される仮想視点画像における単一の被写体(例えばボールや選手など)に対応する領域の色の連続性が失われる虞を低減することができる。
以上説明したように第1実施形態に記載の方法では、生成された三次元モデルを構成する点について複数のカメラによる撮影画像から得られる色の差を用いて精度評価を行い、その評価結果に基づき三次元モデルの色付け方法を決定する。このような処理により、三次元モデルの精度が低い場合であっても、生成される仮想視点画像の画質の低下や画像の破綻を抑制する色付け方法を選択し、三次元モデルの精度が高い場合には、より高画質の仮想視点画像を生成可能な色づけ方法を選択することが可能となる。なお、本実施形態では三次元モデルの精度を評価する場合を中心に説明したが、画像生成装置122は三次元モデルの精度評価を行わなくてもよい。例えば画像生成装置122は、複数のカメラによる複数の撮影画像における対応する画素値の差が所定の閾値より大きい場合に、対象のモデルへの色づけ処理に用いる画像を単一のカメラの撮影画像とし、そうでない場合には複数のカメラによる複数の撮影画像を用いて色づけ処理を行ってもよい。これにより、生成される仮想視点画像に乱れが生じることを抑制できる。また、本実施形態では三次元モデルの色づけ方法を切り替える場合について説明したが、仮想視点画像の生成に係る処理を切り替えるものであればこれに限らない。例えば、三次元モデルの精度が高いと判断された場合には上記のような三次元モデルへの色づけ処理を行い、三次元モデルの精度が低いと判断された場合には三次元モデルを用いずに撮影画像の射影変換などを用いて仮想視点画像を生成してもよい。
<第2実施形態>
第1実施形態では、被写体の形状と複数の撮影画像から生成される被写体の三次元モデルの形状との対応を評価するために、複数の撮影画像から得られる三次元モデル上の点の色の差に基づいて精度評価を行う例を説明した。第2実施形態では、複数のカメラを利用して距離推定行うことで被写体の形状を推定し、推定された形状に基づいて三次元モデルの精度を評価する。なお、第2実施形態における画像生成システム100の構成、画像生成装置122の構成および動作は第1実施形態(図1~図3)と同様である。但し、精度評価部207による三次元モデルの精度評価方法が異なる。
第2実施形態における三次元モデルの精度を評価する方法について説明する。図4(b)にて説明したように、Visual Hullを使用した形状推定において、くぼみを持つ被写体の三次元モデル精度は低くなる可能性が高い。よって被写体にくぼみがあるか否かを判定し、被写体にくぼみがある場合は生成される三次元モデルの精度が低いと判断することができる。
被写体にくぼみがあるか否かの判定は、被写体を捉える複数のカメラを用いた距離推定を行うことで判定可能である。例えば、精度評価部207は、2台のカメラを使用したステレオマッチング法を使用してカメラと被写体の各部との距離を推定することで、被写体の形状を推定する。精度評価部207は、推定された被写体の形状に、所定基準を超える凹凸の領域が存在すると判断した場合、その被写体について生成される三次元モデルの精度は低くなると評価する。精度評価部207により三次元モデルの精度が低くなると評価されると、第1実施形態と同様に色づけ方式決定部208は単一のカメラによる色付けに切り替える。
以上説明したように、第2実施形態によれば、三次元モデルの生成精度を、複数のカメラで距離推定を行い、被写体の形状を推定し、推定された形状に所定基準を超える凹凸の領域が存在するか否かを判定することで評価する。なお、所定基準を超える凹凸とは、例えば、所定面積以下の開口で、所定長以上の深さを有する凹部である。そして、その評価結果に基づき色付け方法を変更することで、画像の破綻を防止または低減することが可能となる。以上、各実施形態によれば、例えば、形状推定により本来の被写体と異なる形状の三次元モデルが生成された場合であっても、誤った色付け処理を行ってしまうことを制限することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201:撮影画像入力部、202:三次元モデル生成部、203:色付け処理部、204:仮想視点画像生成部、205:映像出力部、206:仮想視点情報取得部、207:精度評価部、208:色付け方式決定部

Claims (15)

  1. 複数のカメラ撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価手段と、
    前記評価手段による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択手段と、
    前記選択手段により選択された色付け方法で前記三次元モデルの色付けを行う色付け手段と、を備え
    前記評価手段は、
    前記複数の撮影画像それぞれにおける、前記三次元モデルを構成する要素に対応する位置の色を特定し、
    前記複数の撮影画像それぞれにおける前記位置の色に基づいて決まる色の差が所定値以上となる前記三次元モデルを構成する要素の割合に基づいて、前記三次元モデルを評価することを特徴とする画像生成装置。
  2. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価手段と、
    前記評価手段による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択手段と、
    前記選択手段により選択された色付け方法で前記三次元モデルの色付けを行う色付け手段と、を備え、
    前記評価手段は、
    前記複数の撮影画像それぞれにおける、前記三次元モデルを構成する要素に対応する位置の色を特定し、
    前記複数の撮影画像それぞれにおける前記位置の色に基づいて決まる色の差に基づいて、前記三次元モデルを評価し、
    前記選択手段は、1つの被写体に対応する前記三次元モデルについて1つの色付け方法を選択することを特徴とする画像生成装置。
  3. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価手段と、
    前記評価手段による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択手段と、
    前記選択手段により選択された色付け方法で前記三次元モデルの色付けを行う色付け手段と、を備え、
    前記評価手段は、
    前記複数の撮影画像それぞれにおける、前記三次元モデルを構成する要素に対応する位置の色を特定し、
    カメラから前記三次元モデルを構成する要素へ向かう直線の向きの差が最も大きくなる2つのカメラにより取得された2つの撮影画像それぞれにおける前記位置の色の差を算出することを特徴とする画像生成装置。
  4. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価手段と、
    前記評価手段による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択手段と、
    前記選択手段により選択された色付け方法で前記三次元モデルの色付けを行う色付け手段と、を備え、
    前記評価手段は、前記被写体を撮影する複数のカメラを用いて前記被写体の部分の距離推定を行って推定された前記被写体の形状に基づいて前記三次元モデルを価することを特徴とする画像生成装置。
  5. 前記評価手段は、前記被写体の推定された形状に所定基準を超える凹凸が存在するか否かを判定することにより前記評価をすることを特徴とする請求項に記載の画像生成装置。
  6. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価手段と、
    前記評価手段による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択手段と、
    前記選択手段により選択された色付け方法で前記三次元モデルの色付けを行う色付け手段と、を備え、
    前記評価手段は、被写体の形状と、複数の撮影画像から生成される前記被写体の三次元モデルの形状との対応の精度を評価し、
    前記選択手段は、前記精度が所定の基準に至らない場合に、前記三次元モデルの色付けを単一のカメラからの撮影画像を用いて行う色付け方法を選択することを特徴とする画像生成装置。
  7. 前記選択手段は、複数のカメラのうち指定された仮想視点に最も近いカメラを前記単一のカメラとして選択することを特徴とする請求項に記載の画像生成装置。
  8. 複数の撮影画像から被写体の三次元モデルを生成する生成手段をさらに備えることを特徴とする請求項1乃至7のいずれか1項に記載の画像生成装置。
  9. 請求項1乃至のいずれか1項に記載の画像生成装置と、
    前記画像生成装置と接続されて撮影画像を提供する複数のカメラと、を備えることを特徴とする画像生成システム。
  10. 複数のカメラ撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置の制御方法であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価工程と、
    前記評価工程による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択工程と、
    前記選択工程により選択された色付け方法で前記三次元モデルの色付けを行う色付け工程と、を有し、
    前記評価工程では、
    前記複数の撮影画像それぞれにおける、前記三次元モデルを構成する要素に対応する位置の色を特定し、
    前記複数の撮影画像それぞれにおける前記位置の色に基づいて決まる色の差が所定値以上となる前記三次元モデルを構成する要素の割合に基づいて、前記三次元モデルを評価することを特徴とする画像生成装置の制御方法。
  11. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置の制御方法であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価工程と、
    前記評価工程による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択工程と、
    前記選択工程により選択された色付け方法で前記三次元モデルの色付けを行う色付け工程と、を有し、
    前記評価工程では、
    前記複数の撮影画像それぞれにおける、前記三次元モデルを構成する要素に対応する位置の色を特定し、
    前記複数の撮影画像それぞれにおける前記位置の色に基づいて決まる色の差に基づいて、前記三次元モデルを評価し、
    前記選択工程では、1つの被写体に対応する前記三次元モデルについて1つの色付け方法を選択することを特徴とする画像生成装置の制御方法。
  12. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置の制御方法であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価工程と、
    前記評価工程による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択工程と、
    前記選択工程により選択された色付け方法で前記三次元モデルの色付けを行う色付け工程と、を有し、
    前記評価工程では、
    前記複数の撮影画像それぞれにおける、前記三次元モデルを構成する要素に対応する位置の色を特定し、
    カメラから前記三次元モデルを構成する要素へ向かう直線の向きの差が最も大きくなる2つのカメラにより取得された2つの撮影画像それぞれにおける前記位置の色の差を算出することを特徴とする画像生成装置。
  13. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置の制御方法であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価工程と、
    前記評価工程による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択工程と、
    前記選択工程により選択された色付け方法で前記三次元モデルの色付けを行う色付け工程と、を有し、
    前記評価工程では、前記被写体を撮影する複数のカメラを用いて前記被写体の部分の距離推定を行って推定された前記被写体の形状に基づいて前記三次元モデルを評価することを特徴とする画像生成装置。
  14. 複数のカメラで撮影されることにより取得された複数の撮影画像に基づく仮想視点画像の生成に係る処理を行う画像生成装置の制御方法であって、
    複数の撮影画像に基づいて生成される被写体の三次元モデルを評価する評価工程と、
    前記評価工程による評価の結果に基づいて、前記三次元モデルの色付けに用いる色付け方法を選択する選択工程と、
    前記選択工程により選択された色付け方法で前記三次元モデルの色付けを行う色付け工程と、を有し、
    前記評価工程では、被写体の形状と、複数の撮影画像から生成される前記被写体の三次元モデルの形状との対応の精度を評価し、
    前記選択工程では、前記精度が所定の基準に至らない場合に、前記三次元モデルの色付けを単一のカメラからの撮影画像を用いて行う色付け方法を選択することを特徴とする画像生成装置。
  15. コンピュータを、請求項1乃至のいずれか1項に記載の画像生成装置の各手段として機能させるためのプログラム。
JP2017238921A 2017-12-13 2017-12-13 画像生成装置およびその制御方法、画像生成システム、プログラム Active JP7072378B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017238921A JP7072378B2 (ja) 2017-12-13 2017-12-13 画像生成装置およびその制御方法、画像生成システム、プログラム
US16/214,654 US10742951B2 (en) 2017-12-13 2018-12-10 Image generation apparatus and method of generating virtual view-point image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238921A JP7072378B2 (ja) 2017-12-13 2017-12-13 画像生成装置およびその制御方法、画像生成システム、プログラム

Publications (2)

Publication Number Publication Date
JP2019106064A JP2019106064A (ja) 2019-06-27
JP7072378B2 true JP7072378B2 (ja) 2022-05-20

Family

ID=66696552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238921A Active JP7072378B2 (ja) 2017-12-13 2017-12-13 画像生成装置およびその制御方法、画像生成システム、プログラム

Country Status (2)

Country Link
US (1) US10742951B2 (ja)
JP (1) JP7072378B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210049450A (ko) * 2019-10-25 2021-05-06 유이샤이닝 주식회사 리본테이프
KR102449081B1 (ko) * 2022-06-14 2022-09-30 유이샤이닝 주식회사 생분해성 리본 테이프 원단 조성물 및 그 제조방법

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018147329A1 (ja) * 2017-02-10 2018-08-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
US10579650B2 (en) 2018-05-29 2020-03-03 Apple Inc. Testing client-side rendering capabilities
JP7179515B2 (ja) 2018-07-13 2022-11-29 キヤノン株式会社 装置、制御方法、及びプログラム
US10715714B2 (en) * 2018-10-17 2020-07-14 Verizon Patent And Licensing, Inc. Machine learning-based device placement and configuration service
JP2021140458A (ja) 2020-03-05 2021-09-16 キヤノン株式会社 画像生成システム、その制御方法及びプログラム。
JP2022014358A (ja) 2020-07-06 2022-01-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2317089B (en) * 1996-09-06 2001-05-16 Quantel Ltd An electronic graphic system
JP2001307134A (ja) * 2000-04-19 2001-11-02 Sony Corp 三次元モデル処理装置および三次元モデル処理方法、並びにプログラム提供媒体
US7046242B2 (en) * 2000-06-05 2006-05-16 Namco Ltd. Game system, program and image generating method
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
JP3949674B2 (ja) * 2004-05-11 2007-07-25 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
JP2007065290A (ja) * 2005-08-31 2007-03-15 Nikon Corp オートフォーカス装置
US8531514B2 (en) * 2007-09-20 2013-09-10 Nec Corporation Image providing system and image providing method
US8049750B2 (en) * 2007-11-16 2011-11-01 Sportvision, Inc. Fading techniques for virtual viewpoint animations
JP5562103B2 (ja) 2010-04-16 2014-07-30 キヤノン株式会社 画像処理装置および方法
US8516402B1 (en) * 2011-08-22 2013-08-20 Cadence Design Systems, Inc. Method and apparatus for automatically fixing double patterning loop violations
JP6341646B2 (ja) * 2013-10-17 2018-06-13 セーレン株式会社 試着支援装置及び方法
KR101836865B1 (ko) * 2015-05-20 2018-03-09 삼성에스디에스 주식회사 3차원 오브젝트의 색상 처리 시스템 및 방법
US20170278166A1 (en) * 2016-03-28 2017-09-28 Samsung Electronics Co., Ltd. Method and apparatus for providing information about object
US11006135B2 (en) * 2016-08-05 2021-05-11 Sony Corporation Image processing apparatus and image processing method
JP2018032982A (ja) * 2016-08-24 2018-03-01 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6407225B2 (ja) * 2016-09-30 2018-10-17 キヤノン株式会社 画像処理装置及び画像処理方法及び画像処理システム及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
沢田奈保子,高橋実,藤本忠博,テクスチャ合成を利用した多視点画像からの高品質な自由視点画像生成法,情報処理学会研究報告 2011(平成23)年度▲6▼ [DVD-ROM] ,日本,一般社団法人情報処理学会,2012年04月15日,グラフィクスとCAD(CG)No.146,p1-8

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210049450A (ko) * 2019-10-25 2021-05-06 유이샤이닝 주식회사 리본테이프
KR102251650B1 (ko) * 2019-10-25 2021-05-13 유이샤이닝 주식회사 리본테이프
KR102449081B1 (ko) * 2022-06-14 2022-09-30 유이샤이닝 주식회사 생분해성 리본 테이프 원단 조성물 및 그 제조방법

Also Published As

Publication number Publication date
US20190182469A1 (en) 2019-06-13
JP2019106064A (ja) 2019-06-27
US10742951B2 (en) 2020-08-11

Similar Documents

Publication Publication Date Title
JP7072378B2 (ja) 画像生成装置およびその制御方法、画像生成システム、プログラム
CN110073414B (zh) 图像处理设备、方法和非暂时性计算机可读存储介质
KR102049245B1 (ko) 화상처리 장치, 화상처리 방법, 화상처리 시스템 및 기억매체
JP6961612B2 (ja) 三次元モデル配信方法及び三次元モデル配信装置
US11557081B2 (en) Image processing apparatus, control method for an image processing apparatus, and medium
JP7277372B2 (ja) 三次元モデル符号化装置、三次元モデル復号装置、三次元モデル符号化方法、および、三次元モデル復号方法
WO2018123801A1 (ja) 三次元モデル配信方法、三次元モデル受信方法、三次元モデル配信装置及び三次元モデル受信装置
US20150054913A1 (en) Image stitching
US9973694B1 (en) Image stitching to form a three dimensional panoramic image
US20190132529A1 (en) Image processing apparatus and image processing method
JPWO2019031259A1 (ja) 画像処理装置および方法
US11250619B2 (en) Image processing apparatus and method
US10893259B2 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
US20210400314A1 (en) Image synthesis
Schreer et al. 3dpresence-a system concept for multi-user and multi-party immersive 3d videoconferencing
TW202101374A (zh) 影像的深度圖之處理
JP2016048467A (ja) 運動視差再現方法、装置およびプログラム
JP7190849B2 (ja) 画像生成装置、画像生成装置の制御方法及びプログラム
WO2023106117A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP2022019341A (ja) 情報処理装置、情報処理方法、及びプログラム
US11368663B2 (en) Image generating apparatus and method therefor
KR20180070234A (ko) 타임 슬라이스 영상을 제공하는 장치 및 사용자 단말
JP2024036159A (ja) 画像処理装置、情報処理端末、画像処理方法、情報処理方法及びプログラム
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
JP2021082864A (ja) システム、その制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201127

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220510

R151 Written notification of patent or utility model registration

Ref document number: 7072378

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151