JP7051457B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7051457B2
JP7051457B2 JP2018005732A JP2018005732A JP7051457B2 JP 7051457 B2 JP7051457 B2 JP 7051457B2 JP 2018005732 A JP2018005732 A JP 2018005732A JP 2018005732 A JP2018005732 A JP 2018005732A JP 7051457 B2 JP7051457 B2 JP 7051457B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
image
image processing
viewpoint image
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018005732A
Other languages
English (en)
Other versions
JP2019125929A5 (ja
JP2019125929A (ja
Inventor
圭吾 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018005732A priority Critical patent/JP7051457B2/ja
Priority to US16/244,688 priority patent/US10916048B2/en
Publication of JP2019125929A publication Critical patent/JP2019125929A/ja
Publication of JP2019125929A5 publication Critical patent/JP2019125929A5/ja
Application granted granted Critical
Publication of JP7051457B2 publication Critical patent/JP7051457B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/36Level of detail

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、複数の視点に対応する撮像装置で撮像した画像に基づいて、仮想視点画像を生成する技術に関するものである。
複数の撮像装置を異なる位置に設置し、各撮像装置で撮像された複数の画像を用いて3次元モデルや仮想視点画像を生成する技術が注目されている。
高画質な仮想視点画像を生成するには、高精度の3次元モデルや高解像度の仮想視点画像をレンダリングして生成する必要があり、仮想視点画像の生成に多くの処理時間を要することになる。このため、所望する仮想視点に関する情報をユーザが入力してから、その情報が反映された仮想視点画像が表示されるまでの遅延時間(レイテンシ)が大きくなる。一方で、ユーザには、できる限り低遅延のリアルタイムで仮想視点画像を見たいという要望がある。この要望に応えるには、仮想視点画像の生成処理の時間を削減する必要がある。
特許文献1では、被写体を動画撮像して得られる画像フレームから、注視点を含む領域の高解像度の画像と画像フレームの全体領域を表す低解像度の画像とを生成し、画像の横一列分の行ごとに出力する構成が開示されている。
特開2016-63537号公報
しかしながら、特許文献1は、仮想視点画像をレンダリングする際の処理負荷を考慮した技術ではない。例えば、仮想視点画像のレンダリングには、前景となるオブジェクトを抽出し、3次元モデルを導出する処理が含まれる。一例として、前景となるオブジェクトの割合が多いほど、レンダリングに要する処理負荷も大きくなり、遅延が大きくなる。このような遅延に対して、単純に処理量を低下させると、作成される仮想視点画像の画質が劣化し得る。例えば、処理量を低下させる仮想視点画像では、サッカーなどのスポーツのシーンで選手の顔や背番号などが認識できない仮想視点画像が生成されてしまう恐れがある。
本発明は、仮想視点画像のレンダリングに起因する遅延の低減と過度の仮想視点画像の画質の劣化の低減とを両立させるための技術を提供することを目的とする。
本発明の一態様に係る画像処理装置は、仮想視点からの見えを表す仮想視点画像を生成する画像処理装置であって、複数の撮像装置の撮像に基づく複数の画像を取得する第1取得手段と、仮想視点を特定するための情報を取得する第2取得手段と、前記第2取得手段により取得された情報により特定される仮想視点に対応する仮想視点画像の生成に係る処理時間が閾値を超えないように、前記仮想視点画像の生成に係る処理におけるパラメータを、前記複数の撮像装置により撮像される撮像領域内のオブジェクトに基づいて決定する決定手段と、前記決定手段により決定されたパラメータと、前記第1取得手段により取得された複数の画像とに基づいて、前記第2取得手段により取得された情報により特定される仮想視点に対応する仮想視点画像を生成する生成手段と、を有することを特徴とする。
本発明によれば、仮想視点画像のレンダリングに起因する遅延の低減と過度の仮想視点画像の画質の劣化の低減とを両立させる技術を提供することができる。
画像処理システムの構成の一例を示す図である。 画像処理装置の構成の一例を示す図である。 仮想視点画像の概略図である。 画像処理の一例を示すフローチャートである。 仮想視点画像の概略図である。 画像処理の一例を示すフローチャートである。 色づけに用いるカメラ台数を変更する概略図である。 画像処理の一例を示すフローチャートである。 仮想視点画像生成用のUIの概略図である。
以下、添付図面を参照して本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。
<<実施形態1>>
実施形態1では、仮想視点画像をレンダリングするために必要な処理負荷に応じて、仮想視点画像を構成するモデルの領域ごとに解像度を変化させて仮想視点画像を生成する処理を説明する。
<システム構成>
図1は、画像処理システムの構成を示す図である。画像処理システム1は、仮想視点画像をレンダリングする処理負荷を示す処理負荷情報を取得し、処理負荷情報に応じてレンダリングに係るパラメータを変化させて仮想視点画像を生成し出力する。画像処理システム1は、画像処理装置10、カメラ群20、入力装置30、及び表示装置40を有する。
画像処理装置10は、カメラ情報取得部100、仮想視点情報取得部110、処理負荷情報取得部120、仮想視点画像生成部130、及び出力部140を有する。画像処理装置10は、カメラ群20、入力装置30、及び表示装置40と接続している。
カメラ情報取得部100は、カメラ群20から、各カメラで撮像して得られた撮像画像データ、各カメラの外部パラメータ及び内部パラメータ等を含むカメラ情報を入力して取得する。カメラ情報取得部100は、取得したカメラ情報を処理負荷情報取得部120と仮想視点画像生成部130とに出力する。カメラの外部パラメータとは、カメラの位置姿勢を示すパラメータ(例えば回転行列及び位置ベクトル等)である。カメラの内部パラメータとは、カメラ固有の内部パラメータであり、例えば、焦点距離、画像中心、及びレンズ歪みパラメータ等である。
仮想視点情報取得部110は、操作者が入力装置30を通じて入力した仮想視点情報を取得し、仮想視点情報を処理負荷情報取得部120と仮想視点画像生成部130とに出力する。仮想視点情報には、仮想視点の位置姿勢を示す情報が含まれる。また、仮想視点情報には、後述する実施形態4(図9)で説明するUI画面を通じて操作者によって指定された指定パラメータなどが含まれてもよい。
処理負荷情報取得部120は、カメラ情報取得部100から入力したカメラ情報、及び、仮想視点情報取得部110から入力した仮想視点情報に基づき、仮想視点画像をレンダリングするために必要な処理負荷を示す処理負荷情報を取得する。処理負荷情報取得部120は、取得した処理負荷情報を仮想視点画像生成部130へ出力する。処理負荷情報の取得方法は、後述するフローチャートの処理で説明する。
仮想視点画像生成部130は、カメラ情報取得部100から取得したカメラ情報と仮想視点情報取得部110から取得した仮想視点情報とに基づいて、仮想視点画像をレンダリングして仮想視点画像データを生成する。生成した仮想視点画像データは、出力部140に出力される。仮想視点画像生成部130は、パラメータ決定部131、3次元(3D)モデル生成部132、背景3Dモデル取得部133、3Dモデル色づけ処理部134、及び背景3Dモデル色づけ処理部135を有する。3Dモデル生成部132、背景3Dモデル取得部133、3Dモデル色づけ処理部134、及び背景3Dモデル色づけ処理部135は、レンダリング処理部として機能する。
仮想視点画像のレンダリングは、入力した仮想視点情報とカメラ情報とに基づいて、前景となるオブジェクトの3次元形状を生成し、その3次元形状および背景3Dモデルを色づけすることにより行われる。前景となるオブジェクト(以下、「前景オブジェクト」という)は、例えば、カメラ群20の撮像範囲内に存在する人物や動体などである。
また、仮想視点画像生成部130は、処理負荷情報取得部120から入力した処理負荷情報に基づき、レンダリングに係るパラメータを変化させて画質の異なる仮想視点画像を生成する。仮想視点画像生成部130では、入力したカメラ情報および仮想視点情報に応じて仮想視点画像をレンダリングする処理時間が増減する。
表示装置40に表示されている画像を見ている操作者が、リアルタイム(低遅延)の仮想視点画像の表示を要望する場合がある。このような場合、仮想視点画像の生成を所定の閾値以下の時間にする必要が生じる。仮想視点画像生成部130は、仮想視点画像の生成処理が所定の閾値以下の時間に収まるかを判定する。そして、仮想視点画像の生成を所定の閾値以下の時間に収めるため、パラメータ決定部131において決定されるレンダリングに係るパラメータを、処理負荷に応じて変化させる。この結果、仮想視点画像生成部130は、仮想視点画像の生成処理を簡略化した仮想視点画像を出力する。この仮想視点画像は、変化する前のパラメータで生成される仮想視点画像とは、画質が異なるものとなる。なお、本実施形態における遅延とは、操作者が入力装置30に仮想視点情報を入力してから、その情報が反映された仮想視点画像が表示装置40で表示されるまでの時間と対応する。ただし遅延の定義はこれに限らず、例えばカメラ群20による撮像が行われてからその撮像に基づく仮想視点画像が表示されるまでの時間と対応してもよい。
パラメータ決定部131は、処理負荷情報取得部120から入力した、仮想視点画像をレンダリングするために必要な処理負荷を示す処理負荷情報に基づき、レンダリングに係るパラメータを決定する。例えば、パラメータ決定部131は、前景オブジェクトの3次元形状(3Dモデル)の生成もしくは色づけ、または、背景3Dモデルの色づけを行うためのパラメータを決定する。決定されたパラメータは、3Dモデル生成部132、3Dモデル色づけ処理部134、および背景3Dモデル色づけ処理部135のうちの対応する生成部または処理部に出力される。パラメータ決定部131は、解像度変更部136、レンダリング省略部137、及び物理カメラ数決定部138を有する。解像度変更部136、レンダリング省略部137、及び物理カメラ数決定部138の詳細については、後述するフローチャートで説明する。
3Dモデル生成部132は、パラメータ決定部131から入力したパラメータに基づき、前景オブジェクトの3次元形状を推定し(3Dモデルを生成し)、3Dモデル色づけ処理部134に出力する。3次元形状の推定は、例えば次のように行われる。先ずカメラ情報取得部100から入力した前景オブジェクトを含む撮像画像と、予め取得した各カメラに対応する背景画像との差分を導出する。これにより、撮像画像内の前景オブジェクトに対応する部分(前景領域)が抽出されたシルエット画像が生成される。そして各カメラに対応するシルエット画像と各カメラのパラメータ(内部パラメータおよび外部パラメータ)とを用いて、前景オブジェクトの3次元形状を推定して3Dモデル(以下、「前景モデル」という)を生成する。3次元形状の推定には、たとえばVisual Hull手法が用いられる。この処理の結果、前景オブジェクトの3次元形状を表現した3D点群(3次元座標を持つ点の集合)が得られる。なお、3Dモデルは、3D点郡での表現に限らず、線分、面など他の情報により表現されてもよい。上述した3Dモデル生成部132の処理で用いられる、パラメータ決定部131から入力するパラメータは、例えば、Visual Hullで処理するボクセルのサイズや、3次元形状の推定に用いるカメラ台数等である。なお、撮像画像からオブジェクトの3次元形状を導出する方法はこれに限らない。他の方法で3次元形状を導出する場合には、その方法に対応するパラメータを用いれば良い。
背景3Dモデル取得部133は、背景3Dモデル(以下、「背景モデル」という)を取得し、背景3Dモデル色づけ処理部135に出力する。背景モデルは、例えば、カメラ群20が設置されている競技場などのCG(Computer Graphics)モデルであり、予め作成されて画像処理システム1内に保存されている(例えば、後述する図2の二次記憶装置204に保存されている)。
3Dモデル生成部132で生成された前景モデルおよび背景3Dモデル取得部133で取得された背景モデルは、既存のCGレンダリング方法によりレンダリングされる。この結果、前景モデルや背景モデルをそれぞれ所定の色(例えば単一色)で表示することが可能となる。
3Dモデル色づけ処理部134は、パラメータ決定部131から入力したパラメータに基づき、3Dモデル生成部132から入力した前景モデルに色を付ける処理を行う。前景の色づけ処理は、例えば前景モデルを構成する3D点群の点の可視性判定処理と色の導出処理とを含むものである。可視性判定処理では、仮想視点における3D点群内の各点とカメラ群20に含まれる複数のカメラとの位置関係から、各点について撮像可能なカメラを特定することができる。色の導出処理では、例えば、仮想視点における3D点群内のある点を着目点とする。着目点を撮像可能なカメラの撮像画像に、着目点を射影する。その射影先の画素の色を、その着目点の色とする。なお、着目点が複数のカメラにより撮像可能な場合、複数のカメラの撮像画像のそれぞれに着目点を射影し、射影先の画素値を取得し、画素値の平均を算出することで、着目点の色が決定される。このような処理を、着目点を変えながら行うことで、仮想視点から見た色の付いた前景モデルを生成することができる。パラメータ決定部131から入力するパラメータは、例えば、前景モデルの解像度や、低解像度にする範囲、色を付ける範囲、色づけに用いるカメラ台数等である。前景モデルの解像度を変更するには、例えば、3D点群の全ての点で色の導出をするのではなく、ある一点の色を導出し、その点と別の点との距離が一定範囲内の場合に同じ色を付ける方法などがある。
背景3Dモデル色づけ処理部135は、パラメータ決定部131から入力したパラメータに基づき、背景3Dモデル取得部133から入力した背景モデルに色を付ける処理を行う。背景モデルに色を付ける方法の一例としては、まず背景モデルの頂点(例えば競技場の端に対応する点)が設定され、そしてこれらの頂点が、仮想視点に近い2台のカメラ(第1カメラ及び第2カメラとする)の座標系と仮想視点の座標系とに射影される。また、仮想視点と第1カメラとの対応点、及び、仮想視点と第2カメラとの対応点を用いて、仮想視点と第1カメラとの間の第1射影行列、及び、仮想視点と第2カメラとの間の第2射影行列が算出される。そして、第1射影行列と第2射影行列を用いて、背景画像の各画素が第1カメラの撮像画像と第2カメラの撮像画像に射影され、射影先の2つの画素値の平均を算出することで、背景画像の画素値が決定される。なお、同様の方法により、3台以上のカメラの撮像画像から背景画像の画素値を決定してもよい。このようにして、仮想視点から見た色つきの背景モデルを生成することができる。パラメータ決定部131から入力するパラメータは、例えば、背景モデルの解像度や、低解像度にする範囲、色を付ける範囲、色づけに用いるカメラ台数等である。
出力部140は、仮想視点画像生成部130から入力した仮想視点画像データを、表示装置40へ出力する。また、出力部140は、後述する図9で示すUI画面を表示装置40に表示させる制御を行う。
カメラ群20は、複数のカメラを含み、各カメラはそれぞれ異なる方向から(すなわち、複数の視点から)前景オブジェクトを撮像する。そして各カメラの撮像画像、外部パラメータ、及び内部パラメータなどが画像処理装置10に送信される。
入力装置30は、仮想視点画像を生成するための仮想視点の指定を受け付け、指定に応じた情報を画像処理装置10に送信する。例えば、入力装置30はジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどの入力部を有し、仮想視点を指定する操作者は、入力部を操作することで仮想視点の位置姿勢を指定する。指定された仮想視点の位置姿勢の情報は、仮想視点情報として画像処理装置10に送信される。
本実施形態では、仮想視点画像の視聴者と仮想視点情報の操作者とが、同一のユーザである場合を例に挙げて説明するが、これに限らず、視聴者と操作者とが異なるユーザでもよい。また、入力装置30が送信する情報は、仮想視点の位置姿勢情報に限らず、後述する図9で示すUI画面を通じてユーザが指定した仮想視点画像を生成するための指定パラメータでもよい。
表示装置40は、画像処理装置10により生成され出力された仮想視点画像データに基づいて仮想視点画像を表示する。表示される仮想視点画像は、例えば入力装置30によって仮想視点情報が入力された結果、画像処理装置10によって生成された仮想視点画像である。例えば、初期状態においては、入力装置30に予め保存されている(又は、前回終了時の)仮想視点情報を初期情報として画像処理装置10は、(解像度を低くするなどした)仮想視点画像P1を生成する。表示装置40は、このような仮想視点画像P1を初期状態では表示する。その後、操作者は、表示装置40に表示された仮想視点画像P1を見て、入力装置30を通じて次の仮想視点情報を指定する。この指定に応じて生成された仮想視点画像P2が、表示装置40に表示される。このように、操作者は、表示装置40に表示された仮想視点画像を見ながら入力装置30を使用し、仮想視点の指定を行うことができる。なお、本実施形態では仮想視点画像を表示する表示装置40を見た操作者が入力装置30を用いて仮想視点を画像処理装置10に送信することを想定するが、これに限らず、入力装置30と表示装置40を操作する操作者は同一でなくてもよい。
<画像処理装置のハードウェア構成>
図2は、本実施形態の画像処理装置10のハードウェア構成の一例を示す図である。本実施形態の画像処理装置10は、CPU201、RAM202、ROM203、二次記憶装置204、入力インターフェース205、出力インターフェース206を含む。画像処理装置10の各構成部は、システムバス207によって相互に接続されている。また、画像処理装置10は、入力インターフェース205を介してカメラ群20および入力装置30に接続されており、出力インターフェース206を介して表示装置40に接続されている。
CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス207を介して画像処理装置10の各構成部を統括的に制御するプロセッサである。これにより、CPU201が、図1で示す画像処理装置10の各部として機能する。
二次記憶装置204は、画像処理装置10で取り扱われる種々のデータを記憶する記憶装置であり、本実施形態ではHDDが用いられる。CPU201は、システムバス207を介して二次記憶装置204へのデータの書き込みおよび二次記憶装置204に記憶されたデータの読出しを行うことができる。なお、二次記憶装置204にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。
入力インターフェース205は、例えばUSBやIEEE1394等のシリアルバスインターフェースである。外部装置から画像処理装置10へのデータや命令等の入力は、入力インターフェース205を介して行われる。画像処理装置10は、入力インターフェース205を介して、カメラ群20および入力装置30からカメラ情報および仮想視点情報を取得する。なお、入力インターフェース205には、不図示のマウスやボタンなどの入力デバイスも接続可能である。出力インターフェース206は、入力インターフェース205と同様にUSBやIEEE1394等のシリアルバスインターフェースを備える。その他に、例えばDVIおよびHDMI等の映像出力端子を用いることも可能である。画像処理装置10から外部装置へのデータ等の出力は、出力インターフェース206を介して行われる。画像処理装置10は、出力インターフェース206を介して表示装置40(液晶ディスプレイなどの各種画像表示デバイス)に、仮想視点画像データを出力することで、仮想視点画像の表示が行われる。なお、画像処理装置10の構成要素は上記以外にも存在し得るが、ここでは説明を省略する。また、画像処理装置10は、単一の装置で構成されている形態を例に挙げて説明したが、これに限られない。複数の装置が分散して図1に示す各部が実現されてもよい。
<処理負荷の説明>
図3は、仮想視点画像を構成するモデルの領域ごとに解像度を変えて生成した仮想視点画像の概略図である。仮想視点画像を用いると、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることが出来る。図3は、サッカーのシーンにおける仮想視点画像の概略図を示している。図3(a)および図3(b)は、同じシーンの画像である。ただし、図3(b)は、図3(a)よりも、仮想視点を前景オブジェクト301に寄った(あるいはズームした)場合の視点の画像である。図3(a)および図3(b)においてレンダリング対象の領域は、前景オブジェクト301および背景302である。なお、本明細書において共通の構成の説明をする場合には、符号の末尾の枝番(図3の例では、aまたはb)を省略する場合がある。図3では、ハッチングされているモデルが前景オブジェクトであり、その他が背景モデルである。
本実施形態においては、仮想視点画像をレンダリングするために必要な処理負荷を、前景オブジェクトが仮想視点画像に占める割合(以下、「前景率」という)と仮定する。前景率が増加するに従い、仮想視点画像のレンダリングの処理時間が増加する。前景オブジェクトが増えるほど、3Dモデル生成部132および3Dモデル色づけ処理部134の処理負荷が増えるからである。図3(a)は、処理負荷情報取得部120で取得した処理負荷情報(前景率)に基づいて、仮想視点画像生成部130が、仮想視点画像を所定の閾値以下の時間で生成完了可能と判定する場合の例を示している。このため、パラメータ決定部131は、前景オブジェクト301aと背景302aとを共に高解像度でレンダリングするパラメータを決定する。これに応じて、前景オブジェクト301aと背景302aとが高解像度でレンダリングされた仮想視点画像が表示される。一方、図3(b)は、図3(a)よりも、仮想視点を前景オブジェクト301に寄った(あるいはズームした)場合の視点の画像であるので、前景率が図3(a)の場合よりも高くなっている。図3(b)の場合、処理負荷情報取得部120で取得した処理負荷情報(前景率)に基づいて、仮想視点画像生成部130が、仮想視点画像を所定の閾値以下の時間で生成ができないと判定する。そして、パラメータ決定部131は、前景オブジェクト301bを高解像度でレンダリングするパラメータを決定する一方、背景302bを低解像度でレンダリングするパラメータを決定する。これに応じて、前景オブジェクト301bが高解像度でレンダリングされ、背景302bが低解像度でレンダリングされた仮想視点画像が表示される。このような処理の結果、背景のレンダリングが高速に処理され、仮想視点画像を所定の閾値以下の時間で生成して表示装置40で表示することが可能となる。
なお、図3の例では、解像度を変えてレンダリングする領域は、前景オブジェクトと背景である場合を例に挙げて説明したが、これに限らない。電子公告エリアや他CGオブジェクト等を、解像度を変えてレンダリングする領域に加えてもよいし、3次元空間上における任意の範囲や仮想カメラから距離に応じた範囲等を解像度を変えてレンダリングする領域としてもよい。また、本実施形態では、レンダリングするために必要な処理負荷の例として前景率を用いたが、これに限らず、CPUやメモリの使用率をウォッチし、その使用率をレンダリングするために必要な処理負荷としてもよい。また、例えば、処理負荷は、前景となるオブジェクトの個数または前景となるオブジェクトの形状の複雑さなど他の情報を用いて判定されてもよい。
<フローチャート>
図4は、実施形態1の処理の流れを説明したフローチャートである。図4に示す処理は、ROM203に格納されたプログラムがRAM202に読み出され、CPU201によって実行されることによって実現される。なお、後述する各フローチャートの各ステップの一部またはすべてを専用のハードウェアにより実現してもよい。専用のハードウェアは、例えば、ASIC、FPGAまたはGPUなどであってもよい。
ステップS401でカメラ情報取得部100は、カメラ群20から各カメラで撮像された撮像画像データ、並びに、各カメラの内部パラメータ及び外部パラメータなどのカメラ情報を取得する。
ステップS402で仮想視点情報取得部110は、入力装置30から仮想視点の位置姿勢、及び、仮想視点画像を生成するための指定パラメータ(実施形態4で後述)などの仮想視点情報を取得する。
ステップS403で処理負荷情報取得部120は、取得したカメラ情報と仮想視点情報とに基づいて、前景オブジェクトが仮想視点画像に占める割合(前景率)を導出する。前景率を導出する方法は、例えば、カメラ情報取得部100から少数のカメラ情報のみを取得し、全カメラを用いた場合に比べ、粒度の荒い前景オブジェクトの3D点群を短時間で生成する。そして、仮想視点情報取得部110から仮想視点情報を取得し、粒度の荒い前景オブジェクトの3D点群を、仮想視点情報で特定される仮想視点に対応する仮想視点画像に投影し、画像上で前景オブジェクトの3D点群の面積を求める。このように、一部のカメラのカメラ情報を用いて前景率を求めることで、全カメラを用いて3D点群を生成した場合の前景の割合を概算することできる。すなわち、仮想視点画像をレンダリングする処理負荷を推定し、取得することが可能となる。
ステップS404で仮想視点画像生成部130は、処理負荷が所定の閾値以下か否かを判定する。例えば、前景率が所定の閾値以下か否かを判定する。所定の閾値以下の場合、ステップS405に進み、所定の閾値以下でない場合、ステップS406に進む。
ステップS405またはステップS406で解像度変更部136は、処理負荷情報取得部120から取得した、仮想視点画像をレンダリングするために必要な処理負荷情報に応じて、背景の解像度のパラメータを決定する。そして決定したパラメータが、背景3Dモデル色づけ処理部135に出力される。前景率が所定の閾値以下の場合、ステップS405で解像度変更部136は、背景を高解像度でレンダリング(描画)するようにパラメータを決定する。背景3Dモデル取得部133は、背景モデルを取得し、背景3Dモデル色づけ処理部135に送る。背景3Dモデル色づけ処理部135は、パラメータ決定部131から出力された、高解像度でレンダリングするパラメータに基づいて、背景を高解像度でレンダリングする。そして、ステップS407に進む。一方、前景率が所定の閾値以下ではない場合、ステップS406で解像度変更部136は、背景を低解像度でレンダリングするようにパラメータを決定する。背景3Dモデル取得部133は、背景モデルを取得し、背景3Dモデル色づけ処理部135に送る。背景3Dモデル色づけ処理部135は、パラメータ決定部131から出力された、低解像度でレンダリングするパラメータに基づいて、背景を低解像度でレンダリングする。そして、ステップS407に進む。
ステップS407で3Dモデル生成部132は、パラメータ決定部131からオブジェクトの3次元形状の推定に係るパラメータを取得し、前景モデルを生成する。そして、3Dモデル色づけ処理部134は、パラメータ決定部131から前景モデルの色づけに係るパラメータを取得し、そのパラメータに基づいて前景を色づけする。
以上説明したように、本実施形態では、仮想視点画像のレンダリングするために必要な処理負荷情報を取得し、仮想視点画像を構成するモデルの領域ごとに解像度を変化させる処理が行われる。このような処理によれば、所定の閾値以下の処理時間で仮想視点画像の生成を完了させることが可能となる。
なお、本実施形態では、解像度変更部136が、背景の解像度を変化させる形態を説明したが、これに限らない。例えば、前景オブジェクトを低解像度にレンダリングしてもよい。あるいは、前景オブジェクトを第1の解像度に変化させ、かつ、背景の解像度を第1の解像度よりも低い第2の解像度に変化させてもよい。また、視点からの距離で前景オブジェクトや背景の解像度を変えてもよい。また、過度に大きい前景オブジェクトを低解像度にするなどしてもよい。また、顔や背番号を識別して、顔や背番号を高解像度にレンダリングし、顔や背番号以外を低解像度にレンダリングしてもよい。また、これらを組み合わせてもよい。前景モデルの解像度を変更するには、前述したように、例えば、3D点群の全ての点で色の算出するのではなく、ある一点の色を算出し、その点と別の点の距離が一定範囲内の場合に同じ色を付ける方法がある。背景モデルの解像度を変更するには、前述したように、色を付ける範囲を変えたり、色づけに用いるカメラ台数等を変更したりする方法がある。
このように、仮想視点画像を構成するモデルの領域ごとに解像度を変化させることで、操作者が所望する領域を高解像度でレンダリングし、かつ、仮想視点画像の生成に要する時間を所定の閾値以下に抑えることができる。また、処理量に対応する解像度の仮想視点画像を生成するため、遅延を低減しつつ、過度の仮想視点画像の画質の劣化を低減することができる。
<<実施形態2>>
実施形態1では、解像度変更部136が解像度を変化させたパラメータを出力し、出力されたパラメータに従ってレンダリングが行われることで、処理の遅延を抑制する形態を例に挙げて説明した。本実施形態では、仮想視点画像をレンダリングするために必要な処理負荷に応じて、仮想視点画像を構成するモデルの領域ごとにレンダリングを省略して、仮想視点画像を生成する方法を説明する。処理負荷は、実施形態1と同様、前景オブジェクトが仮想視点画像に占める割合と仮定する。また、レンダリングする領域も、実施形態1と同様である。
図5は、仮想視点画像を構成するモデルの領域ごとにレンダリングを省略して生成した仮想視点画像の概略図である。図5(a)は、実施形態1の図3(a)と同様である。図5(b)は、図5(a)よりも、仮想視点を前景オブジェクト501に寄った(あるいはズームした)場合の視点の画像であり、前景率が図5(a)よりも高くなっている。図5(b)は、処理負荷情報取得部120で取得した処理負荷情報に基づいて、仮想視点画像生成部130が、仮想視点画像の生成処理に所定の閾値を超える時間が必要だと判定した場合の図である。この場合、仮想視点画像生成部130は、前景オブジェクト501bをレンダリングするのに対し、背景502のレンダリングを省略する。背景のレンダリングを省くことで、仮想視点画像を所定の閾値以下の時間で生成することが可能となる。
図6は、本実施形態の処理の流れを説明したフローチャートである。ステップS601乃至ステップS603は、実施形態1のステップS401乃至ステップS403と同様である。また、ステップS607は、実施形態1のステップS407と同様である。
ステップS604で仮想視点画像生成部130は、処理負荷情報取得部120から取得した処理負荷情報が示す処理負荷が、所定の閾値以下か否かを判定する。例えば、ステップS603で得られた、前景オブジェクトが仮想視点画像に占める割合(前景率)が、所定の閾値以下であるか否かを判定する。所定の閾値以下である場合、ステップS605に進み、そうでない場合、ステップS606に進む。ステップS605でパラメータ決定部131は、背景のパラメータを決定する。そして決定したパラメータが、背景3Dモデル色づけ処理部135に出力される。背景3Dモデル取得部133は、背景モデルを取得し、背景3Dモデル色づけ処理部135に送る。背景3Dモデル色づけ処理部135は、パラメータ決定部131から出力されたパラメータに基づいて背景をレンダリングする。そして、ステップS607に進む。一方、ステップS606でレンダリング省略部137は、背景のレンダリングを省略する指示を出力する。背景3Dモデル色づけ処理部135は、この指示に応じて、背景のレンダリングを省略する。そして、ステップS607に進む。
なお、本実施形態では、レンダリング省略部137は背景のレンダリングを省略したが、これに限らない。例えば、仮想視点画像のレンダリングが所定の閾値以下の時間内に終わらなければ所定の閾値の時間に達した時点で全てのレンダリングを中断してもよい。また、画面中心や操作者の注視点付近から先にレンダリングし、レンダリングが所定の閾値以下の時間内に終わらなければレンダリングを中断してもよい。レンダリングを中断した場合、中断した時点までで生成されている仮想視点画像が出力部140に送られる。また、前景オブジェクトのうち、顔や背番号を識別して、顔や背番号を高解像度にレンダリングし、顔や背番号以外の色づけを省略してもよい。
以上説明したように、本実施形態においては、仮想視点画像をレンダリングするために必要な処理負荷に応じて、仮想視点画像を構成するモデルの領域ごとにレンダリングを省略させる処理が行われる。このような処理によれば、所定の閾値以下の処理時間で仮想視点画像の生成を完了させることが可能となる。
<<実施形態3>>
実施形態3では、仮想視点画像をレンダリングするために必要な処理負荷に応じて、前景の色づけ処理を簡略化する方法を説明する。処理負荷は、実施形態1と同様、前景オブジェクトが仮想視点画像に占める割合であると仮定する。また、前景オブジェクトの色づけ処理は、カメラの台数が増加するに従い、その処理時間が増加すると仮定する。
図7は、前景オブジェクトの色づけに用いるカメラ台数を変更する概略図である。カメラ701乃至カメラ710は、カメラ群20の各カメラであり、各カメラの撮像画像は前景の色づけに用いられる。図7(a)は、処理負荷情報に基づいて、仮想視点画像生成部130が、仮想視点画像の生成を所定の閾値以下の時間で完了すると判定した場合の図である。すなわち、図7(a)に示すように、前景オブジェクトの色づけ処理が、全てのカメラを用いて行われる。一方、図7(b)は、処理負荷情報に基づいて、仮想視点画像生成部130が、仮想視点画像の生成を所定の閾値を超えた時間が必要だと判定した場合の図である。図7(b)では、全カメラではなく、カメラ701b、707b、及び709b以外のカメラで前景オブジェクトの色づけ処理が行われる。なお、省略するカメラは、一例に過ぎず、図7(b)に示す例に限られるものではない。このように、前景オブジェクトの色づけ処理を全てのカメラを用いて行うのではなく、使用するカメラの台数を削減することで、前景の色づけ処理時間を短縮することができる。この結果、仮想視点画像を所定の閾値以下の時間で生成することが可能となる。
図8は、実施形態3の処理の流れを説明したフローチャートである。ステップS801およびステップS802は、実施形態1のステップS401およびステップS402と同様である。ステップS803は、実施形態2のステップS605と同様である。ステップS804は、実施形態1のステップS403と同様である。
ステップS805で仮想視点画像生成部130は、処理負荷情報取得部120から取得した処理負荷情報が示す処理負荷が、所定の閾値以下か否かを判定する。例えば、ステップS804で得られた、前景オブジェクトが仮想視点画像に占める割合(前景率)が、所定の閾値以下であるか否かを判定する。所定の閾値以下である場合、ステップS806に進み、そうでない場合、ステップS807に進む。
ステップS806において物理カメラ数決定部138は、前景オブジェクトの色づけに使用するカメラの台数として、全カメラの台数を使用することを決定する。そして、その指示を3Dモデル色づけ処理部134に出力する。3Dモデル色づけ処理部134は、前景の色づけに全カメラを使用して色づけ処理を行う。一方ステップS807において物理カメラ数決定部138は、前景オブジェクトの色づけに使用するカメラの台数として、少数のカメラの台数を使用することを決定する。そして、その指示を3Dモデル色づけ処理部134に出力する。3Dモデル色づけ処理部134は、前景の色づけに、指示された少数のカメラを使用して色づけ処理を行う。
なお、本実施形態では、物理カメラ数決定部138は前景オブジェクトの色づけに用いる物理カメラの台数を変化させたが、これに限らない。例えば、前景オブジェクトの3次元形状の推定に用いるカメラの台数を変化させてもよい。また、背景の色づけに用いるカメラの台数を変化させるなどしてもよい。また、顔や背番号を識別して、顔や背番号を多数のカメラで色づけを行い、顔や背番号以外を少数のカメラで色づけをしてもよい。
以上説明したように、本実施形態においては、仮想視点画像をレンダリングするために必要な処理負荷に応じて、前景オブジェクトの色づけに用いるカメラを変更する処理が行われる。このような処理によれば、所定の閾値以下の処理時間で仮想視点画像の生成を完了させることが可能となる。
<<実施形態4>>
実施形態4では、仮想視点画像のレンダリングに係るパラメータの変更が、操作者による指示に応じて行われる形態を説明する。
図9は、操作者が仮想視点画像のレンダリングに係るパラメータの変更を行うユーザインタフェース(UI)画面900の概略図である。UI画面900は、画像処理装置10による表示制御に従って表示装置40に表示される。UI画面900は、出力部140から出力された仮想視点画像901が表示される領域が含まれる。またUI画面900には、許容遅延時間902、レンダリング順序903、レンダリング優先位置904、及び使用カメラ905の設定項目が含まれる。ただし、これに限らず、UI画面900では、仮想カメラの焦点距離等のパラメータ調節などを設定する項目または機能を備えていても良い。操作者は、表示装置40に表示される仮想視点画像901を見ながら、入力装置30で仮想視点の位置姿勢を決定し、画像処理装置10に仮想視点画像の生成を指示する。すなわち、入力装置30から仮想視点情報が画像処理装置10に出力される。図9の仮想視点画像901においてレンダリングされる対象は、前景オブジェクト906と背景907とする。
操作者は、許容遅延時間902の項目において、操作者が許容可能な遅延時間を指定することができる。許容遅延時間902で操作者が入力した時間に応じて、画像処理装置10は、仮想視点画像のレンダリングに係るパラメータを動的に変化させて、許容遅延時間以内で仮想視点画像を生成する。
操作者は、仮想視点画像901のレンダリングに係るパラメータとして、レンダリング順序903、レンダリング優先位置904、及び使用カメラ905のそれぞれの設定を指定することができる。なお、操作者が指定するパラメータは、これに限らず、例えば仮想カメラの焦点距離などでもよい。
レンダリング順序903の設定項目において操作者は、仮想視点画像を生成する上で、前景モデル(単一色)、前景色、背景モデル(単一色)、及び背景色をレンダリングする順番を指定することができる。仮想視点画像生成部130は、許容遅延時間902で指定した許容時間までに仮想視点画像を生成することができるか否かを処理負荷情報取得部120が取得した処理負荷情報に基づいて判定する。仮想視点画像を生成できないと判定した場合は、レンダリング省略部137は、レンダリング順序903で設定された処理の最後尾から順にレンダリングを省略する指示を送る。例えば、処理負荷情報取得部120が取得した前景率が、所定の値Pであった場合を想定する。仮想視点画像生成部130は、前景率Pに応じて前景モデルの生成にT1時間、前景色づけ処理にT2時間を要することを決定する。また、仮想視点画像生成部130は、背景モデル取得にT3時間、背景モデル色づけ処理にT4時間を要することを決定する。そして、仮想視点画像生成部130は、レンダリング順序903で指定された順序で各処理時間を積算し、許容遅延時間902で指定された許容時間を超えるか否かを判定する。許容時間を超えた場合、レンダリング省略部137は、レンダリング順序903で指定された当該処理項目以降の順序の処理項目の処理を省略する指示を送る。
レンダリング優先位置904の設定項目において操作者は、仮想視点画像をレンダリングし始める場所を指定することができる。画面中心優先が指定された場合、例えば、3Dモデル色づけ処理部134、または背景3Dモデル色づけ処理部135は、仮想視点画像901の画面中心付近908の内側を、外側より先にレンダリングする。そして、許容遅延時間902で指定した時間までに仮想視点画像が生成できない場合は、レンダリング省略部137は、画面中心付近908の外側のレンダリングを省略することができる。あるいは、解像度変更部136が、画面中心付近908の外側を低解像度でレンダリングする指示を3Dモデル色づけ処理部134、または背景3Dモデル色づけ処理部135に送信してもよい。注視点優先が指定された場合、例えば仮想視点画像901上で操作者が指定した箇所を注視点とし、その注視点近傍のレンダリングが優先的に行われる。あるいは、入力装置30が操作者の目線の情報を入力することが可能である場合、操作者の目線の情報を用いて注視点の位置が決定されてもよい。
使用カメラ905の設定項目において操作者は、前景オブジェクト906を色づけに使用するカメラを指定することができる。許容遅延時間902で指定された時間までに、仮想視点画像を生成できない場合に、物理カメラ数決定部138は使用するカメラを削減し、3Dモデル色づけ処理部は削減したカメラで前景モデルの色づけを行う。
なお、レンダリング順序903、レンダリング優先位置904、および使用カメラ905の設定項目で指定された項目は、連動した動作が可能である。例えば、レンダリング優先位置904で指定された位置において、使用カメラ905で指定された使用カメラを用いたレンダリングを、レンダリング順序903で指定された順序で行うことができる。操作者によって指定された項目のみを連動させてもよい。
このようにUI画面900を通じて指定された各指定パラメータは、入力装置30から画像処理装置10に出力される。仮想視点情報取得部110は、このように送られた、UI画面900を通じて指定された指定パラメータを仮想視点情報として取得する。そして、実施形態1から3においては、この指定パラメータに従って、例えば解像度を変更するモデルの領域を決定したり、レンダリング処理を省略するモデルの領域を決定したり、使用するカメラの台数を決定したりする処理が行われて良い。
以上説明したように、本実施形態においては、リアルタイム(低遅延)で仮想視点画像を見たいユーザの要件に応え、仮想視点画像の画質に影響するレンダリングに係るパラメータを操作者自身が変更することができる。このような処理によれば、操作者が望む仮想視点画像を生成することが可能となる。
<<その他の実施形態>>
上述の各実施形態を適宜組み合わせてもよい。例えば、画像処理装置10は、仮想視点画像の生成に要する処理負荷に応じて、仮想視点画像の解像度を変更し、モデルの領域ごとのレンダリングを省略し、かつ、前景の色付け処理を簡略化してもよい
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10 画像処理装置
100 カメラ情報取得部
110 仮想視点情報取得部
120 処理負荷情報取得部
130 仮想視点画像生成部
140 出力部

Claims (19)

  1. 仮想視点からの見えを表す仮想視点画像を生成する画像処理装置であって、
    複数の撮像装置の撮像に基づく複数の画像を取得する第1取得手段と、
    仮想視点を特定するための情報を取得する第2取得手段と、
    前記第2取得手段により取得された情報により特定される仮想視点に対応する仮想視点画像の生成に係る処理時間が閾値を超えないように、前記仮想視点画像の生成に係る処理におけるパラメータを、前記複数の撮像装置により撮像される撮像領域内のオブジェクトに基づいて決定する決定手段と、
    前記決定手段により決定されたパラメータと、前記第1取得手段により取得された複数の画像とに基づいて、前記第2取得手段により取得された情報により特定される仮想視点に対応する仮想視点画像を生成する生成手段と、
    を有することを特徴とする画像処理装置。
  2. 前記決定手段は、前記撮像領域内のオブジェクトの3次元位置に基づいて、前記パラメータを決定することを特徴とする請求項に記載の画像処理装置。
  3. 前記決定手段は、前記第2取得手段により取得された情報により特定される仮想視点と、前記撮像領域内のオブジェクトの3次元位置とに基づいて、前記パラメータを決定することを特徴とする請求項又はに記載の画像処理装置。
  4. 前記決定手段は、前記仮想視点に対応する視界内に位置する第1オブジェクトに対するパラメータと、前記第1オブジェクトよりも前記視界の中心から遠くに位置する第2オブジェクトに対するパラメータとを、互いに異なるように決定することを特徴とする請求項に記載の画像処理装置。
  5. 前記複数の撮像装置の位置及び方向を特定する情報を取得する第3取得手段をさらに有し、
    前記決定手段は、前記第3取得手段により取得された情報と、前記撮像領域内のオブジェクトの3次元位置とに基づいて、前記パラメータを決定することを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  6. 前記決定手段は、前記撮像領域内のオブジェクトの種別に基づいて、前記パラメータを決定することを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  7. 前記オブジェクトの種別には、前景オブジェクトと、背景オブジェクトとが含まれることを特徴とする請求項に記載の画像処理装置。
  8. 前記決定手段は、前記第2取得手段により取得された情報により特定される仮想視点に対応する視界内に含まれるオブジェクトの数と大きさの少なくとも何れかに基づいて、前記パラメータを決定することを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  9. 前記パラメータは、前記仮想視点画像におけるオブジェクトの解像度に係るパラメータであることを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  10. 前記パラメータは、前記第1取得手段により取得された画像に基づいて生成されるオブジェクトの3次元形状を示すモデルの生成の処理に係るパラメータであることを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  11. 前記パラメータは、前記モデルの構成要素のサイズを特定するためのパラメータであることを特徴とする請求項10に記載の画像処理装置。
  12. 前記パラメータは、前記モデルの生成の処理に用いられる撮像装置の数を特定するためのパラメータであることを特徴とする請求項10又は11に記載の画像処理装置。
  13. 前記生成手段は、前記パラメータと前記複数の画像とに基づいてオブジェクトの3次元形状を示すモデルを生成し、生成された当該モデルに基づいて仮想視点画像を生成することを特徴とする請求項10乃至12のいずれか1項に記載の画像処理装置。
  14. 前記パラメータは、前記仮想視点画像におけるオブジェクトの表示の有無を制御するパラメータであることを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  15. 前記生成手段により生成される前記仮想視点画像内の前景オブジェクトが占める領域の大きさが所定の閾値より大きい場合における前記仮想視点画像内の背景オブジェクトの解像度は、前記生成手段により生成される前記仮想視点画像内の1以上の前景オブジェクトが占める領域の大きさが前記所定の閾値より小さい場合における前記仮想視点画像内の背景オブジェクトの解像度よりも低いことを特徴とする請求項乃至14のいずれか1項に記載の画像処理装置。
  16. ユーザによる操作に基づいて処理時間の閾値を設定する設定手段を、さらに有し、
    前記決定手段は、前記仮想視点画像の生成に係る処理時間が前記設定手段により設定された閾値を超えないように、前記パラメータを決定することを特徴とする請求項1乃至15のいずれか1項に記載の画像処理装置。
  17. 前記パラメータを決定するためのオブジェクトに関する条件を指定するための画像を表示手段に表示させる表示制御手段をさらに有することを特徴とする請求項乃至16のいずれか1項に記載の画像処理装置。
  18. 仮想視点からの見えを表す仮想視点画像を生成する画像処理方法であって、
    複数の撮像装置の撮像に基づく複数の画像を取得する第1取得工程と、
    仮想視点を特定するための情報を取得する第2取得工程と、
    前記第2取得工程により取得された情報により特定される仮想視点に対応する仮想視点画像の生成に係る処理時間が所定時間を超えないように、前記仮想視点画像の生成に係る処理におけるパラメータを、前記複数の撮像装置により撮像される撮像領域内のオブジェクトに基づいて決定する決定工程と、
    前記決定工程により決定されたパラメータと、前記第1取得工程により取得された複数の画像とに基づいて、前記第2取得工程により取得された情報により特定される仮想視点に対応する仮想視点画像を生成する生成工程と、
    を有することを特徴とする画像処理方法。
  19. コンピュータを、請求項1乃至17のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2018005732A 2018-01-17 2018-01-17 画像処理装置、画像処理方法、及びプログラム Active JP7051457B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018005732A JP7051457B2 (ja) 2018-01-17 2018-01-17 画像処理装置、画像処理方法、及びプログラム
US16/244,688 US10916048B2 (en) 2018-01-17 2019-01-10 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018005732A JP7051457B2 (ja) 2018-01-17 2018-01-17 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019125929A JP2019125929A (ja) 2019-07-25
JP2019125929A5 JP2019125929A5 (ja) 2021-02-25
JP7051457B2 true JP7051457B2 (ja) 2022-04-11

Family

ID=67213004

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005732A Active JP7051457B2 (ja) 2018-01-17 2018-01-17 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US10916048B2 (ja)
JP (1) JP7051457B2 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10600245B1 (en) * 2014-05-28 2020-03-24 Lucasfilm Entertainment Company Ltd. Navigating a virtual environment of a media content item
US20210134049A1 (en) * 2017-08-08 2021-05-06 Sony Corporation Image processing apparatus and method
JP7170441B2 (ja) 2018-07-12 2022-11-14 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US12020368B1 (en) 2018-11-02 2024-06-25 Meta Platforms Technologies, Llc Pixel replication and interpolation for foveated rendering in a display engine
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
KR102579700B1 (ko) * 2019-06-03 2023-09-18 삼성전자주식회사 데이터를 처리하기 위한 방법 및 이를 지원하는 전자 장치
WO2021117482A1 (ja) * 2019-12-09 2021-06-17 ソニーグループ株式会社 情報処理装置および方法、プログラム、並びに、情報処理システム
CN115004237A (zh) * 2020-01-23 2022-09-02 索尼集团公司 信息处理装置、信息处理方法以及程序
US11694379B1 (en) * 2020-03-26 2023-07-04 Apple Inc. Animation modification for optical see-through displays
US20230179798A1 (en) * 2020-05-13 2023-06-08 Sony Group Corporation Delivery apparatus and delivery method
JP7451291B2 (ja) 2020-05-14 2024-03-18 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2022032483A (ja) 2020-08-12 2022-02-25 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11941729B2 (en) * 2020-12-11 2024-03-26 Canon Kabushiki Kaisha Image processing apparatus, method for controlling image processing apparatus, and storage medium
JP2022160233A (ja) * 2021-04-06 2022-10-19 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
JP7500512B2 (ja) * 2021-08-30 2024-06-17 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2023111640A (ja) * 2022-01-31 2023-08-10 キヤノン株式会社 情報処理装置、情報処理方法、データ構造及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302524A (ja) 2003-03-28 2004-10-28 Kitakyushu Foundation For The Advancement Of Industry Science & Technology 3次元モデリング・プログラム、3次元モデリング制御プログラム、3次元モデリング・データ伝送プログラム、記録媒体および3次元モデリング方法
JP2005050036A (ja) 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
JP2007214769A (ja) 2006-02-08 2007-08-23 Nissan Motor Co Ltd 車両用映像処理装置、車両周囲監視システム並びに映像処理方法
JP2017212592A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9706114B2 (en) 2014-09-12 2017-07-11 Sony Corporation Image pickup apparatus, information processing apparatus, display apparatus, information processing system, image data sending method, image displaying method, and computer program
US10429923B1 (en) * 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
JP7054677B2 (ja) * 2016-08-10 2022-04-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ カメラワーク生成方法及び映像処理装置
JP6775776B2 (ja) * 2017-03-09 2020-10-28 株式会社岩根研究所 自由視点移動表示装置
WO2018181249A1 (ja) * 2017-03-31 2018-10-04 パナソニックIpマネジメント株式会社 撮像システムおよび校正方法
US11122258B2 (en) * 2017-06-30 2021-09-14 Pcms Holdings, Inc. Method and apparatus for generating and displaying 360-degree video based on eye tracking and physiological measurements
US10573061B2 (en) * 2017-07-07 2020-02-25 Nvidia Corporation Saccadic redirection for virtual reality locomotion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302524A (ja) 2003-03-28 2004-10-28 Kitakyushu Foundation For The Advancement Of Industry Science & Technology 3次元モデリング・プログラム、3次元モデリング制御プログラム、3次元モデリング・データ伝送プログラム、記録媒体および3次元モデリング方法
JP2005050036A (ja) 2003-07-31 2005-02-24 Canon Inc 画像処理方法および装置
JP2007214769A (ja) 2006-02-08 2007-08-23 Nissan Motor Co Ltd 車両用映像処理装置、車両周囲監視システム並びに映像処理方法
JP2017212592A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム

Also Published As

Publication number Publication date
JP2019125929A (ja) 2019-07-25
US10916048B2 (en) 2021-02-09
US20190221029A1 (en) 2019-07-18

Similar Documents

Publication Publication Date Title
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6434947B2 (ja) 撮像システム、画像処理装置、画像処理方法、及びプログラム
JP6849430B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR102162107B1 (ko) 화상 처리 장치, 화상 처리 방법 및 프로그램
US20190213791A1 (en) Information processing apparatus relating to generation of virtual viewpoint image, method and storage medium
JP6419128B2 (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
KR102316061B1 (ko) 화상 처리장치, 방법 및 컴퓨터 프로그램
CN110460835B (zh) 图像处理装置及其控制方法和计算机可读存储介质
JP6882868B2 (ja) 画像処理装置、画像処理方法、システム
JP7073092B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7027049B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP7439146B2 (ja) 画像処理システム、画像処理方法及びプログラム
JP2014010805A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
JP2018129025A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
JP2019067419A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2022176719A1 (ja) 画像処理装置、画像処理方法及びプログラム
JP2019145894A (ja) 画像処理装置、画像処理方法及びプログラム
JP2019053738A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US20220408069A1 (en) Information processing apparatus, information processing method, and storage medium
US20230291865A1 (en) Image processing apparatus, image processing method, and storage medium
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
JP2022041594A (ja) 情報処理装置、情報処理方法及びプログラム
JP2009258862A (ja) 映像表示装置及び映像表示方法
JP2021010102A (ja) 情報処理装置、情報処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R151 Written notification of patent or utility model registration

Ref document number: 7051457

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151