JP2019144958A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2019144958A
JP2019144958A JP2018030080A JP2018030080A JP2019144958A JP 2019144958 A JP2019144958 A JP 2019144958A JP 2018030080 A JP2018030080 A JP 2018030080A JP 2018030080 A JP2018030080 A JP 2018030080A JP 2019144958 A JP2019144958 A JP 2019144958A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
target object
area
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018030080A
Other languages
English (en)
Inventor
宗浩 吉村
Munehiro Yoshimura
宗浩 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018030080A priority Critical patent/JP2019144958A/ja
Priority to US16/277,225 priority patent/US11037323B2/en
Publication of JP2019144958A publication Critical patent/JP2019144958A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • G06T7/596Depth or shape recovery from multiple images from stereo images from three or more stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】仮想視点画像の生成に関する不都合を解消する画像処理装置、方法及びプログラムを提供する。【解決手段】本発明の画像処理装置は、複数の撮影手段108が撮影領域対象203を異なる方向から撮影することで得られる複数視点画像に基づいて、仮想視点から見た仮想視点画像を生成する画像処理装置であって、撮影領域対象内の複数のオブジェクト201のうち、描画対象のオブジェクトの大きさを含む情報に基づいて、仮想視点画像を描画する3次元空間上にて、描画対象のオブジェクトを含む描画領域を決定する決定手段と、決定した描画領域と前記情報とに基づいて、描画対象のオブジェクトを描画することで、複数のオブジェクトのうち描画対象のオブジェクトではないオブジェクトの描画のない仮想視点画像を生成する生成手段とを有する。【選択図】図2

Description

本発明は、複数の視点位置から撮像した複数視点画像に基づき、仮想視点からの画像を生成する技術に関するものである。
複数台の実カメラで撮像した画像を用いて、3次元空間内に仮想的に配置した実際には存在しないカメラ(仮想カメラ)からの画像を再現する技術として、仮想視点画像技術がある(特許文献1)。
特開2010−20487号公報 特開2001−307073号公報 特開2004−220292号公報
しかしながら、仮想カメラの撮影範囲内に存在するオブジェクトをそのまま描画して仮想視点画像を生成すると、以下のような不都合が生じる恐れがあった。すなわち、例えば、映像制作者の意図が十分に反映されない仮想視点画像が生成されてしまう恐れや、仮想視点画像の生成に係る処理負荷が増大してしまうなどの恐れがあった。他にも、仮想視点画像のデータ自体が大きくなってしまうなどの恐れもあった。
本発明は、上記の不都合のうち少なくとも1つの改善を目的としてなされたものである。
本発明の一態様に係る画像処理装置は、複数の撮影手段が撮影領域対象を異なる方向から撮影することで得られる複数視点画像に基づいて、仮想視点から見た仮想視点画像を生成する画像処理装置であって、前記撮影領域対象内の複数のオブジェクトのうち、描画対象のオブジェクトの大きさを含む情報に基づいて、前記仮想視点画像を描画する3次元空間上にて、前記描画対象のオブジェクトを含む描画領域を決定する決定手段と、前記決定した描画領域と前記情報とに基づいて、前記描画対象のオブジェクトを描画することで、前記複数のオブジェクトのうち前記描画対象のオブジェクトではないオブジェクトの描画のない仮想視点画像を生成する生成手段とを有することを特徴とする。
本発明によれば、仮想カメラの撮影範囲内のオブジェクトの描画を制御することで、仮想視点画像の生成に係る不都合を改善できる。
実施形態1に係る画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置の撮像装置の配置例を示す図である。 画像処理装置の機能ブロックを示す図である。 画像処理装置による仮想視点画像の生成処理全体の流れを示すフローチャートである。 オブジェクトの位置姿勢情報の一覧例を示すテーブルである。 オブジェクトの位置姿勢、描画領域を示すイメージ図である。 画像処理装置の仮想視点デプス導出部による仮想視点デプスマップのイメージ図である。 画像処理装置による効果を説明する図である。 実施形態2にて想定した場面のイメージ図である。 画像処理装置による描画領域および非描画領域の一例を示した図である。 仮想視点デプスマップのイメージ図である。 実施形態3にて想定した場面のイメージ図である。 実施形態3の画像処理装置が備える描画領域決定部の詳細な機能ブロックを示す図である。 描画領域決定部による詳細な処理の流れを示すフローチャートである。 実施形態3の画像処理装置による処理を説明するイメージ図である。 描画オブジェクト情報取得部のUI画面の一例を示す図である。
以下、本発明を実施するための形態について図面を用いて説明する。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものでなく、また実施の形態で説明されている特徴の組み合わせの全てが発明の解決手段に必須のものとは限らない。
[実施形態1]
画像処理装置100(以下、処理装置100とする)は、パーソナルコンピュータ等に代表される一般的な情報処理装置と同様の構成を備える。図1は、処理装置100のハードウェア構成の一例を示す図である。処理装置100は、CPU101、RAM102、ROM103、二次記憶装置104、入力インターフェース(以下、「インターフェース」を「I/F」とする)105、出力I/F106を有する。そして、処理装置100を構成する各部は、システムバス107によって相互に接続されている。また、処理装置100は、入力I/F105を介して、撮像装置108、操作部109、外部記憶装置(外部メモリ)110に接続されている。また、処理装置100は、出力I/F106を介して、外部記憶装置110及び表示装置111に接続されている。CPU101は、RAM102をワークメモリとして、ROM103に格納されたプログラムを実行し、システムバス107を介して処理装置100の各部を統括的に制御する。これにより、後述する様々な処理が実行される。二次記憶装置104は、処理装置100で取り扱う種々のデータを記憶する大容量記憶装置であり、本実施形態ではHDDが用いられる。CPU101は、システムバス107を介して二次記憶装置104へのデータの書き込みおよび二次記憶装置104に記憶されたデータの読出しを行うことができる。なお、二次記憶装置104にはHDDの他に、光ディスクドライブやフラッシュメモリなど、様々な記憶デバイスを用いることが可能である。入力I/F105は、例えばUSBやIEEE1394等のシリアルバスI/Fであり、外部装置から処理装置100へのデータや命令等の入力は、この入力I/F105を介して行われる。処理装置100は、この入力I/F105を介して、撮像装置108から各種データ(例えば、撮像装置108が撮像した画像及び動画像、撮像装置108の撮像条件パラメータなどのデータ)を取得する。また、処理装置100は、この入力I/F105を介して、外部記憶装置110(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリなどの記憶媒体)からデータを取得する。出力I/F106は、入力I/F105と同様にUSBやIEEE1394等のシリアルバスI/Fを備える。その他に、例えばDVIやHDMIなどの映像出力端子を用いることも可能である。処理装置100から外部装置へのデータ等の出力は、この出力I/F106を介して行われる。処理装置100は、この出力I/F106を介して表示装置111(液晶ディスプレイなどの各種画像表示デバイス)に、処理された画像などを出力することで、画像の表示を行う。なお、処理装置100の構成要素は上記以外にも存在するが、本発明の主眼ではないため、説明を省略する。
図2は、本実施形態に係る画像処理装置が備える撮像装置108の配置例を示す図である。本実施形態において撮像装置108は複数のカメラによって構成される。図2(a)は、カメラの配置を説明する斜視図であり、図2(b)はカメラの配置を説明する平面図である。サッカーなどの競技用のフィールド203を囲むように配置された複数台(図示例では14台)の撮像装置(カメラ)108により、撮影領域対象である、フィールド上にいる選手やボールなどのオブジェクト201が撮影される。各撮像装置108で撮影された画像データは、互いに視差のある複数視点で生成される。本実施形態では、スポーツシーンを例にとって説明するが、以下で説明する手法は、被写体となる物体(オブジェクト)の周りを囲むように複数のカメラを配置して得られた複数視点画像から仮想視点画像を生成する場面において幅広く適用可能である。座標系202はカメラの位置などを記述するときに用いる座標系を示している。なお、図2では、カメラの数を14台としているが、この数に特に制限はない。この数が多いほどオブジェクトの死角が少なくなり、より正確な仮想視点画像を生成できることから好ましい。ただし、カメラは、四方の各辺に少なくとも複数台あることが望ましい。
〔処理装置100における処理〕
以下、実施形態1の処理装置100で行われる処理について、図3に示す機能ブロック図および図4に示すフローチャートを用いて説明する。処理装置100は、図3に示すように、撮像データ取得部301、デプスデータ取得部302、オブジェクト位置姿勢情報取得部303、描画オブジェクト情報取得部304、カメラパラメータ取得部305を有する。また、処理装置100は、描画領域決定部306、仮想視点デプス導出部307、仮想視点描画部308を有する。処理装置100は、CPU101がROM103内に格納された制御プログラムを読み込み実行することで、上記各構成要素の機能を実現する。なお、各構成要素に相当する専用の処理回路を備えるように処理装置100を構成するようにしてもよい。以下、各構成要素により行われる処理の流れを説明する。
ステップS401では、撮像データ取得部301は、入力I/F105を介して、撮像装置108を構成するカメラで撮影された任意の撮影シーンの複数視点画像データを取得する。本実施形態では、撮像装置108を構成するカメラ数は14台であるため、任意の撮影シーンにて14個の画像データを取得する。撮像データ取得部301は、取得した任意の撮影シーンの14個の画像データを仮想視点描画部308へ出力する。また、ステップS401では、デプスデータ取得部302は、撮像装置108を構成するカメラそれぞれのデプスデータを取得する。ここでいうデプスデータとは、各カメラで撮像した画像データの各画素の距離データを示している。各カメラのデプスデータは、公知の技術(例えば特許文献2)を用いて生成してもよいし、各カメラにデプスセンサを設け当該デプスセンサを用いて取得してもよい。デプスデータ取得部302は、取得したデプスデータを仮想視点デプス導出部307へ出力する。また、ステップS401では、カメラパラメータ取得部305は、入力I/F105を介して、または二次記憶装置104から、カメラパラメータを取得する。カメラパラメータは、撮像装置108を構成する各カメラ(実カメラ)と仮想カメラ(仮想視点に配置されたカメラ)の内部パラメータ、外部パラメータおよび歪曲パラメータなどを含む。ここで、内部パラメータとは、画像中心の座標値やカメラのレンズの焦点距離であり、外部パラメータとは、カメラの位置(視点位置)と向き(視線方向)を表すパラメータである。歪曲パラメータとは、カメラのレンズの歪曲を表すパラメータである。実カメラパラメータとして、複数視点の画像データを元にSfM(Structure from Motion)によって推定された推定値を用いてもよいし、チャートなどを用いたキャリブレーションを行って予め導出された導出値を用いてもよい。仮想視点のカメラパラメータについては、ユーザが見たい視点のカメラパラメータを、すなわち、ユーザにより指定された仮想カメラに対応して導出されたカメラパラメータを取得する。具体的には、生成したい仮想視点画像における仮想カメラに関する情報、具体的には、仮想視点位置や視線方向の情報を、不図示のUI画面を介したユーザ操作に基づき取得する。仮想カメラ情報は、予め用意しておいたものを二次記憶装置104や外部記憶装置110から取得しても構わない。カメラパラメータ取得部305は、取得したカメラパラメータを仮想視点デプス導出部307および仮想視点描画部308へ出力する。
ステップS402では、オブジェクト位置姿勢情報取得部303は、フィールド203上に存在する全てのオブジェクト201の位置姿勢情報を取得する。ここでオブジェクトの位置姿勢情報は、オブジェクトの位置情報および姿勢情報を含む情報を示している。例えば、オブジェクトが人間である場合には、オブジェクトの位置姿勢情報は、重心位置、頭頂部の位置、左右の手足の先端部の位置をあらわす情報を含んでいる。オブジェクトが物である場合には、オブジェクトの位置姿勢情報は、重心位置をあらわす重心位置情報を含んでいる。オブジェクトの位置姿勢情報は公知の技術(例えば特許文献3)を用いて生成することが可能である。ここでオブジェクトの位置姿勢情報は、フィールド上に存在する複数のオブジェクトのそれぞれが何のオブジェクトを表しているのかを識別可能な状態に分類された情報であり、オブジェクトそれぞれに識別用のIDが付与されているものとする。例えば、本実施形態のように人間、ボールの2種類のオブジェクトに分類する。
図5は、取得したオブジェクトの位置姿勢情報の一覧例を示すテーブルである。本実施形態では、図5に示すようなオブジェクト位置姿勢情報を取得する場合について説明する。取得するオブジェクト位置姿勢情報の実施形態はこれに限らず、より詳細な情報(例えば、複数の関節位置情報)であっても、より簡易な情報(例えば重心位置のみ)であっても実施可能である。オブジェクト位置姿勢情報取得部303は取得したオブジェクト位置姿勢情報を描画領域決定部306へ出力する。
ステップS403では、描画オブジェクト情報取得部304は、描画オブジェクト情報を取得する。ここで描画オブジェクト情報は、フィールド上に存在する全てのオブジェクトを描画オブジェクトまたは非描画オブジェクトに分類した情報である。本実施形態では、ユーザが見たいオブジェクトのIDを、すなわち、ユーザが注目するオブジェクトのIDを不図示のUI画面を介して入力するものとする。これにより、入力されたIDに対応するオブジェクトは、描画対象である描画オブジェクトに分類され、入力されなかったIDに対応するオブジェクトは、非描画対象である非描画オブジェクトに分類されることになる。本実施形態では、ユーザが見たい(注目する)オブジェクトのIDを入力する場合について説明するが、ユーザが見たくないオブジェクトのIDを、すなわち、ユーザが注目しないオブジェクトのIDを入力することも可能である。この場合、入力されたIDに対応するオブジェクトは、非描画オブジェクトに分類され、入力されなかったIDに対応するオブジェクトは、描画オブジェクトに分類されることになる。描画オブジェクト情報取得部304は、取得した描画オブジェクト情報を描画領域決定部306へ出力する。
ステップS404では、描画領域決定部306は、ステップS403で取得した描画オブジェクト情報とステップS402で取得したオブジェクト位置姿勢情報に基づいて描画する領域(以下、描画領域という)を決定する。図6(a)は、ある撮影シーンの画像データを基に生成された、図5に示したオブジェクトの位置姿勢情報に対応する仮想視点画像のイメージ図である。図6(b)は、図6(a)のイメージ図に描画領域を重畳表示したイメージ図である。本実施形態では、描画オブジェクト情報として、描画オブジェクトID=1,2,3、非描画オブジェクトID=4という情報が付与されたものとする。各IDとその位置座標から、図6(a)では、選手601と選手602とボール603がそれぞれID=1,2,3に対応しており描画対象である描画オブジェクトであることがわかる。また、選手604がID=4に対応しており非描画対象である非描画オブジェクトであることがわかる。描画領域決定部306は、描画オブジェクトである3つのオブジェクトのオブジェクト位置姿勢情報に基づいて、描画領域を決定する。本実施形態では説明を簡単にするため、各オブジェクトの描画領域は直方体の8頂点の座標値で表されるとする。選手601および選手602は人オブジェクトに対応しており、人オブジェクトの描画領域のx座標は、例えば、式(1)により導出される。ただし、(cx,cy,cz)は重心位置を示し、(hx,hy,hz)は頭頂部位置を示している。(lhx,lhy,lhz)は左手の先端位置を示し、(rhx,rhy,rhz)は右手の先端位置を示している。(lfx,lfy,lfz)は左足の先端位置を示し、(rfx,rfy,rfz)は右足の先端位置を示している。αはマージン(例えばα=10)を示している。
人オブジェクトの描画領域のy座標およびz座標は、x座標と同様に導出される。すなわち、人オブジェクトの描画領域のy座標は式(2)により導出され、人オブジェクトの描画領域のz座標は式(3)により導出される。
よって、式(1)〜(3)より、式(4)で表される8頂点の座標値が導出される。描画領域決定部306は、導出された8頂点の座標値をむすぶ直方体を人オブジェクトの描画領域として決定する。
ボール603は物オブジェクトに対応しており、描画領域決定部306は、ボールのサイズから直方体のサイズが予め決められ、取得したボールの重心位置に中心が位置づけられた直方体を物オブジェクトの描画領域として決定する。図6(b)は、図6(a)に示されるオブジェクトのイメージ図に、決定した描画領域を重畳表示したイメージ図である。ブロック605は選手601の描画領域を示し、ブロック606は選手602の描画領域を示し、ブロック607はボール603の描画領域を示している。描画領域決定部306は、決定した描画領域を仮想視点デプス導出部307へ出力する。
ステップS405では、仮想視点デプス導出部307が取得した描画領域とデプスデータ、カメラパラメータに基づいて、仮想視点デプスデータである仮想視点のデプスマップを導出する。撮像装置108を構成するカメラそれぞれのデプスマップとそのカメラのカメラパラメータと仮想視点のカメラパラメータに基づいて仮想視点のデプスマップを生成する方法は公知である。例えば、実カメラのデプスデータとカメラパラメータに基づいて3次元空間に変換した点にはオブジェクトがあるとわかるので、その点を仮想視点のカメラパラメータに基づいて変換することにより仮想視点上で対応する画素のデプスを導出することができる。例えば、以下の式(5)により、実カメラのデプスマップのある画素から3次元空間へ変換される。例えば、以下の式(6)により、3次元空間の点から仮想視点のデプスが導出される。式(5)、(6)において、Pは3次元空間中の点の3次元座標を示し、「~」が付加されたmは実カメラのある画素を示している。Aは実カメラの内部パラメータを示し、Rは外部パラメータである回転パラメータを示し、tは外部パラメータである並進パラメータを示している。dは、画素m(「~」が付加される)のデプスを示している。また、A’は仮想視点の内部パラメータを示し、R’は仮想視点の外部パラメータである回転パラメータを示し、t’は仮想視点の外部パラメータである並進パラメータを示している。x’とy’は仮想視点のカメラ座標を示し、u’とv’は仮想視点の画像座標を示し、d’は仮想視点の画素(u’,v’)のデプスを示している。(Cx,Cy)は仮想視点の画素(u’,v’)の重心位置を示している。
上記式(5)および式(6)により複数のカメラから仮想視点のデプスを導出し、仮想視点の各画素において最短となるデプスをその画素のデプスとすることで、仮想視点のデプスマップを生成できる。本実施形態ではこの仮想視点のデプス導出時に描画領域決定部306で決定した描画領域による制限を加える。具体的には、実カメラから導出した3次元空間中の点Pが決定した描画領域内に含まれているときのみ、描画領域を仮想視点のデプスマップに反映する。これにより描画オブジェクトのみが反映された仮想視点のデプスマップが生成できる。図7は生成した仮想視点のデプスマップのイメージ図である。仮想視点のデプスマップには、描画領域に含まれる選手601、選手602およびボール603が反映されており、選手601、602およびボール603のそれぞれに対応した領域701、702、703が含まれていることが分かる。また、描画領域に含まれない選手604がデプスマップに含まれていないことが分かる。本実施形態では仮想視点のデプスマップを複数の実カメラのデプスデータから導出したが、仮想視点のデプスマップの導出方法は、この導出方法に限定されない。仮想視点のデプスマップの導出方法として、例えば、複数の実カメラの撮像画像からオブジェクトの3次元形状を推定し、仮想視点のデプスマップに変換する手法を用いることが可能である。また、仮想視点と成り得る位置にデプスセンサを設置しておき該当するデプスセンサからデプスマップを直接取得する手法を用いることが可能である。仮想視点デプス導出部307は、導出した仮想視点のデプスマップを仮想視点描画部308へ出力する。
ステップS406では、仮想視点描画部308は、取得した仮想視点デプスマップと撮像データとカメラパラメータに基づいて、仮想視点画像を描画する。仮想視点画像の描画手法には、例えば、イメージベースレンダリング(IBR:Image-Based Rendering)などの公知手法が用いられる。仮想視点描画部308は、描画した仮想視点画像を出力する。
〔実施形態1による効果〕
図8(a)および図8(b)は、ある撮影シーンの画像データを基に生成された、図5に示したオブジェクトの位置姿勢情報に対応する仮想視点画像のイメージ図である。図8(a)は実施形態1を適用せずに従来の手法を適用した場合のイメージ図であり、図8(b)は実施形態1を適用し3つのオブジェクトID=1、2、3にのみ描画領域を設定した場合のイメージ図である。
図8(a)のイメージ図と図8(b)のイメージ図とを比較すると、図8(a)のイメージ図にて描画されている選手804は、図8(b)のイメージ図では描画されていないことがわかる。このように、複数のオブジェクトのうち、描画領域が設定されたオブジェクトを描画することで、描画領域が設定されていないオブジェクトの描画のない仮想視点画像を生成することができる。すなわち、複数のオブジェクトのうち、注目オブジェクトを描画することで、注目オブジェクトではない非注目オブジェクトの描画のない仮想視点画像を生成することができる。よって、描画領域が設定されていないオブジェクトの描画がないことから、仮想視点画像の生成処理負荷を軽減することができる。さらに、視聴者の注目を選手601と選手602のボール603の奪い合いに集めることができ、映像製作者の意図をより効果的に反映した映像表現ができる。例えば、本実施形態例を用いることにより、サッカーの試合の映像の中でスター選手のみを描画した仮想視点映像の生成や、反則に関わった選手のみを描画することによる強調表示などが可能である。
[実施形態2]
上述の実施形態1では、撮影シーンに存在する全てのオブジェクトを描画オブジェクト又は非描画オブジェクトに分類し、その分類に基づき描画領域を決定することで、描画オブジェクトを描画し、非描画オブジェクトを描画しない仮想視点画像を生成できる。しかしながら、図6(a)にて、非描画対象の選手604が描画対象の選手602に対して近接した場所に居ると、選手602の描画領域内に選手604の一部が含まれ選手604が描画されない仮想視点画像の生成が難しい場面が想定される。図9は、本実施形態にて想定した場面を説明するイメージ図である。図9(a)は、想定した場面にて描画オブジェクトおよび非描画オブジェクト全てを描画した仮想視点画像を示すイメージ図である。図9(a)のイメージ図では、図6(a)のイメージ図の場合と比べて、選手904が選手902に対して近接した場所に居る場面となっている。図9(b)は、図9(a)のイメージ図に実施形態1のステップS404で決定した描画領域を重畳表示したイメージ図である。選手904が選手902に対して近接した場所に居ることにより、選手904の一部分は選手902の描画領域に含まれることになる。図9(c)は、実施形態1を適用して描画した仮想視点画像を示すイメージ図である。選手902の描画領域に含まれた選手904の一部分(図示例では選手904の左半身部分)が描画されることになる。このように描画オブジェクトに対して非描画オブジェクトが近接した場所に居る場面にて、以下の処理を行うことで、非描画オブジェクトが描画されず、描画オブジェクトのみが描画される仮想視点画像が生成される。
実施形態2では、描画領域決定時に描画領域だけでなく非描画領域も決定し、さらに、優先順位に従い描画領域および非描画領域を特定することにより、上記場面であっても、ユーザが見たいとしたオブジェクトのみで構成される仮想視点画像を生成する。実施形態2の処理装置100で行われる処理について、データの流れと処理の流れは基本的には実施形態1と同様であり、機能ブロックに関しては図3と、フローチャートに関しては図4と同じである。ただし、特定の構成要素に更なる機能が付加されており、実施形態1との差異について、以下に説明する。
ステップS403では、描画オブジェクト情報取得部304は、描画オブジェクト情報を取得する。実施形態1では、ユーザにより見たいオブジェクトのIDの入力、すなわち、ユーザが注目するオブジェクトのIDの不図示のUI画面を介した入力によって描画オブジェクト情報を取得していた。本実施形態では、これに加えて、ユーザにより入力された各オブジェクトの優先順位情報も取得する。優先順位情報は、オブジェクトに対する処理を行う順番を表す情報を含む。図9に示される場面では、例えば、選手901(描画、優先順位4)、選手902(描画、優先順位3)、ボール903(描画、優先順位2)、選手904(非描画、優先順位1)である描画オブジェクト情報を取得する。
ステップS404では、描画領域決定部306は、取得した描画オブジェクト情報に基づいて、描画領域と非描画領域を決定する。実施形態1では描画領域についてのみ導出したが、本実施形態では描画領域に加えて非描画領域も導出する。描画領域は実施形態1の描画領域の導出方法と同じ方法で導出される。非描画領域は、実施形態1の描画領域の導出方法と同様な方法で導出される。すなわち、非描画領域として、非描画対象のオブジェクトの位置姿勢情報に基づき、式(1)〜(3)より式(4)で表される8頂点の座標値をむすぶ直方体が導出される。図10は、取得した描画オブジェクト情報に基づいて決定した描画領域および非描画領域を図9(a)のイメージ図に重畳表示したイメージ図である。破線で囲まれた領域1001、1002、1003は描画領域を示し、一点鎖線で囲まれた領域1004は非描画領域を示している。本実施形態においては、選手902より選手904のほうが優先順位にて若番であるため、描画領域1002より非描画領域1004が優先される。よって、非描画領域1004と重なる描画領域1002の一部分は非描画領域として処理されることになる。描画領域決定部306は、決定した描画領域と非描画領域を仮想視点デプス導出部307へ出力する。
ステップS405では、仮想視点デプス導出部307が取得した描画領域と非描画領域とデプスデータ、カメラパラメータに基づいて仮想視点デプスを導出する。実施形態1では描画領域に含まれる3次元空間中の点Pのデプスを導出していたが、本実施形態では描画オブジェクト情報の優先順位に従い前記点Pのデプスが導出される。本実施形態では、選手904の非描画領域1004が優先順位1であるため、この領域に含まれる点が他のオブジェクトの描画領域に含まれても、仮想視点のデプスマップには反映されないことになる。図11(a)は、図9(a)の場面に対して実施形態1を適用した際に生成した仮想視点のデプスマップのイメージ図である。図11(b)は、本実施形態を適用した際に生成した仮想視点のデプスマップのイメージ図である。実施形態1を適用した場合のデプスマップには非描画オブジェクトの選手904に対応した領域が含まれる。これに対し、本実施形態を適用した場合のデプスマップには、非描画オブジェクトの選手904に対応した領域が含まれず、描画オブジェクトの選手901、902、ボール903に対応した領域が含まれることになる。
〔実施形態2による効果〕
図10に示したように、非描画オブジェクトの選手904の一部分が描画オブジェクトの選手902に対して近接した場所に居て、選手904の一部分が選手902の描画領域1002に重なる場面でも、以下の効果を奏する。すなわち、選手904を描画せずに選手901、選手902、ボール903を描画した仮想視点画像を生成することが可能である。本実施形態を適用することにより、オブジェクト同士が近接した場合であっても、映像製作者の意図を効果的に反映した映像表現が可能となる。また、以下の効果を奏する。すなわち、描画領域が設定されたオブジェクトを描画することで、描画領域が設定されていないオブジェクトの描画のない仮想視点画像を生成することができる。つまり、複数のオブジェクトのうち、注目オブジェクトを描画することで、注目オブジェクトではない非注目オブジェクトの描画のない仮想視点画像を生成することができる。よって、描画領域が設定されていないオブジェクトの描画がないことから、仮想視点画像のデータサイズを低減でき、仮想視点画像の生成処理負荷を軽減することができる。
[実施形態3]
上述の実施形態2では、描画オブジェクトに対して非描画オブジェクトが近接した場所に居る場面でも、以下の効果を奏する。優先順位に従い描画領域および非描画領域の描画処理を行うことで、複数のオブジェクトのうち、描画オブジェクトを描画することで、非描画オブジェクトの描画のない仮想視点画像を生成できる。しかしながら、図10にて、非描画対象の選手904が描画対象の選手902に対してより近接した場所に居る場合には、以下の場面が想定される。選手904の非描画領域1004内に選手902の一部分が含まれ描画オブジェクトのみが描画された仮想視点画像の生成が難しい場面が想定される。図12は、本実施形態にて想定した場面を説明するイメージ図である。図12(a)は、想定した場面にて描画オブジェクトおよび非描画オブジェクト全てを描画した仮想視点画像を示すイメージ図である。図12(a)のイメージ図では、図9(a)のイメージ図の場合と比べて、選手1202が選手1201に対してより近接した場所に居る場面となっている。図12(b)は、図12(a)のイメージ図に実施形態2のステップS404で決定した描画領域および非描画領域を重畳表示したイメージ図である。選手1202が選手1201に対してより近接した場所に居ることにより、選手1201の左腕先部分が選手1202の非描画領域1204に含まれることになる。図12(c)は、実施形態2を適用して描画した仮想視点画像を示すイメージ図である。選手1202の非描画領域1204に含まれた選手1201の一部分(図示例では選手1201の左腕先部分)が描画されないことになる。このように非描画オブジェクトに対して描画オブジェクトがより近接した場所に居る場合にて、以下の処理を行うことで、非描画オブジェクトが描画されず、描画オブジェクトのみが描画される仮想視点画像が生成される。
実施形態3では、実施形態2に加えて、描画領域と非描画領域とが重複する領域に関して、より詳細な描画領域および非描画領域を決定することにより、上記場面であってもユーザが見たいとしたオブジェクトのみで構成される仮想視点画像を生成する。実施形態3の処理装置100で行われる処理について、データの流れと処理の流れは基本的に実施形態2と同様であり、機能ブロックに関しては図3と、フローチャートに関しては図4と同じである。ただし、描画領域決定部306に更なる機能が付加されており、実施形態2との差異について、以下に説明する。
ステップS404では、描画領域決定部306は、取得した描画オブジェクト情報に基づいて、描画領域と非描画領域を決定する。描画領域および非描画領域の導出方法は実施形態2と同様である。ただし、描画領域と非描画領域とで重なる重複領域があると、重複領域に対しては、以下の処理が行われる。重複領域が無いと、以下の処理が行われず、ステップS404の処理が終わると、ステップS405へ進む。本実施形態では、重複領域のみ視体積交差法を用いてボクセル生成を行い、ボクセルそれぞれについて描画対象または非描画対象であるかを決定する。本実施形態における描画領域決定部306で行われる詳細な処理について、図13に示す機能ブロック図、図14に示すフローチャート、図15に示すイメージ図を用いて説明する。
以下、描画領域決定部306が実行する描画領域決定処理について詳細に説明する。
図13は、描画領域決定部306の機能ブロックを示す図である。描画領域決定部306は、描画領域導出部1301、重複領域導出部1302、ボクセル生成部1303、距離導出部1304、描画・非描画判定部1305を有する。
図14は、描画領域決定部306が実行する描画領域決定処理の流れを示すフローチャートである。この描画領域決定処理は図4のステップS404において実行される。つまり、本実施形態では、図13に示す各構成要素が、それぞれCPU101の制御に基づいて専用のハードウェアとして動作することで、図14の処理が実現される場合について説明する。ただし、CPU101が所定のプログラムを実行することにより、図14の処理が実現されるようにしてもよい。
図15は、図12と同じ場面に対して実施形態3を適用した場合のイメージ図である。図15(a)は、重複領域導出処理を説明するためイメージ図である。図15(b)は、距離導出処理を説明するためのイメージ図である。図15(c)は、描画・非描画判定処理を説明するためのイメージ図である。
ステップS1401では、描画領域導出部1301は、取得した描画オブジェクト情報に基づいて、描画領域および非描画領域を導出する。描画領域および非描画領域の導出方法は実施形態2と同様である。描画領域導出部1301は、導出した描画領域および非描画領域を重複領域導出部1302に出力する。図15(a)では、選手1201が描画オブジェクトに、選手1202が非描画オブジェクトに設定されており、選手1201の描画領域1203と選手1202の非描画領域1204とが導出される。
ステップS1402では、重複領域導出部1302は、描画領域導出部1301が導出した描画領域および非描画領域に基づいて、描画領域と非描画領域とが重複する重複領域を導出する。重複領域導出部1302は、重複領域を構成する頂点の座標を記録し、その頂点の座標を重複領域情報として、ボクセル生成部1303に出力する。図15(a)では、描画領域1203と非描画領域1204とが重複する重複領域1205が導出される。
ステップS1403では、ボクセル生成部1303は、重複領域導出部1302が導出した重複領域情報に基づき、オブジェクトのうち重複領域に対応する部分に対して要素であるボクセルを生成する。すなわち、オブジェクトのうち、重複領域の頂点の座標で囲まれる領域に含まれる部分に対してボクセルを生成する。本実施形態では、重複領域に対して視体積交差法などの公知の手法によりボクセルを生成する。本実施形態では、1ボクセルの1辺のサイズを0.5mmとするが、ボクセルのサイズを0.5mmより小さくしても大きくしても実施可能である。また、本実施形態では、視体積交差法により重複領域に含まれるオブジェクトのボクセルを生成する場合について説明したが、ボクセルの生成方法に関しこの手法に限定されない。重複領域に含まれるオブジェクトの詳細形状を生成できる場合には、例えば、ステレオ法による形状推定などでも実施可能である。ボクセル生成部(要素生成部)1303は、生成した重複領域に含まれるオブジェクトのボクセルデータを距離導出部1304に出力する。本実施形態におけるボクセルデータとは、ボクセル重心の3次元情報とボクセルサイズとを含むデータである。
ステップS1404では、距離導出部1304は、ボクセル生成部1303が生成した各ボクセルの重心座標と取得したオブジェクト位置姿勢情報とに基づいて、各ボクセルと各オブジェクトの重心位置間の距離を導出する。距離導出部1304は、導出した距離を描画・非描画判定部1305へ出力する。例えば、図15(b)では、重複領域1205内のあるボクセルの重心位置G1を基点に、描画対象の選手1201の重心位置G2との距離L1と、非描画対象の選手1202の重心位置G3との距離L2(>L1)が導出される。
ステップS1405では、描画・非描画判定部1305は、距離導出部1304が導出した距離に基づいて、ボクセルが描画対象のオブジェクトに含まれるボクセルか、非描画対象のオブジェクトに含まれるボクセルかを判定する。描画・非描画判定部1305は、導出したボクセルの重心位置と各オブジェクトの重心位置間の距離が最も短いオブジェクトにそのボクセルが帰属すると判定する。すなわち、ボクセルの帰属先を判定する。描画・非描画判定部1305は、ボクセルの帰属先が描画対象のオブジェクトであればそのボクセルを描画対象である描画ボクセルと判定し、ボクセルの帰属先が非描画対象のオブジェクトであればそのボクセルを非描画対象である非描画ボクセルと判定する。そして、描画・非描画判定部1305は、描画ボクセルと非描画ボクセルを含む描画・非描画領域を生成する。例えば、図15(c)では、重複領域1205に関し、選手1201の左腕先部分を含む領域1206に対しては描画ボクセルと判定し、選手1201の左腕先部分を含まない領域1207に対しては非描画ボクセルと判定される。
ステップS1406では、描画領域決定部306は、重複領域に含まれる全てのボクセルに対して描画・非描画判定処理が行われたか否かを判定する。全てのボクセルに対して描画・非描画判定処理が行われていないと判定した場合には、ステップS1404へ移行し、描画・非描画判定が未処理である残りのボクセルに対してS1404の距離導出とS1405の描画・非描画判定の処理が行われる。全てのボクセルに対して描画・非描画判定処理が行われた場合は、描画領域決定部306は、詳細に導出した描画・非描画領域、すなわち、描画ボクセルおよび非描画ボクセルが含まれる描画領域・非描画領域を仮想視点デプス導出部307へ出力する。
〔実施形態3による効果〕
図15(d)は、図12と同じ場面に対して実施形態3を適用して生成した仮想視点画像のイメージ図である。描画対象である選手901、ボール903、選手1201が描画され、非描画対象である選手1202が描画されない仮想視点画像が生成される。
本実施形態によれば、描画領域と非描画領域との重複領域内のオブジェクトに対してボクセル単位で描画・非描画判定を行いその結果に基づいて描画領域と非描画領域を特定したことにより、実施形態2と比較して、多様な場面の仮想視点画像を生成できる。すなわち、描画オブジェクトと非描画オブジェクトとがより近接した場所に居た場面をも含むシーンの仮想視点画像を生成することができる。よって、描画領域が設定されていないオブジェクトの描画がないことから、仮想視点画像のデータサイズを低減でき、仮想視点画像の生成処理負荷を軽減することができる。
[その他の実施形態]
実施形態1から3では、描画オブジェクト情報取得部304が、描画したいオブジェクトの識別IDを含む描画オブジェクト情報を取得するものとしていたが、実施形態はこれに限らず、ユーザが画像上で入力する形態であっても実施可能である。図16は、ユーザが操作するUI画面の一例を示す図である。画像1601はそれぞれ選択したシーンの選択したカメラの選択したフレーム番号の画像である。画像上のカーソル(ポインタ)1602はオブジェクトを指定するために用いるツールであり、オブジェクトが存在する画像の位置をクリック可能である。表1603は、カーソル1602で選択したオブジェクトが格納される表である。優先順位を設定する項目、選択したオブジェクトの画像上での位置座標が格納される項目、描画/非描画を選択する項目が含まれる。図16では、オブジェクトの指定にカーソルを用いたが、円などでオブジェクトを囲んで指定してもよいし、タッチパネルを用いて指定してもよい。また、指定したポイントから例えば半径10mに含まれるオブジェクトを全て描画オブジェクトとするといった指定方法でも実施可能である。
実施形態1から3では、オブジェクトを基準として描画領域および非描画領域を決定したが、実施形態はこれに限らず、例えば、3次元空間上で描画領域および非描画領域を直接設定する場合であっても実施可能である。
上記では、撮像データと仮想視点デプスとカメラパラメータとを用いて仮想視点画像を描画したが、実施形態はこれに限らず、例えば、IBRにより、撮像データとカメラパラメータを用いて仮想視点画像を描画する場合であっても実施可能である。この手法の場合、デプスデータが不要であり、その分、処理負荷を軽減できる。
上記では、描画オブジェクト情報およびオブジェクト位置姿勢情報に基づいて描画領域を決定する場合について説明した。位置姿勢情報の変わりに、位置情報と予め設定された形状情報を用いて描画領域を決定することも実施可能である。
上記では、オブジェクト位置姿勢情報の取得対象をフィールド上に存在する全てのオブジェクトとした場合について説明したが、オブジェクト位置姿勢情報の取得対象を撮影シーンに存在する全てのオブジェクトとすることも可能である。
上記では、フィールド上に存在する全ての描画オブジェクト情報の取得対象をフィールド上に存在する全てのオブジェクトとした場合について説明したが、オブジェクト位置姿勢情報の取得対象を撮影シーンに存在する全てのオブジェクトとすることも可能である
実施形態3では、描画・非描画判定基準を距離とした場合について説明したが、描画・非描画判定基準を各ボクセルと各オブジェクトの色による連続性、各ボクセルと各オブジェクトの位置情報による連続性などの情報とすることも可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (16)

  1. 複数の撮影手段が撮影領域対象を異なる方向から撮影することで得られる複数視点画像に基づいて、仮想視点から見た仮想視点画像を生成する画像処理装置であって、
    前記撮影領域対象内の複数のオブジェクトのうち、描画対象のオブジェクトの大きさを含む情報に基づいて、前記仮想視点画像を描画する3次元空間上にて、前記描画対象のオブジェクトを含む描画領域を決定する決定手段と、
    前記決定した描画領域と前記情報とに基づいて、前記描画対象のオブジェクトを描画することで、前記複数のオブジェクトのうち前記描画対象のオブジェクトではないオブジェクトの描画のない仮想視点画像を生成する生成手段と
    を有することを特徴とする画像処理装置。
  2. 前記決定手段は、前記撮影領域対象内の複数のオブジェクトのうち、非描画対象のオブジェクトの大きさを含む前記情報に基づいて、前記仮想視点画像を描画する3次元空間上にて、前記非描画対象のオブジェクトを含む非描画領域も決定し、
    前記生成手段は、決定した非描画領域にも基づいて、前記非描画対象のオブジェクトを描画しない前記仮想視点画像を生成する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの位置情報を含む前記情報を取得する取得手段を有し、
    前記決定手段は、前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの位置情報と、前記オブジェクトに対して予め設定された形状情報とに基づき前記描画領域および前記非描画領域を決定する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記取得手段は、前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの重心位置情報を含む前記情報を取得し、
    前記決定手段は、前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの重心位置情報にも基づき前記描画領域および前記非描画領域を決定する
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの位置情報を含む前記情報を取得する取得手段を有し、
    前記描画対象のオブジェクトが人に分類されている場合、
    前記取得手段は、前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの位置情報と重心位置情報と姿勢情報を含む前記情報を取得し、
    前記決定手段は、前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの位置情報と重心位置情報と姿勢情報に基づき前記描画領域および前記非描画領域を決定することを特徴とする請求項2に記載の画像処理装置。
  6. 前記取得手段は、前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの関節位置情報を含む前記情報を取得し、
    前記決定手段は、前記描画対象のオブジェクトおよび前記非描画対象のオブジェクトの関節位置情報にも基づき前記描画領域および前記非描画領域を決定する
    ことを特徴とする請求項5に記載の画像処理装置。
  7. 前記複数視点画像の各画素のデプスデータと前記描画領域と前記撮影手段と前記仮想視点に基づき、前記仮想視点から見た仮想視点デプスデータを導出するデプス導出手段を有し、
    前記生成手段は、導出した仮想視点デプスデータにも基づいて前記仮想視点画像を生成することを特徴とする請求項1から6の何れか一項に記載の画像処理装置。
  8. 前記デプス導出手段は、前記描画領域に含まれる3次元空間上の点のみ前記デプスデータを導出することを特徴とする請求項7に記載の画像処理装置。
  9. 前記複数のオブジェクトそれぞれに、当該オブジェクトに対する処理を行う順番を表す優先順位が付与されており、
    前記生成手段は、前記優先順位に応じて、前記描画領域と前記非描画対象のオブジェクト、または前記非描画領域と前記描画対象のオブジェクトが重なる領域を描画する、または描画しない前記仮想視点画像を生成する
    ことを特徴とする請求項3から6の何れか一項に記載の画像処理装置。
  10. 前記描画領域と前記非描画領域とが重なる重複領域を導出する導出手段と、
    前記重複領域内の形状を構成する複数の要素を生成する要素生成手段と、
    前記複数の要素それぞれの帰属先が前記複数のオブジェクトのいずれかを導出し、導出した帰属先に基づいて前記複数の要素それぞれを描画するかを判定する描画判定手段とを有し、
    前記生成手段は、前記判定に応じて前記要素を描画した前記仮想視点画像を生成することを特徴とする請求項9に記載の画像処理装置。
  11. 前記要素生成手段は、前記複数の要素それぞれをボクセルで生成することを特徴とする請求項10に記載の画像処理装置。
  12. 前記描画判定手段は、前記複数のオブジェクトそれぞれとの重心位置間の距離と、前記複数のオブジェクトそれぞれとの色の連続性と、前記複数のオブジェクトそれぞれとの位置の連続性の少なくとも一つに応じて、前記複数の要素それぞれの帰属先を導出することを特徴とする請求項10または11に記載の画像処理装置。
  13. 前記取得手段は、前記描画対象のオブジェクトまたは前記非描画対象のオブジェクトが、ユーザにより指定されることで前記情報を取得することを特徴とする請求項3から6の何れか一項に記載の画像処理装置。
  14. 前記取得手段は、前記複数視点画像を表示するUI画面にて、前記描画対象のオブジェクト、前記描画領域、前記非描画対象のオブジェクト、または前記非描画領域が、ユーザにより指定されることで前記情報を取得することを特徴とする請求項3から6の何れか一項に記載の画像処理装置。
  15. 複数の撮影手段が撮影領域対象を異なる方向から撮影することで得られる複数視点画像に基づいて、設定した仮想視点から見た仮想視点画像を生成する画像処理方法であって、
    前記撮影領域対象内の複数のオブジェクトのうち、描画対象のオブジェクトの大きさを含む情報に基づいて、前記仮想視点画像を描画する3次元空間上にて、前記描画対象のオブジェクトを含む描画領域を決定するステップと、
    前記決定した描画領域と前記情報とに基づいて、前記描画対象のオブジェクトを描画することで、前記複数のオブジェクトのうち前記描画対象のオブジェクトではないオブジェクトの描画のない仮想視点画像を生成するステップと
    を有することを特徴とする画像処理方法。
  16. コンピュータを、請求項1から14の何れか一項に記載の画像処理装置として機能させるためのプログラム。
JP2018030080A 2018-02-22 2018-02-22 画像処理装置、画像処理方法およびプログラム Pending JP2019144958A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018030080A JP2019144958A (ja) 2018-02-22 2018-02-22 画像処理装置、画像処理方法およびプログラム
US16/277,225 US11037323B2 (en) 2018-02-22 2019-02-15 Image processing apparatus, image processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018030080A JP2019144958A (ja) 2018-02-22 2018-02-22 画像処理装置、画像処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019144958A true JP2019144958A (ja) 2019-08-29

Family

ID=67618040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018030080A Pending JP2019144958A (ja) 2018-02-22 2018-02-22 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US11037323B2 (ja)
JP (1) JP2019144958A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020134973A (ja) * 2019-02-12 2020-08-31 キヤノン株式会社 素材生成装置、画像生成装置および画像処理装置
US12028507B2 (en) * 2021-03-11 2024-07-02 Quintar, Inc. Augmented reality system with remote presentation including 3D graphics extending beyond frame

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4550221B2 (ja) 2000-04-24 2010-09-22 パナソニック株式会社 三次元空間再構成装置及び三次元空間再構成方法
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP4070618B2 (ja) 2003-01-15 2008-04-02 日本電信電話株式会社 物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
JP4931240B2 (ja) * 2007-09-13 2012-05-16 インターナショナル・ビジネス・マシーンズ・コーポレーション 画像の認識を支援するシステム
JP5011224B2 (ja) 2008-07-09 2012-08-29 日本放送協会 任意視点映像生成装置及び任意視点映像生成プログラム
US9846960B2 (en) * 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration

Also Published As

Publication number Publication date
US11037323B2 (en) 2021-06-15
US20190259173A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
JP7051457B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10970915B2 (en) Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
KR102342668B1 (ko) 화상 처리장치, 화상 처리방법 및 기억매체
JP5011224B2 (ja) 任意視点映像生成装置及び任意視点映像生成プログラム
JP4262014B2 (ja) 画像撮影装置および画像処理方法
JP6849430B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7164968B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
KR102539427B1 (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
JP7073092B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN110956695B (zh) 信息处理装置、信息处理方法和存储介质
US11044398B2 (en) Panoramic light field capture, processing, and display
KR102279300B1 (ko) 가상 물체 표시 제어 장치, 가상 물체 표시 시스템, 가상 물체 표시 제어 방법, 및 가상 물체 표시 제어 프로그램
JP2019083402A (ja) 画像処理装置、画像処理システム、画像処理方法、及びプログラム
JP7285834B2 (ja) 三次元再構成方法および三次元再構成装置
JP2018026064A (ja) 画像処理装置、画像処理方法、システム
CN111466113B (zh) 图像捕获的装置和方法
JP2020173529A (ja) 情報処理装置、情報処理方法、及びプログラム
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2022058753A (ja) 情報処理装置、情報処理方法及びプログラム
JP2019144958A (ja) 画像処理装置、画像処理方法およびプログラム
US12051148B2 (en) Image processing apparatus, method for controlling the same, and non-transitory computer-readable storage medium
KR20200116224A (ko) 시점 변환을 이용하는 360도 영상 저장 방법 및 렌더링 방법
JP5868055B2 (ja) 画像処理装置および画像処理方法
JP2019145894A (ja) 画像処理装置、画像処理方法及びプログラム
WO2023199583A1 (ja) ビューワ制御方法及び情報処理装置