JP2022126205A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2022126205A
JP2022126205A JP2021024134A JP2021024134A JP2022126205A JP 2022126205 A JP2022126205 A JP 2022126205A JP 2021024134 A JP2021024134 A JP 2021024134A JP 2021024134 A JP2021024134 A JP 2021024134A JP 2022126205 A JP2022126205 A JP 2022126205A
Authority
JP
Japan
Prior art keywords
data
virtual viewpoint
partial
dimensional shape
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021024134A
Other languages
English (en)
Inventor
充 前田
Mitsuru Maeda
弘治 岡部
Hiroshi Okabe
秀和 亀井
Hidekazu KAMEI
日菜子 船木
Hinako FUNAKI
祐矢 太田
Yuya Ota
拓 小笠原
Hiroshi Ogasawara
和文 小沼
Kazufumi Konuma
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021024134A priority Critical patent/JP2022126205A/ja
Priority to CN202280015742.4A priority patent/CN116940964A/zh
Priority to PCT/JP2022/004992 priority patent/WO2022176720A1/ja
Priority to EP22756041.4A priority patent/EP4296958A1/en
Priority to KR1020237027348A priority patent/KR20230130709A/ko
Publication of JP2022126205A publication Critical patent/JP2022126205A/ja
Priority to US18/450,844 priority patent/US20230394701A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】 三次元形状データの伝送負荷を軽減する。【解決手段】 情報処理装置は、仮想視点情報に基づいて、オブジェクト210の部分領域であって、仮想視点からの見えを表す仮想視点画像に表示される部分領域を特定し、前景モデルデータのうち、特定された部分領域に対応する分割モデルデータを出力する。【選択図】 図1

Description

本開示は、三次元形状データを伝送する技術に関する。
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて仮想視点画像を生成する技術が注目されている。複数の画像から仮想視点画像を生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することができるため、通常の画像と比較してユーザに高臨場感を与えることができる。
特許文献1には、複数の画像から仮想視点画像を生成するシステムについて開示されている。具体的には、複数の画像から、オブジェクトの三次元形状を示す三次元形状データが生成される。この三次元形状データを用いて、仮想視点からの見えを表す仮想視点画像が生成される。
国際公開第2018/147329号
仮想視点画像の生成に関し、例えば、サーバ側で生成した三次元形状データをクライアント端末に送信し、クライアント端末で仮想視点画像を生成したいという要望がある。しかし、三次元形状データは、データ量が大きく、データの伝送をするために広い帯域を確保するため、コストが増大する可能性がある。また、伝送時間が長くなり仮想視点画像が表示されるまでに時間がかかったり、仮想視点画像のフレームレートが低下したりという問題が生じる。なお、クライアント端末で仮想視点画像を生成する場合に限らず、三次元形状データを伝送する際には、同様の課題が生じる。
そこで、本開示では、三次元形状データの伝送負荷を軽減することを目的とする。
本開示の情報処理装置は、仮想視点の位置と前記仮想視点からの視線方向を特定するための仮想視点情報を取得する第1の取得手段と、オブジェクトの三次元形状データを取得する第2の取得手段と、前記第1の取得手段により取得された仮想視点情報に基づいて、前記オブジェクトの部分領域であって、前記仮想視点からの見えを表す仮想視点画像に表示される部分領域を特定する特定手段と、前記第2の取得手段により取得された三次元形状データのうち、前記特定手段により特定された部分領域に対応する部分データを出力する出力手段と、を有する。
本開示によれば、三次元形状データの伝送負荷を軽減することができる。
実施形態1に係る三次元情報処理装置を含む仮想視点画像生成システムの構成の一例を示す図である。 カメラの配置の一例を示す図である。 前景モデルの分割方法の一例を示す図である。 背景モデルの分割方法の一例を示す図である。 格納される前景モデルのデータ構造の一例を示す図である。 格納される前景モデルのデータ構造の一例を示す図である。 格納される前景モデルのデータ構造の一例を示す図である。 格納される前景モデルのデータ構造の一例を示す図である。 格納される背景モデルのデータ構造の一例を示す図である。 格納される背景モデルのデータ構造の一例を示す図である。 実施形態1に係る仮想視点画像生成システムの処理を表すフローチャートである。 実施形態1に係る仮想視点画像生成システムの各部の通信の状況を表す図である。 実施形態2に係る三次元情報処理装置を含む仮想視点画像生成システムの構成の一例を示す図である。 実施形態2に係る前景モデルの分割方法の一例を示す図である。 実施形態2に係る仮想視点画像生成システムの処理を表すフローチャートである。 格納される前景モデルのデータ構造の一例を示す図である。 三次元情報処理装置のハードウェア構成の一例を示すブロック図である。
以下、添付の図面を参照して、本開示の実施形態に基づいて詳細に説明する。なお、以下の実施形態は本開示を限定するものではなく、本実施形態で説明されている特徴の組み合わせの全てが解決手段に必須のものとは限らない。なお、仮想視点画像とは、ユーザ及び/又は専任のオペレータ等が自由に仮想カメラの位置及び姿勢を操作することによって生成される画像であり、仮想視点からの見えを表す画像である。仮想視点画像は、自由視点画像や任意視点画像などとも呼ばれる。また、本開示では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、特に断りが無い限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。
仮想カメラとは、撮像領域の周囲に実際に設置された複数の撮像装置とは異なる仮想的なカメラであって、仮想視点画像の生成に係る仮想視点を便宜的に説明するための概念である。すなわち、仮想視点画像は、撮像領域に関連付けられる仮想空間内に設定された仮想視点から撮像した画像であるとみなすことができる。そして、仮想的な当該撮像における視点の位置及び向きは仮想カメラの位置及び向きとして表すことができる。言い換えれば、仮想視点画像は、空間内に設定された仮想視点の位置にカメラが存在するものと仮定した場合に、そのカメラにより得られる撮像画像を模擬した画像であると言える。また本実施形態では、経時的な仮想視点の変遷の内容を、仮想カメラパスと表記する。ただし、本実施形態の構成を実現するために仮想カメラの概念を用いることは必須ではない。すなわち、少なくとも空間内における特定の位置を表す情報と向きを表す情報とが設定され、設定された情報に応じて仮想視点画像が生成されればよい。
撮像装置は、物理カメラ(実カメラ)を有していればよい。また、撮像装置は、物理カメラの他、様々な画像処理を行う機能を有していてもよい。例えば、撮像装置は、前景背景分離処理を行う処理部を有していてもよい。また、撮像装置は、撮像画像のうち、一部の領域の画像を伝送する伝送制御を行う制御部を有していてもよい。また、撮像装置は、複数の物理カメラを有していてもよい。
(実施形態1)
競技場(スタジアム)やコンサートホールなどの施設に複数のカメラを設置し撮影を行い、生成された三次元形状データを処理する三次元情報処理装置100について、図1の仮想視点画像生成システム構成図を用いて説明する。仮想視点画像生成システムは、カメラ101a~t、入力部102、前景モデル生成部103、背景モデル生成部104、モデル取得部105、モデル分割部106、管理部107、保存部108、送受信部109、選択部110、端末111a~dを有する。なお、特に断りが無い限り、カメラ101a~tは、カメラ101として説明を行う。また、単にカメラと称する場合、実カメラまたは物理カメラを指す。また、特に断りが無い限り、端末111a~dは、端末111として説明を行う。また、三次元形状データは、以下ではモデルと呼ぶこともある。モデルは、前景や背景の三次元形状を示す三次元形状データを指す場合もあるし、三次元形状データに加え、その前景や背景の色情報をさらに有するデータを指す場合もある。
カメラ101は、被写体(オブジェクト)を囲むように配置され、同期をとって撮影が行われる。同期とは、撮像のタイミングがほぼ同じに制御される状態をいう。図2にカメラ配置の一例を示す。ただし、カメラの台数、配置はこれに限定されない。ここでは、カメラ101a~tはそれぞれ、3か所の注視点150から152のいずれかにに向けられている。説明を簡単にするため、被写体210が1つの場合について説明するが、複数の被写体であっても同じ処理を行うことで実現可能である。カメラ101a~tは、有線ケーブルを介したネットワークで接続されており、入力部102に接続されている。各フレームは同時刻での撮影がされ、例えば、撮影された画像データはタイムコードやフレームの番号が付与されて、画像データを送出する。それぞれのカメラにはそれぞれカメラIDが割り当てられている。なお、同一の注視点に向けられている複数のカメラの光軸の交点がこの注視点であってもよい。また、同一の注視点に向けられているカメラの光軸が、注視点を通らなくてもよい。また、注視点は3か所以上でもよいし、1か所又は2か所でもよい。また、各カメラが互いに異なる注視点に向けられていてもよい。
入力部102は、カメラ101により撮影されて取得された画像データを入力し、前景モデル生成部103、背景モデル生成部104に出力する。なお、画像データは、撮像画像データであってもよいし、撮像画像から一部の領域を抽出した画像データであってもよい。後者の場合は、例えば、入力部102は、前景モデル生成部103に、撮像画像から前景オブジェクトの領域を抽出した前景画像データを出力してもよい。入力部102は、背景モデル生成部104に対しては、撮像画像から背景オブジェクトの領域を抽出した背景画像データを出力してもよい。この場合には、後述する前景モデル生成部103において、被写体の部分を抽出する処理、シルエット画像を生成する処理、前景画像を生成する処理を省略することができる。言い換えると、カメラを有する撮像装置において、これらの処理が行われてもよい。
前景モデル生成部103は、入力された画像データから被写体の1種類以上の三次元形状データを生成する。本実施形態では、被写体の点群モデルと前景画像、メッシュモデルを生成する。ただし、これらに限定されない。例えば、カメラからの距離画像や、点群の各点に色情報を付けた色付き点群などでも構わない。
前景モデル生成部103は、同期をとって撮影された画像データから被写体の画像を抽出する。被写体の画像の抽出の方法は特に限定されないが、被写体の映っていない状態の画像を基準画像として撮影し、入力された画像との差分を用いて、被写体を抽出することが可能である。形状の推定に関しても特に方法は限定しないが、例えば、前景モデル生成部103は、視体積交差法(shape from silhouette法)を用いて三次元形状データを生成してもよい。より具体的には、前景モデル生成部103は、被写体部分の画素位置の画素値を1、それ以外の部分の画素位置の画素値を0としたシルエット画像を生成する。前景モデル生成部103は、生成されたシルエット画像を用いて、視体積交差法を用いて被写体の三次元形状データである点群モデルデータを生成する。前景モデル生成部103は、平行して、シルエット画像から被写体の外接矩形を求め、外接矩形を用いて入力画像の被写体画像を切り出し、これを前景画像として抽出する。また、前景モデル生成部103は、複数のカメラの視差画像を求め、距離画像を作って、メッシュモデルを生成する。同様に、メッシュモデルの生成の方法については特に限定されない。ただし、本実施形態では、複数種類の三次元形状データを生成するが、一種類の三次元形状データを生成する形態でも本開示を適用することができる。
背景モデル生成部104は、背景モデルを生成する。例えば、スタジアムやコンサートや演劇の舞台などが背景に当たる。背景モデル生成の方法については限定されない。例えば、背景となるフィールドを有するスタジアム等の三次元形状データを生成してもよい。スタジアムの三次元形状データは、スタジアムの設計図を用いて生成されてもよい。また、設計図としてのCADデータを用いる場合は、スタジアムの三次元形状データはそのCADデータであってもよい。また、スタジアムをレーザ―スキャンすることにより、三次元形状データを生成してもよい。ここではスタジアム全体を1つの三次元形状データとして生成する。また、観客などの背景画像は、撮像のたびに取得されてもよい。
モデル取得部105は、前景モデル生成部103と背景モデル生成部104で生成された、被写体に関する三次元形状データと背景に関する三次元形状データとを取得する。
モデル分割部106は、入力された三次元形状データを複数の三次元形状データに分割する。分割の方法については、後述する。
管理部107は、前景モデル生成部103で取得された三次元形状データや、モデル分割部106で分割して生成された三次元形状データを取得し、保存部108に保存する。保存の際にはそれぞれのデータを読み出すためのデータアクセスのためのテーブルを生成するなどして、タイムコードやフレーム番号等に関連付けてデータの読み書きができるように管理する。また、後述する選択部110の指示に基づき、データの出力を行う。
保存部108は、入力されたデータを保存する。例えば、半導体メモリや磁気記録装置などで構成される。保存の書式に関しては後述する。データの書き込み、読出しは管理部107からの指示に基づいて行い、書き込まれたデータは読出し指示に従って、送受信部109に出力される。
送受信部109は、後述する端末111と通信を行い、端末からの要求や、データの送受信を行う。
選択部110は、端末に送信する三次元形状データを選択する選択部であり、動作については後述する。分割された三次元形状データのうちどの部分の三次元形状データを出力するか選択し、その情報を管理部107に出力する。
端末111は、三次元情報処理装置100から取得した三次元形状データに基づいて、ユーザが仮想視点を設定して仮想視点情報を生成し、それに基づき、仮想視点画像を表示するなどして提供する。その数はこれに限定されない。端末111は、1つであって構わない。
図17は、本実施形態に係る三次元情報処理装置100に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。CPU1701は、RAM1702やROM1703に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、本実施形態に係る三次元情報処理装置100が行うものとして後述する処理を実行する。すなわち、CPU1701は、図1に示した三次元情報処理装置100内の各処理部として機能することになる。
RAM1702は、外部記憶装置1706からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1707を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM1702は、CPU1701が各種の処理を実行する際に用いるワークエリアを有する。すなわち、RAM1702は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。
ROM1703には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部1704は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU1701に対して入力することができる。出力部1705は、CPU1701による処理結果を表示する。また出力部1705は例えば液晶ディスプレイで構成される。
外部記憶装置1706は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置1706には、OS(オペレーティングシステム)や、図1に示した各部の機能をCPU1701に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置1706には、処理対象としての各画像データが保存されていてもよい。
外部記憶装置1706に保存されているコンピュータプログラムやデータは、CPU1701による制御に従って適宜、RAM1702にロードされ、CPU1701による処理対象となる。I/F1707には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F1707を介して様々な情報を取得したり、送出したりすることができる。1708は上述の各部を繋ぐバスである。
図5(a)に保存部108で保存ざれる三次元形状データの書式の一例を示す。三次元形状データは、一連の撮影を示すシーケンスデータとして保存される。例えば、シーケンスは、イベントやカットに対応する。管理部107は、シーケンス単位でデータを管理する。
図5(b)に示すように、シーケンスデータには、シーケンスヘッダが含まれており、シーケンスヘッダには、シーケンスの始まりであることを示すシーケンスヘッダスタートコードが保存される。また、このデータには、シーケンス全体に関する情報が保存される。例えば、シーケンス全体に関する情報としては、シーケンスの名称、撮影場所、撮影が開始された日時、時刻などを表すタイムコード、フレームレート、画像サイズが挙げられる。また、図5(c)に示すように、シーケンス全体に関する情報には、各カメラのIDやパラメータの情報も含まれる。シーケンスデータには、各種の三次元形状データがデータセットという単位で保存される。シーケンスヘッダには、そのデータセットの数Mが記される。以下、データセット単位の情報が保存される。本実施形態では前景モデルデータのデータセットと背景モデルデータのデータセットの2つが含まれている。
図5(d)に示すように、データセット単位の情報では、最初にデータセットの識別IDが付与される。識別IDは、保存部108ないし、全データセットで唯一のIDが付与される。続いて、データセットの種別が保存される。本実施形態では、データセットとして、点群モデルデータ、前景画像、色付き点群データ、距離画像データ、メッシュモデルデータがあるものとする。それぞれをデータセットクラスコードとして表現することにする。データセットクラスコードは、図5(e)に示す2バイトのコードとして表現されている。ただし、データの種別やコードはこれに限定されない。他の三次元形状データを表すデータでも構わない。
続いて、図5(d)に戻り、当該のデータセットへのポインターが保存される。ただし、各データセットへのアクセスのための情報であれば良く、ポインターに限定されない。例えば、保存部でファイルシステムを構築し、ファイル名としても構わない。
本実施形態では、前景モデルのデータセットの種別として、最初に、点群モデルデータ、前景画像を例にとって説明する。
図6(a)に前景モデルデータセットの構成の一例を示す。説明のために前景モデルデータセットはフレーム単位で保存されているものとするが、これに限定されない。データセットの先頭には前景モデルデータヘッダが保存されるが、ヘッダには本データセットが前景モデルのデータセットであることや、フレーム数等が保存されている。図5(b)に示すように、以下順に、前景モデルデータの先頭フレームの時刻を表すタイムコード、当該フレームのデータサイズが保存されている。データサイズは、次のフレームのデータを参照するためのものであり、ヘッダにまとめて保存されていてもよい。続いて、タイムコードが示す時刻に仮想視点画像を生成するための被写体の数Pが保存される。さらにその時点で撮影に使用されたカメラの台数Cが保存される。なお、撮影に使用されたカメラの台数に代えて、オブジェクトが撮影画像に映っているカメラの台数であってもよい。続いて、使用されたカメラのカメラIDが保存される。
続いて、前景モデルデータの分割数が記載される。分割は、モデル分割部106により行われる。本実施形態では、x軸、y軸、z軸を設定してそれぞれを等分割する方法について説明する。本実施形態ではスタジアムの長手方向をx軸、短手方向をy軸、高さをz軸として定義する。これを基準座標軸とする。ただし、これに限定されない。x軸方向の分割数をdx、y軸方向の分割数をdy、z軸方向の分割数をdzとする。分割の例を図3(a)に示す。図3(a)は、dxが2、dyが2、dzが2の様子を表す。これによって、球体が8方向に分割される。すなわち、分割300-1~8に分割される。分割の中心をモデルの中心(重心)とし、前景モデルを8分割する。図3(a)の左側に1つは、分割モデル300-1を示す。また、図3(b)に、dxが2、dyが2、dzが1の場合を表す。図3(b)に従う分割方法であれば、前景モデルデータは、4分割される。ただし、分割方法は、これに限定されない。例えば、スタジアムの短手方向をx軸、長手方向をy軸、高さをz軸としてもよいし、任意の方向をx軸として、それに直交するようにy軸、z軸を決めてもよい。また、互いに直交するx軸、y軸、z軸を規定して分割を行ったが、分割する軸はこれに限られない。また、座標系以外に分割の方法を用いてもよい。例えば、被写体である人物、動物の体の部位ごと、例えば、顔や胴、手足等に分割しても構わない。
図6(b)に戻り、各分割の前景モデルのデータが続く。第1の被写体の前景モデルのデータのデータサイズが保存される。具体的には、第1の被写体の点群データの分割300-1に含まれる点群モデルデータが保存される。分割された点群データについては、図6(c)に示すように、含まれる点群のデータサイズが保存され、点群モデルを構成する点の数Rが保存される。以下、分割されたデータの点群データが順に保存されている。まず、最初の被写体の点群を構成する座標点数が保存される。以下、当該数の点の座標が保存される。本実施形態では座標系を3軸のデータとして保存するが、これに限定されず、極座標やその他の座標系でも構わない。このようにx軸、y軸、z軸などに平行に分割することで、座標位置で属する分割が簡単な座標比較で実現できるという効果もある。
図6(b)に示すように、以下、第1の被写体の分割された部分ごとに、点群データが保存される。さらに、第2の被写体以降の点群データに含まれる分割されたデータが、順に保存される。第P番目の被写体の点群データまでが保存される。
続いて、図6(b)に示すように、前景画像データがカメラIDごとに保存される。前景画像データについては、各前景画像データのデータサイズ、画像のサイズ、画素値のビット深度、画素値等が保存される。なお、画像データは例えばJPEGなどで符号化されていても構わない。以下、被写体毎に各カメラからの前景画像データを続けて保存する。なお、当該カメラに被写体が映っていない場合は、NULLデータを書き込むか、被写体単位で映っているカメラ数と該当するカメラIDを保存しても構わない。
図9(a)に、背景モデルデータセットの構成の一例を示す。データセットの先頭には背景モデルデータヘッダが保存されるが、図9(b)に示すように、ヘッダには本データセットが背景モデルのデータセットであること、データセットのデータサイズが保存されている。続いて、背景モデルデータのフォーマットが記載されている。ここでは、データセットクラスコードと同じとして説明するが、背景モデルデータ固有な書式、例えばCADのフォーマット等を示すための符号を拡張してももちろん構わない。本実施形態では、背景モデルデータのフォーマットのデータセットクラスコードは0x0006となる。続いて、背景モデルデータの分割数が記載される。本実施形態では、平面的にB個に分割する例を示して説明する。スタジアムでの仮想視点画像の主な視点はフィールドに向いているため、分割をx軸、y軸の分割を中心にして背景の分割の指定がしやすいようにできる。ただし、これに限定されない。例えば、前景モデルデータの分割と同様にx軸、y軸、z軸を設定してそれぞれを分割する方法を用いても構わない。背景に関してはスタジアムの構造が撮影期間中に変化することがないので、シーケンスで1つ保存することとする。なお、背景モデルデータが撮影期間中に変化する場合、画像と同様にフレーム単位で生成するか、変化しない期間単位で保存しても構わない。また、座標系による分割だけではなく、各背景の内容によって分割しても構わない。例えば、フィールド面を別な分割としても構わない。また、分割数もこれに限定されない。前景と背景で異なる分割方法や分割数でも構わない。例えば、分割数を増やすと、よりデータ削減になり処理速度の向上効果が大きくなる。さらには、データ量が多いところは細かく分割することで、伝送するデータ量を適切化できる。
続いて、図9(c)に示すように、分割された背景モデルデータの詳細が記載される。例えば、分割ごとにその分割に含まれるデータの範囲を示すことができる。記述の方法は限定されないが、例えば、構造物に依存した分割として、座席のクラスや指定席、自由席などの区分、バックスクリーン方向やメインスタンド、バックスタンドなどの区域単位でも構わない。分割された背景モデルデータの範囲を適切に記載するのであれば、どのような記述を行っても構わない。本実施形態では、背景モデルデータの分割を図4に示すように4分割する例をとって説明する。フィールドのセンターを中心として、x軸、y軸に45度の角度を持った線を分割の境界とする。バックスタンド側を分割1300-1、その右側を分割1300-2、メインスタンド側を分割1300-3、バックスタンドに向けて左側を分割1300-4とする。このようにスタジアムを4分割する。すなわち、記述としては、分割の中央座標、分割の境界線の位置が記述される。このように分割することで、選手の動きが長手方向に中心的に行われる競技においては、選手の移動に追従して動くカメラはx軸上の移動が多くなり、左右のスタンドで大きなビジョンモニターのある方向がメインに撮影される。また、メインスタンドやバックスタンドのカメラからは左右に動く選手が主体となるため、反対側のスタンドの背景が多用される。このように分割することで、背景モデルデータの更新の回数を削減することができる。
続いて、図9(d)に示すように、背景モデルデータのデータが保存される。最初に背景モデルデータのデータサイズが保存される。続いて、各分割のデータが保存される。最初に第1の分割、ここでは、分割1300-1の背景モデルデータのデータサイズが保存される。さらに、分割1300-1の背景モデルデータである点群のデータが保存される。点群データは最初に当該点群データの大きさが示され、当該点群データの点の数が保存され、各点の座標が保存される。最後に、図9(c)に戻り、分割1300-1の背景画像データのポインターが保存される。ポインターの指示先には分割1300-1のモデルに貼り付ける背景画像データが保存される。すなわち、図9(e)で示すように、背景画像の画像サイズやビット深度などの記述に加え、各フレームのタイムコード、データサイズ、画像データが保存される。以下、各フレームの背景画像データが保存される。以下、同様に、分割1300-2、分割1300-3、分割1300-4の順にデータが保存される。
続いて、上記の構成での仮想視点画像生成システムの情報処理方法について、図11のフローチャートを用いて説明する。図11で示す処理は、入力部102により、画像データが受信されることにより開始される。
ステップS1100において、管理部107は、シーケンスデータのシーケンスヘッダを生成する。そして、管理部107は、保存するデータセットを生成するかを決定する。
ステップS1101において、モデル取得部105は、背景モデルデータを取得する。ステップS1102において、モデル分割部106は、背景モデルデータを所定の分割方法に基づいて、分割する。次に、ステップS1103において、管理部107は、分割された背景モデルデータを保存部108に所定のフォーマットに従って保存する。
ステップS1104において、撮影開始からフレーム単位で入力を繰り返す。ステップS1105において、カメラ101a~tから画像のフレームデータを取得する。ステップS1106において、前景モデル生成部103は、前景画像及び、シルエット画像を生成する。ステップS1107において、前景モデル生成部103は、シルエット画像を用いて、被写体の点群モデルデータを生成する。
ステップS1108において、モデル分割部106は、生成された被写体の点群モデルデータを所定の方法に従って分割する。本実施形態では、図3(a)のように、点群モデルは8分割されるので、点群の点の座標からいずれの分割に属するかを判断して、分割する。境界上に点が存在する場合、いずれかの分割に属させるか、両方の分割に属させても構わない。ステップS1109において、管理部107は、分割された前景モデルデータを保存部108に所定のフォーマットに従って保存する。
ステップS1110において、管理部107は、ステップS1106で生成された前景画像を保存部108に所定のフォーマットに従って保存する。
ステップS1111において、モデル分割部106は、入力された画像と前景モデル生成部103で生成された前景画像から、前景画像以外の領域を統合し、背景画像を生成する。背景画像の生成については特に限定しない。背景画像の生成については、既存の技術である、複数画像の繋ぎ合わせや、被写体のある部分の他のカメラからの画像や周囲の画素、他のフレームの画像による補間によって生成される。ステップS1112において、モデル分割部106は生成された背景画像を所定の方法に従って分割する。本実施形態では図4のように4分割にするので、それぞれの画素がどの分割に属するかを判断して分割された背景画像データを生成する。ステップS1113において、管理部107は分割された背景画像データを保存部108に所定のフォーマットに従って保存する。ステップS1114において、撮影が終了するか、フレーム単位での入力が終了するまでステップS1104からステップS1113までを繰り返す。
ステップS1115において、送受信部109は、端末111から端末111で仮想視点画像生成を行うのに必要な情報を受信する。少なくとも、使用するシーケンスの情報に関する情報である。シーケンスを直接指定したり、撮影場所、日時、イベントの内容から検索を行ったりしてもよい。選択部110は入力された情報に従って、該当するシーケンスデータを選択する。
ステップS1116において、仮想視点画像生成開始からフレーム単位で入力を繰り返す。ステップS1117において、送受信部109は、端末111から仮想視点情報を受信し、選択部110に入力する。ここで、仮想視点情報とは、仮想視点を仮想的にカメラに例えた場合、仮想カメラの位置、姿勢、画角等を含む情報である。具体的には、仮想視点情報は、仮想視点の位置、仮想視点からの視線方向などを特定するための情報である。
ステップS1118において、選択部110は、取得した仮想視点情報から、仮想視点画像に含まれる背景モデルデータの分割モデルを選択する。例えば、図2における仮想カメラ200に対して、領域201が仮想カメラの視野に収まるものとする。図4において、仮想カメラ200と領域201の状況を示す。領域201には背景画像データで分割1300-2と分割1300-3が含まれることが判断され、これらの分割された背景モデルデータを選択する。具体的には、図9において、分割1300-2に含まれる背景データは、第2の分割データである。同様に、分割1300-3に含まれる背景モデルデータは第3の分割データである。第2の分割データは、当該の背景モデルデータの分割データのサイズData size of 2nd Sub Background model dataを含む。また、第2の分割データは、データセットData set of 2nd Sub Background model dataを含む。第3の分割データは、当該の背景モデルデータ分割データのサイズData size of 3rd Sub Background model dataを含む。また、第2の分割データは、データセットData set of 3rd Sub Background model dataを含む。なお、分割データは、仮想視点画像に表示される背景の部分領域に対応し、背景モデルデータの部分データである。
ステップS1119において、選択部110が選択した情報は、管理部107に入力される。そして、管理部107は、保存部108から選択された背景モデルデータの分割モデルデータ(第2の分割モデルデータと第3の分割モデルデータ)を送受信部109に出力する。送受信部109は、選択された背景モデルデータの分割モデルデータを端末111に送信する。この際、背景モデルデータのうち、選択されていない第1の分割モデルデータと第4の分割モデルデータは、端末111に出力されない。このため、端末111に出力されるデータ量を削減することができる。この第1の分割モデルデータと第4の分割モデルデータは、仮想視点画像の生成には寄与しないため、第1の分割モデルデータと第4の分割モデルデータが出力されなくても、端末111にて生成される仮想視点画像の画質には影響しない。
次に、ステップS1120において、選択部110は送受信部109を介して入力された仮想視点画像を生成するタイムコードから、指定されたタイムコードのフレームを選択する。ステップS1121において、選択部110は、仮想視点情報から、仮想視点画像に含まれる背景画像データを選択する。背景モデルデータの分割されたデータの選択と同様に領域201には背景画像データで分割1300-2と分割1300-3が含まれることが判断され、これらの分割された背景画像データを選択する。具体的には、図9において、分割1300-2に含まれる背景画像データは第2の分割データである。第2の分割データは、Pointer of 2nd Sub Background Imageが示すデータから画像の仕様に関する情報を読出し、該当するタイムコードのフレームまで、データサイズを元にたどり、当該タイムコードの画像データである。同様に、分割1300-3に含まれる背景画像データは第3の分割データである。第3の分割データは、Pointer of 3rd Sub Background Imageが示すデータから画像の仕様に関する情報を読出し、該当するタイムコードのフレームまで、データサイズを元にたどり、当該タイムコードの画像データである。
ステップS1122において、選択部110が選択した情報は、管理部107に入力される。そして、管理部107は、保存部108から選択された背景画像データの分割データ(第2の分割データと第3の分割データ)を送受信部109に出力する。送受信部109は、選択された背景画像データの分割データを端末111に送信する。この際、背景画像データのうち、選択されていない第1の分割データと第4の分割データは、端末111に出力されない。このため、端末111に出力されるデータ量を削減することができる。この第1の分割データと第4の分割データは、仮想視点画像の生成には寄与しないため、第1の分割データと第4の分割データが出力されなくても、端末111にて生成される仮想視点画像の画質には影響しない。
ステップS1123において、当該タイムコードの時刻のフレームで仮想カメラ200の視野に含まれた全ての被写体に関して続く処理を繰り返す。ステップS1124において、選択部110は、仮想視点情報から、仮想視点画像に含まれる前景モデルデータを選択する。例えば、図2の被写体210に関する前景モデルデータを選択する。ステップS1125において、被写体210は、図4に示すように、上部から見て細線で示されたように分割されている。そのため、選択部110は、仮想カメラ200からは分割300-1、分割300-2、分割300-3、分割300-5、分割300-6、分割300-7が見えていると判断される。したがって、選択部110は、これらの分割に属するデータを選択する。
ステップS1126において、最初に、選択部110は、入力されたタイムコードから処理するフレームを選択する。これは、各フレームのデータの先頭のタイムコードと入力されたタイムコードとを比較し、データサイズ単位で読み飛ばすことで当該タイムコードのフレームデータを選択できる。なお、タイムコードと当該タイムコードのフレームデータのポインターをテーブルで保存しておき、検索して決定しても構わない。当該タイムコードのフレームのデータにおいて、データサイズ、被写体数、カメラ数と各カメラIDを読出し、分割されたデータで必要なものを選択する。続いて、当該被写体210の位置から前景モデルデータを選択する。例えば、1番目の被写体であったとする。1番目の被写体で、最初に分割300-1の前景モデルデータを選択する。図6(b)において、分割300-1に含まれる前景データは第1の分割データである。この分割データは、仮想視点画像に表示される被写体の部分領域に対応し、前景オブジェクトの部分データである。そして、選択部110からの情報を受けて、管理部107は第1の分割データを保存部108から読出し、出力する。第1の分割データは、データセットData set of 1st sub point cloud in 1st Objectである。また、選択部110は、分割300-2の前景モデルデータを選択する。図6(b)において、分割300-2に含まれる前景データは第2の分割データである。そして、選択部110からの情報を受けて、管理部107は第2の分割データを保存部108から読出し、出力する。続いて、第2の分割データは、当該の背景モデルデータの分割データセットData set of 2nd sub point cloud in 1st Object である。以下、同様に割300-3、分割300-5、分割300-6、分割300-7に相当する前景モデルデータが出力される。なお、分割300-4、分割300-8に相当する前景モデルデータは出力されない。このため、端末111に出力されるデータ量を削減することができる。この割300-4、分割300-8に相当する前景モデルデータは、仮想視点画像の生成には寄与しないため、このデータが出力されなくても、端末111にて生成される仮想視点画像の画質には影響しない。
ステップS1127において、仮想カメラから見えるオブジェクトの色を決定するための前景画像を選択する。図2において、仮想カメラ200に近いカメラの前景画像が選択される。例えば、被写体210の見える側を撮影しているカメラは101-b、101-o、101-p、101-q、101-rであることがわかる。例えば、仮想カメラ200から見える平面で被写体を横断する平面212より仮想カメラ200側にあるカメラでその画角に被写体210を含む全てのカメラがその対象になる。それらのカメラから撮影された前景画像をカメラIDに基づいて選択することで可能になる。カメラIDに基づいて、Foreground Image of 2nd Camera以下、それぞれのカメラの前景画像データが選択される。
ステップS1128において、選択された前景画像データは、保存部108から読み出され、送受信部109を介して端末111に出力される。ステップS1129において、視野内の全ての被写体について前景モデルデータと前景画像データの出力が終了するまで、ステップS1123からステップ1128を繰り返す。
ステップS1130において、端末111は、取得した各データに基づいて、仮想視点画像を生成する。ステップS1131において、仮想視点画像の生成が終了するか、フレーム単位での入力が終了するまでステップS1116からステップS1130までを繰り返す。繰り返しが終了したら、三次元情報処理及び仮想視点画像生成処理を終了する。
図12は各部の通信の状況を示した図である。最初に端末111が起動される。三次元情報処理装置の送受信部109に仮想視点画像を生成の開始を送信する。送受信部109は、各部に仮想視点画像を生成の開始を通達し、各部はその準備を行う。続いて、端末111は、送受信部109に対して、仮想視点画像を生成するシーケンスデータを送信する。これは、ユーザが、端末111を介して、保存部108に保存されているシーケンスデータを検索したり、指定したりして決定することができる。端末111から送信されたシーケンスデータに関する情報は、送受信部109を介して選択部110に入力される。選択部110は、管理部107に対して選択されたシーケンスへの読出しを指示する。
続いて、端末111は、送受信部109に対して、仮想視点画像の生成を開始する時刻、タイムコードと仮想視点情報を送信する。送受信部109は、これらの情報を選択部110に送る。選択部110は入力されたタイムコードから仮想視点画像を生成するフレームを選択する。また、選択部110は仮想視点情報に基づき、分割された背景モデルデータ、分割された背景画像データ、分割された前景モデルデータ、分割された前景画像データの選択を行う。
そして、選択部110により選択されたデータの情報は、管理部107に送られ、これに基づいて、保存部108から仮想視点画像を生成するフレームの必要なデータを読出し、送受信部109に送る。送受信部109は、要求のあった端末にこれらのデータを送る。端末111はこれらに基づいてレンダリングを行い、仮想視点画像を生成する。以下、次のフレームの処理をするために、仮想視点情報の送信、分割データの選択、仮想視点画像の生成が繰り返される。端末111から送信終了が送受信部109に送信されると、全ての処理を終了する。
なお、本実施形態では処理をシーケンシャルな流れとしてフローチャートに示したが、これに限定されない。例えば、前景モデルデータと背景モデルデータの選択や出力を並行して実施しても構わない。また、本実施形態において、続くフレームで選択される背景モデルデータの分割データが同じであれば、何も送信しないか、変更がないことを送信するようにしてもよい。また、端末111は、背景モデルデータの分割データが更新されなければ、前のフレームの分割データをそのまま使い続けるようにすれば、背景の生成が可能になる。そして、同じ背景モデルデータを繰り返し伝送することが低減され、データの伝送量が低減される。
また、三次元情報処理装置100は、仮想視点情報を生成するようにしてもよい。この場合、仮想視点情報が選択部110に入力され、それ以降の処理は上述した処理と同じにすればよい。ただし、端末111に送信されるデータには、仮想視点情報も含まれる。この仮想視点情報は、三次元情報処理装置100により自動で生成されてもよいし、端末111を操作するユーザとは別のユーザによって入力されてもよい。
以上の構成と動作により、三次元形状データに関して、仮想視点情報に基づいて、仮想視点画像の生成に必要なデータのみを送信して生成を行うことにより、送信するデータ量を抑え、伝送路を効率よく使用することが可能となる。また、各端末に送るデータのデータ量も削減できるため、より多くの端末の接続が可能になる。
なお、前景モデル生成部103や背景モデル生成部104では、複数のカメラで撮影された画像からの三次元形状データの生成を行ったが、これに限定されず、コンピュータグラフィックスなどを用いて、人工的に生成しても構わない。また、保存部108で保存する三次元形状データとして点群モデルデータと前景画像データを用いて説明したが、これに限定されない。
(変形例)
以下では、保存部108に保存されるデータの別の例について述べる。
<色情報を有する点群モデルデータの例>
図7(a)は、点群の各点に色情報が付けられた色付き点群モデルデータのデータセットの構成の一例である。色付き点群モデルデータにおいて、図6に示す前景モデルデータと同様に分割されている。具体的には、図7(b)で示すように、前景モデルデータと同様に各フレームでデータが構成されており、先頭から、タイムコード、当該フレームのデータサイズ、被写体の数、撮影に使用されたカメラの数、カメラIDが保存される。つづいて、色付き点群モデルデータの分割数が記載され、各被写体の色付き点群モデルデータのデータサイズに続いて、各分割された色付き点群モデルデータのデータが続く。また、図7(c)に示すように、分割された色付き点群モデルデータはデータのサイズ、分割された色付き点群モデルデータの点の数につづいて、それぞれの点の座標と色情報が保存される。
色付き点群モデルは、上述した前景モデルデータの代わりに用いられる。具体的には、仮想視点画像の生成にあたり、色付き点群モデルデータが選択され、端末111に送信される。端末111は、点群モデルデータの点の位置の画素値を色情報で色付けを行う。この三次元形状データを用いることで、上述した点群モデルデータと前景画像データを統合して扱えるため、データの選択、指示が簡単になり、さらに仮想視点画像の生成も簡単な処理で済むため、端末のコストダウンを図ることができる。
<メッシュモデルデータの例>
図8(a)は、メッシュなどを構成するメッシュモデルデータのデータセットの構成の一例である。メッシュモデルにおいて、前景モデルデータや色付き点群モデルデータと同様に分割されている。具体的には、図8(b)に示すように、前景モデルデータと同様に各フレームでデータが構成されており、先頭から、タイムコード、当該フレームのデータサイズ、被写体の数が保存される。つづいて、メッシュモデルデータの分割数が記載され、各被写体のメッシュモデルデータのデータサイズに続いて、各分割されたメッシュモデルデータのデータが続く。また、図8(c)に示すように、分割されたメッシュモデルデータはデータのサイズ、分割されたメッシュモデルデータのポリゴンの数に続いて、ポリゴン毎のデータ、すなわちポリゴンの頂点の座標とポリゴンの色情報が順に保存される。
なお、頂点を記述する座標系を3軸のデータとし、色情報をRGBの三原色の値で保存するが、これに限定されない。座標系では極座標やその他の座標系でも構わない。また、色情報も均等色空間や輝度、色度といった情報で表現しても構わない。仮想視点画像の生成にあたっては、上述した前景モデルデータの代わりに、メッシュモデルデータが選択され、端末111に送信される。端末111ではメッシュモデルデータの頂点に囲まれる領域を色情報で色付けすることで生成される。この三次元形状データを用いることで、色付き点群モデルデータ同様に、データの選択、指示が簡単になり、さらに色付き点群モデルデータよりデータの削減が可能になることから、端末のコストダウンを図り、より多くの端末の接続を可能にすることができる。
なお、メッシュモデルデータを、前景モデルデータと同様に前景画像データをテクスチャマッピングするためのデータとして、色なしで生成しても構わない。つまり、メッシュモデルデータのデータ構造として、色情報のない、形状情報のみの形式で記述されてもよい。
<背景モデルデータの別の例>
背景モデルデータもメッシュモデルデータで管理することも可能である。図10(a)~(d)に、背景モデルデータをメッシュモデルデータで構成する例を示す。図10(b)に示すように、ヘッダの内容は背景モデルデータのヘッダそのものである。ただし、本実施形態では、背景モデルデータのフォーマットのデータセットクラスコードは0x0007となる。図10(c)に示すように、背景モデルデータがメッシュモデルである場合、背景画像モデルデータのデータサイズに続き、第1の分割のデータサイズが保存される。続いて、第1分割のポリゴンデータが保存される。図10(d)に示すように、分割されたメッシュモデルデータは最初にタイムコードが保存される。続いて、データのサイズ、分割されたメッシュモデルデータのポリゴンの数に続いて、ポリゴン毎のデータ、すなわちポリゴンの頂点の座標とポリゴンの色情報が順に保存される。
仮想視点画像の生成での背景の生成において、データの選択、指示が簡単になり、さらに色付き点群モデルデータよりデータの削減が可能になることから、端末のコストダウンを図り、より多くの端末の接続を可能にすることができる。
境界上にポリゴンが存在する場合、いずれかの分割に属させるか、両方の分割に属させても構わない。また、ポリゴンを境界線で分割して、それぞれの分割に属させても構わない。
(実施形態2)
三次元形状データを処理する実施形態2である三次元情報処理装置1300について、図13の仮想視点画像生成システム構成図を用いて説明する。同図において、各部の動作が図1と同じ構成に関しては、同じ番号を付し、説明を省略する。本実施形態では、三次元情報処理装置1300が仮想視点画像生成部1301を有する点が、実施形態1と異なる。また、本実施形態では分割の方法が実施形態1と異なる。なお、モデル生成部1303は、実施形態11の前景モデル生成部103と背景モデル生成部104の機能を有する。また、本実施形態に係る三次元情報処理装置1300に適用可能なコンピュータのハードウェアの構成例は、実施形態1と同じであるため説明を省略する。
端末1310a~dは、ユーザが仮想視点を設定した仮想視点情報を三次元情報処理装置1300に送信する。端末1310a~dはレンダラを持たず、仮想視点の設定と仮想視点画像の表示のみを行う。送受信部1308は、実施形態1の送受信部109の機能に加え、端末1310から仮想視点情報を受信し、選択部1309と仮想視点画像生成部1301に送信する。さらに、送受信部1308は、生成された仮想視点画像を、仮想視点情報を送信した端末1310a~dに送信する機能を備える。仮想視点画像生成部1301はレンダラを備え、入力された仮想視点情報と保存部108から読み出された三次元形状データに基づいて仮想視点画像の生成を行う。選択部1309は仮想視点画像生成部1301が仮想視点画像を生成するために必要なデータセットを選択する。なお、た、特に断りが無い限り、端末1310a~dは、端末1310として説明を行う。また、端末1310の数は、これに限られず、1台でもよい。
図16(a)~(c)に、実施形態2の前景モデルデータの構成の一例を示す。説明のために前景モデルデータセットは、フレーム単位で保存されているものとするが、これに限定されない。例えば、オブジェクト単位で管理されても構わない。前景モデルデータヘッダは実施形態1と同じである。本実施形態では三次元形状データは点群モデルデータと前景画像データで構成する例について説明する。
図16(b)に示すように、以下順に、前景モデルデータの先頭フレームの時刻を表すタイムコード、当該フレームのデータサイズが保存されている。続いて、タイムコードが示す時刻に仮想視点画像を生成するための被写体の数Pが保存される。さらにその時点で撮影に使用されたカメラの台数Cが保存される。続いて、使用されたカメラのカメラIDが保存される。続いて、各被写体の前景モデルデータが格納される。最初に被写体の前景モデルデータを表すためのデータサイズが保存される。さらに、被写体の前景モデルデータの分割数Dが保存される。
続いて、被写体の分割された前景モデルデータのデータが保存される。分割された前景モデルデータのデータサイズが保存され、続いて分割された前景モデルデータ記述が保存される。図16(c)に示すように、本実施形態では、保存される記述については、分割された前景モデルのデータサイズに続き、当該被写体が写るカメラの数CとC個のカメラIDが含まれている。続いて、分割された前景モデルデータのデータが保存される。分割された前景モデルデータは図6(b)の構成と同じである。前景画像データも図6(b)と同様である。
図14に、本実施形態の分割の様子の一例を示す。図14では12個の分割を実施する例を示す。ただし、分割の方法や数はこれに限定されない。例えば、カメラ101-bの被写体210上の撮影範囲を被写体210の見える範囲として同心円の領域1401-b表す。以下、領域1401-dはカメラ101-d、領域1401-hはカメラ101-h、領域1401-jはカメラ101-jである。さらに、領域1401-оはカメラ101-о、領域1401-pはカメラ101-p、領域1401-qはカメラ101-q、領域1401-rはカメラ101-rとなる。ここで、それぞれの領域が重なる範囲の境界をそれぞれ分割の境界とする。
分割1402-1は、領域1401-b、領域1401-rを含み、カメラの台数Cは2となる。被写体210の点群モデルデータの点のデータがData set of 1st sub point cloud in 1st Objectに含まれる。また、Number of Cameraは2となり、カメラIDがカメラ101-bとカメラ101-rの画像のみでこの分割の画像の点群の色を決定することができる。以下、同様に、分割1402-2は領域1401-bを含み、カメラの台数Cは1となる。分割1402-3は領域1401-d、領域1401-hを含み、カメラの台数Cは2となる。分割1402-4は領域1401-dを含み、カメラの台数Cは1となる。分割1402-5は領域1401-jを含み、カメラの台数Cは1となる。分割1402-6は領域1401-j、領域1401-qを含み、カメラの台数Cは2となる。分割1402-7は領域1401-qを含み、カメラの台数Cは1となる。分割1402-8は領域1401-p、領域1401-qを含み、カメラの台数Cは2となる。分割1402-9は領域1401-о、領域1401-p、領域1401-qを含み、カメラの台数Cは3となる。割1402-10は領域1401-p、領域1401-qを含み、カメラの台数Cは2となる。割1402-11は領域1401-b、領域1401-p、領域1401-q、領域1401-rを含み、カメラの台数Cは4となる。分割1402-12は領域1401-b、領域1401-q、領域1401-rを含み、カメラの台数Cは3となる。これらの領域は被写体の位置、撮影しているカメラとその位置から分割は一意に決定される。
このようにすることで、各分割の前景画像のカメラIDが分割内はみな同じになり、データの管理が容易になる効果がある。
続いて、実施形態2において、上記の構成での仮想視点画像生成システムの情報処理方法について、図15のフローチャートを用いて説明する。同図において、各部の動作が実施形態1の処理動作(図11)と同じステップに関しては、同じ番号を付し、説明を省略する。図15で示す処理は、入力部102により、画像データが受信されることにより開始される。
ステップS1100でシーケンスヘッダを生成した後に、ステップS1101からステップS1103において、背景モデルデータに関する処理を行う。ステップS1104に進み、撮影開始からフレーム単位で入力を繰り返す。ステップS1107までに各被写体の点群モデルデータが生成される。
ステップS1501において、被写体ごとの前景モデルデータの分割を繰り返す。ステップS1508において、図14で説明したように、1つ以上のカメラに映る領域に分割する。ステップS1502において、全ての被写体の前景モデルデータの分割が行えたら繰り返しを終了する。
ステップS1111からステップS1113によって実施形態1と同様に、背景画像の生成と分割を行い、保存を行う。ステップS1115において、送受信部1308は端末1310から端末1310で仮想視点画像生成を行うのに必要な情報を受信する。選択部1309は、入力された情報に従って、該当するシーケンスデータを選択する。ステップS1116において、仮想視点画像生成開始からフレーム単位で入力を繰り返す。
ステップS1117からステップS1122によって、背景を生成するのに必要な背景モデルデータと背景画像データが選択され、出力される。ステップS1123において、当該タイムコードの時刻のフレームで仮想カメラ200の視野に含まれた全ての被写体に関して続く処理を繰り返す。ステップS1124において、選択部110は、仮想視点情報から、仮想視点画像に含まれる前景モデルデータを選択する。例えば、図14で示す被写体260に関する前景モデルデータが選択される。
ステップS1525において、選択部1309は、図14を参照して分割された前景モデルデータの選択を行う。図14に示すように、仮想カメラ250の近くにカメラ101-qと101-rが存在する。選択部1309は、これらのカメラのIDを含む分割された前景モデルデータの分割データを選択する。これらのカメラIDは分割1402-1、および分割1402-3に含まれているため、これらの分割データが選択される。
ステップS1126において、選択部1309からの選択情報を取得して、管理部107は、保存部108から、これらの分割データを、仮想視点画像生成部1301に出力する。すなわち、図14における被写体260が第1の被写体とされる。そして、分割1402-1の前景モデルデータの分割データとしてData size of 1st sub point cloud of 1st Objectが出力される。さらに、分割1402-3の前景モデルデータの分割データとしてData size of 3rd sub point cloud of 1st Objectが出力される。
ステップS1527において、選択部1309は、ステップS1525で選択された分割データ全てに含まれるカメラIDの前景画像データを選択する。ステップS1128において、管理部107は、その選択されたデータの情報を取得し、保存部108から選択されたデータを読み出し、仮想視点画像生成部1301に出力する。
ステップS1130は、仮想視点画像生成部1301は、取得したデータ、仮想視点情報に基づいて、仮想視点画像を生成する。そして、生成された仮想視点画像は、送受信部1308に出力される。送受信部1308は、生成された仮想視点画像を、その仮想視点画像の生成を要求する端末1310に送信する。
以上の構成と動作により、三次元形状データに関して、仮想視点情報に基づいて、カメラの情報に基づいて仮想視点画像の生成に必要なデータのみを送信して生成を行うことにより、送信するデータ量を抑え、伝送路を効率よく使用することが可能となる。また、各端末に送る情報の情報量も削減できるため、より多くの端末の接続が可能になる。この場合、伝送路としては、保存部108と仮想視点画像生成部1301を伝送する通信路である。なお、生成された仮想視点画像を端末1310に送信する構成のため、仮想視点画像を生成するための素材データを端末1310に送信する構成よりも、送受信部1308から端末1310への送信するデータ量を低減することができる。
なお、分割データの生成においては、可視性情報を用いて行ってもよい。可視性情報は、三次元形状データを構成する構成要素(例えば、点群モデルデータであれば点)がどのカメラから見えているかを示す情報である。本実施形態においては、仮想カメラ250の位置に近いカメラから見えている点群の点について、可視性情報を用いて選択し、見えている点だけを出力してもかまわない。これにより、より仮想カメラから見えている点のみを送信するので、さらに情報量の削減が可能である。
また、本実施形態では、全体の前景モデルデータを生成した後に分割を行ったが、これに限定されない。たとえば形状推定で前景モデルデータを作成しながら、データを分割しても構わない。例えば、形状推定を分割ごとで行うことや、可視性判定結果を算出しつつ、点やポリゴンがいずれの分割に属するかを判定しながら行っても構わない。
以上、説明した実施形態において、伝送する分割データに優先順位を設けて伝送しても構わない。例えば、仮想カメラ200の正面にある領域1401-pを含む分割1402-3を先に伝送する。これによって、帯域不足や遅延などによって他の分割の伝送が滞る場合、少なくとも見える範囲の多くをカバーして映像を生成できる効果がある。
さらに、分割ごとに撮影されているカメラが特定できるため、分割ごとに撮影できているカメラのカメラIDのリストを作っていてもよい。これにより、仮想視点カメラに近傍のカメラを検出し、リストと照合することで、使用できる分割を決定するための時間と工数を削減することができる。
また、仮想カメラの視野内に含まれる分割データに加えて、その隣の部分の分割データを送ることも可能である。これにより、領域の境界部分などで視野には入らないが画素値を決めるのに必要な情報を得ることで視野にある被写体等の画質の向上を行えるようになる。このような情報を送ることの可否を判定したり、視野にない分割の優先順位を下げたりして、画質を制御することも可能である。例えば、優先順位の低い分割の点群の点を間引いたり、前景画像を送るカメラを間引いたりして、伝送量や画質を制御することができる。また、顔等の特定の分割は優先順位を高くするといったことも可能である。
なお、分割はカメラの撮影範囲の重なりに応じてのみ決定されるのではなく、点群の数がほぼ均一になるように選択してもよいし、それぞれの分割の大きさが同じになるようにしてもよい。基本的に分割は重ならないようにするが、一部、重さなってもよい。たとえば、図14で領域1402-7が分割1402-6と分割1402-8の両方に含まれてもよい。この領域の点の前景画像は両方の領域の境界部の点の色付けに使われることになり、分割の境界部の画質を向上させる効果がある。
(変形例)
分割方法は、以下のような方法でもよい。すなわち、仮想視点情報に基づいて、前景モデルなどを分割するようにしてもよい。この場合、仮想視点情報が特定されるまで、前景モデルなどは分割されない。つまり、保存部108には、分割されたモデルのデータではなく、被写体ごとの前景モデルが規定される。つまり、図16において、「sub」に分割されていたデータが一つに統合される。具体的には、図16(b)において、Data size of 1st sub point cloud of 1st Objectは、Data size of point cloud of 1st Objectとして読み替える。そして、ここには、point cloud of 1st Object自体のData sizeが書き込まれる。また、Description of 1st sub point cloud of 1st Objectは、Description of point cloud of 1st Objectと読み替える。また、Data set of 1st sub point cloud in 1st Objectは、Data set of point cloud in 1st Objectと読み替える。そして、Data size of 2nd sub point cloud of 1st ObjectからData set of Dth sub point cloud in 1st Objectはなくなる。なお、前景モデルを例にしたが、背景モデルでも同様である。
そして、端末1310から仮想視点画像の生成の指示を受けると、送受信部1308を介して取得された仮想視点情報に基づいて、選択部1309は、仮想視点情報により特定される仮想視点からの仮想的な視野に含まれる前景モデルを特定する。さらに選択部1309は、特定された前景モデルのうち、仮想視点画像に表示される部分を特定する。そして、選択部1309は、この特定した部分の情報を管理部107に出力する。管理部107は、取得した情報を基に、保存部108に保存されている前景モデルのうち、仮想視点画像に表示される部分と、それ以外の部分とに分割する。管理部107は、分割されたモデルのうち、仮想視点画像に表示される部分に対応する部分のモデルを、仮想視点画像生成部1301に出力する。このため、仮想視点画像に必要な前景モデルの一部が出力され、伝送されるデータ量を削減することが可能となる。また、仮想視点情報を取得してから、前景モデルを分割するため、必要十分な分割モデルを効率的に生成することが可能となる。また、保存部108に保存されるデータが簡素化される。
なお、管理部107がモデル分割部1305を兼ねる構成を説明したが、管理部107は、仮想視点画像に表示される部分に対応する部分のモデルを抽出して、部分モデルを仮想視点画像生成部1301に出力するようにしてもよい。この場合は、モデル分割部1305は三次元情報処理装置に含まなくてもよい。
また、出力される部分モデルは、端末1310により指定されてもよい。例えば、ユーザが、自身が操作する端末1310を介して、どの部分モデルを出力させるかを指定してもよいし、ユーザが指定した仮想視点情報に基づいて端末1310が出力させる部分モデルを特定してもよい。なお、この部分モデルは、実施形態1,2のように予め分割された部分モデルでもよいし、仮想視点情報に基づいて分割あるいは特定される部分モデルであってもよい。予め分割された部分モデルの場合、ユーザに指定させるために、複数の部分モデルが、端末1310に表示されてもよい。
また、前景モデルに含まれる複数の部分モデルがすべて出力されてもよい。例えば、ユーザの指示により複数の部分モデルがすべて出力されてもよい。
また、例えば、端末1310a~dが、同一タイミングで、同じシーケンスの同じフレームに対して、異なる仮想視点情報を入力する場合、例えば以下のような構成としてもよい。すなわち、端末1310a~dによりそれぞれ入力された複数の仮想視点情報に対応する複数の仮想カメラの視野を規定し、その視野のどれかに含まれる前景モデルを特定し、その前景モデルのうち、いずれかの仮想視点画像に表示される部分を特定してもよい。そして、特定された、いずれかの仮想視点画像に表示される部分が、仮想視点画像生成部1301に出力されてもよい。仮想視点画像ごとに、仮想視点画像に表示される部分を特定して出力されると、データが重複されて出力されるため、伝送されるデータ量が増えるが、上記の構成によれば、データの重複が避けられるため、伝送されるデータ量の増加を抑制できる。仮想視点画像生成部1301が、同時に複数の仮想視点画像を生成できる場合であってもよいし、1つの仮想視点画像を順に生成するような場合であってもよい。後者の場合は、仮想視点画像生成部1301において、出力されたデータをバッファに一次保存して、必要なタイミングでそのデータを利用すればよい。
また、三次元情報処理装置1300が、仮想視点画像生成部1301を有する場合を説明したが、それに限られない。例えば、三次元情報処理装置1300とは別に仮想視点画像生成部1301を有する外部装置があってもよい。この場合、外部装置に仮想視点画像に必要な素材データ(前景モデルなど)が出力され、外部装置によって生成された仮想視点画像が送受信部1308に出力されればよい。
(その他の実施形態)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介して装置又は装置に供給し、その装置又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また、前述した機能を実現するコンピュータプログラムのコードを記録した記憶媒体を、システムに供給し、そのシステムがコンピュータプログラムのコードを読み出し実行することによっても達成される。この場合、記憶媒体から読み出されたコンピュータプログラムのコード自体が前述した実施形態の機能を実現し、そのコンピュータプログラムのコードを記憶した記憶媒体を用いて、本開示に実行してもよい。また、そのプログラムのコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した機能が実現される場合も含まれる。また、以下のような構成で本開示が実現されてもよい。記憶媒体から読み出されたコンピュータプログラムコードを、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込む。そして、そのコンピュータプログラムのコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行って、前述した機能が実現されてもよい。本開示を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した処理に対応するコンピュータプログラムのコードが格納されることになる。
以上、本開示の実施形態について詳述したが、本開示は上述の実施形態に限定されるものではなく、本開示の要旨の範囲内において、種々の変形及び変更が可能である。
105 モデル取得部
109 送受信部
110 選択部

Claims (13)

  1. 仮想視点の位置と前記仮想視点からの視線方向を特定するための仮想視点情報を取得する第1の取得手段と、
    オブジェクトの三次元形状データを取得する第2の取得手段と、
    前記第1の取得手段により取得された仮想視点情報に基づいて、前記オブジェクトの部分領域であって、前記仮想視点からの見えを表す仮想視点画像に表示される部分領域を特定する特定手段と、
    前記第2の取得手段により取得された三次元形状データのうち、前記特定手段により特定された部分領域に対応する部分データを出力する出力手段と、を有する情報処理装置。
  2. 前記三次元形状データは、複数の部分データを有し、
    前記出力手段は、前記複数の部分データのうち、前記特定手段により特定された部分領域に対応する三次元形状データの構成要素を含む部分データを出力することを特徴とする請求項1に記載の情報処理装置。
  3. 前記複数の部分データは、前記三次元形状データの位置に応じて分割されて生成されることを特徴とする請求項2に記載の情報処理装置。
  4. 前記複数の部分データは、基準座標軸に基づいて分割されて生成されることを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記複数の部分データは、三次元形状データを生成するために使用される撮像装置の位置に基づいて分割されて生成されることを特徴とする請求項2乃至4のいずれか1項に記載の情報処理装置。
  6. 前記特定手段により特定された部分領域に基づいて、前記第2の取得手段により取得された三次元形状データを、複数の部分データに分割する分割手段を有し、
    前記出力手段は、前記分割手段により分割された複数の部分データのうち、前記特定手段により特定された部分領域に対応する部分データを出力することを特徴とする請求項1に記載の情報処理装置。
  7. 前記第1の取得手段は、複数の仮想視点情報を取得し、
    前記特定手段は、前記オブジェクトの部分領域であって、前記複数の仮想視点情報により特定される複数の仮想視点からの見えを表す複数の仮想視点画像のいずれかに表示される部分領域を特定することを特徴とする請求項1に記載の情報処理装置。
  8. 前記第2の取得手段により取得された三次元形状データのうち、前記特定手段により特定された部分領域に対応する部分データとは異なる部分データは出力されないように制御する制御手段を有することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。
  9. 仮想視点の位置と前記仮想視点からの視線方向を特定するための仮想視点情報を取得する第1の取得工程と、
    オブジェクトの三次元形状データを取得する第2の取得工程と、
    前記第1の取得工程により取得された仮想視点情報に基づいて、前記オブジェクトの部分領域であって、前記仮想視点からの見えを表す仮想視点画像に表示される部分領域を特定する特定工程と、
    前記第2の取得工程により取得された三次元形状データのうち、前記特定工程により特定された部分領域に対応する部分データを出力する出力工程と、を有する情報処理方法。
  10. 前記三次元形状データは、複数の部分データを有し、
    前記出力工程は、前記複数の部分データのうち、前記特定工程により特定された部分領域に対応する三次元形状データの構成要素を含む部分データを出力することを特徴とする請求項9に記載の情報処理方法。
  11. 前記特定工程により特定された部分領域に基づいて、前記第2の取得工程により取得された三次元形状データを、複数の部分データに分割する分割工程を有し、
    前記出力工程は、前記分割工程により分割された複数の部分データのうち、前記特定工程により特定された部分領域に対応する部分データを出力することを特徴とする請求項9に記載の情報処理方法。
  12. 前記第2の取得工程により取得された三次元形状データのうち、前記特定工程により特定された部分領域に対応する部分データとは異なる部分データは出力されないように制御されることを特徴とする請求項9乃至11のいずれか1項に記載の情報処理方法。
  13. コンピュータを、請求項1乃至8のいずれか1項に記載の情報処理装置として機能させるためのプログラム。
JP2021024134A 2021-02-18 2021-02-18 情報処理装置、情報処理方法、およびプログラム Pending JP2022126205A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2021024134A JP2022126205A (ja) 2021-02-18 2021-02-18 情報処理装置、情報処理方法、およびプログラム
CN202280015742.4A CN116940964A (zh) 2021-02-18 2022-02-09 信息处理设备、信息处理方法和程序
PCT/JP2022/004992 WO2022176720A1 (ja) 2021-02-18 2022-02-09 情報処理装置、情報処理方法、およびプログラム
EP22756041.4A EP4296958A1 (en) 2021-02-18 2022-02-09 Information processing device, information processing method, and program
KR1020237027348A KR20230130709A (ko) 2021-02-18 2022-02-09 정보처리 장치, 정보처리 방법, 및 기억 매체
US18/450,844 US20230394701A1 (en) 2021-02-18 2023-08-16 Information processing apparatus, information processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021024134A JP2022126205A (ja) 2021-02-18 2021-02-18 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2022126205A true JP2022126205A (ja) 2022-08-30

Family

ID=82931618

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021024134A Pending JP2022126205A (ja) 2021-02-18 2021-02-18 情報処理装置、情報処理方法、およびプログラム

Country Status (6)

Country Link
US (1) US20230394701A1 (ja)
EP (1) EP4296958A1 (ja)
JP (1) JP2022126205A (ja)
KR (1) KR20230130709A (ja)
CN (1) CN116940964A (ja)
WO (1) WO2022176720A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7459199B1 (ja) 2022-09-20 2024-04-01 キヤノン株式会社 画像処理システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194841A (ja) * 1995-01-17 1996-07-30 Hitachi Ltd 有限要素領域分割方法
JP4550756B2 (ja) * 2006-03-22 2010-09-22 株式会社ナビタイムジャパン ナビゲーションシステム、経路探索サーバ、端末装置および地図表示方法
US11006135B2 (en) * 2016-08-05 2021-05-11 Sony Corporation Image processing apparatus and image processing method
JP7159057B2 (ja) 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
JP2021024134A (ja) 2019-07-31 2021-02-22 株式会社パイロットコーポレーション シャープペンシル

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7459199B1 (ja) 2022-09-20 2024-04-01 キヤノン株式会社 画像処理システム

Also Published As

Publication number Publication date
US20230394701A1 (en) 2023-12-07
EP4296958A1 (en) 2023-12-27
WO2022176720A1 (ja) 2022-08-25
CN116940964A (zh) 2023-10-24
KR20230130709A (ko) 2023-09-12

Similar Documents

Publication Publication Date Title
US11217006B2 (en) Methods and systems for performing 3D simulation based on a 2D video image
US10917622B2 (en) Information processing apparatus, display control method, and storage medium
US10417829B2 (en) Method and apparatus for providing realistic 2D/3D AR experience service based on video image
KR102280587B1 (ko) 가상 시점 화상을 생성하는 시스템, 방법, 및 비일시적 컴퓨터 판독가능 기억 매체
CN110944119B (zh) 图像处理系统、图像处理方法和存储介质
US8933965B2 (en) Method for calculating light source information and generating images combining real and virtual images
US9679415B2 (en) Image synthesis method and image synthesis apparatus
KR20140100656A (ko) 전방향 영상 및 3차원 데이터를 이용한 시점 영상 제공 장치 및 방법
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
JP7080586B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN110610546B (zh) 视频画面显示方法、装置、终端及存储介质
KR102382247B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
JP2022105590A (ja) 情報処理装置、情報処理方法、及び、プログラム
KR20180120456A (ko) 파노라마 영상을 기반으로 가상현실 콘텐츠를 제공하는 장치 및 그 방법
CN109920043A (zh) 虚拟3d对象的立体渲染
EP3616402A1 (en) Methods, systems, and media for generating and rendering immersive video content
WO2022176720A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2017156880A (ja) 画像処理装置および画像処理方法
KR20230017745A (ko) 화상 처리장치, 화상 처리방법, 및 기억매체
KR20210055381A (ko) 스마트 디스플레이를 통해 증강 현실 컨텐츠를 제공하는 장치, 방법 및 컴퓨터 프로그램
US20210297649A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method
US20190052868A1 (en) Wide viewing angle video processing system, wide viewing angle video transmitting and reproducing method, and computer program therefor
US11830140B2 (en) Methods and systems for 3D modeling of an object by merging voxelized representations of the object
WO2023166794A1 (ja) 情報処理装置、情報処理方法、画像生成装置、画像生成方法及びプログラム
KR20230130688A (ko) 정보 처리장치, 정보 처리방법, 및, 기억매체

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240216