JP2022131777A - 情報処理装置、それを含むシステム、情報処理方法およびプログラム - Google Patents
情報処理装置、それを含むシステム、情報処理方法およびプログラム Download PDFInfo
- Publication number
- JP2022131777A JP2022131777A JP2021030905A JP2021030905A JP2022131777A JP 2022131777 A JP2022131777 A JP 2022131777A JP 2021030905 A JP2021030905 A JP 2021030905A JP 2021030905 A JP2021030905 A JP 2021030905A JP 2022131777 A JP2022131777 A JP 2022131777A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- modeling data
- data
- virtual camera
- modeling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 31
- 238000003672 processing method Methods 0.000 title claims 2
- 238000000034 method Methods 0.000 claims description 60
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 15
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 abstract 2
- 238000012545 processing Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 230000036544 posture Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000009877 rendering Methods 0.000 description 6
- 238000007493 shaping process Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000000465 moulding Methods 0.000 description 3
- 230000009191 jumping Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000000843 powder Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/85—Providing additional services to players
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B29—WORKING OF PLASTICS; WORKING OF SUBSTANCES IN A PLASTIC STATE IN GENERAL
- B29C—SHAPING OR JOINING OF PLASTICS; SHAPING OF MATERIAL IN A PLASTIC STATE, NOT OTHERWISE PROVIDED FOR; AFTER-TREATMENT OF THE SHAPED PRODUCTS, e.g. REPAIRING
- B29C64/00—Additive manufacturing, i.e. manufacturing of three-dimensional [3D] objects by additive deposition, additive agglomeration or additive layering, e.g. by 3D printing, stereolithography or selective laser sintering
- B29C64/30—Auxiliary operations or equipment
- B29C64/386—Data acquisition or data processing for additive manufacturing
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/50—Controlling the output signals based on the game progress
- A63F13/52—Controlling the output signals based on the game progress involving aspects of the displayed game scene
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Chemical & Material Sciences (AREA)
- Materials Engineering (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Manufacturing & Machinery (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Optics & Photonics (AREA)
- Mechanical Engineering (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
【課題】動画像の任意のシーンにおけるオブジェクトの立体物を造形できるようにする。【解決手段】オブジェクトの三次元形状を表す形状データを使用して生成される動画像における、立体物の造形用データを生成する対象を特定するための情報を特定する。特定された時刻に対応する前記動画像におけるオブジェクトの形状データを取得する。取得された形状データに基づいて生成される立体物の造形用データを出力する。【選択図】図4
Description
本開示は、動画像からオブジェクトの造形用データを生成する技術に関する。
近年、3Dプリンタなどの造形装置を用いて、オブジェクトの三次元形状を表すデータである三次元モデル(以下、3Dモデルと呼ぶ)を基に、前記オブジェクトのフィギュアを造形することが可能になった。オブジェクトの対象には、ゲームやアニメに登場するキャラクターだけでなく、実在の人物などもある。実在の人物などを撮像またはスキャンして得た3Dモデルを3Dプリンタに入力することによって、その人物などの十数分の一のサイズでフィギュアを造形することができる。
特許文献1は、スポーツ試合を撮像して作成されたハイライト動画シーンのリストの中から、ユーザが所望シーンやシーンに含まれるオブジェクトを選択することで、所望のオブジェクトの人形を造形する手法を開示している。
しかしながら特許文献1では、リストにあるハイライトシーンからしか造形対象のオブジェクトを選択できず、リストに無いシーンに含まれるオブジェクトの人形を造形することが困難であった。
本開示は、動画像の任意のシーンにおけるオブジェクトの立体物を容易に造形できるようにすることを目的とする。
本開示の一態様に係る情報処理装置は、オブジェクトの三次元形状を表す形状データを使用して生成される動画像における、立体物の造形用データを生成する対象を特定するための情報を特定する特定手段と、前記特定手段により特定された時刻に対応する前記動画像におけるオブジェクトの形状データを取得する取得手段と、前記取得手段により取得された形状データに基づいて生成される立体物の造形用データを出力する出力手段と、を有することを特徴とする。
本開示によれば、動画像の任意のシーンにおけるオブジェクトの立体物を容易に造形することができる。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は、特許請求の範囲に係る本開示を限定するものではなく、また本実施形態で説明されている特徴の組み合わせの全てが本開示の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、その説明を省略する。
[実施形態1]
本実施形態では、複数視点の撮像画像から求められた、仮想視点画像生成用である、オブジェクトの三次元形状を表す三次元形状データ(以下、3Dモデルという)を用いて仮想視点画像を描画するシステムにて、造形用データを生成する態様について説明する。なお、仮想視点画像とは、エンドユーザおよび/または選任のオペレータなどが仮想視点の位置および視線方向を指定することによって生成される画像であり、自由視点画像や任意視点画像などとも呼ばれる。仮想視点画像は、動画であっても、静止画であってもよいが、本実施形態では動画の場合を例に説明する。なお、以下の説明においては、原義的に、仮想視点を仮想的なカメラ(仮想カメラ)に置き換えて説明する。以下の説明においては、仮想視点の位置は仮想カメラの位置に対応し、仮想視点からの視線方向は仮想カメラの姿勢に対応するものとする。
本実施形態では、複数視点の撮像画像から求められた、仮想視点画像生成用である、オブジェクトの三次元形状を表す三次元形状データ(以下、3Dモデルという)を用いて仮想視点画像を描画するシステムにて、造形用データを生成する態様について説明する。なお、仮想視点画像とは、エンドユーザおよび/または選任のオペレータなどが仮想視点の位置および視線方向を指定することによって生成される画像であり、自由視点画像や任意視点画像などとも呼ばれる。仮想視点画像は、動画であっても、静止画であってもよいが、本実施形態では動画の場合を例に説明する。なお、以下の説明においては、原義的に、仮想視点を仮想的なカメラ(仮想カメラ)に置き換えて説明する。以下の説明においては、仮想視点の位置は仮想カメラの位置に対応し、仮想視点からの視線方向は仮想カメラの姿勢に対応するものとする。
(システム構成)
図1は、仮想視点画像内のオブジェクトの立体物を造形するため当該オブジェクトの造形用データを生成する情報処理システム(仮想視点画像生成システム)の構成例を示す図である。図1(a)に情報処理システム100の構成例を示し、図1(b)に情報処理システムが有するセンサシステムの設置例を示す。情報処理システム100は、n台のセンサシステム101a-101nと、画像記録装置102と、データベース103と、画像生成装置104と、タブレット105とを有する。センサシステム101a-101nそれぞれは少なくとも1台の撮像装置であるカメラを有する。なお、以下では、特に説明がない限り、センサシステム101aからセンサシステム101nまでのn台のセンサシステムを区別せず、複数センサシステム101と表記する。
図1は、仮想視点画像内のオブジェクトの立体物を造形するため当該オブジェクトの造形用データを生成する情報処理システム(仮想視点画像生成システム)の構成例を示す図である。図1(a)に情報処理システム100の構成例を示し、図1(b)に情報処理システムが有するセンサシステムの設置例を示す。情報処理システム100は、n台のセンサシステム101a-101nと、画像記録装置102と、データベース103と、画像生成装置104と、タブレット105とを有する。センサシステム101a-101nそれぞれは少なくとも1台の撮像装置であるカメラを有する。なお、以下では、特に説明がない限り、センサシステム101aからセンサシステム101nまでのn台のセンサシステムを区別せず、複数センサシステム101と表記する。
複数センサシステム101および仮想カメラの設置例について図1(b)を用いて説明する。複数センサシステム101は、図1(b)に示すように、撮像の対象領域である領域120を囲むように設置され、複数センサシステム101のカメラは、それぞれ異なる方向から領域120を撮像する。仮想カメラ110は、複数センサシステム101のカメラと異なる方向から、領域120を撮像する。仮想カメラ110の詳細については後述する。
撮像対象が、ラグビーやサッカー等のプロスポーツの試合である場合、領域120はスタジアムのフィールド(地面)となり、n台(例えば100台)の複数センサシステム101は、フィールドを囲むように設置される。また、撮像対象の領域120にはフィールド上の人だけでなくボールやその他の物体があってもよい。なお、撮像対象はスタジアムのフィールドに限定されず、アリーナ等で行われる音楽ライブや、スタジオで行われるCM撮影であってもよく、複数センサシステム101が設置できればよい。なお、設置されるセンサシステム101の台数は限定されない。また、複数センサシステム101は領域120の全周に渡って設置されていなくてもよく、設置場所の制限等によっては領域120の周囲の一部にのみ設置されてもよい。また、複数センサシステム101が有する複数のカメラには、望遠カメラと広角カメラなど機能が異なる撮像装置が含まれていてもよい。
複数センサシステム101が有する複数のカメラは同期して撮像を行い、複数の画像を取得する。なお、複数の画像のそれぞれは、撮像画像であってもよいし、撮像画像に対して例えば所定の領域を抽出する処理などの画像処理を行うことで得られた画像であってもよい。
なお、センサシステム101a-101nそれぞれは、カメラに加えてマイク(不図示)を有してもよい。複数センサシステム101それぞれのマイクは同期して音声を収音する。この収音された音声に基づき、画像生成装置104における画像の表示と共に再生される音響信号を生成することができる。以降、説明の簡略化のため、音声についての記載を省略するが、基本的に画像と音声は共に処理されるものとする。
画像記録装置102は、複数センサシステム101から複数の画像を取得し、取得した複数の画像と、撮像に使用したタイムコードとを合わせてデータベース103に記憶する。タイムコードとは、撮像した時刻を一意に識別するための絶対値で表される時間情報あって、例えば、日:時:分:秒.フレーム番号の様な形式で指定可能な時間情報である。
データベース103は、イベント情報および3Dモデル情報などを管理する。イベント情報は、撮像対象のイベントの全タイムコードに対応付けられた、オブジェクト毎の3Dモデル情報の格納先を示すデータを含む。オブジェクトは、ユーザが造形したい人およびものを含んでもよいし、造形対象でない人および物を含んでもよい。3Dモデル情報は、オブジェクトの3Dモデルに関する情報を含む。
画像生成装置104は、データベース103からタイムコードに応じた画像と、タブレット105からユーザ操作で設定された仮想カメラ110に関する情報とを入力として受け付ける。仮想カメラ110は、領域120に関連付けられた仮想空間内に設定され、複数センサシステム101のどのカメラとも異なる視点から領域120を閲覧できる。仮想カメラ110や、その操作方法や動作の詳細については、図を用いて後述する。
画像生成装置104は、データベース103から取得したタイムコード毎の画像を基に仮想視点画像生成用の3Dモデルを生成し、生成した仮想視点画像生成用の3Dモデルと、仮想カメラの視点に関する情報とを用いて、仮想視点画像を生成する。仮想カメラの視点情報は、仮想視点の位置及び向きを示す情報を含む。具体的には、視点情報は、仮想視点の三次元位置を表すパラメータと、パン方向、チルト方向、及びロール方向における仮想視点の向きを表すパラメータとを含む。なお、仮想視点画像は、仮想カメラ110からの見えを表す画像であり、自由視点映像とも呼ばれる。画像生成装置104で生成された仮想視点画像は、タブレット105等のタッチパネルに表示される。
本実施形態では、画像生成装置104は、少なくとも1つの仮想カメラの描画範囲に基づいて、描画範囲に存在するオブジェクトに対応する3Dモデルから造形装置106で用いる造形用データ(オブジェクトの形状データ)を生成する。すなわち、画像生成装置104は、仮想視点画像に対して、造形の対象となるオブジェクトを特定する条件を設定し、設定された条件に基づき、オブジェクトの三次元形状を表す形状データを取得し、取得された形状データに基づき、造形用データを生成する。造形用データの生成処理の詳細については、図を用いて後述する。なお、画像生成装置104が生成する造形用データのフォーマットは、造形装置106が処理可能なフォーマットであればよく、一般的な3Dモデルを扱うポリゴンメッシュ汎用フォーマット等のフォーマットでも、造形装置106独自フォーマットでもよい。すなわち、造形装置106が仮想視点画像の生成用の形状データを処理可能であり、画像生成装置104は、仮想視点画像の生成用の形状データを造形用データとして特定する。他方、造形装置106が仮想視点画像の生成用の形状データを処理不可能であり、画像生成装置104は、仮想視点画像の生成用の形状データを用いて造形用データを生成することになる。
タブレット105は、画像を表示する表示部と、ユーザ操作を受け付ける入力部との両方の機能を有するタッチパネルを有する携帯型の機器である。タブレット105は、スマートフォンなど他の機能を備えた携帯型の機器であってもよい。タブレット105は、仮想カメラに関する情報を設定するユーザ操作を受け付ける。また、タブレット105は、画像生成装置104で生成された仮想視点画像、またはデータベース103に格納された仮想視点画像を表示する。そして、タブレット105は、仮想視点画像に対して、造形の対象となるオブジェクトを特定するための条件を設定するユーザ操作を受け付ける。このユーザ操作によって、造形用データを生成する任意の空間範囲および時間範囲が設定される。この操作方法の詳細については、図を用いて後述する。なお、仮想カメラの操作は、タブレット105のタッチパネルに対するユーザ操作に限定されず、三軸コントローラなどの操作装置に対するユーザ操作であってもよい。
画像生成装置104とタブレット105とは、図1に示すように、別の装置となる構成でもよいし、一体型の構成でもよい。一体型の場合は、画像生成装置104がタッチパネル等を有して、仮想カメラの操作を受け付け、画像生成装置104で生成した仮想視点画像をそのタッチパネルに表示する。なお、仮想視点画像は、タブレット105や画像生成装置104以外のデバイスの液晶画面に表示されてもよい。
造形装置106は、例えば、3Dプリンタなどであり、画像生成装置104によって生成された造形用データを入力として、例えば人形(3Dモデルフィギュア)やレリーフなどの、対応するオブジェクトの立体物を造形する。なお、造形装置106の造形方法は、光造形・インクジェット・粉末固着方式などに限定されず、立体物を造形できればよい。なお、造形装置106は、人形などの立体物を出力する装置に限定されず、プレートや紙に印字する装置であってもよい。
画像生成装置104と造形装置106とは、図1に示すように、別の装置となる構成でもよいし、一体型の構成でもよい。
なお、情報処理システム100の構成は、図1(a)に示すような、タブレット105や造形装置106が画像生成装置104と1対1に接続されるものに限定されない。例えば、複数のタブレット105や複数の造形装置106が、画像生成装置104と接続された情報処理システムであってもよい。
(画像生成装置の構成)
画像生成装置104の構成例について図を用いて説明する。図2は、画像生成装置104の構成例を示す図であり、図2(a)に画像生成装置104の機能構成例を示し、図2(b)に画像生成装置104のハードウェア構成例を示す。
画像生成装置104の構成例について図を用いて説明する。図2は、画像生成装置104の構成例を示す図であり、図2(a)に画像生成装置104の機能構成例を示し、図2(b)に画像生成装置104のハードウェア構成例を示す。
画像生成装置104は、図2(a)に示すように、仮想カメラ制御部201と、3Dモデル生成部202と、画像生成部203と、造形用データ生成部204とを有する。画像生成装置104は、前述の機能部を使用し、少なくとも1つ仮想カメラの描画範囲に基づいて、造形用データを生成する。ここでは、各機能の概要について説明し、処理の詳細については後述する。
仮想カメラ制御部201は、タブレット105などから仮想カメラの操作情報を受け取る。仮想カメラの操作情報には、少なくとも仮想カメラの位置およびその姿勢と、タイムコードとが含まれる。これらの仮想カメラの操作情報の詳細については図を用いて後述する。なお、画像生成装置104がタッチパネル等を有し、仮想カメラの操作情報を受け取り可能な構成である場合、仮想カメラ制御部201は、画像生成装置104から仮想カメラの操作情報を受け取る。
3Dモデル生成部202は、複数の撮像画像に基づいて、領域120内にあるオブジェクトの三次元形状を表す3Dモデルを生成する。具体的には、3Dモデル生成部202は、画像から、人物やボール等のオブジェクトに対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像とを取得する。そして、3Dモデル生成部202は、複数の前景画像に基づいて前景の3Dモデルをオブジェクト毎に生成する。
これらの3Dモデルは、例えばVisual Hullなどの形状推定方法により生成され、点群で構成される。ただし、オブジェクト毎の形状を表す3Dモデルのデータ形式はこれに限定されない。なお、背景の3Dモデルは、予め外部装置により取得されてもよい。
3Dモデル生成部202は、生成した3Dモデルをタイムコードと合わせてデータベース103に記録する。
なお、3Dモデル生成部202は、画像生成装置104でなく画像記録装置102に含まれる構成であってもよい。その場合は、画像生成装置104は、3Dモデル生成部202を介してデータベース103から、画像記録装置102で生成された3Dモデルを読み出すだけでよい。
画像生成部203は、データベース103から3Dモデルを取得し、取得した3Dモデルを基に仮想視点画像を生成する。具体的には、画像生成部203は、3Dモデルを構成する点毎に、画像から適切な画素値を取得して色付け処理を行う。そして、画像生成部203は、色付けされた3Dモデルを三次元の仮想空間に配置し、仮想カメラ(仮想視点)へ投影してレンダリングすることで、仮想視点画像を生成する。
ただし、仮想視点画像の生成方法は、これに限定されず、3Dモデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を使用してもよい。
造形用データ生成部204は、仮想カメラの位置およびその姿勢と、タイムコードとを用いて、仮想カメラの描画範囲または投影範囲を計算して決定する。そして、造形用データ生成部204は、決定した仮想カメラの描画範囲に基づき造形用データの生成範囲を決定し、その範囲に含まれる3Dモデルから、造形用データを生成する。これらの処理の詳細については、図を用いて後述する。
(画像生成装置のハードウェア構成)
次に、画像生成装置104のハードウェア構成について、図2(b)を用いて説明する。画像生成装置104は、図2(b)に示すように、CPU211と、RAM212と、ROM213と、操作入力部214と、表示部215と、通信I/F(インターフェイス)部216とを有する。
次に、画像生成装置104のハードウェア構成について、図2(b)を用いて説明する。画像生成装置104は、図2(b)に示すように、CPU211と、RAM212と、ROM213と、操作入力部214と、表示部215と、通信I/F(インターフェイス)部216とを有する。
CPU(Central Processing Unit)211は、RAM(Random Access Memory)212やROM(Read Only Memory)213に格納されるプログラムやデータを用いて処理する。
CPU211は、画像生成装置104の全体の動作制御を行い、図2(a)に示す各機能を実現するための処理を実行する。なお、画像生成装置104がCPU211とは異なる1又は複数の専用のハードウェアを有し、CPU211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアとして、例えば、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM213は、プログラムやデータを保持する。RAM212は、ROM213から読み出されるプログラムやデータを一時的に記憶するワークエリアを有する。また、RAM212は、CPU211が各処理を実行する際に用いるワークエリアを提供する。
操作入力部214は、例えばタッチパネルであり、ユーザによる入力操作を受け付け、受け付けたユーザ操作で入力された情報を取得する。入力情報としては、例えば、仮想カメラに関する情報や生成対象の仮想視点画像のタイムコードに関する情報などが挙げられる。なお、操作入力部214は、外部コントローラと接続し、操作に関するユーザからの入力情報を受け付けてもよい。外部コントローラは、例えば、ジョイスティック等の三軸コントローラやマウスなどの操作装置である。なお、外部コントローラは、これらに限定されない。
表示部215は、タッチパネルやスクリーンであって生成した仮想視点画像を表示する。タッチパネルの場合は操作入力部214と表示部215が一体となった構成となる。
通信I/F部216は、例えば、LANなどを介し、データベース103、タブレット105、造形装置106などと情報の送受信を行う。また、通信I/F部216は、次に示す通信規格に対応する画像出力ポートを介して、外部スクリーンへ情報を送信してもよい。通信規格に対応する画像出力ポートとしては、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)やSDI(Serial Digital Interface)などが挙げられる。また、通信I/F部216は、例えば、イーサネットなどを介して画像データや造形用データを送信してもよい。
(仮想カメラ(仮想視点)およびその操作画面)
続いて、ラグビー場でのラグビーの試合を撮像して撮像画像を取得した場合を例に、仮想カメラおよびその設定を行う操作画面について説明する。図3は、仮想カメラおよびその操作画面を示す図である。図3(a)に座標系を示し、図3(b)に図3(a)の座標系を適用するフィールド例を示し、図3(c)および図3(d)に仮想カメラの描画範囲例を示し、図3(e)に仮想カメラの移動例を示す。図3(f)に仮想カメラから見た仮想視点画像の表示例を示す。
続いて、ラグビー場でのラグビーの試合を撮像して撮像画像を取得した場合を例に、仮想カメラおよびその設定を行う操作画面について説明する。図3は、仮想カメラおよびその操作画面を示す図である。図3(a)に座標系を示し、図3(b)に図3(a)の座標系を適用するフィールド例を示し、図3(c)および図3(d)に仮想カメラの描画範囲例を示し、図3(e)に仮想カメラの移動例を示す。図3(f)に仮想カメラから見た仮想視点画像の表示例を示す。
まず、仮想視点を設定する際の基準となる、撮像対象の三次元空間を表す座標系について説明する。図3(a)に示すようには、本実施形態では、三次元空間をX軸・Y軸・Z軸の3軸で表した直交座標系が用いられる。この直交系座標を、図3(b)に示す各オブジェクト、すなわち、ラグビー場のフィールド391、その上に存在するボール392、選手393などに設定する。さらに、フィールド391の周辺にある観客席や看板などのラグビー場内の設備(構造物)に設定してもよい。具体的には、原点(0、0、0)をフィールド391の中心に設定する。そして、X軸をフィールド391の長辺方向に、Y軸をフィールド391の短辺方向に、Z軸をフィールド391に対して鉛直方向に設定する。なお、各軸の方向は、これらに限定されない。このような座標系を使用し、仮想カメラ110の位置およびその姿勢が指定される。
続いて、仮想カメラの描画範囲について図を用いて説明する。図3(c)に示す四角錐300において、頂点301が仮想カメラ110の位置を表し、頂点301を基点とする視線方向のベクトル302が仮想カメラ110の姿勢を表す。なお、ベクトル302は、仮想カメラの光軸ベクトルとも呼ばれる。仮想カメラの位置は、各軸の成分(x,y,z)で表現され、仮想カメラ110の姿勢は、各軸の成分をスカラーとする単位ベクトルで表現される。仮想カメラ110の姿勢を表すベクトル302は、前方クリップ面303と後方クリップ面304の中心点を通るものとする。3Dモデルの投影範囲(描画範囲)となる仮想カメラの視錐台は、前方クリップ面303と後方クリップ面304に挟まれた空間305である。
続いて、仮想カメラの描画範囲を示す成分について図を用いて説明する。図3(d)は、図3(c)の仮想視点を上(Z軸)から見た図である。描画範囲は次の値によって決定される。頂点301から前方クリップ面303までの距離311と、頂点301から後方クリップ面304までの距離312と、仮想カメラ110の画角313の各値は、予め設定された所定値(規定値)でもよいし、ユーザ操作で所定値が変更された設定値でもよい。また、画角313は別途、仮想カメラ110の焦点距離を変数とし、この変数を基に求められる値でもよい。なお、画角と焦点距離との関係は一般的な技術でありその説明を省略する。
次に、仮想カメラ110の位置の変更(仮想視点の移動)と仮想カメラ110の姿勢の変更(回転)について説明する。仮想視点は、三次元座標で表現された空間内において、移動および回転させることができる。図3(e)は、仮想カメラの移動および回転を説明する図である。図3(e)において、1点鎖線の矢印306が仮想カメラ(仮想視点)の移動を表し、1点鎖線の矢印307が当該移動した仮想カメラ(仮想視点)の回転を表している。仮想カメラの移動は各軸の成分(x、y、z)で表現され、仮想カメラの回転は、Z軸回りの回転であるヨー(Yaw)、X軸回りの回転であるピッチ(Pitch)、Y軸回りの回転であるロール(Roll)で表現される。このように仮想カメラは被写体(フィールド)の三次元空間を自由に移動及び回転できることから、被写体の任意の領域が描画範囲となる仮想視点画像として生成できる。
次に、仮想カメラ(仮想視点)の位置およびその姿勢を設定する操作画面について説明する。図3(f)は、仮想カメラ(仮想視点)の操作画面例を説明する図である。
本実施形態では、造形用データの生成範囲は、少なくとも1つの仮想カメラの描画範囲に基づいて決定されるため、図3(f)に示される仮想カメラの操作画面320は、造形用データの生成範囲を決定するための操作画面であるともいえる。図3(f)には、仮想カメラの操作画面320がタブレット105のタッチパネルに表示される。なお、仮想カメラの操作画面320の表示先は、これに限定されず、画像生成装置104のタッチパネル等でもよい。
操作画面320には、仮想カメラの描画範囲(仮想視点画像の撮像に係る描画範囲)を仮想視点画像として操作画面320の画面枠に合わせて表示される。このような表示により、ユーザが造形の対象となるオブジェクトを特定するための条件を目視しながら設定することができる。
操作画面320は、仮想カメラ110の位置およびその姿勢を設定するユーザ操作を受け付ける仮想カメラの操作領域322と、タイムコードを設定するユーザ操作を受け付けるタイムコードの操作領域323とを有する。まず、仮想カメラ操作領域322について説明する。操作画面320がタッチパネルに表示されることから、仮想カメラ操作領域322では、ユーザ操作として、タップ、スワイプ、ピンチイン・アウト等の一般的なタッチ操作325を受け付ける。このタッチ操作325によって、仮想カメラの位置や焦点距離(画角)が調整される。また、仮想カメラ操作領域322では、ユーザ操作として、直交座標系の各軸を押し続ける等のタッチ操作324を受け付ける。このタッチ操作324によって、X軸、Y軸またはZ軸周りに仮想カメラ110が回転し、仮想カメラの姿勢が調整される。このように操作画面320における各々のタッチ操作に対し仮想カメラの移動や回転や拡縮を割り当てておくことで、仮想カメラ110を自由に操作することができる。これらの操作方法は公知でありその説明を省略する。
なお、仮想カメラの位置およびその姿勢に関する操作はタッチパネルに対するタッチ操作に限定されず、ジョイスティックなどの操作装置などを用いた操作でもよい。
次に、タイムコード操作領域323について説明する。タイムコード操作領域323は、メイン・スライダー332および摘み342と、サブ・スライダー333および摘み343とを有しており、タイムコードを操作する複数要素を有する。タイムコード操作領域323は、仮想カメラの追加ボタン350と、出力ボタン351とを有する。
メイン・スライダー332は、撮像データの全タイムコードのうちの所望のタイムコードに設定する操作を行うことができる入力要素である。摘み342の位置がドラッグ操作等で所望の位置に移動されると、摘み342の位置に対応するタイムコードが指定される。すなわち、メイン・スライダー332の摘み342の位置を調整することで、任意のタイムコードが指定されることになる。
サブ・スライダー333は、全タイムコードの一部を拡大して表示し、拡大した部分に関し詳細にタイムコードを設定する操作を行うことができる入力要素である。摘み343の位置がドラッグ操作等で所望の位置に移動されると、摘み343の位置に対応するタイムコードが指定される。メイン・スライダー332とサブ・スライダー333とは画面上では同じ長さであるが、選択できるタイムコードの幅が異なる。例えば、メイン・スライダー332は一試合の長さである3時間分から選択可能であるのに対し、サブ・スライダー333ではその一部の30秒から選択可能とする。この様にスライダーのスケールは異なり、サブ・スライダーは秒単位やフレーム単位といった様な、より詳細なタイムコードを指定可能とする。
なお、メイン・スライダー332の摘み342やサブ・スライダー333の摘み343を用いて指定したタイムコードを、日:時:分:秒.フレーム番号の形式で数値として表示してもよい。サブ・スライダー333は操作画面320に常時表示してもよいし、一時表示してもよい。例えば、タイムコードの表示指示を受け付けたときや、一時停止などの特定操作の指示を受け付けたときに表示してもよい。サブ・スライダー333で選択可能となるタイムコード区間を可変としてもよい。
以上の操作により設定された仮想カメラの位置およびその姿勢と、タイムコードとに応じて、生成された仮想視点画像が、仮想カメラの操作領域322に表示される。図3(f)では例として、被写体をラグビーの試合として、得点に繋がる決定的なパスシーンが表示されている。詳細については後述するが、この決定的シーンを造形用のオブジェクトの形状データとして生成または出力することになる。
図3(f)ではボールを離す瞬間のタイムコードを指定している場合を示しているが、例えば、タイムコードの操作領域323のサブ・スライダー333を操作することによって、ボールが空中にあるタイムコードも容易に指定することができる。
図3(f)では、3人の選手が描画範囲に存在するように仮想カメラの位置およびその姿勢が指定されているが、これに限定されない。例えば、仮想カメラ操作領域322に対しタッチ操作324、325を行うことにより空間(仮想カメラの描画範囲)305を自由に操作し、更に周りの選手が描画範囲に存在するように操作してもよい。
出力ボタン351は、仮想カメラ操作領域322とタイムコード操作領域323に対するユーザ操作で設定された仮想カメラの描画範囲を決定し、造形用のオブジェクトの形状データを出力するときに操作されるボタンである。仮想カメラに対して、時間範囲を示すタイムコードと、空間範囲を示す位置およびその姿勢が決定されると、これらの決定に対応する仮想カメラの描画範囲が計算される。そして、計算結果である仮想カメラの描画範囲に基づいて、造形用データの生成範囲が決定される。この処理の詳細については図を用いて後述する。
仮想カメラの追加ボタン350は、造形用データの生成に複数の仮想カメラを使用するときに用いられるボタンである。複数の仮想カメラを用いた造形用データの生成処理の詳細については、実施形態2で説明するため、ここでは説明を省略する。
なお、仮想カメラの操作画面は図3(f)に示される操作画面320に限定されず、仮想カメラの位置およびその姿勢やタイムコードを設定する操作できればよい。例えば、仮想カメラ操作領域322と、タイムコード操作領域323とは分離されていなくてもよい。例えば、仮想カメラ操作領域322に対しダブルタップなどの操作が行われると、タイムコードを設定する操作として一時停止等が処理されてもよい。
また、操作入力部214がタブレット105である場合について説明したが、操作入力部214はこれに限定されず、一般的なディスプレイおよび三軸コントローラ等を有する操作装置であってもよい。
(造形用データの生成処理)
続いて、画像生成装置104における、造形用データの生成処理について図を用いて説明する。図4は、造形用データの生成処理の流れを示すフローチャートである。なお、この一連の処理は、CPU211が所定のプログラムを実行して、図2(a)に示した各機能部を動作させることで実現される。以下、ステップを「S」と表記する。以降の説明でも同様とする。なお、仮想視点画像の生成に用いられるオブジェクトの三次元形状を表す形状データが造形用データと異なる形式であることを前提に説明する。
続いて、画像生成装置104における、造形用データの生成処理について図を用いて説明する。図4は、造形用データの生成処理の流れを示すフローチャートである。なお、この一連の処理は、CPU211が所定のプログラムを実行して、図2(a)に示した各機能部を動作させることで実現される。以下、ステップを「S」と表記する。以降の説明でも同様とする。なお、仮想視点画像の生成に用いられるオブジェクトの三次元形状を表す形状データが造形用データと異なる形式であることを前提に説明する。
S401では、造形用データ生成部204は、仮想カメラ制御部201を介し、仮想視点画像のタイムコードの指定を受け付ける。タームコードの指定方法は、例えば図3(f)に示すスライダーを用いた方法でもよいし、数字を直接入力する方法でもよい。
S402では、造形用データ生成部204は、仮想カメラ制御部201を介し、仮想カメラの操作情報を受け付ける。仮想カメラの操作情報は少なくとも仮想カメラの位置およびその姿勢に関する情報を含む。仮想カメラの操作方法は、例えば図3(f)に示すタブレットを用いた方法でよいし、ジョイスティックなどの操作装置を用いた方法でもよい。
S403では、造形用データ生成部204は、仮想カメラ制御部201を介し、出力指示を受け付けたか否か、すなわち、出力ボタン351が操作されたか否かを判定する。造形用データ生成部204は、出力指示を受け付けたとの判定結果を得た場合(S403のYES)、処理はS404に移行する。造形用データ生成部204は、出力指示を受け付けていないとの判定結果を得た場合(S403のNO)、処理がS401に戻され、S401およびS402の処理が再度実行される。すなわち、出力指示を受け付けるまで、仮想視点画像のタイムコードと、仮想カメラの位置およびその姿勢とのユーザ操作を受け付ける処理が継続される。
S404では、造形用データ生成部204は、S401の処理で受け付けた仮想視点画像のタイムコードと、S402の処理で受け付けた、仮想カメラの位置およびその姿勢を含む仮想カメラの視点情報とを用いて、仮想カメラの描画範囲を決定する。仮想カメラの描画範囲の決定方法は、例えば図3(c)および図3(d)に示す前方クリップ面303および後方クリップ面304をユーザ操作によって決定してもよいし、予め装置に設定されている演算式による演算結果を基に決定してもよい。
S405では、造形用データ生成部204は、S404で決定した仮想カメラの描画範囲に基づき、この仮想カメラに対応する造形用データの生成範囲を決定する。造形用データの生成範囲の決定方法について説明する。図5は、造形用データの生成範囲および生成例を示す図である。図5(a)に三次元空間上における造形用データの生成範囲を示し、図5(b)に図5(a)に示す造形用データの生成範囲のyz平面を示す。図5(c)に三次元空間上における造形用データの生成範囲内の3Dモデル例を示す。図5(d)に造形用データの生成範囲内に観客席が存在する場合のyz平面を示す。図5(e)に図5(c)に示す3Dモデルに対応する3Dモデルフィギュア例を示す。図5(f)に図5(c)に示す3Dモデルに対応する3Dモデルフィギュアの他例を示す。
図5(a)では、仮想カメラ(位置301や空間(視錐台)305等)が三次元空間上に表示され、同空間に撮像対象のZ=0の平面(例えばスタジアムのフィールド)500が表示される。図5(a)に示すように、造形用データの生成範囲510は、Z=0の平面500の内、仮想カメラの描画範囲である空間(視錐台)305に含まれる平面(底面)501に基づいて決定される。
造形用データの生成範囲510は、仮想カメラの描画範囲である空間(視錐台)305の一部である。造形用データの生成範囲510は、平面501と、前方クリップ面303の近くに位置する前方の平面(前方面)513と、後方クリップ面304の近くに位置する後方の平面(後方面)514に囲まれた空間となる。造形用データの生成範囲510となる空間の側方は、仮想カメラの位置301およびその画角と平面500を基に設定される。また、造形用データの生成範囲510となる空間の上方は、仮想カメラの位置301およびその画角を基に設定される。
平面513と平面514について、図5(b)を用いて説明する。図5(b)は、図5(a)の仮想カメラ及びZ=0の平面を横から簡易的に見たものである。平面513は、交点503または505を通り、空間305内において前方クリップ面303から所定の距離に位置し、前方クリップ面303に並行となる面である。平面514は、交点504または506を通り、空間305内において後方クリップ面304から所定の距離に位置し、後方クリップ面304に並行となる面である。所定の距離は、予め設定される。平面501は、上述の交点503~506を頂点とする矩形となる。
なお、平面514は、後方クリップ面304と同一であってもよい。なお、平面513と平面514は、それぞれ前方クリップ面と後方クリップ面に並行でなくてもよい。例えば、平面501の頂点を通り、平面501と垂直となる平面であってもよい。
また、上記に加えて、造形用データの生成範囲510は、スタジアムにおける観客席等を考慮して、その生成範囲を決定してもよい。この例について図5(d)を用いて説明する。図5(d)では図5(b)と同様に、図5(a)の仮想カメラ及びZ=0の平面を横から簡易的に見たときの描画範囲を示している。図5(d)にて、スタジアムの観客席507の位置に基づいて平面514を決定してもよい。具体的には、観客席507と平面501との交点を通る、後方クリップ面に並行となる面を平面514とする。これによって、造形用データの生成範囲510に観客席507の後方が含まれない様にすることができる。
造形用データの生成範囲の決定条件に追加できるものは、スタジアムの観客席に限定されず、ユーザがその物体等を手動で指定する構成であってもよい。視錐台との交点を持つ平面500はZ=0に限定されず、任意の形状でもよい。例えば、実際のフィールドの様に凹凸があってもよい。実際の背景の3Dモデルであるフィールドに凹凸があった場合は、それを平面の3Dモデルへ補正してもよい。視錐台との交点を持つ平面や曲面を持たない構成であってもよい。その場合は、仮想カメラの描画範囲を、そのまま造形用データの生成範囲として使用してもよい。
S406では、造形用データ生成部204は、S405で決定した造形用データの生成範囲に含まれるオブジェクトの3Dモデルをデータベース103から取得する。
データベース103が管理するイベント情報および3Dモデル情報のテーブル例について図を用いて説明する。図6は、データベース103が管理する情報のテーブルを示す図であり、図6(a)にイベント情報のテーブルを示し、図6(b)に3Dモデル情報のテーブルを示す。データベース103が管理するイベント情報のテーブル610は、図6(a)に示すように、撮像対象のイベントの全てのタイムコードについて、オブジェクト毎の3Dモデル情報の格納先を示している。イベント情報のテーブル610では、例えば、タイムコードが「16:14:24.041」であり、オブジェクトがオブジェクトAである3Dモデル情報の格納先が、「DataA100」であることを示している。
データベース103が管理する3Dモデル情報のテーブル620は、図6(b)に示すように、「全点群座標」、「テクスチャ」、「平均座標」、「重心座標」、「最大・最小座標」の各項目についてのデータが格納されている。「全点群座標」には、3Dモデルを構成する点群の各点の座標に関するデータが格納されている。「テクスチャ」には、3Dモデルに付与するテクスチャ画像に関するデータが格納されている。「平均座標」には、3Dモデルを構成する点群の座標の全てを平均した点の座標に関するデータが格納されている。「重心座標」には、3Dモデルを構成する点群の座標の全てを基に重心となる点の座標に関するデータが格納されている。「最大・最小座標」には、3Dモデルを構成する点群の座標のうち最大・最小となる点の座標に関するデータが格納されている。なお、3Dモデル情報のテーブル620に格納されるデータの項目は、「全点群座標」、「テクスチャ」、「平均座標」、「重心座標」、「最大・最小座標」の全てに限らない。例えば、「全点群座標」および「テクスチャ」だけでもよいし、この項目に他の項目を加えてもよい。
図6に示す情報を使用することで、あるタイムコードが指定されると、指定されたタイムコードにおける3Dモデル情報として、オブジェクト毎の全点群の座標や、三次元座標の各軸における最大・最小値の座標等を取得することができる。
図5(c)を用いて、データベース103から造形用データの生成範囲に含まれる3Dモデルを取得した例について説明する。造形用データ生成部204は、データベース103において、S401で指定されたタイムコードに対応付けられた、オブジェクト毎の3Dモデル情報を参照し、オブジェクト毎にS406で決定された造形用データの生成範囲に含まれるか否かを判定する。
判定方法としては、例えば、人等のオブジェクト毎の3Dモデル情報に含まれる全点群座標が生成範囲に含まれるか否かの判定方法でもよいし、全点群座標の平均値や、三次元座標の各軸の最大・最小値のみが生成範囲に含まれるか否かの判定方法でもよい。
図5(c)では、上述の判定を行った結果として、造形用データの生成範囲510に、3つの3Dモデルが含まれていた例を示している。なお詳細は後述するが、これら3つの3Dモデルが造形用データとなった例は、図5(e)における3Dモデル531-533の様になる。
なお、オブジェクト毎に造形用データの生成範囲に含まれるかの判定結果をタブレットの操作画面320に表示してもよい。判定結果として、例えば、造形用データの生成範囲510の境界上にあるオブジェクトに対して、境界上にあるため、該オブジェクトの全体が造形用データとして出力されない旨の警告等を表示してもよい。
S406における判定処理は、S401の仮想視点画像のタイムコードやS402の仮想カメラの位置およびその姿勢のユーザ操作を受け付けている間に随時、実行してもよい。このようなS406の判定処理を随時実行する場合、対象となるオブジェクトが境界上にあることを報知する警告表示を行ってもよい。
オブジェクトの3Dモデルの取得方法は、上述の判定結果を基に自動で取得する方法に限定されず、手動で取得する方法でよい。例えば、タブレットの操作画面310において、ユーザが造形用データの対象としたいオブジェクトに対するタップ操作等のユーザ操作を受け付けることで、3Dモデルの取得対象であるオブジェクトを指定してもよい。
また、S406の処理において、造形用データの生成範囲に含まれるオブジェクトのうち、背景であるフィールドや観客席の3Dモデル情報をデータベースから取得してもよい。その場合は、取得したフィールドや観客席の3Dモデルを、台座となる様に部分的に変換してもよい。例えば、フィールドの3Dモデルに厚みが無い場合であっても、規定の高さを足した3Dモデルへ変換することで、図5(e)に示すように、台座540を直方体形状としてもよい。
S407では、造形用データ生成部204は、実際には存在しないが、データベースから取得した3Dモデルの補助を行うための3Dモデルを生成する。例えば、図5(e)の前景の3Dフィギュアモデル532の選手はジャンプしておりフィールドに接地せず空中に存在する。そのため、3Dフィギュアモデルを展示するには、3Dフィギュアモデルを支持して台座に固定するための支柱(支持部)が補助として必要となる。そこで、S407では、造形用データ生成部204は、まず、データベース103より取得したオブジェクト毎の3Dモデル情報を用いて補助部が必要であるか否かを判定する。この判定は、対象となる3Dモデルが空中に存在するか否かの判定と、対象となる3Dモデルが台座に自立するか否かの判定を含む。対象3Dモデルが空中に存在するか否かの判定では、例えば、3Dモデル情報に含まれる全点群の座標または最小座標を用いて判定してもよい。対象3Dモデルが台座に自立するか否かの判定では、例えば、3Dモデル情報に含まれる全点群の座標、または、重心座標および最大・最小座標を用いて判定してもよい。
そして、補助部が必要であるとの判定結果を得ると、造形用データ生成部204は、3Dモデル情報を基に、対象となる3Dフィギュアモデルを台座に固定する補助部の3Dモデルを生成する。対象3Dモデルが空中に存在する場合、造形用データ生成部204は、全点群の座標、または、最小座標およびその周辺座標を基に補助部の3Dモデルを生成してもよい。対象3Dモデルが台座に自立しない場合、造形用データ生成部204は、全点群の座標、または、重心座標および最大・最小座標を基に補助部の3Dモデルを生成してもよい。なお、支柱は、オブジェクト毎の3Dモデル情報に含まれる重心座標から垂直に支える位置としてもよい。また、フィールドに接点があるオブジェクトであっても、支柱の3Dモデルを加えてもよい。
他方、補助部が必要ではないとの判定結果を得ると、造形用データ生成部204は、補助部の3Dモデルを生成せずに、処理をS408に移行する。
S408では、造形用データ生成部204は、前ステップであるS407までの処理にて生成した3Dモデル一式を合成し、合成した3Dモデル一式を出力先の形式に変換して立体物の造形用データとして出力する。出力する造形用データ例について、図5(e)を用いて説明する。
図5(e)では、造形用データは、造形用データの生成範囲510に含まれる前景の3Dモデル531、532、533と、支柱534と、台座540とを含む。これらの元となった人等の前景の3Dモデルと、フィールド等の背景の3Dモデルの座標は、図3(a)に示した一つの三次元座標によって表現され、これらの位置関係は、実際のフィールド上の選手の位置関係や姿勢を正確に再現できる。
図5(e)の造形用データが造形装置106へ出力されると、造形装置106は、このままの形状で3Dモデルフィギュアを造形することができる。このため、図5(e)は造形用データとして記載しているが、3Dプリンタが出力した3Dモデルフィギュアとして捉えてもよい。
なお、図5(e)の造形用データは、納品時や輸送時の破損リスクを下げるために、S408において、前景の3Dモデルと背景の3Dモデルを分けて出力してもよい。例えば、図5(f)に示すように、背景のフィールドに対応する台座540と、前景の人に対応する3Dモデル531、532、533とを分けて出力し、3Dモデル531、532、533に小さな形状のサブ台座541、542、543を付与してもよい。この場合、台座540にサブ台座541-543の大きさに相当する窪み551-553を設けることによって、前景の3Dモデル531、532、533を台座540へ装着することできる。サブ台座541、542、543は、実際には存在しない3Dモデルであるため、S407において支柱と同様に、前景等の3Dモデルを補助するものとして追加してもよい。
サブ台座541-543および窪み551-553の形状は、図5(f)に示すような四角形だけでなく、その他の多角形としてもよい。また、サブ台座541-543および窪み551-553の形状は、パズルのピースのようにそれぞれ異なる形状としてもよい。この場合、造形装置によって前景の3Dモデルおよび背景の3Dモデルを分けて出力した後に、装着位置や装着方向を間違わずに前景の3Dモデルを適切に装着することができる。なお、オブジェクト毎のサブ台座541-543や台座540における窪み551-553の位置は、ユーザ操作によって変更可能としてもよい。
台座540に、実際には存在しない情報を埋め込んだ造形用データを出力してもよい。例えば、該当する造形用データに使用した仮想カメラのタイムコードや、仮想カメラの位置およびその姿勢に関する情報を埋め込んだ台座540の造形用データを出力してもよい。また、造形用データの生成範囲がわかるように三次元座標の値を埋め込んだ台座540の造形用データを出力してもよい。
以上説明した通り、本実施形態によれば、ユーザ操作で指定された指定情報に応じたオブジェクトの造形用データを生成することができる。すなわち、指定情報に応じた仮想カメラの描画範囲に基づいて、仮想カメラの描画範囲に含まれるオブジェクトの造形用データを生成することができる。
例えば、スタジアムで行われるラグビーやサッカー等のフィールドスポーツにおいて、得点に結びつく様な決定的シーンを、任意のタイムコード及び任意の空間範囲を切り取り、実際の選手の位置関係や姿勢をそのままに造形用データを生成することができる。また、そのデータを使用し3Dプリンタへ出力することによって該シーンの3Dモデルフィギュアを生成することも可能となる。
また、仮想視点画像の生成に用いられるオブジェクトの三次元形状を表す形状データがオブジェクトの造形用データと同じ形式である場合、S408では、次のような処理が行われることになる。すなわち、造形用データ生成部204は、前ステップであるS407までの処理にて生成した、オブジェクトの3Dモデルに補助部の3Dモデルを追加したデータをオブジェクトの造形用データとして出力することになる。このように、仮想視点画像の生成用の形状データのフォーマットが造形用データのフォーマットと同じである場合、仮想視点画像の生成用の形状データを造形用データとしてそのまま出力することができる。
[実施形態2]
本実施形態では、複数の仮想カメラを用い、それらの描画範囲に基づいて造形用データを生成する態様について説明する。
本実施形態では、複数の仮想カメラを用い、それらの描画範囲に基づいて造形用データを生成する態様について説明する。
本実施形態では、情報処理システムの構成は図1、画像生成装置の構成は図2と同様であるためその説明を省略し、差分について説明する。本実施形態では主に、タブレット105または画像生成装置104において、複数の仮想カメラを使用するための操作方法や、それらの複数の描画範囲に基づいた造形用データの生成処理について説明する。
(造形用データの生成処理)
本実施形態に係る造形用データの生成処理について図を用いて説明する。図7は、本実施形態に係る造形用データの生成処理の流れを示すフローチャートである。なお、この一連の処理は、CPU211が所定のプログラムを実行して、図2(a)に示した各機能部を動作させることで実現される。図8は、仮想視点(仮想カメラ)の操作画面例を説明する図である。図8(a)に、仮想カメラ1が選択された場合を示し、図8(b)に仮想カメラ2が選択された場合を示し、図8(c)に図8(b)にて優先度の設定画面が表示された場合を示し、図8(d)に3Dモデル例を示す。なお、図8(a)から図8(c)に示す操作画面は、図3(f)に示す操作画面にて機能を拡張した画面であり、ここでは差分についてのみ説明する。
本実施形態に係る造形用データの生成処理について図を用いて説明する。図7は、本実施形態に係る造形用データの生成処理の流れを示すフローチャートである。なお、この一連の処理は、CPU211が所定のプログラムを実行して、図2(a)に示した各機能部を動作させることで実現される。図8は、仮想視点(仮想カメラ)の操作画面例を説明する図である。図8(a)に、仮想カメラ1が選択された場合を示し、図8(b)に仮想カメラ2が選択された場合を示し、図8(c)に図8(b)にて優先度の設定画面が表示された場合を示し、図8(d)に3Dモデル例を示す。なお、図8(a)から図8(c)に示す操作画面は、図3(f)に示す操作画面にて機能を拡張した画面であり、ここでは差分についてのみ説明する。
S701では、造形用データ生成部204は、操作を受け付ける仮想カメラを指定する。本実施形態では、複数の仮想カメラを扱うため、S701の処理に続くS702およびS703にて、どの仮想カメラに対して操作を受け付けるかを識別するための指定を行う。なお、初期状態では仮想カメラは一台のため、その一台の識別子が指定され、複数の仮想カメラがある場合は、ユーザが選択した一台の識別子が指定される。操作画面における仮想カメラの選択方法については後述する。
S702では、造形用データ生成部204は、仮想カメラ制御部201を介し、S701で指定された仮想カメラによる撮像で得た仮想視点画像のタイムコードの指定を受け付ける。タイムコードの指定方法は、S401にて説明したタイムコードの指定方法と同じであり、その説明を省略する。
S703では、造形用データ生成部204は、仮想カメラ制御部201を介し、S701で指定された仮想カメラの操作情報を受け付ける。仮想カメラの操作方法は、S402にて説明した仮想カメラの操作方法と同じであり、その説明を省略する。
S704では、造形用データ生成部204は、ユーザから次に挙げる指示を受け付け、受け付けた指示内容がどの指示内容に該当するかを判定する。ここで受け付けるユーザ指示は、仮想カメラの選択、仮想カメラの追加、造形用データの出力のいずれかである。「仮想カメラの選択」は、S701で指定された仮想カメラと異なりタブレット105に表示されている別の仮想カメラを選択する指示である。「仮想カメラの追加」は、S701で指定された仮想カメラと異なりタブレット105に表示されていない別の仮想カメラを追加する指示である。仮想カメラの追加指示は、例えば、図8(a)に示す追加ボタン350が押下されたときに行われる。「造形用データの出力」は、造形用データを出力する指示である。
操作指示が「仮想カメラの追加」であるとの判定結果を得ると、造形用データ生成部204は、処理をS705に移行する。
S705では、造形用データ生成部204は、仮想カメラを追加する。タブレット105に表示される画面は、図8(a)に示す操作画面から図8(b)に示す操作画面へ切り替わり、操作画面320において新しいタブ802が追加され、仮想カメラも追加される。これにより追加されたタブ画面において、追加された仮想カメラの撮像で得られる仮想視点画像のタイムコードや、追加された仮想カメラの位置およびその姿勢の操作を受け付けることができる。
図8では、スポーツ選手のプレイシーン例として、バレーボール選手によるスパイクシーンの仮想視点画像を表示している。図8(a)では、バレーボール選手がジャンプする前に踏み込み屈んだ姿勢となった場面を示し、図8(b)では、図8(a)の場面からタイムコードを進め、バレーボール選手がジャンプしボールを打つ前に腕を振り上げた姿勢となった場面を示している。
なお、図8(a)から図8(c)ではタブ数・仮想カメラ数が2である場合を示しているが、これに限定されない。タブ数・仮想カメラ数を3以上としてもよい。また、後述するが、図8(d)の出力例では、仮想カメラを6つ使用し、各々の仮想カメラによる撮像で得た仮想視点画像のタイムコードや、各々の仮想カメラの位置およびその姿勢を操作することで、バレーボール選手のスパイクシーンを時系列に捉えている。
また、追加された仮想カメラによる撮像で得た仮想視点画像のタイムコードや、追加された仮想カメラの位置およびその姿勢について、追加指示を受け付けたときに画面に表示していた仮想カメラの値を初期値として用いてもよい。
上述のS704において操作指示が「仮想カメラの選択」であるとの判定結果を得ると、造形用データ生成部204は、処理をS701に戻し、選択した仮想カメラについてS701からS703の一連の処理を実行する。仮想カメラの選択指示は、例えば、図8(a)に示すタブ801-802に対するユーザ択操作によって行われる。タブ801-802を含む画像がタッチパネルに表示される場合、ユーザ操作は、一般的なタッチ操作などでよい。
図8のスパイクシーンでは、各々の仮想カメラによる撮像で得た仮想視点画像のタイムコード等を詳細に操作することにより、バレーボール選手のジャンプが最高点に達した場面や、バレーボール選手がボールを打つ瞬間の場面などを簡単に指定できる。
上述のS704において操作指示が「造形用データの出力」であるとの判定結果を得ると、造形用データ生成部204は、処理をS706に移行する。造形用データの出力指示は、例えば、図8(a)に示す出力ボタン351に対するユーザ操作によって行われる。出力ボタン351がユーザ操作で押下されると、前ステップまでに指定された全ての仮想カメラによる撮像で得た仮想視点画像のタイムコードや、全ての仮想カメラの位置および
その姿勢を確定し、処理がS706に移行される。
その姿勢を確定し、処理がS706に移行される。
S706からS710では、造形用データ生成部204は、S701で指定された全ての仮想カメラに対する処理を実行する。
S707では、造形用データ生成部204は、S702の処理で受け付けた仮想視点画像のタイムコードと、S703の処理で受け付けた、仮想カメラの位置およびその姿勢を含む仮想カメラの視点情報とを用いて、仮想カメラの描画範囲を決定する。仮想カメラの描画範囲の決定方法は、S404にて説明した仮想カメラの描画範囲の決定方法と同じであり、その説明を省略する。
S708では、造形用データ生成部204は、S707で決定した仮想カメラの描画範囲に基づき、この仮想カメラに対応する造形用データの生成範囲を決定する。造形用データの生成範囲の決定方法は、S405にて説明した造形用データの生成範囲の決定方法と同じであり、その説明を省略する。
S709では、造形用データ生成部204は、S708で決定した仮想カメラの造形用データの生成範囲に含まれるオブジェクトの3Dモデルをデータベース103から取得する。3Dモデルの取得方法は、S406にて説明した3Dモデルの取得方法と同じであり、その説明を省略する。
S711では、造形用データ生成部204は、前ステップまでに取得した仮想カメラ毎に決定された造形用データの生成範囲に含まれる3Dモデルを、オブジェクト毎の優先度に基づき合成する。
オブジェクト毎の優先度は、S702やS703の仮想カメラに対する操作中に設定されるパラメータであり、造形用データを生成する際に参照される。オブジェクト毎の優先度について図8(c)を用いて説明する。図8(c)に示すように、操作画面320において、例えば、オブジェクトに対しロングタップが行われることによって、優先度の設定画面820が表示される。優先度の設定画面820に表示された選択項目(例えば、高・中・低)の中から優先度がユーザ操作で選択されることで、選択した優先度が設定されることになる。なお、優先度の選択項目は3つに限定されない。オブジェクト毎の優先度の初期値が予め設定され、設定画面820にて優先度が設定されない場合には、オブジェクト毎の優先度として、初期値が設定されるようにしてもよい。
優先度に基づいた合成では、例えば、優先度が高いオブジェクトと比べ、優先度が中または低いオブジェクトに対して色の濃度が低く色を薄くする等の処理を行い、優先度が高いオブジェクトを目立たせる様な処理が行われた造形用データが生成される。この様に合成された複数のオブジェクトについて図8(d)を用いて説明する。図8(d)の詳細は後述するが、タイムコードが異なる6つの仮想視点画像の撮像に係る仮想カメラを用いて、6つのオブジェクトの3Dモデル831-836を合成し、造形用データとして出力された例である。図8(d)では、3Dモデル833および3Dモデル834は優先度が「高」に設定されており通常の色で合成され、3Dモデル831、3Dモデル832、3Dモデル835および3Dモデル836は優先度が「低」に設定されており薄い色で合成されている。この様な優先度の設定を用いることで、注目すべきタイムコードのオブジェクトを強調した造形用データを生成することができる。
なお、複数のオブジェクトが重なった場合、優先度が「高」に設定されたオブジェクトを優先度が「低」に設定されたオブジェクトよりも前面になる様に合成した造形用データを生成してもよい。
S712では、造形用データ生成部204は、実際には存在しないが、データベースから取得した3Dモデルの補助を行うための3Dモデルを生成する。補助部の3Dモデルの生成方法は、S407にて説明した補助部の3Dモデルの生成方法と同じであり、その説明を省略する。
S713では、造形用データ生成部204は、前ステップであるS712までの処理にて生成した3Dモデル一式を合成し、造形用データを生成する。合成した造形用データ例について、図8(d)を用いて説明する。
図8(d)では、造形用データは、タイムコードや、位置および姿勢が異なる6つの仮想視点画像および仮想カメラを用いて、各々の造形用データの生成範囲に含まれる3Dモデルをデータベース103より取得し、合成して生成される。具体的には、造形用データは、人の3Dモデル831-836と、支柱の3Dモデル843、844と、台座の3Dモデル850とを含む。
これらの元となった人等の前景の3Dモデルと、フィールド等の背景の3Dモデルの座標は、図3(a)に示した一つの三次元座標によって表現され、これらの位置関係は、実際のフィールド上の選手の位置関係や姿勢を正確に再現したものである。
また、3Dモデルは同一人物(オブジェクト)であっても、タイムコードの異なる複数の仮想カメラによる撮像で得た仮想視点画像を用いることで、次に示すデータを出力できる。すなわち、それらの描画領域に基づいて造形用データの生成範囲を計算することで、スポーツ選手の一連のプレイを時系列に並ぶ造形用データとして出力できる。
なお、対象となるオブジェクトは1つに限定されず、実施形態1に示したように複数のオブジェクトに対しても、異なる仮想視点画像のタイムコードと、仮想カメラの位置およびその姿勢の仮想カメラとを指定することも当然ながら可能である。
以上説明した通り、本実施形態によれば、ユーザ操作で指定された複数の指定情報に応じたオブジェクトの造形用データを生成することができる。すなわち、指定情報に応じた複数の仮想カメラの描画範囲に基づいて、複数のオブジェクトの造形用データを生成することができる。
例えば、プロのスポーツ選手の一連のプレイ(連続した動き)を合成して1つの3Dモデルフィギュアとなるような造形用データとして出力することができる。例えば、バレーボール選手のスパイクシーンや、フィギュアスケート選手のジャンプシーンなどを時系列に並ぶような造形用データを出力することができる。
[その他の実施形態]
上述した実施形態においては、複数の撮像画像に基づいて生成される3Dモデルを使用して生成される仮想視点画像において、造形用データを生成する例について述べた。しかしながらこれに限定されず、例えばコンピュータグラフィック(CG)ソフトなどを使用して生成された3Dモデルを使用した動画像に対しても、本実施形態は適用可能である。
上述した実施形態においては、複数の撮像画像に基づいて生成される3Dモデルを使用して生成される仮想視点画像において、造形用データを生成する例について述べた。しかしながらこれに限定されず、例えばコンピュータグラフィック(CG)ソフトなどを使用して生成された3Dモデルを使用した動画像に対しても、本実施形態は適用可能である。
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
201 仮想カメラ制御部
204 造形用データ生成部
204 造形用データ生成部
Claims (19)
- オブジェクトの三次元形状を表す形状データを使用して生成される動画像における、立体物の造形用データを生成する対象を特定するための情報を特定する特定手段と、
前記特定手段により特定された時刻に対応する前記動画像におけるオブジェクトの形状データを取得する取得手段と、
前記取得手段により取得された形状データに基づいて生成される立体物の造形用データを出力する出力手段と、
を有することを特徴とする情報処理装置。 - 前記出力手段は、取得された形状データが前記オブジェクトの造形用データと同じ形式でないとき、当該取得された形状データを出力先の形式に変換して前記立体物の造形用データとして出力することを特徴とする請求項1に記載の情報処理装置。
- 前記動画像は、複数の撮像装置により取得される複数の撮像画像に基づいて生成される仮想視点画像であることを特徴とする請求項1又は2に記載の情報処理装置。
- 前記特定手段は、前記仮想視点画像のタイムコードと、前記仮想視点画像に係る仮想視点の位置および仮想視点からの視線方向とを特定する
ことを特徴とする請求項3に記載の情報処理装置。 - 前記特定手段は、前記仮想視点画像に係る仮想視点の位置および仮想視点からの視線方向に基づき、前記造形用データの対象となるオブジェクトの生成範囲を特定する
ことを特徴とする請求項3または4に記載の情報処理装置。 - 前記特定手段は、前記仮想視点画像が表示される表示手段に係る描画範囲に基づき、前記オブジェクトの生成範囲を特定する
ことを特徴とする請求項5に記載の情報処理装置。 - 前記特定手段は、前記描画範囲に含まれる背景の構造物の位置に応じて、前記オブジェクトの生成範囲を特定する
ことを特徴とする請求項6に記載の情報処理装置。 - 前記出力手段は、前記オブジェクトの位置および姿勢に応じて、当該オブジェクトを支持する支持部を含む前記立体物の造形用データを出力する
ことを特徴とする請求項1から7のいずれか一項に記載の情報処理装置。 - 前記出力手段は、前記造形用データの生成範囲に含まれる地面を前記オブジェクトの台座とする前記立体物の造形用データを出力する
ことを特徴とする請求項1から8のいずれか一項に記載の情報処理装置。 - 前記取得手段は、前記形状データを複数取得し、
前記出力手段は、取得された複数の形状データに基づいて生成される前記立体物の造形用データを出力することを特徴とする請求項1から9のいずれか一項に記載の情報処理装置。 - オブジェクト毎に優先度を設定する設定手段を有し、
前記出力手段は、前記設定手段により設定されたオブジェクト毎の優先度に応じて、取得された複数の形状データを合成することにより取得される前記立体物の造形用データを出力する
ことを特徴とする請求項9に記載の情報処理装置。 - 前記出力手段は、前記優先度が高いオブジェクトと比べ、前記優先度が低いオブジェクトに対して色を薄くして生成された前記立体物の造形用データを出力する
ことを特徴とする請求項11に記載の情報処理装置。 - 前記出力手段は、前記複数のオブジェクトが重なる場合、前記優先度が高いオブジェクトを前記優先度が低いオブジェクトよりも前面に配置された前記立体物の造形用データとして出力することを特徴とする請求項11又は12に記載の情報処理装置。
- 前記出力手段は、前記オブジェクトにサブ台座を設け、前記造形用データの生成範囲に含まれる地面を台座とし、前記台座に、前記サブ台座に対応する窪みを設けて生成された前記立体物の造形用データとして出力する
ことを特徴とする請求項1から13のいずれか一項に記載の情報処理装置。 - 前記サブ台座の形状は、対応するオブジェクト毎に異なる
ことを特徴とする請求項14に記載の情報処理装置。 - 請求項1から14のいずれか一項に記載の情報処理装置と、
前記情報処理装置の前記出力手段が出力した前記立体物の造形用データを基に、前記オブジェクトの立体物を造形する造形装置と、
を有することを特徴とするシステム。 - オブジェクトの三次元形状を表す形状データを使用して生成される動画像における、立体物の造形用データを生成する対象を特定するための情報を特定する特定ステップと、
前記特定ステップにて特定された時刻に対応する前記動画像におけるオブジェクトの形状データを取得する取得ステップと、
前記取得ステップにて取得された形状データに基づいて生成される立体物の造形用データを出力する出力ステップと、
を含むことを特徴とする情報処理方法。 - コンピュータを、請求項1から15のいずれか一項に記載の情報処理装置として機能させるためのプログラム。
- コンピュータを、請求項16に記載のシステムとして機能させるためのプログラム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021030905A JP2022131777A (ja) | 2021-02-26 | 2021-02-26 | 情報処理装置、それを含むシステム、情報処理方法およびプログラム |
US17/669,400 US20220277520A1 (en) | 2021-02-26 | 2022-02-11 | Information processing apparatus, information processing method, and storage medium |
EP22158029.3A EP4049734A1 (en) | 2021-02-26 | 2022-02-22 | Information processing apparatus, information processing method, and computer program |
CN202210178364.3A CN114953463A (zh) | 2021-02-26 | 2022-02-25 | 信息处理设备、信息处理方法和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021030905A JP2022131777A (ja) | 2021-02-26 | 2021-02-26 | 情報処理装置、それを含むシステム、情報処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022131777A true JP2022131777A (ja) | 2022-09-07 |
JP2022131777A5 JP2022131777A5 (ja) | 2024-03-01 |
Family
ID=80446261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021030905A Pending JP2022131777A (ja) | 2021-02-26 | 2021-02-26 | 情報処理装置、それを含むシステム、情報処理方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220277520A1 (ja) |
EP (1) | EP4049734A1 (ja) |
JP (1) | JP2022131777A (ja) |
CN (1) | CN114953463A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20230065922A1 (en) * | 2021-08-27 | 2023-03-02 | Rapsodo Pte. Ltd. | Self-organized learning of three-dimensional motion data |
CN116714251B (zh) * | 2023-05-16 | 2024-05-31 | 北京盈锋科技有限公司 | 一种人物三维立体打印系统、方法、电子设备及存储介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1961333A (zh) * | 2004-02-12 | 2007-05-09 | 贝斯简·阿利万迪 | 从虚拟环境中制造商品的系统和方法 |
GB2499694B8 (en) * | 2012-11-09 | 2017-06-07 | Sony Computer Entertainment Europe Ltd | System and method of image reconstruction |
JP6497321B2 (ja) * | 2013-09-11 | 2019-04-10 | ソニー株式会社 | 画像処理装置および方法 |
GB2536061B (en) * | 2015-03-06 | 2017-10-25 | Sony Interactive Entertainment Inc | System, device and method of 3D printing |
JP6696149B2 (ja) * | 2015-10-29 | 2020-05-20 | 富士通株式会社 | 画像生成方法、画像生成プログラム、情報処理装置および表示制御方法 |
WO2017187708A1 (ja) * | 2016-04-26 | 2017-11-02 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP2020062322A (ja) | 2018-10-19 | 2020-04-23 | キヤノン株式会社 | 人形造形システム、情報処理方法及びプログラム |
-
2021
- 2021-02-26 JP JP2021030905A patent/JP2022131777A/ja active Pending
-
2022
- 2022-02-11 US US17/669,400 patent/US20220277520A1/en active Pending
- 2022-02-22 EP EP22158029.3A patent/EP4049734A1/en active Pending
- 2022-02-25 CN CN202210178364.3A patent/CN114953463A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220277520A1 (en) | 2022-09-01 |
EP4049734A1 (en) | 2022-08-31 |
CN114953463A (zh) | 2022-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109889914B (zh) | 视频画面推送方法、装置、计算机设备及存储介质 | |
CN110574076B (zh) | 图像生成设备、图像生成方法和计算可读存储介质 | |
JP4285422B2 (ja) | 動画像生成システム、動画像生成装置、動画像生成方法、プログラム、及び記録媒体 | |
CN107636534A (zh) | 一般球面捕获方法 | |
US7277571B2 (en) | Effective image processing, apparatus and method in virtual three-dimensional space | |
JP7249755B2 (ja) | 画像処理システムおよびその制御方法、プログラム | |
JP2003141569A (ja) | 情報処理方法および映像合成装置 | |
JP2022131777A (ja) | 情報処理装置、それを含むシステム、情報処理方法およびプログラム | |
JP2017157208A (ja) | 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム | |
JP2021034885A (ja) | 画像生成装置、画像表示装置および画像処理方法 | |
JP7446754B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2023182760A (ja) | ゲームプログラム、情報処理装置、および方法 | |
JP6555755B2 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP2024019537A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
US10796723B2 (en) | Spatialized rendering of real-time video data to 3D space | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP7395296B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2005157611A (ja) | 画像処理装置および方法 | |
US6633291B1 (en) | Method and apparatus for displaying an image | |
US20230334767A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP2013003412A (ja) | 自動写真作成装置、自動写真作成方法およびプログラム | |
US20230291883A1 (en) | Image processing system, image processing method, and storage medium | |
JP2023184358A (ja) | 画像処理システム、画像処理システムの制御方法、及びプログラム | |
JP2023111640A (ja) | 情報処理装置、情報処理方法、データ構造及びプログラム | |
JP2024014517A (ja) | 情報処理システム、情報処理方法及びコンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240221 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240221 |