JP2023163133A - Image processing system, image processing method, and computer program - Google Patents
Image processing system, image processing method, and computer program Download PDFInfo
- Publication number
- JP2023163133A JP2023163133A JP2023038750A JP2023038750A JP2023163133A JP 2023163133 A JP2023163133 A JP 2023163133A JP 2023038750 A JP2023038750 A JP 2023038750A JP 2023038750 A JP2023038750 A JP 2023038750A JP 2023163133 A JP2023163133 A JP 2023163133A
- Authority
- JP
- Japan
- Prior art keywords
- virtual viewpoint
- image
- display area
- images
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 110
- 238000004590 computer program Methods 0.000 title claims description 13
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000003384 imaging method Methods 0.000 claims description 36
- 230000002596 correlated effect Effects 0.000 abstract 1
- 230000000875 corresponding effect Effects 0.000 abstract 1
- 238000000034 method Methods 0.000 description 91
- 230000008569 process Effects 0.000 description 74
- 238000010586 diagram Methods 0.000 description 26
- 238000004891 communication Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 230000005484 gravity Effects 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 238000012790 confirmation Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
本開示は画像処理システム、画像処理方法及びコンピュータプログラム等に関する。 The present disclosure relates to an image processing system, an image processing method, a computer program, and the like.
複数の撮像装置の撮像により得られた複数の画像を用いて、指定された仮想視点からの仮想視点画像を生成する技術が注目されている。特許文献1には、複数の撮像装置を異なる位置に設置して被写体を撮像し、撮像により得られた撮像画像から推定される被写体の3次元形状を用いて、仮想視点画像を生成する方法について記載されている。
A technique that generates a virtual viewpoint image from a specified virtual viewpoint using a plurality of images obtained by imaging by a plurality of imaging devices is attracting attention.
しかし、仮想視点画像と他の画像を含む魅力的なデジタルコンテンツを提供することはできていなかった。 However, it has not been possible to provide attractive digital content including virtual perspective images and other images.
本開示は、仮想視点画像と他の画像を含む魅力的なデジタルコンテンツの表示技術を提供するための画像処理システムを提供することを目的としている。 The present disclosure is directed to providing an image processing system for providing attractive digital content display techniques including virtual perspective images and other images.
本開示の1つの実施態様の画像処理システムは、
立体形状のデジタルコンテンツの第1面に対応付けられた仮想視点画像であって、複数の撮像装置で撮像されることにより得られた複数の画像と仮想視点とに基づいて生成される仮想視点画像と、前記デジタルコンテンツの第2面に対応付けられた前記仮想視点画像に対応する前記仮想視点と異なる視点の画像とを特定する特定手段と、
前記仮想視点画像に対応する画像と、前記仮想視点と異なる視点の画像に対応する画像とを表示領域に表示する制御を行う表示制御手段と、
を有することを特徴とする。
An image processing system according to one embodiment of the present disclosure includes:
A virtual viewpoint image associated with the first surface of three-dimensional digital content, which is generated based on a plurality of images obtained by capturing images with a plurality of imaging devices and a virtual viewpoint. and identifying means for identifying an image of a different viewpoint from the virtual viewpoint corresponding to the virtual viewpoint image associated with the second side of the digital content;
Display control means for controlling display of an image corresponding to the virtual viewpoint image and an image corresponding to an image from a viewpoint different from the virtual viewpoint in a display area;
It is characterized by having the following.
本開示によれば、仮想視点画像と他の画像を含む魅力的なデジタルコンテンツを表示することができる。 According to the present disclosure, attractive digital content including virtual perspective images and other images can be displayed.
以下、図面を参照して本開示の実施形態を説明する。ただし、本開示は以下の実施形態に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。 Embodiments of the present disclosure will be described below with reference to the drawings. However, the present disclosure is not limited to the following embodiments. In each figure, the same reference numerals are given to the same members or elements, and overlapping explanations are omitted or simplified.
(実施形態1)
実施形態1の画像処理システムは、複数の撮像装置(カメラ)により異なる方向から撮像して取得される撮像画像、撮像装置の状態、指定された仮想視点に基づいて、仮想視点から見た仮想視点画像を生成する。そして、その仮想視点画像を仮想的な立体画像の表面に表示する。なお、撮像装置は、カメラだけでなく、画像処理を行う機能部を有していてもよい。また、撮像装置は、カメラ以外に、距離情報を取得するセンサを有していてもよい。
(Embodiment 1)
The image processing system of
複数のカメラは、複数の方向から撮像領域を撮像する。撮像領域は、例えば、競技場のフィールドと任意の高さで囲まれた領域である。撮像領域は、上述した被写体の3次元形状を推定する3次元空間と対応していても良い。3次元空間は、撮像領域の全部であっても良いし、一部であっても良い。また、撮像領域は、コンサート会場、撮像スタジオなどであってもよい。 The multiple cameras capture images of the imaging area from multiple directions. The imaging area is, for example, an area surrounded by the field of a stadium at an arbitrary height. The imaging area may correspond to the three-dimensional space in which the three-dimensional shape of the subject described above is estimated. The three-dimensional space may be the entire imaging region or a part thereof. Furthermore, the imaging area may be a concert venue, an imaging studio, or the like.
複数のカメラは、撮像領域を取り囲むように夫々異なる位置・異なる方向(姿勢)に設置され、同期して撮像を行う。尚、複数のカメラは撮像領域の全周にわたって設置されなくてもよく、設置場所の制限等によっては撮像領域の一部の方向にのみ設置されていても良い。カメラの数は限定されず、例えば撮像領域をラグビーの競技場とする場合、競技場の周囲に数十~数百台程度のカメラが設置されても良い。 The plurality of cameras are installed at different positions and different directions (attitudes) so as to surround the imaging area, and perform imaging in synchronization. Note that the plurality of cameras do not have to be installed all around the imaging area, and may be installed only in a part of the imaging area depending on restrictions on the installation location. The number of cameras is not limited; for example, if the imaging area is a rugby stadium, tens to hundreds of cameras may be installed around the stadium.
又、複数のカメラは、望遠カメラと広角カメラなど画角が異なるカメラが含まれていれも良い。例えば、望遠カメラを用いて選手を高解像度に撮像することで、生成される仮想視点画像の解像度を向上できる。又、球技の場合にはボールの移動範囲が広いので、広角カメラを用いて撮像することで、カメラ台数を減らすことができる。又、広角カメラと望遠カメラの撮像領域を組み合わせて撮像することで設置位置の自由度が向上する。尚、カメラは共通の時刻で同期され、撮像した画像にはフレーム毎の画像に撮像時刻情報が付与される。 Furthermore, the plurality of cameras may include cameras with different angles of view, such as a telephoto camera and a wide-angle camera. For example, by capturing an image of a player at high resolution using a telephoto camera, the resolution of the generated virtual viewpoint image can be improved. Furthermore, in the case of a ball game, the movement range of the ball is wide, so by capturing images using a wide-angle camera, the number of cameras can be reduced. Further, by capturing images by combining the imaging areas of the wide-angle camera and the telephoto camera, the degree of freedom in the installation position is improved. Note that the cameras are synchronized at a common time, and imaging time information is added to each frame of the captured image.
仮想視点画像は、自由視点画像とも呼ばれ、オペレータが自由に(任意に)指定した視点に対応する画像をモニタできるものであるが、例えば、限定された複数の視点候補からオペレータが選択した視点に対応する画像をモニタするもの仮想視点画像に含まれる。又、仮想視点の指定は、オペレータ操作により行われても良いし、画像解析の結果等に基づいてAIで自動で行われても良い。又、仮想視点画像は映像であっても静止画であっても良い。 A virtual viewpoint image, also called a free viewpoint image, allows an operator to monitor an image corresponding to a freely (arbitrarily) specified viewpoint. Included in the virtual viewpoint image is the one that monitors the image corresponding to the virtual viewpoint image. Further, the virtual viewpoint may be specified by an operator operation, or may be automatically specified by AI based on the results of image analysis. Further, the virtual viewpoint image may be a video or a still image.
仮想視点画像の生成に用いられる仮想視点情報は、仮想視点の位置及び向き(姿勢)更には画角(焦点距離)等を含む情報である。具体的には、仮想視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点からの向き(視線方向)を表すパラメータ、焦点距離情報等を含む。但し、仮想視点情報の内容は上記に限定されない。 The virtual viewpoint information used to generate the virtual viewpoint image is information including the position and direction (posture) of the virtual viewpoint, as well as the angle of view (focal length). Specifically, the virtual viewpoint information includes a parameter representing the three-dimensional position of the virtual viewpoint, a parameter representing the direction (line-of-sight direction) from the virtual viewpoint in pan, tilt, and roll directions, focal length information, and the like. However, the content of the virtual viewpoint information is not limited to the above.
又、仮想視点情報は複数フレーム毎のパラメータを有していても良い。つまり、仮想視点情報が、仮想視点画像の映像を構成する複数のフレームに夫々対応するパラメータを有し、連続する複数の時点夫々における仮想視点の位置及び向きを示す情報であっても良い。 Further, the virtual viewpoint information may include parameters for each of a plurality of frames. That is, the virtual viewpoint information may have parameters corresponding to each of a plurality of frames constituting the video of the virtual viewpoint image, and may be information indicating the position and orientation of the virtual viewpoint at each of a plurality of consecutive points in time.
仮想視点画像は、例えば、以下のような方法で生成される。先ず、カメラにより異なる方向から撮像することで複数カメラの画像が取得される。次に、複数カメラ画像から、人物やボールなどの被写体に対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。前景画像、背景画像は、テクスチャ情報(色情報など)を有している。 The virtual viewpoint image is generated, for example, by the following method. First, images from multiple cameras are acquired by capturing images from different directions using cameras. Next, a foreground image in which a foreground region corresponding to a subject such as a person or a ball is extracted, and a background image in which a background region other than the foreground region is extracted are obtained from the multiple camera images. The foreground image and the background image have texture information (color information, etc.).
そして、被写体の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成される。又、競技場などの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、仮想視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。 Then, a foreground model representing the three-dimensional shape of the subject and texture data for coloring the foreground model are generated based on the foreground image. Furthermore, texture data for coloring a background model representing the three-dimensional shape of a background such as a stadium is generated based on the background image. Then, a virtual viewpoint image is generated by mapping texture data to the foreground model and background model and performing rendering according to the virtual viewpoint indicated by the virtual viewpoint information.
但し、仮想視点画像の生成方法はこれに限定されず、前景や背景モデルを用いずに撮像画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。 However, the method for generating a virtual viewpoint image is not limited to this, and various methods can be used, such as a method of generating a virtual viewpoint image by projective transformation of a captured image without using a foreground or background model.
前景画像とは、カメラにより撮像されて取得された撮像画像から、被写体の領域(前景領域)を抽出した画像である。前景領域として抽出される被写体とは、時系列で同じ方向から撮像を行った場合において動きのある(その絶対位置や形が変化し得る)動的被写体(動体)などを指す。被写体は、例えば、競技において、それが行われるフィールド内にいる選手や審判などの人物、球技であれば人物に加え、ボールなども含む。又、コンサートやエンターテインメントにおいては、歌手、演奏者、パフォーマー、司会者などが前景の被写体である。 The foreground image is an image in which a subject area (foreground area) is extracted from a captured image captured and acquired by a camera. The subject extracted as a foreground region refers to a dynamic subject (moving object) that moves (its absolute position and shape may change) when images are captured from the same direction in time series. The subject includes, for example, people such as players and referees on the field in a competition, and a ball in addition to people in the case of a ball game. Furthermore, in concerts and entertainment, singers, performers, performers, presenters, and the like are subjects in the foreground.
背景画像とは、少なくとも前景となる被写体とは異なる領域(背景領域)の画像である。具体的には、背景画像は、撮像画像から前景となる被写体を取り除いた状態の画像である。又、背景は、時系列で同じ方向から撮像を行った場合において静止、又は静止に近い状態が継続している撮像対象物を指す。 The background image is an image of an area (background area) that is different from at least the subject that is the foreground. Specifically, the background image is an image obtained by removing the foreground subject from the captured image. Furthermore, the background refers to an object to be imaged that remains stationary or nearly stationary when images are taken from the same direction over time.
このような撮像対象物は、例えば、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などである。但し、背景は少なくとも前景となる被写体とは異なる領域である。尚、撮像対象としては、被写体と背景の他に、別の物体等が含まれていても良い。 Such imaging targets include, for example, stages for concerts, stadiums for events such as competitions, structures such as goals used in ball games, fields, and the like. However, the background is at least a different area from the subject that is the foreground. Note that the imaging target may include other objects in addition to the subject and the background.
図1は、本実施形態の画像処理システム100を示す図である。尚、図1に示される機能ブロックの一部は、画像処理システム100に含まれるコンピュータに、記憶媒体としてのメモリに記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。
FIG. 1 is a diagram showing an
又、画像処理システム100の夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成されていても良い。画像処理システム100は、複数のカメラに接続されている。又、画像処理システム100は、形状推定部2、画像生成部3、コンテンツ生成部4、保存部5、表示部115、操作部116等を有する。形状推定部2は、複数のカメラ1と、画像生成部3に接続され、表示部115は画像生成部3に接続されている。なお、それぞれの機能ブロックは、別々の装置に実装されていてもいいし、そのうちの全部あるいはいくつかの機能ブロックが同じ装置に実装されていてもよい。
Furthermore, the respective functional blocks of the
複数のカメラ1は、コンサート等のステージ、競技などのイベントを行うスタジアム、球技で使用するゴールなどの構造物、フィールド、などの周囲の異なる位置に配置され、夫々異なる視点から撮像を行う。又、各カメラは、そのカメラを識別するための識別番号(カメラ番号)を持つ。カメラ1は、撮像した画像から前景画像を抽出する機能など、他の機能やその機能を実現するハードウェア(回路や装置など)も含んでも良い。カメラ番号は、カメラ1の設置位置に基づいて設定されていても良いし、それ以外の基準で設定されても良い。
The plurality of
画像処理システム100はカメラ1が設けられている会場内に配置されていても良いし、会場外の例えば放送局などに配置されていても良い。画像処理システム100はカメラ1とネットワークを介して接続されている。
The
形状推定部2は、複数のカメラ1からの画像を取得する。そして、形状推定部2は、複数のカメラ1から取得した画像に基づいて、被写体の3次元形状を推定する。具体的には、形状推定部2は、公知の表現方法で表される3次元形状データを生成する。3次元形状データは、点で構成される点群データや、ポリゴンで構成されるメッシュデータや、ボクセルで構成されるボクセルデータであってもよい。
The
画像生成部3は、形状推定部2から被写体の3次元形状データの位置や姿勢を示す情報を取得し、仮想視点から被写体の3次元形状を見た場合に表現される被写体の二次元形状を含む仮想視点画像を生成ことができる。又、画像生成部3は、仮想視点画像を生成するために、仮想視点情報(仮想視点の位置と仮想視点からの視線方向等)の指定をオペレータから受け付け、その仮想視点情報に基づいて仮想視点画像を生成することもできる。ここで、画像生成部3は、複数のカメラから得られた複数の画像に基づいて仮想視点画像を生成する仮想視点画像生成手段として機能している。
The image generation unit 3 acquires information indicating the position and orientation of the three-dimensional shape data of the subject from the
仮想視点画像は、コンテンツ生成部4に送られ、コンテンツ生成部4では、後述のように例えば立体形状のデジタルコンテンツが生成される。又、コンテンツ生成部4で生成された、仮想視点画像を含むデジタルンテンツは表示部115へ出力される。
The virtual viewpoint image is sent to the content generation unit 4, and the content generation unit 4 generates, for example, three-dimensional digital content as described later. Further, the digital content generated by the content generation unit 4 and including the virtual viewpoint image is output to the
尚、コンテンツ生成部4は複数のカメラからの画像を直接受け取り、カメラ毎の画像を表示部115に供給することもできる。又、操作部116からの指示に基づき、カメラ毎の画像と仮想視点画像を仮想的な立体画像のどの面に表示するかを切り替えることもできる。
Note that the content generation section 4 can also directly receive images from a plurality of cameras and supply images from each camera to the
表示部115は例えば液晶ディスプレイやLED等で構成され、コンテンツ生成部4から、仮想視点画像を含むデジタルンテンツを取得し表示する。又、オペレータが夫々のカメラ1を操作するためのGUI(Graphical User Interface)などを表示する。
The
又、操作部116は、ジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウスなどから構成され、カメラ1などの操作をオペレータが行うために用いられる。又、操作部116は、コンテンツ生成部4で生成されるデジタルンテンツ(立体画像)の表面に表示される画像をオペレータが選択するために使われる。更に、画像生成部3における、仮想視点画像を生成するための仮想視点の位置や姿勢の指定等をすることができる。
Further, the
尚、オペレータの操作指示によって仮想視点の位置や姿勢を画面上で直接的に指定しても良い。或いは、オペレータの操作指示によって所定の被写体を画面上で指定した場合に、その所定の被写体を画像認識して追尾し、その被写体からの仮想視点情報や、その被写体を中心とした円弧状の周囲の位置からの仮想視点情報を自動的に指定するようにしても良い。 Note that the position and orientation of the virtual viewpoint may be directly specified on the screen by an operator's operation instruction. Alternatively, when a predetermined subject is specified on the screen by an operator's operation instructions, the predetermined subject is image recognized and tracked, and virtual viewpoint information from the subject and an arc-shaped surrounding area centered on the subject are displayed. The virtual viewpoint information from the position may be automatically specified.
更には、オペレータの操作指示によって予め指定した条件を満たす被写体を画像認識し、その被写体からの仮想視点情報や、その被写体を中心として円弧状の周囲の位置からの仮想視点情報を自動的に指定するようにしても良い。その場合の指定した条件とは例えば、特定のアスリート名や、シュートをした人、ファインプレーをした人、ボールの位置、などの条件を含む。 Furthermore, the system automatically recognizes objects that meet pre-specified conditions based on operator instructions, and automatically specifies virtual viewpoint information from that object and virtual viewpoint information from positions in an arc around the object. You may also do this. In this case, the specified conditions include, for example, the name of a specific athlete, the person who made the shot, the person who made a fine play, the position of the ball, and the like.
保存部5はコンテンツ生成部4で生成されたデジタルコンテンツや、仮想視点画像や、カメラ画像等を保存するためのメモリを含む。又、保存部5は着脱可能な記録媒体を有していても良い。着脱可能な記録媒体には、例えば他の会場や他のスポーツシーンにおいて撮像された複数のカメラ画像や、それらを用いて生成された仮想視点画像や、それらを組み合わせて生成されたデジタルコンテンツなどが記録されていても良い。
The
又、保存部5は、外部サーバなどからネットワークを介してダウンロードした複数のカメラ画像や、それらを用いて生成された仮想視点画像や、それらを組み合わせて生成されたデジタルンテンツなどを保存できるようにしても良い。また、それらのカメラ画像や、仮想視点画像や、デジタルンテンツなどは第3者が作成したものであっても良い。
Furthermore, the
図2は、実施形態1に係る画像処理システム100のハードウェア構成を示す図であり、図2を用いて画像処理システム100のハードウェア構成について説明する。
FIG. 2 is a diagram showing the hardware configuration of the
画像処理システム100は、CPU111、ROM112、RAM113、補助記憶装置114、表示部115、操作部116、通信I/F117、及びバス118等を有する。CPU111は、ROM112やRAM113や補助記憶装置114等に記憶されているコンピュータプログラム等を用いて画像処理システム100の全体を制御することで、図1に示す画像処理システムの各機能ブロックを実現する。
The
RAM113は、補助記憶装置114から供給されるコンピュータプログラムやデータ、及び通信I/F117を介して外部から供給されるデータなどを一時記憶する。補助記憶装置114は、例えばハードディスクドライブ等で構成され、画像データや音声データやコンテンツ生成部4からの仮想視点画像を含むデジタルンテンツなどの種々のデータを記憶する。
The
表示部115は、前述のように、仮想視点画像を含むデジタルコンテンツや、GUI等を表示する。操作部116は、前述のように、オペレータによる操作入力を受けて各種の指示をCPU111に入力する。CPU111は、表示部115を制御する表示制御部、及び操作部116を制御する操作制御部として動作する。
As described above, the
通信I/F117は、画像処理システム100の外部の装置(例えば、カメラ1や外部サーバ等)との通信に用いられる。例えば、画像処理システム100が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F117に接続される。画像処理システム100が外部の装置と無線通信する機能を有する場合には、通信I/F117はアンテナを備える。バス118は、画像処理システム100の各部をつないで情報を伝達する。
The communication I/
尚、本実施形態では表示部115や操作部116が、画像処理システム100の内部に含まれている例を示しているが、表示部115と操作部116との少なくとも一方が画像処理システム100の外部に別体の装置として存在していても良い。尚、画像処理システム100は、例えばPC端末のような形態であっても良い。
Note that although the present embodiment shows an example in which the
図3は、実施形態1の画像処理システム100の動作フローを説明するためのフローチャートである。又、図4(A)~(C)は実施形態1でコンテンツ生成部4が生成する立体形状のデジタルコンテンツの例を示す図である。
FIG. 3 is a flowchart for explaining the operation flow of the
尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図3のフローチャートの各ステップの動作が行われる。
Note that each step in the flowchart of FIG. 3 is performed by the
尚、本実施形態では、画像処理システム100は放送局等に設置され、図4(A)に示すような立方形状のデジタルコンテンツ200を製作し放送してもよいし、或いはインターネットを介して提供してもよい。その際に、デジタルコンテンツ200にNFTを付与可能としている。
In this embodiment, the
即ち、資産価値を向上させるために、例えば配布するコンテンツの数量を制限してシリアル番号で管理するなどして稀少性を持たせることができるようにしている。尚、NFTはノンファンジブルトークン(Non-fungible Token)の略であり、ブロックチェーン上に発行・流通するためのトークンである。NFTのフォーマットの一例としては、ERC―721やERC―1155と呼ばれるトークン規格がある。トークンは通常、オペレータが管理するウォレットに関連付けて保管される。 That is, in order to improve asset value, for example, the quantity of content to be distributed is limited and managed by serial numbers, thereby making the content rare. Note that NFT is an abbreviation for Non-fungible Token, and is a token to be issued and distributed on a blockchain. Examples of NFT formats include token standards called ERC-721 and ERC-1155. Tokens are typically stored in association with a wallet controlled by an operator.
ステップS31において、CPU111は、メインカメラ画像(第1の画像)を例えば図4(A)のような立体形状のデジタルコンテンツ200第1面201と対応付ける。なお、オペレータによる確認のために、第1面201と対応付けられたメインカメラ画像を表示してもよい。さらに、図4(A)で示すように、デジタルコンテンツを仮想的に見た視点からの視線方向(具体的には、図4(A)の紙面に垂直な方向))と第1面201の法線方向とが平行でない場合には、以下の表示を行ってもよい。つまり、第1面201に表示されるメインカメラ画像は、デジタルコンテンツの表示面に対する第1面201の法線方向の角度に応じて、射影変換されて生成されてもよい。ここで、メインカメラ画像(メイン画像、第1の画像)とは、スポーツ会場に設置された複数のカメラから得られた複数の画像の内の、TV放送等のために選択される画像である。なお、メイン画像は所定の被写体を画角内に含む画像である。また、メインカメラ画像は、スポーツ会場に設置されたカメラによって撮像されたものでなくてもよい。例えば、カメラマンの持ち込む手持ちのカメラによって撮像された画像であってもよい。あるいは会場内の観客が持ち込むカメラやカメラを搭載するスマホ等の電子機器で撮像された画像であってもよい。また、メインカメラ画像は、仮想視点画像の生成に用いられる複数のカメラのうちの一つでもよいし、その複数のカメラに含まれないカメラであってもよい。
In step S31, the
どのカメラの画像をメイン画像として放送或いはネットで配信するかは放送局等のオペレータが操作部116を用いて逐次選択する。例えばゴールの瞬間を放映、配信する場合にはゴール近傍のカメラからの画像をメイン画像として放送する場合が多い。
An operator of a broadcasting station or the like uses the
尚、本実施形態においては図4(A)~(C)に示すように、向かって左側に見える面を第1面とし、右側に見える面を第2面とし、上側に見える面を第3面としている。しかし、これに限定されない。どの面を第1面~第3面とするかは予め任意に設定できるものとする。 In this embodiment, as shown in FIGS. 4A to 4C, the surface visible on the left side is the first surface, the surface visible on the right side is the second surface, and the surface visible on the upper side is the third surface. It is a face. However, it is not limited to this. It is assumed that which surfaces are to be designated as the first to third surfaces can be arbitrarily set in advance.
ステップS32で、コンテンツ生成部4は、デジタルコンテンツ200の第3面203に付随データとして例えばゴールにシュートした選手の名前や所属チーム名やゴールした試合における最終試合結果などのデータを対応付ける。なお、オペレータによる確認のために、第3面203に対応付けられた付随データを表示してもよい。NFTを付与する場合には、その発行数など希少性を表すデータを付随データとして第3面203に表示しても良い。発行数は、画像生成システムを使ってデジタルコンテンツを生成するオペレータが決定してもよいし、画像生成システムが自動的に決定してもよい。
In step S32, the content generation unit 4 associates the
ステップS33において、画像生成部3は、メインカメラ画像を撮像するカメラの視点の向きに対して所定角度(例えば90度)だけ視点の向きが異なり、例えばゴールやシューターが含まれる画像を複数のカメラ1からの画像の中から取得する。その際、複数のカメラの配置位置や姿勢等は予めわかっているので、メインカメラ画像に対して上記のように所定角度視点の向きの異なる画像がどのカメラから取得できるかはCPU111が判断可能である。なお、以下で画像の視点という表現を用いる場合があるが、それは画像を撮像するカメラの視点あるいは、画像を生成するために指定された仮想視点のことである。
In step S33, the image generation unit 3 generates an image that is different from the viewpoint direction of the camera that captures the main camera image by a predetermined angle (for example, 90 degrees) and that includes, for example, a goal or a shooter, from a plurality of cameras. Obtain from among the images from 1. At this time, since the placement positions and postures of the multiple cameras are known in advance, the
或いは、ステップS33において、画像生成部3において所定の(上記のように例えば90度視点の向きが異なる)仮想視点であって、画像認識された被写体を含む仮想視点からの仮想視点画像を取得しても良い。その場合、画像生成部3に対して上記の所定の(上記のように90度視点の向きつまり姿勢の異なる)仮想視点を指定し、仮想視点画像を生成させることで取得しても良い。 Alternatively, in step S33, the image generation unit 3 acquires a virtual viewpoint image from a predetermined virtual viewpoint (for example, the orientation of the viewpoint is different by 90 degrees as described above) and includes the image-recognized subject. It's okay. In that case, the virtual viewpoint may be acquired by specifying the above-mentioned predetermined virtual viewpoint (with a different 90-degree viewpoint direction, ie, posture, as described above) to the image generation unit 3, and causing the image generation unit to generate a virtual viewpoint image.
或いは、予め画像生成部3で予め複数の視点の仮想視点画像を生成しておき、その中から該当するものを選択することで取得しても良い。尚、本実施形態ではメインカメラ画像に対して所定角度だけ視点の異なる画像を例えば90度視点の異なる画像としているが、この角度は予め設定できるものとする。 Alternatively, virtual viewpoint images of a plurality of viewpoints may be generated in advance by the image generation unit 3, and a corresponding one may be selected from among the virtual viewpoint images to obtain the virtual viewpoint images. Note that in this embodiment, an image whose viewpoint differs from the main camera image by a predetermined angle is, for example, an image whose viewpoint differs by 90 degrees, but this angle can be set in advance.
又、仮想視点画像は、メインカメラ画像に含まれる被写体の向き(例えば、人物であれば顔や体の向き)に基づいて特定される仮想視点に対応する画像であってもよい。なお、メインカメラ画像に含まれる被写体が複数の場合には、そのうちの一つの被写体に対して、仮想視点を設定してもよいし、複数の被写体に対して仮想視点を設定してもよい。 Further, the virtual viewpoint image may be an image corresponding to a virtual viewpoint specified based on the orientation of the subject included in the main camera image (for example, the orientation of the face or body in the case of a person). Note that when there are multiple subjects included in the main camera image, a virtual viewpoint may be set for one of the subjects, or a virtual viewpoint may be set for a plurality of subjects.
尚、上記ではメイン画像に対して所定の角度の視点を選択する例について説明した。しかし、例えば被写体視点、被写体の後方からの視点、被写体を中心とした円弧上の位置の中の仮想視点の何れか一つなどから所定の1つの視点からの仮想視点画像を選択して取得するようにしても良い。 Note that the example in which a viewpoint at a predetermined angle is selected with respect to the main image has been described above. However, for example, a virtual viewpoint image from one predetermined viewpoint is selected and acquired from one of the subject's viewpoint, a viewpoint from behind the subject, and a virtual viewpoint located on an arc centered on the subject. You can do it like this.
被写体視点とは、被写体の位置を仮想視点の位置として、被写体の向きを仮想視点からの視線方向とする仮想視点である。例えば、人物を被写体とする場合、被写体視点は、人物の顔の位置を仮想視点の位置とし、人物の顔の向きを仮想視点からの視線方向とした視点である。あるいは、その人物の視線方向を仮想視点からの視線方向としてもよい。 The subject viewpoint is a virtual viewpoint in which the position of the subject is the position of the virtual viewpoint, and the orientation of the subject is the line of sight direction from the virtual viewpoint. For example, when the subject is a person, the subject viewpoint is a viewpoint in which the position of the person's face is the position of the virtual viewpoint, and the direction of the person's face is the line of sight from the virtual viewpoint. Alternatively, the line-of-sight direction of the person may be set as the line-of-sight direction from the virtual viewpoint.
被写体の後方からの視点とは、被写体の後方に所定の距離離れた位置を仮想視点の位置として、その位置から被写体の位置に向かう方向を仮想視点からの視線方向とする仮想視点である。または、仮想視点からの視線方向としては、被写体の向きに応じて決定されてもよい。例えば、人物を被写体とする場合、被写体の後方からの視点とは、人物の背中から一定距離後方かつ一定距離高いた位置を仮想視点の位置とし、人物の顔の向きを仮想視点から視線方向とした仮想視点である。 A viewpoint from behind the subject is a virtual viewpoint in which a position a predetermined distance behind the subject is the position of the virtual viewpoint, and a line of sight from the virtual viewpoint is a direction from that position toward the position of the subject. Alternatively, the line of sight direction from the virtual viewpoint may be determined according to the orientation of the subject. For example, when the subject is a person, the viewpoint from behind the subject is a virtual viewpoint that is a certain distance behind and a certain distance above the person's back, and the direction of the person's face is the line of sight from the virtual viewpoint. This is a virtual perspective.
被写体を中心とした円弧上の位置の中の仮想視点とは、被写体の位置を中心とした所定の半径で規定される球面上の位置を仮想視点の位置として、その位置から被写体の位置に向かう方向を仮想視点からの視線方向とする仮想視点である。 A virtual viewpoint within a position on an arc centered on the subject is a position on a spherical surface defined by a predetermined radius centered on the subject's position as the virtual viewpoint position, and the direction is directed from that position to the subject's position. This is a virtual viewpoint where the direction is the line of sight direction from the virtual viewpoint.
例えば、人物を被写体とする場合、人物の位置を中心とした所定の半径で規定される球面上の位置を仮想視点の位置とし、その位置から被写体の位置に向かう方向を仮想視点からの視線方向とする仮想視点である。 For example, when the subject is a person, the position on a spherical surface defined by a predetermined radius centered on the person's position is the position of the virtual viewpoint, and the direction from that position to the position of the subject is the line of sight from the virtual viewpoint. This is a virtual perspective.
ステップS33は、このように、第1の画像と所定の関係を有する視点の仮想視点画像を取得して第2の画像とする、仮想視点画像生成ステップとして機能している。尚、ここで、第1の画像と所定の関係を有する視点の仮想視点画像は、第1の画像の視点と同じ時刻(撮像タイミング)の仮想視点画像とする。又、本実施形態では、第1の画像と所定の関係を有する前記視点は、上記のように第1の画像の視点と所定の角度関係又は所定の位置関係にある視点とする。 Step S33 thus functions as a virtual viewpoint image generation step that acquires a virtual viewpoint image of a viewpoint that has a predetermined relationship with the first image and uses it as a second image. Here, it is assumed that the virtual viewpoint image of a viewpoint that has a predetermined relationship with the first image is a virtual viewpoint image at the same time (imaging timing) as the viewpoint of the first image. Further, in this embodiment, the viewpoint having a predetermined relationship with the first image is a viewpoint having a predetermined angular relationship or a predetermined positional relationship with the viewpoint of the first image, as described above.
そしてステップS34において、CPU111は、その第2の画像をデジタルコンテンツ200の第2面202に対応付ける。なお、オペレータの確認のために、第2の画像は表示されてもよい。尚、この時、第1面201に対応付けられるメイン画像と、第2面202に対応付けられる第2画像は、前述のように同じ時刻(タイムコード)に撮像された画像となるように同期制御されるものとする。このようにステップS31~S34は、第1の画像を立体形状のデジタルコンテンツの後述の第1面に対応付け、第1の画像と所定の関係を有する仮想視点の仮想視点画像を、第2面202に対応付けている。又、ステップS31~S34は、コンテンツ生成ステップ(コンテンツ生成手段)として機能している。
Then, in step S34, the
次にステップS35において、CPU111は、操作部116を介して上記の第2面202に表示される第2の画像の視点を変更する操作がなされたか判別する。即ち、オペレータは時々刻々変化するスポーツシーンを見ながら第2面に表示すべき第2画像の視点を例えば複数のカメラ1の中から所望の視点のカメラ画像を選択することで変更する場合がある。
Next, in step S35, the
或いは、仮想視点の中から所望の視点を画像生成部3に対して指定することによってその視点からの仮想視点画像を取得する場合がある。ステップS35では、そのような視点変更操作がなされた場合には、Yesとなり、ステップS36に進む。 Alternatively, by specifying a desired viewpoint among the virtual viewpoints to the image generation unit 3, a virtual viewpoint image from that viewpoint may be obtained. In step S35, if such a viewpoint changing operation has been performed, the answer is Yes, and the process proceeds to step S36.
ステップS36において、CPU111は、視点が変更された後の視点画像を複数のカメラ1の中から選択するか、或いは視点が変更された後の仮想視点画像を画像生成部3から取得する。仮想視点画像の取得は、予め生成された仮想視点画像を取得してもよいし、変更された視点に基づいて新たに仮想視点画像を生成することで取得されてもよい。そしてその取得された画像を第2画像とし、ステップS34に遷移し第2面に対応付ける。この状態において、表示部115には、デジタルコンテンツ200の第1~第3面に夫々、第1の画像、第2の画像、付随データが対応付けられるここで、オペレータは、デジタルコンテンツ200の第1~第3面に夫々、第1の画像、第2の画像、付随データが対応付けられた状態を、表示により確認してもよい。尚、その場合に、どの面が第1~第3の面かが分かるように面の番号も表示しても良い。
In step S36, the
ステップS35で視点変更がない場合にはステップS37に進み、CPU111は、デジタルコンテンツ200にNFTを付与するか否か判別する。そのために例えば表示部115にデジタルコンテンツ200にNFTを付与するか否かを問う表示画像(GUI)を表示する。そして、オペレータがNFTを付与すると選択した場合には、それを判別してステップS38に進み、デジタルコンテンツ200にNFTを付与して、暗号化してからステップS39に進む。
If there is no viewpoint change in step S35, the process proceeds to step S37, and the
ステップS37でNoと判別された場合には、そのままステップS39に進む。 If the determination in step S37 is No, the process directly advances to step S39.
尚、ステップS37におけるデジタルコンテンツ200は、図4(B)、(C)のような形状の立体画像であっても良い。又、多面体の場合に、図4(A)のような6面体に限定されず例えば8面体などであっても良い。
Note that the
ステップS39において、CPU111は、図3のデジタルコンテンツ200を生成するためのフローを終了するか否か判別する。そして、オペレータが操作部116を操作して終了にしていなければ、ステップS31に戻って上記の処理を繰り替えし、終了であれば図3のフローを終了する。尚、オペレータが操作部116を操作して終了にしていなくても、操作部116の最後の操作から所定期間(例えば30分)経過したら自動的に終了しても良い。
In step S39, the
尚、図4(B)、(C)はデジタルコンテンツ200の変形例を示した図であり、図4(B)は図4(A)のデジタルコンテンツ200を球としたものである。球200の例えば正面から見て左側の球面である第1面201に第1画像を表示し、右側の球面である第2面202に第2画像を表示する。又、上側の球面である第3面203に上記のような付随データを表示する。
Note that FIGS. 4(B) and 4(C) are diagrams showing modified examples of the
図4(C)は図4(A)のデジタルコンテンツ200の各平面を所望の曲率の曲面にした例を示す図である。このように、本実施形態におけるデジタルコンテンツの表示は図4(B)、(C)のような球体や、表面が球面の立方体などを使って画像を表示するものであっても良い。
FIG. 4C is a diagram showing an example in which each plane of the
(実施形態2)
次に実施形態2について図5を用いて説明する。
(Embodiment 2)
Next,
図5は、実施形態2の画像処理システム100の動作フローを説明するためのフローチャートである。尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図5のフローチャートの各ステップの動作が行われる。
FIG. 5 is a flowchart for explaining the operation flow of the
尚、図5において図3と同じ符号のステップは同じ処理であり説明を省略する。 Note that in FIG. 5, steps with the same reference numerals as in FIG. 3 are the same processes, and a description thereof will be omitted.
図5のステップS51において、CPU111は、オペレータにより指定された視点のカメラ画像又はオペレータにより指定された仮想視点からの仮想視点画像を画像生成部3から取得する。そして、取得された画像を第2の画像とする。それ以外は図3のフローと同じである。
In step S51 in FIG. 5, the
実施形態1では、メイン画像(第1の画像)に対して所定の関係を有する(所定角度異なる)第2画像を取得するようにしていた。しかし、実施形態2では、オペレータが所望のカメラを選択するか、所望の被写体について所望の視点の仮想視点画像を取得して第2画像としている。 In the first embodiment, a second image having a predetermined relationship (different by a predetermined angle) from the main image (first image) is acquired. However, in the second embodiment, the operator selects a desired camera or obtains a virtual viewpoint image of a desired viewpoint of a desired subject as the second image.
尚、ステップS51でオペレータにより選択されるカメラ画像又は仮想視点画像は、例えばスポーツ会場に対して斜め上方の俯瞰的な視点の画像或いは斜め下方からの視点の画像などを含む。このように、実施形態2においては、第2面に表示される仮想視点画像をオペレータが選択可能である。 Note that the camera image or virtual viewpoint image selected by the operator in step S51 includes, for example, an image from a bird's-eye view diagonally above the sports venue, or an image from a viewpoint diagonally from below. In this way, in the second embodiment, the operator can select the virtual viewpoint image displayed on the second surface.
又、ステップS51でオペレータにより選択される仮想視点画像は、例えばズームアウトしたような被写体から離れた位置からの視点の仮想視点画像であっても良い。 Further, the virtual viewpoint image selected by the operator in step S51 may be a virtual viewpoint image taken from a position distant from the subject, such as a zoomed-out virtual viewpoint image.
又、過去に生成したカメラ画像や、それに基づき生成した仮想視点画像などを保存部5に保存しておき、それを読出して、第1画像や第2画像や付随データとして夫々第1面~第3面に表示させるようにしても良い。
In addition, camera images generated in the past, virtual viewpoint images generated based on them, etc. are stored in the
尚、ステップS38とステップS39の間に、CPU111により、例えば操作部116の最後の操作から所定期間(例えば30分)経過したら自動的にデフォルトの立体画像表示に切り替えるステップを挿入しても良い。デフォルトの立体画像表示は、例えば第1面にメイン画像、第3面には例えば付随データを表示し、第2面には過去の統計で最も頻度の高い視点などからのカメラ画像や仮想視点画像を表示すれば良い。
Note that a step may be inserted between step S38 and step S39 in which the
(実施形態3)
図6~図8を用いて実施形態3について説明する。図6は実施形態3の画像処理システム100の動作フローを説明するためのフローチャートであり、図7は図6の続きのフローチャート、図8は、図6と図7の続きのフローチャートである。尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図6~図8のフローチャートの各ステップの動作が行われる。
(Embodiment 3)
Embodiment 3 will be described using FIGS. 6 to 8. FIG. 6 is a flowchart for explaining the operation flow of the
実施形態3では、オペレータが仮想視点数を1~3の中から選択すると、それに応じてデジタルコンテンツ200の第1~第3面の表示を自動的に切り替える。
In the third embodiment, when the operator selects the number of virtual viewpoints from 1 to 3, the display of the first to third surfaces of the
ステップS61において、オペレータが仮想視点の数を1~3の中から選択し、それをCPU111は受け付ける。ステップS62において、CPU111は、選択された数の仮想視点画像を画像生成部3から取得する。
In step S61, the operator selects the number of virtual viewpoints from 1 to 3, and the
このとき、自動的に代表的な仮想視点を選択する。即ち、シーンを解析し、そのシーンに対して例えば過去の統計から最も使用頻度の高い仮想視点を第1の仮想視点とし、次に使用頻度の高い仮想視点を第2の仮想視点とし、その次に使用頻度の高い仮想視点を第3の仮想視点とする。尚、第2の仮想視点は第1の仮想視点に対して例えば+90°、第3の仮想視点は第1の仮想視点に対して例えば-90°角度が異なるように予め設定しても良い。ここで+90°、-90°は例であって、これらの角度に限定されない。 At this time, a representative virtual viewpoint is automatically selected. That is, a scene is analyzed, and for that scene, for example, based on past statistics, the most frequently used virtual viewpoint is set as the first virtual viewpoint, the next most frequently used virtual viewpoint is set as the second virtual viewpoint, and the next virtual viewpoint is set as the second virtual viewpoint. A virtual viewpoint that is frequently used is set as a third virtual viewpoint. Note that the second virtual viewpoint may be set in advance to be different from the first virtual viewpoint by, for example, +90°, and the third virtual viewpoint may be set to be different from the first virtual viewpoint by, for example, −90°. Here, +90° and -90° are examples, and the angles are not limited to these.
ステップS63において、CPU111は、選択された仮想視点の数が1か否か判別し、1であれば、ステップS64に進む。ステップS64において、CPU111は、複数のカメラ1の中のメインカメラからメイン画像を取得してデジタルコンテンツ200の第1面201に対応付ける。
In step S63, the
そしてステップS65で、CPU111は、付随データをデジタルコンテンツ200の第3面203に対応付ける。付随データは、実施形態1の図3のステップS32で表示する付随データと同様の、例えばゴールにシュートした選手の名前などであれば良い。
Then, in step S65, the
ステップS66において、CPU111は、デジタルコンテンツ200の第2面に前述の第1の仮想視点からの第1の仮想視点画像を対応付け、その後、図8のステップS81に進む。
In step S66, the
ステップS63でNoと判別された場合には、ステップS67において、CPU111は、選択された仮想視点の数が2か否か判別し、2であれば、ステップS68に進む。
If the determination in step S63 is No, the
ステップS68において、CPU111は、付随データをデジタルコンテンツ200の第3面203に対応付ける。付随データは、ステップS65で対応付ける付随データと同様の、例えばゴールにシュートした選手の名前などであれば良い。
In step S68, the
そして、ステップS69において、CPU111は、第1の仮想視点からの第1の仮想視点画像をデジタルコンテンツ200の第1面201に対応付ける。又、デジタルコンテンツ200の第2面202に、前述の第2の仮想視点からの第2の仮想視点画像を対応付ける。その後、図8のステップS81に進む。
Then, in step S69, the
ステップS67でNoと判別された場合には、図7のステップS71に進む。ステップS71において、CPU111は、オペレータが第3面203に付随データを対応付ける選択をしているか否か判別する。Yesの場合には、ステップS72に進み、Noの場合には、ステップS73に進む。
If the determination in step S67 is No, the process advances to step S71 in FIG. In step S71, the
ステップS72において、CPU111は、第1の仮想視点からの仮想視点画像をデジタルコンテンツ200の第1面201に対応付け、第2面202に第2の仮想視点からの仮想視点画像を対応付け、第3面に第3の仮想視点からの仮想視点画像を対応付ける。その後、図8のステップS81に進む。
In step S72, the
ステップS71でNoの場合には、ステップS73において、CPU111は、付随データをデジタルコンテンツ200の第3面203に対応付ける。付随データは、ステップS65で対応付ける付随データと同様の、例えばゴールにシュートした選手の名前などであれば良い。
If No in step S71, the
そして、ステップS74において、CPU111は、第1の仮想視点からの第1の仮想視点画像をデジタルコンテンツ200の第1面201に対応付ける。又、ステップS75において、CPU111は、デジタルコンテンツ200の第2面202に、第2の仮想視点からの第2の仮想視点画像と第3の仮想視点からの第3の仮想視点画像とを並べて表示できるように対応付ける。つまり、第2面202を第2の仮想視点画像と第3の仮想視点画像とを表示する2つの領域に分割して、領域ごとに仮想視点画像を対応付ける。その後、図8のステップS81に進む。
Then, in step S74, the
図8のステップS81において、CPU111は、デジタルコンテンツ200にNFTを付与するか否か判別する。そのために例えば表示部115にデジタルコンテンツ200にNFTを付与するか否かを問う表示画像(GUI)を表示する。そして、オペレータがNFTを付与すると選択した場合には、ステップS82に進み、デジタルコンテンツ200にNFTを付与し、暗号化してからステップS83に進む。
In step S81 of FIG. 8, the
ステップS81でNoと判別された場合には、そのままステップS83に進む。尚、ステップS81におけるデジタルコンテンツ200は、前述と同様に、図4(B)、(C)のような形状のものでもよい。
If the determination in step S81 is No, the process directly advances to step S83. Note that the
ステップS83において、CPU111は、図6~図8のフローを終了するか否か判別し、オペレータが操作部116を操作して終了にしていなければ、ステップS84に進む。
In step S83, the
ステップS84では、CPU111は、仮想視点の数が変更されていないか判別する。数が変更されていればステップS61に戻る。数が変更されていなければステップS62に戻る。ステップS83でYesと判別された場合には図6~図8のフローを終了する。
In step S84, the
尚、実施形態3では、オペレータが仮想視点数を1~3の中から選択すると、それに応じてデジタルコンテンツ200の第1~第3面に対応付ける画像を自動的に切り替える例を説明した。しかし、オペレータが複数のカメラの画像中からデジタルコンテンツ200を構成する面に対応付けるカメラ画像の数を、選択するようにしても良い。そして、それに応じて複数のカメラ1の中から所定のカメラを自動的に選択して、デジタルコンテンツ200の第1~第3面のそれらのカメラ画像を自動的に対応付けるようにしても良い。なお、視点の数は、最大3つでなくてもよい。例えば、視点の数は、デジタルコンテンツを構成する面の数あるいは、画像を対応付けることが可能な面の数を最大とする範囲で決定されてもよい。また、一つの面に複数の画像を対応付けることができれば、さらに最大の視点の数を増やすことが可能である。
In the third embodiment, an example has been described in which when the operator selects the number of virtual viewpoints from 1 to 3, the images associated with the first to third surfaces of the
又、ステップS82とステップS83の間に、CPU111が、例えば操作部116の最後の操作から所定期間(例えば30分)経過したら自動的にデフォルトの立体画像表示からなるコンテンツに切り替えるステップを挿入しても良い。デフォルトの立体画像表示は、例えば第1面にメイン画像を表示し、第2面に、過去の統計で最も使用頻度の高い視点からのカメラ画像または仮想視点画像とする。第3面は例えば付随データとする。
Further, between step S82 and step S83, a step is inserted in which the
以上のように実施形態3においては、ステップS69、ステップS72、ステップS95において、第2面に表示させる仮想視点画像とは異なる仮想視点画像を、第1面に対応付けることを可能にしている。 As described above, in the third embodiment, in steps S69, S72, and S95, it is possible to associate a virtual viewpoint image different from the virtual viewpoint image displayed on the second surface with the first surface.
(実施形態4)
次に実施形態4について図9および図10を用いて説明する。なお、本実施形態において、システム構成は実施形態1で説明した構成と同じであるため、説明を省略する。また、システムのハードウェア構成も、図2と同じであり、その説明も省略する。
(Embodiment 4)
Next, Embodiment 4 will be described using FIGS. 9 and 10. Note that in this embodiment, the system configuration is the same as the configuration described in
本実施形態は、実施形態1~3のいずれかの方法において生成された立体形状のデジタルコンテンツをユーザデバイスに表示する表示画像(GUI)である。ユーザデバイスは、例えば、PCやスマートフォン、タッチパネルを有するタブレット端末でもよい(不図示)。本実施形態では、タッチパネルを有するタブレット端末を例に説明する。このGUIは、画像処理システム100で生成され、ユーザデバイスに送信される。なお、このGUIは、必要な情報を取得したユーザデバイスによって、生成されてもよい。
This embodiment is a display image (GUI) that displays, on a user device, a three-dimensional digital content generated by any of the methods of
画像処理システムは、CPU、ROM、RAM、補助記憶装置、表示部、操作部、通信I/F、及びバス等を有する(不図示)。CPUは、ROMやRAMや補助記憶装置等に記憶されているコンピュータプログラム等を用いて画像処理システムの全体を制御する。 The image processing system includes a CPU, a ROM, a RAM, an auxiliary storage device, a display section, an operation section, a communication I/F, a bus, etc. (not shown). The CPU controls the entire image processing system using computer programs stored in the ROM, RAM, auxiliary storage, and the like.
画像処理システムは、立体形状のデジタルコンテンツから、複数の撮像装置(カメラ)により異なる方向から撮像して取得される撮像画像、指定された仮想視点に基づいた仮想視点映像、仮想視点映像に関連付けられた音情報、撮像画像および仮想視点映像に含まれる被写体に関する情報を特定する。 The image processing system processes three-dimensional digital content, images obtained by capturing images from different directions using multiple imaging devices (cameras), virtual perspective images based on a specified virtual viewpoint, and images associated with the virtual perspective images. The system identifies information regarding the subject included in the captured sound information, captured image, and virtual viewpoint video.
本実施形態では、実施形態3にて生成され、仮想視点の数を3つとし、3つの仮想視点画像が第2面に対応付けられる立体形状のデジタルコンテンツを例に説明する。3つの仮想視点画像は映像であり、以下、仮想視点映像と呼称する。本実施形態では、立体形状のデジタルコンテンツを6面体とするが、球体や8面体であってもよい。 The present embodiment will be described using, as an example, a three-dimensional digital content generated in the third embodiment, in which the number of virtual viewpoints is three, and three virtual viewpoint images are associated with the second surface. The three virtual viewpoint images are videos, and are hereinafter referred to as virtual viewpoint videos. In this embodiment, the three-dimensional digital content is a hexahedron, but it may also be a sphere or an octahedron.
仮想視点映像に関連付けられた音情報とは、画像撮像時の会場で取得される音情報である。あるいは、仮想視点に基づいて補正された音情報を用いてもよい。仮想視点に基づいて補正された音情報とは、例えば、画像撮像時に会場で取得される音情報を、仮想視点の位置で仮想視点からの視線方向を向いている際に聞こえるように調整された音情報である。なお、別途音情報を用意してもよい。 The sound information associated with the virtual viewpoint video is sound information acquired at the venue at the time of image capture. Alternatively, sound information corrected based on the virtual viewpoint may be used. Sound information corrected based on the virtual viewpoint is, for example, sound information acquired at the venue during image capture that has been adjusted so that it can be heard when facing the line of sight from the virtual viewpoint at the position of the virtual viewpoint. It is sound information. Note that sound information may be prepared separately.
図9は、ユーザデバイスに表示される本実施形態のグラフィックユーザーインターフェース(GUI)を示す図である。GUI画像には、第1領域911と第2領域912が存在する。第1領域911内に、立体形状のデジタルコンテンツに関連付けられた情報を示す画像を表示する第1表示領域901、第2表示領域902、第3表示領域903、第4表示領域904、第5表示領域905、第6表示領域906が含まれる。各表示領域には、それぞれに割り当てられた画像や情報が表示される。第2領域912内に、第1表示領域901から第6表示領域906のうちユーザにより選択された表示領域に関連付けられた情報を示す画像を表示する第7表示領域907がある。尚、第1表示領域901から第6表示領域906に関連付けられた情報を示す画像とは静止画像であってもよいし、映像であってもよい。
FIG. 9 is a diagram showing a graphic user interface (GUI) of this embodiment displayed on a user device. A
図9では、3つの仮想視点映像が対応付けられた第2表示領域902が選択された例を示している。3つの仮想視点映像に対応付けられた表示領域が選択された場合、各視点の仮想視点映像に対応するGUI908、GUI909、GUI910を第2領域内に表示する。尚、GUI908、GUI909、GUI910を第7表示領域907に重畳表示してもよい。
FIG. 9 shows an example in which the
本実施形態では、立体形状のデジタルコンテンツの各面と各表示領域を対応付けられている。すなわち、各表示領域にはデジタルコンテンツの各面に対応付けられた情報を示す画像が表示される。なお、デジタルコンテンツの形状に依らず、デジタルコンテンツに関連付けられた情報を示す画像を各表示領域に表示してもよい。 In this embodiment, each surface of the three-dimensional digital content is associated with each display area. That is, an image indicating information associated with each side of the digital content is displayed in each display area. Note that an image indicating information associated with the digital content may be displayed in each display area regardless of the shape of the digital content.
尚、デジタルコンテンツの表示面と表示領域の数が異なっていてもよい。例えば、6面体のデジタルコンテンツに対し、第1表示領域901から第4表示領域904のみをユーザデバイスに表示してもよい。第1表示領域901から第3表示領域903にはデジタルコンテンツに関連付けられた情報の一部が表示され、ユーザにより選択された表示領域に関連付けられた情報を第4表示領域904に表示する。
Note that the number of display surfaces and display areas for digital content may be different. For example, for hexahedral digital content, only the first to
立体形状のデジタルコンテンツから特定した情報を、各表示領域に対応付け、特定した情報を示す画像を表示する。本実施形態では、被写体をバスケットの選手とし、第1表示領域901に選手を映すメイン画像を表示する。第1表示領域901に表示される画像は、仮想視点画像でもよいし、撮影画像であってもよい。第2表示領域902には、メイン画像に表示される選手に関連する3つの仮想視点映像を示す画像および仮想視点映像を示すアイコン913を重畳表示する。第2表示領域902には、第1表示領域901に表示される画像とは異なる視点に対応する仮想視点画像が表示される。第3表示領域903にメイン画像に表示される選手の所属するチームの情報を示す画像が表示される。第4表示領域904に、メイン画像に表示される選手の、メイン画像が撮像されたシーズンの成績情報を示す画像が表示される。第5表示領域905に撮影時の試合の最終スコアを示す画像が表示される。第6表示領域906にデジタルコンテンツの著作権情報を示す画像が表示される。
Information identified from three-dimensional digital content is associated with each display area, and an image representing the identified information is displayed. In this embodiment, the subject is a basketball player, and a main image showing the player is displayed in the
第1表示領域901から第6表示領域906に関連付けられている情報に映像を示す情報が含まれている場合、映像に対応する表示領域の画像上にイラストやアイコンを重畳表示してもよい。この場合、1つの撮像装置により撮影された画像により生成される映像と、複数の撮像装置により生成された仮想視点画像により生成される仮想視点映像に対しそれぞれ異なるアイコンを用いる。本実施形態では、第2表示領域902の仮想視点映像を示す画像上にアイコン913を重畳表示する。また、第2表示領域902がユーザによって選択された場合、第7表示領域907に表示される仮想視点映像上にアイコン913を表示する。尚、イラストやアイコンは表示領域の周辺に配置してもよい。
If the information associated with the
第1表示領域901から第6表示領域906のうち、1つの表示領域に複数の画像または複数の映像が対応付けられてよい。本実施形態では、第2表示領域902に視点の異なる3つの仮想視点映像が対応付けられている場合を記載する。この場合、GUI908、GUI909、GUI910にそれぞれ視点の異なる仮想視点映像が対応付けられる。GUI908には被写体視点(視点1)の仮想視点映像が対応付けられる。GUI909には被写体の後方からの視点(視点2)に対応する仮想視点映像が対応付けられる。GUI910には被写体を中心とした球面上の位置の中の仮想視点(視点3)の仮想視点映像が対応付けられる。尚、1つの表示領域に複数の画像または複数の映像が対応付けられない場合は、GUI908、GUI909、GUI910は表示しなくてよい。
A plurality of images or a plurality of videos may be associated with one display area among the
第7表示領域907には、ユーザが第1表示領域901から第6表示領域906を選択する前に表示する情報として、初期画像が設定される。初期画像は第1表示領域901から第6表示領域906に関連付けられた画像であってもよいし、第1表示領域901から第6表示領域906に関連付けられた画像と異なる画像であってもよい。本実施形態では、第1表示領域901のメイン画像を初期画像と設定する。
An initial image is set in the
図10は、本実施形態における、画像処理システムの動作フローを説明するためのフローチャートである。具体的には、図2のCPU111が実行する処理である。ステップS1001において、立体形状のデジタルコンテンツの第1面から第6面に対応付けられたコンテンツ情報を特定する。
FIG. 10 is a flowchart for explaining the operation flow of the image processing system in this embodiment. Specifically, this is a process executed by the
ステップS1002において、ステップS1001にて特定したコンテンツ情報を第1表示領域901から第6表示領域906に対応付ける。その後、対応付けた情報を示す画像を第1表示領域901から第6表示領域906に表示する。また、第7表示領域907には予め設定された初期画像を表示する。本実施形態では、第1表示領域901のメイン画像を初期画像として第7表示領域907に表示する。
In step S1002, the content information specified in step S1001 is associated with the
ステップS1003において、最新の入力を受け付けて所定の時間(例えば30分)が経過したか否か判定する。Yesの場合、ステップS1017に進む。Noの場合、ステップS1004に進む。 In step S1003, it is determined whether a predetermined time (for example, 30 minutes) has elapsed since the latest input was received. If Yes, the process advances to step S1017. If No, the process advances to step S1004.
ステップS1004において、ユーザによる第1表示領域901から第6表示領域906の何れかを選択する入力を受け付けたか否か判定する。Yesの場合、受け付けた入力により進むステップが異なる。第1表示領域901を選択する入力を受け付けた場合、ステップS1005に進む。第2表示領域902を選択する入力を受け付けた場合、ステップS1006に進む。第3表示領域903を選択する入力を受け付けた場合、ステップS1007に進む。第4表示領域904を選択する入力を受け付けた場合、ステップS1008に進む。第5表示領域905を選択する入力を受け付けた場合、ステップS1009に進む。第6表示領域906を選択する入力を受け付けた場合、ステップS1010に進む。Noの場合、ステップS1003に戻る。
In step S1004, it is determined whether an input by the user to select any one of the
ステップ1005において、第1表示領域901に対応する選手を映すメイン画像を第7表示領域907に表示する。尚、すでに第7表示領域907に第1表示領域901に関連付けられた選手を映すメイン画像が表示されている場合、第7表示領域907にメイン画像を表示したままステップS1003に戻る。ユーザが選択した表示領域に関連する情報がすでに第7表示領域907に表示されている場合は、ステップ1007からステップ1010においても同様であるため以下省略する。また、メイン画像が映像であり、すでに第7表示領域907にメイン画像が表示されていた場合、再度既定の再生時刻から映像を再生してもよいし、表示されている映像をそのまま再生してもよい。
In step 1005, the main image showing the player corresponding to the
ステップ1006において、第2表示領域902に対応する選手に関連する仮想視点映像を第7表示領域907に表示する。なお、複数の仮想視点映像が第2表示領域902に関連付けられている場合、予め設定した仮想視点映像を第7表示領域907に表示する。本実施形態では、被写体視点(視点1)の仮想視点映像を第7表示領域907に表示する。あらかじめ設定した仮想視点映像を第7表示領域907に表示した後、ステップS1011に進む。
In step 1006, a virtual viewpoint video related to the player corresponding to the
ステップS1011において、最新の入力を受け付けて所定の時間(例えば30分)が経過したか否か判定する。Yesの場合、ステップS1017に進む。Noの場合、ステップS1012に進む。 In step S1011, it is determined whether a predetermined time (for example, 30 minutes) has elapsed since the latest input was received. If Yes, the process advances to step S1017. If No, the process advances to step S1012.
ステップS1012において、複数の仮想視点映像のうち、ユーザが見たい仮想視点の仮想視点映像を選択する入力を受け付けたか否か判定する。具体的には、図9の第7表示領域907のように各仮想視点を示すGUIを表示し、ユーザがGUIを選択することにより各視点の仮想視点映像が選択される。Yesの場合、選択されたGUIに応じて次のステップに進む。GUI908が選択されるとステップS1013、GUI909が選択されるとステップS1014、GUI910が選択されるとステップS1015に進む。Noの場合、ステップS1016に進む。
In step S1012, it is determined whether an input for selecting a virtual viewpoint video of a virtual viewpoint that the user wants to see from among a plurality of virtual viewpoint videos is received. Specifically, a GUI indicating each virtual viewpoint is displayed as in the
尚、各仮想視点を示すGUIを設けず、第7表示領域907に対するフリック操作やタッチ操作により各視点の仮想視点映像が選択されてもよい。また、複数の仮想視点映像が第2表示領域902に関連付けられている場合、複数の仮想視点映像を繋げ1つの仮想視点映像とし、連続的に再生されるようにしてもよい。その場合、仮想視点を選択するステップS1012を経由せず、ステップS1016に進む。
Note that the virtual viewpoint video of each viewpoint may be selected by a flick operation or a touch operation on the
ステップS1013において、被写体視点(視点1)の仮想視点映像を第7表示領域907に表示する。その後、ステップS1011に戻る。すでに第7表示領域907に被写体視点の仮想視点映像が表示されている場合は、再度既定の再生時刻から映像を再生してもよいし、表示されている映像をそのまま再生してもよい。すでに第7表示領域907に表示されている場合は、ステップS1014とステップS1015においても同様であるため以下省略する。
In step S1013, a virtual viewpoint image of the subject viewpoint (viewpoint 1) is displayed in the
ステップS1014において、被写体の後方からの視点(視点2)に対応する仮想視点映像を第7表示領域907に表示する。その後、ステップS1011に戻る。
In step S1014, a virtual viewpoint video corresponding to a viewpoint from behind the subject (viewpoint 2) is displayed in the
ステップS1015において、被写体を中心とした球面上の位置の中の仮想視点(視点3)の仮想視点映像を第7表示領域907に表示する。その後、ステップS1011に戻る。
In step S1015, a virtual viewpoint image of a virtual viewpoint (viewpoint 3) among positions on a spherical surface centered on the subject is displayed in the
ステップS1016において、ユーザによる第1表示領域901から第6表示領域906の何れかを選択する入力を受け付けたか判定する。Yesの場合、ステップS1004と同様の処理を行う。Noの場合、ステップS1011に戻る。
In step S1016, it is determined whether an input by the user to select any one of the
ステップS1007において、第3表示領域903に対応する選手の所属するチーム情報を第7表示領域907に表示する。
In step S1007, team information to which the player corresponding to the
ステップS1008において、第4表示領域904に対応する選手の今シーズンの成績情報を第7表示領域907に表示する。
In step S1008, this season's performance information of the player corresponding to the
ステップS1009において、第5表示領域905に対応する試合の最終スコアを第7表示領域907に表示する。
In step S1009, the final score of the match corresponding to the
ステップS1010において、第6表示領域906に対応する著作権情報を第7表示領域907に表示する。
In step S1010, copyright information corresponding to the
ステップS1017において、第7表示領域に初期画像を表示する。本実施形態では、第1表示領域901のメイン画像を初期画像として第7表示領域907に表示する。その後、処理フローを終了する。
In step S1017, the initial image is displayed in the seventh display area. In this embodiment, the main image in the
(実施形態5)
次に実施形態5について図11および図12を用いて説明する。なお、本実施形態において、システム構成は実施形態1で説明した構成と同じであるため、説明を省略する。また、システムのハードウェア構成も、図2と同じであり、その説明も省略する。
(Embodiment 5)
Next,
図11は、本実施形態のグラフィックユーザーインターフェース(GUI)を示す図である。実施形態4と同様に、実施形態3にて生成され、仮想視点の数を3つとし、3つの仮想視点画像が第2面に対応付けられる立体形状のデジタルコンテンツを例に説明する。また、実施形態4と異なり、第1領域1107に表示される表示領域の数はデジタルコンテンツの面数と異なる。具体的には、第1領域1107に表示される表示領域の数が5つに対し、デジタルコンテンツの面数は6つである。このGUIは、画像処理システム100で生成され、ユーザデバイスに送信される。なお、このGUIは、必要な情報を取得したユーザデバイスによって、生成されてもよい。
FIG. 11 is a diagram showing the graphic user interface (GUI) of this embodiment. As in the fourth embodiment, a three-dimensional digital content that is generated in the third embodiment, has three virtual viewpoints, and has three virtual viewpoint images associated with the second surface will be described as an example. Further, unlike the fourth embodiment, the number of display areas displayed in the
本実施形態では、デジタルコンテンツが視点の異なる3つの仮想視点映像を含み、各視点の仮想視点映像をそれぞれ第2表示領域1102から第4表示領域1104に対応付ける。3つの仮想視点は、実施形態4と同様に、被写体視点(視点1)の仮想視点映像、被写体の後方からの視点(視点2)、被写体を中心とした球面上の位置の中の仮想視点(視点3)である。3つの仮想視点映像を第2表示領域1102から第4表示領域1104に対応付けるため、仮想視点映像を示すアイコン1109も第2表示領域1102から第4表示領域1104に重畳表示する。
In this embodiment, the digital content includes three virtual viewpoint videos with different viewpoints, and the virtual viewpoint videos of each viewpoint are associated with the
第1表示領域1101には選手を映す画像、第5表示領域1105には著作権情報を対応付ける。第1表示領域1101には第2表示領域1102から第4表示領域1104までの仮想視点画像とは異なる視点の仮想視点映像あるいは撮影画像であってもよい。なお、表示領域に表示する情報はこれらの限りではなく、デジタルコンテンツと対応付けられた情報であればよい。
The
図12は、本実施形態の画像処理システム100の動作フローを説明するためのフローチャートである。尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図12のフローチャートの各ステップの動作が行われる。尚、図12において図10と同じ符号のステップは同じ処理であり説明を省略する。
FIG. 12 is a flowchart for explaining the operation flow of the
図12のステップS1004において、第2表示領域1102を選択する入力を受け付けた場合、ステップS1201に進む。第3表示領域1103を選択する入力を受け付けた場合、ステップS1202に進む。第4表示領域1104を選択する入力を受け付けた場合、ステップS1203に進む。
If an input to select the
ステップS1201において、被写体視点(視点1)の仮想視点映像を第6表示領域1106に表示する。その後、ステップS1003に戻る。
In step S1201, a virtual viewpoint image of the subject viewpoint (viewpoint 1) is displayed in the
ステップS1202において、被写体の後方からの視点(視点2)に対応する仮想視点映像を第6表示領域1106に表示する。その後、ステップS1003に戻る。
In step S1202, a virtual viewpoint video corresponding to a viewpoint from behind the subject (viewpoint 2) is displayed in the
ステップS1203において、被写体を中心とした球面上の位置の中の仮想視点(視点3)の仮想視点映像を第6表示領域1106に表示する。その後、ステップS1003に戻る。
In step S1203, a virtual viewpoint image of a virtual viewpoint (viewpoint 3) among positions on a spherical surface centered on the subject is displayed in the
(実施形態6)
次に実施形態6について図13および図14を用いて説明する。なお、本実施形態において、システム構成は実施形態1で説明した構成と同じであるため、説明を省略する。また、システムのハードウェア構成も、図2と同じであり、その説明も省略する。
(Embodiment 6)
Next, Embodiment 6 will be described using FIGS. 13 and 14. Note that in this embodiment, the system configuration is the same as the configuration described in
図13は、実施形態6のグラフィックユーザーインターフェース(GUI)を示す図である。本実施形態では、実施形態3にて生成され、仮想視点の数を6つとし、6つの仮想視点画像が第2面に対応付けられる立体形状のデジタルコンテンツを例に説明する。6つの仮想視点画像は映像であり、以下、仮想視点映像と呼称する。このGUIは、画像処理システム100で生成され、ユーザデバイスに送信される。なお、このGUIは、必要な情報を取得したユーザデバイスによって、生成されてもよい。
FIG. 13 is a diagram showing a graphic user interface (GUI) according to the sixth embodiment. The present embodiment will be described using as an example the digital content in a three-dimensional shape that is generated in the third embodiment, has six virtual viewpoints, and has six virtual viewpoint images associated with the second surface. The six virtual viewpoint images are videos, and are hereinafter referred to as virtual viewpoint videos. This GUI is generated by the
本実施形態は、実施形態4と異なり、第1領域1307に表示される表示領域の数はデジタルコンテンツの面数と異なる形態である。具体的には、第1領域1307に表示される表示領域の数が3つに対し、デジタルコンテンツの面数は6つである。また、6つの仮想視点映像が第2表示領域1302に対応付けられている。
This embodiment is different from the fourth embodiment in that the number of display areas displayed in the
第1表示領域1301には選手を映すメイン画像、第3表示領域1303には著作権情報を対応付ける。第1表示領域1301には第2表示領域1302の仮想視点画像とは異なる視点の仮想視点映像あるいは撮影画像であってもよい。なお、表示領域に表示する情報はこれらの限りではなく、デジタルコンテンツと対応付けられた情報であればよい。
The
本実施形態は、実施形態4および実施形態5と異なり、第2領域1308に第4表示領域1304、第5表示領域1305、第6表示領域1306を含む。ユーザにより第1表示領域1301から第3表示領域1303の何れかが選択された場合、選択された表示領域に対応する画像を第5表示領域に表示する。
This embodiment differs from
第5表示領域1305は常に第2領域1308に表示される。一方、第4表示領域1304および第6表示領域1306は、仮想視点映像を第5表示領域に表示する場合に第2領域1308に表示される。
The
第2領域1308の中心に位置する表示領域とそれ以外の表示領域は形状が異なる。具体的には、第4表示領域1304および第6表示領域1306は第5表示領域1305と形状または大きさが異なる。本実施形態では、第5表示領域が長方形の形状であるのに対し、第4表示領域と第6表示領域は台形の形状になっている。このようにすることにより、第2領域1308の中心に位置する第5表示領域1305の視認性を向上することができる。
The display area located at the center of the
6つの仮想視点映像はそれぞれ仮想視点が異なる。3つの被写体が存在し、3つの被写体の位置を仮想視点の位置とした3つの仮想視点映像と、3つの被写体の位置から一定距離後方かつ一定距離高い位置を仮想視点の位置とした3つの仮想視点映像である。例えば、バスケの試合において、オフェンスを行うA選手とディフェンスを行うB選手、バスケットボールを被写体とした場合には、以下の例が挙げられる。1つは、A選手の顔の位置を仮想視点の位置とし、A選手の顔の向きを仮想視点からの視線方向とした第1仮想視点映像である。別の1つは、A選手の顔の位置から一定距離後方(例えば、3m後方)かつ一定距離高い位置(例えば、1m高い位置)を仮想視点の位置とし、A選手を画角内に含むように設定される方向を仮想視点からの視線方向とした第2仮想視点映像である。また別の1つは、B選手の顔の位置を仮想視点の位置とし、B選手の顔の向きを仮想視点からの視線方向とした第3仮想視点映像である。また別の1つは、B選手の顔の位置から一定距離後方かつ一定距離高い位置を仮想視点の位置とし、B選手を画角内に含むように設定される方向を仮想視点からの視線方向とした第4仮想視点映像である。また別の1つは、バスケットボールの重心位置を仮想視点の位置とし、バスケットボールの進行方向を仮想視点からの視線方向とした第5仮想視点映像である。また、別の1つはバスケットボールの重心位置から一定距離後方かつ一定距離高い位置を仮想視点の位置とし、バスケットボールの進行方向を仮想視点の位置とした第6仮想視点映像である。なお、被写体の位置から一定距離後方かつ一定距離高い位置とは、撮影シーンに基づいて決定されたり、被写体が仮想視点画像の画角に占める割合を用いて決定されたりしてもよい。仮想視点からの視線方向は、被写体の姿勢または被写体の進行方向、画角に占める被写体の位置の何れか一つに基づいて設定される。 Each of the six virtual viewpoint images has a different virtual viewpoint. There are three subjects, three virtual viewpoint images with the positions of the three subjects as the virtual viewpoint positions, and three virtual viewpoint images with the virtual viewpoint positions a certain distance behind and a certain distance above the positions of the three subjects. This is a perspective video. For example, in the case of a basketball game, where player A plays offense, player B plays defense, and the basketball is the subject, the following example may be given. One is a first virtual viewpoint video in which the position of Player A's face is the position of the virtual viewpoint, and the direction of Player A's face is the line of sight direction from the virtual viewpoint. Another method is to set the virtual viewpoint at a position a certain distance behind (e.g., 3 m behind) and a certain distance (e.g., 1 m higher) from the position of player A's face, and to include player A within the angle of view. This is a second virtual viewpoint video in which the direction set in is the line-of-sight direction from the virtual viewpoint. Another one is a third virtual viewpoint video in which the position of player B's face is the position of the virtual viewpoint, and the direction of player B's face is the line of sight direction from the virtual viewpoint. Another method is to set the virtual viewpoint position a certain distance behind and a certain distance higher than the position of player B's face, and set the direction set to include player B within the angle of view as the viewing direction from the virtual viewpoint. This is the fourth virtual viewpoint video. Another one is a fifth virtual viewpoint video in which the position of the center of gravity of the basketball is the position of the virtual viewpoint, and the direction of progress of the basketball is the line of sight from the virtual viewpoint. Another one is a sixth virtual viewpoint image in which the virtual viewpoint is a certain distance behind and a certain distance above the center of gravity of the basketball, and the virtual viewpoint is in the direction of movement of the basketball. Note that the position a certain distance behind and a certain distance higher than the position of the subject may be determined based on the shooting scene, or may be determined using the ratio of the subject to the angle of view of the virtual viewpoint image. The viewing direction from the virtual viewpoint is set based on any one of the posture of the subject, the direction of movement of the subject, and the position of the subject in the angle of view.
本実施形態では、6つの仮想視点映像は再生時間が同じであるとする。尚、再生時間が異なる仮想視点映像であってもよい。 In this embodiment, it is assumed that the six virtual viewpoint videos have the same playback time. Note that the virtual viewpoint videos may have different playback times.
6つの仮想視点映像に対応する第2表示領域1302が選択された場合、第2領域1308に第4表示領域1304および第6表示領域1306が表示される。第2領域1308に表示される3つの表示領域は、3つの被写体を映す仮想視点映像がそれぞれ対応付けられる。具体的には、第4表示領域1304にA選手を被写体とした第1仮想視点映像と第2仮想視点映像、第5表示領域1305にB選手を被写体とした第3仮想視点映像と第4仮想視点映像、第6表示領域1306にバスケットボールを被写体とした第5仮想視点映像と第6仮想視点映像が対応付けられる。
When the
各表示領域に表示する映像は全て同時に再生されない。第2領域1308の中心に位置する表示領域に表示される映像のみ再生される。本実施形態では、第5表示領域1305に表示される仮想視点映像のみ再生される。
The images displayed in each display area are not all played back at the same time. Only the video displayed in the display area located at the center of the
図14は、実施形態6の画像処理システム100の動作フローを説明するためのフローチャートである。尚、画像処理システム100のコンピュータとしてのCPU111が例えばROM112や補助記憶装置114等のメモリに記憶されたコンピュータプログラムを実行することによって図5のフローチャートの各ステップの動作が行われる。尚、図14において図10と同じ符号のステップは同じ処理であり説明を省略する。
FIG. 14 is a flowchart for explaining the operation flow of the
ステップS1401において、予め設定した仮想視点映像を第4表示領域1304、第5表示領域1305、第6表示領域1306に表示する。本実施形態では、3つの被写体の位置を仮想視点の位置とした3つの仮想視点映像が表示される。具体的には、第4表示領域1304にA選手の顔の位置を仮想視点の位置とした第1仮想視点映像、第5表示領域1305にB選手の顔の位置を仮想視点の位置とした第3仮想視点映像、第6表示領域1306にバスケットボールの重心位置を仮想視点の位置とした第5仮想視点映像が表示される。このとき、第2領域1308の中心に位置する第5表示領域1305のみ映像を再生し、第4表示領域1304および第6表示領域1306は映像を再生しない。予め設定した仮想視点映像を第4表示領域1304、第5表示領域1305、第6表示領域1306に表示した後、ステップS1011に進む。
In step S1401, preset virtual viewpoint images are displayed in the
ステップS1402において、第5表示領域1305に表示される仮想視点映像の被写体を変更する操作が入力されたか判定する。具体的には、第5表示領域1305に対する水平方向へのスライド操作により被写体の異なる仮想視点映像に切り替える操作が入力されたか判定する。Yesの場合、スライドされた方向に基づいて次のステップに進む。左方向へのスライド操作の入力情報を受け付けた場合、ステップS1410に進む。右方向へのスライド操作の入力情報を受け付けた場合、ステップS1411に進む。Noの場合、ステップS1405に進む。
In step S1402, it is determined whether an operation to change the subject of the virtual viewpoint video displayed in the
ステップS1403において、各表示領域に対応付けられた仮想視点映像を左隣りの表示領域に再度対応付ける。例えば、第5表示領域1305に対応する第3仮想視点映像に対し左方向へのスライド操作を受け付けた場合、第5表示領域1305に対応する第3仮想視点映像と第4仮想視点映像を第5表示領域1305の左隣にある第4表示領域1304に対応付ける。第6表示領域1306に対応付けられた第5仮想視点映像と第6仮想視点映像を第6表示領域1306の左隣にある第5表示領域1305に対応付ける。第2領域1308において、第4表示領域1304の左隣りには表示領域が存在しないため、第4表示領域1304に対応する第1仮想視点映像と第2仮想視点映像は右隣に表示領域が存在しない第6表示領域1306に対応付ける。再度対応付けを行った後は、第5表示領域1305に対応付けられた仮想視点映像のうち、被写体に対する仮想視点の位置が対応付け前の第5表示領域1305で再生されていた仮想視点映像と同じ仮想視点映像を再生する。例えば、対応付け前の第5表示領域1305で再生されていた仮想視点映像が第3仮想視点映像であった場合、対応付け後に第5表示領域1305には第5仮想視点映像と第6仮想視点映像が対応付けられている。第3仮想視点映像は被写体の位置を仮想視点の位置とした仮想視点映像であるため、同じく被写体の位置を仮想視点の位置とした仮想視点映像である第5仮想視点映像が第5表示領域に表示される。このようにすることにより、ユーザが直感的に被写体の異なる仮想視点映像を切り替えることができる。上記処理を行った後、ステップS1011に戻る。
In step S1403, the virtual viewpoint video associated with each display area is associated again with the display area adjacent to the left. For example, when a slide operation to the left is received for the third virtual viewpoint video corresponding to the
ステップS1404において、各表示領域に対応付けられた仮想視点映像を右隣りの表示領域に再度対応付ける。例えば、第5表示領域1305に対応する第3仮想視点映像に対し右方向へのスライド操作を受け付けた場合、第5表示領域1305に対応する第3仮想視点映像と第4仮想視点映像を第5表示領域1305の右隣にある第6表示領域1306に対応付ける。第4表示領域1304に対応付けられた第1仮想視点映像と第2仮想視点映像を第4表示領域1304の右隣にある第5表示領域1305に対応付ける。第2領域1308において、第6表示領域1306の右隣りには表示領域が存在しないため、第6表示領域1306に対応する第5仮想視点映像と第6仮想視点映像は左隣に表示領域が存在しない第4表示領域1304に対応付ける。再度対応付けを行った後は、第5表示領域1305に対応付けられた仮想視点映像のうち、被写体に対する仮想視点の位置が対応付け前の第5表示領域1305で再生されていた仮想視点映像と同じ仮想視点映像を再生する。上記処理を行った後、ステップS1408に戻る。上記処理を行った後、ステップS1011に戻る。
In step S1404, the virtual viewpoint video associated with each display area is associated again with the display area on the right. For example, when a slide operation to the right is received for the third virtual viewpoint video corresponding to the
ステップS1405において、第5表示領域1305に表示される仮想視点映像の仮想視点位置を変更する操作が入力されたか判定する。具体的には、第5表示領域1305に対するダブルタップ操作により同じ被写体であるが仮想視点の位置が異なる仮想視点映像へ切り替える入力を受け付ける。Yesの場合、ステップS1406に進み、Noの場合、ステップS1016に進む。
In step S1405, it is determined whether an operation to change the virtual viewpoint position of the virtual viewpoint video displayed in the
ステップS1406において、仮想視点映像の被写体の位置を変更する処理を行う。具体的には、同じ被写体であるが仮想視点の位置が異なる仮想視点映像へ切り替える。例えば、第5表示領域1305にB選手の顔の位置を仮想視点の位置とした第3仮想視点映像とB選手の顔の位置から一定距離後方かつ一定距離高い位置を仮想視点の位置とした第4仮想視点映像が対応付けられているとする。第5表示領域1305に第3仮想視点映像が表示されているときにダブルタップ操作を受け付けた場合、第4仮想視点映像と切り替えて第5表示領域1305に表示する処理を行う。このようにすることにより、同じ被写体での仮想視点の位置を直感的に切り替えることができる。上記処理を行った後、ステップS1011に戻る。
In step S1406, processing is performed to change the position of the subject in the virtual viewpoint video. Specifically, the video is switched to a virtual viewpoint video of the same subject but with a different virtual viewpoint position. For example, the
尚、スライド操作およびダブルタップ操作において仮想視点映像を切り替える際、第5表示領域1305にて再生している仮想視点映像のタイムコードを記録しておき、切り替え後の仮想視点映像を記録したタイムコードの時刻から再生してもよい。
Note that when switching the virtual viewpoint video using a slide operation or a double tap operation, the time code of the virtual viewpoint video being played in the
尚、本実施形態ではダブルタップ操作を同じ被写体での仮想視点の位置を切り替える操作としたが、他の操作であってもよい。例えば、第5表示領域1305に対するピンチイン・ピンチアウト操作や上下方向へのスライド操作であってもよい。
Note that in this embodiment, the double-tap operation is an operation for switching the position of the virtual viewpoint on the same subject, but other operations may be used. For example, it may be a pinch-in/pinch-out operation or a slide operation in the vertical direction on the
本実施形態では、同じ被写体を映す複数の仮想視点映像を1つの表示領域に対応付けたが、同じ被写体を映す複数の仮想視点映像を複数の表示領域に対応付けてもよい。具体的には、第4表示領域1304、第5表示領域1305、第6表示領域1306の上にそれぞれ第7表示領域、第8表示領域、第9表示領域を新たに設けてもよい(不図示)。この場合、第4表示領域1304に第1仮想視点映像、第5表示領域1305に第3仮想視点映像、第6表示領域1306に第5仮想視点映像、第7表示領域に第2仮想視点映像、第8表示領域に第4仮想視点映像、第9表示領域に第6仮想視点映像を表示する。実施形態6では、タップジェスチャにより同じ被写体を映す仮想視点映像を切り替える操作を行ったが、この場合は上下方向へのスライド操作により表示領域を切り替える。このようにすることにより、ユーザが直感的に仮想視点を操作することができる。
In this embodiment, a plurality of virtual viewpoint videos showing the same subject are associated with one display area, but a plurality of virtual viewpoint videos showing the same subject may be associated with a plurality of display areas. Specifically, a seventh display area, an eighth display area, and a ninth display area may be newly provided above the
(実施形態7)
実施形態1では、デジタルコンテンツ200の第1面201に対応付けられたメイン画像(第1画像)に対して所定の関係を有する第2画像をデジタルコンテン200の第2面202に対応付ける形態である。本実施形態では、立体形状のデジタルコンテンツの各面に、同じタイムコードの複数の仮想視点映像を対応付ける形態である。具体的には、仮想視点の被写体に対する視線方向に基づいて、立体形状のデジタルコンテンツの各面に仮想視点映像を対応づける例について記載する。
(Embodiment 7)
In the first embodiment, a second image having a predetermined relationship with the main image (first image) associated with the
図15は、本実施形態の画像処理システム101を示す図である。なお、図1と同様のブロックは同じ番号を付与し、説明を省略する。
FIG. 15 is a diagram showing the
画像生成部117は、操作部116から指定された仮想視点と、仮想視点映像に表示されるオブジェクトの座標情報に基づいて、仮想視点の位置及び仮想視点からの視線方向とオブジェクトの座標の対応関係を解析する。画像生成部117は、操作部116から指定された仮想視点から見た仮想視点映像から注目オブジェクトを特定する。本実施形態では、仮想視点映像の中心に映るまたは中心に最も近いオブジェクトを特定するが、これに限定されない。例えば、仮想視点映像に占める割合が最も高いオブジェクトを特定してもよいし、仮想視点映像を生成せずにオブジェクトを選択してもよい。次に、画像生成部117は、特定した注目オブジェクトを撮影する撮影方向を決定し、それぞれの撮影方向に対応する複数の仮想視点を生成する。撮影方向は、上下左右、前後(正面と背面)である。なお、生成される複数の仮想視点は、オペレータにより指定される仮想視点と同じタイムコードに対応している。そして生成された仮想視点に対応する仮想視点映像を生成した後、それぞれ仮想視点映像が注目オブジェクトを、上下左右、前後どの撮影方向からとらえた映像であるかを決定し、該仮想視点映像に撮影方向情報を付与する。撮影方向情報は、注目オブジェクトの向きに対してどの方向から撮影されたかを示す情報である。撮影方向の決定方法は、仮想視点映像の開始時に、その仮想視点映像で中心的に捉えられるオブジェクトと所定の地点との位置関係で定まるものとする。詳細は、図17にて説明する。
The
コンテンツ生成部118は、画像生成部117から受け取った仮想視点映像を付与された撮影方向情報に基づいて、立体形状コンテンツのどの面に対応づけるかを決定し、立体形状のデジタルコンテンツを生成する。
The
図16は、本実施形態における立体形状のデジタルコンテンツの各面を説明する図である。立体形状のデジタルコンテンツ1600において、面1601を正面、面1602を右面、面1603を上面、面1604を左面、面1605を背面、面1606を下面と定義する。
FIG. 16 is a diagram illustrating each side of the three-dimensional digital content in this embodiment. In the three-dimensional
図17は、選手に対する撮影方向を説明する図である。コート1700において、ゴール1701、ゴール1702、選手1703が存在する。選手1703は、ゴール1701に向けて攻めるものとする。ここで、選手1703とゴール1701を結ぶ向きで、地面と水平にゴール1701から選手1703に向かう方向を「正面」と定める。ここで正面の決定方法を説明する。初めに選手1703とゴール1701を結ぶ線分を導出する、ゴールはあらかじめ決められた点、選手は3Dモデルの重心とする。次に前記導出した線分に対して直行し、かつ選手の3Dモデルと接する面を導出し、この面を正面とする。なお、正面を決定した後、選手を囲むバウンディングボックスを決定する。上面、下面、右面、左面、背面は、バウンディングボックスの正面を基準に決定される。図17では、選手を正面からとらえる向きは矢印1704で表現され、この向きを仮想視点からの視線方向として作成された仮想視点映像の撮影方向情報は、「正面」となる。「正面」の撮影方向情報が付与された仮想視点映像は、図16の面1601に対応付けられることになる。同様に、選手を右からとらえた矢印1706の向きを仮想視点からの視線方向として作成された仮想視点映像の撮影方向情報は、「右面」となる。「右面」の撮影方向情報が付与された仮想視点映像は、図16の1602面に対応付けられる。選手を左からとらえた矢印1707の向きを仮想視点からの視線方向として作成された仮想視点映像の撮影方向情報は、「左面」となる。「左面」の撮影方向情報が付与された仮想視点映像は、図16の1604面に対応付けられる。選手を上からとらえた矢印1708の向きを仮想視点からの視線方向として作成された仮想視点映像の撮影方向情報は、「上面」となる。「上面」の撮影方向情報が付与された仮想視点映像は、図16の1603面に対応付けられる。選手を下からとらえた矢印1709の向きを仮想視点からの視線方向として作成された仮想視点映像の撮影方向情報は、「下面」となる。「下面」の撮影方向情報が付与された仮想視点映像は、図16の1606面に対応付けられる。選手を後ろからとらえた矢印1705の向きを仮想視点からの視線方向として作成された仮想視点映像の撮影方向情報は、「背面」となる。「背面」の撮影方向情報が付与された仮想視点映像は、図16の1605面に対応付けられる。なお、本実施形態では、ある特定の瞬間に選手とゴールの関係から向きを決めたが、選手がフィールド上を移動するために選手とゴールの関係から向きを変動しても良い。
FIG. 17 is a diagram illustrating shooting directions for athletes. On the
なお、本実施形態では、選手とゴールの位置により撮影方向を決定したが、これに限定されない。例えば、選手の進行方向から選手を見た方向を「正面」と設定し、「正面」の方向をXY面上に±90度回転させた方向を、「左面」と「右面」と設定する。「正面」の方向をYZ面上に±90度回転させた方向を、「上面」と「下面」と設定する。「正面」の方向をXY面上に+180度または―180度回転させた方向を、「背面」と設定する。なお、正面を設定する他の例として、選手の顔の向きから見た方向を「正面」と設定してもよいし、選手の進行方向上の直線から最も近いゴールの位置から見た方向を「正面」と設定してもよい。 Note that in this embodiment, the photographing direction is determined based on the positions of the players and the goal, but the present invention is not limited to this. For example, the direction in which the player is viewed from the player's advancing direction is set as "front", and the directions obtained by rotating the "front" direction by ±90 degrees on the XY plane are set as "left side" and "right side". Directions obtained by rotating the "front" direction by ±90 degrees on the YZ plane are set as "top" and "bottom". The direction obtained by rotating the "front" direction by +180 degrees or -180 degrees on the XY plane is set as the "back". In addition, as another example of setting the front direction, you can set the direction seen from the player's face as "front", or the direction seen from the goal position closest to the straight line in the player's direction of progress. It may also be set to "front".
なお、選手が移動する度に、ゴールとの位置関係で撮影方向を変化しても良い。例えばあらかじめ正面を決定した位置から、一定の距離(たとえば3メートル)以上移動した場合に正面を定め直しても良いし、一定時間の経過により撮影方向を変化させてもよい。または、最初に決定された正面と、移動した後で算出される正面を比較したときに、面を上から見たときの角度が45度以上変化する場合に、正面を定め直しても良い。また、パスで他の選手にボールが移ったタイミングをトリガとして、その都度パスを受けた選手とゴール位置の関係から正面を定め直しても良い。 Note that each time the player moves, the shooting direction may be changed depending on the positional relationship with the goal. For example, the front may be determined again when the front is moved a certain distance (for example, 3 meters) or more from a predetermined position, or the photographing direction may be changed after a certain period of time has elapsed. Alternatively, when comparing the initially determined front and the front calculated after movement, if the angle when the surface is viewed from above changes by 45 degrees or more, the front may be redefined. Furthermore, the front direction may be redefined each time based on the relationship between the player who received the pass and the goal position, using the timing when the ball is passed to another player as a trigger.
図18は、コンテンツ生成部4が生成する立体形状のデジタルコンテンツの例を示す図である。オペレータが設定する仮想視点と同じタイムコードに対応する複数の仮想視点から見た複数の仮想視点映像が、立体形状のデジタルコンテンツの各面に対応している。このように表示することにより、ユーザはどの位置からオブジェクトを撮影した仮想視点映像であるのか直感的に把握することができる。 FIG. 18 is a diagram illustrating an example of three-dimensional digital content generated by the content generation unit 4. A plurality of virtual viewpoint images viewed from a plurality of virtual viewpoints corresponding to the same time code as the virtual viewpoint set by the operator correspond to each side of the three-dimensional digital content. By displaying the image in this manner, the user can intuitively understand from which position the object is photographed in the virtual viewpoint image.
図19は、実施形態7の画像処理システム101の動作フローを説明するためのフローチャートである。なお、図3のS37~S39と同じフローについては同様の番号を付して説明を省略する。
FIG. 19 is a flowchart for explaining the operation flow of the
S1901において、画像生成部117は、操作部116を介してユーザが指定する仮想視点の位置及び仮想視点からの視線方向を示す仮想視点情報を取得する。
In S1901, the
S1902において、画像生成部117は、取得した仮想視点情報に対応する仮想視点から見た仮想視点画像において、注目オブジェクトを特定する。本実施形態では、仮想視点映像の中心に映るまたは中心に最も近いオブジェクトを特定する。
In S1902, the
S1903において、画像生成部117は、注目オブジェクトに対する撮影方向を決定する。本実施形態では、注目オブジェクトの位置と所定の位置との直線と直行し、注目オブジェクトの3Dモデルと接する面を正面とする。この正面を基準に、上下左右、後ろに対する撮影方向を決定する。
In S1903, the
S1904において、画像生成部117は、S1903において決定した複数の撮影方向に対応する複数の仮想視点を生成する。本実施形態では、注目オブジェクトに対して前後、上下左右に対応する撮影方向が決定されるため、それぞれに対応する仮想視点が生成される。なお、生成される仮想視点は、撮影方向と同じ向きに仮想視点からの視線方向が設定されていればよく、注目オブジェクトを仮想視点の光軸上にとらえなくてもよい。また、生成される仮想視点の位置は、注目オブジェクトの位置から所定の値の距離分離れた位置に設定される。本実施形態では、注目オブジェクトから3m離れた位置に仮想視点が設定されるものとする。
In S1904, the
S1905において、画像生成部117は、生成した仮想視点に対応する仮想視点画像を生成する。その後、生成した仮想視点画像に対し、仮想視点に対応する撮影方向を示す撮影方向情報を付与する。
In S1905, the
S1906において、画像生成部117は、S1904にて生成したすべての仮想視点に対して、仮想視点映像が生成されたか否か判定する。すべての仮想視点映像が生成されている場合、生成した仮想視点映像をコンテンツ生成部118に送信し、S1907に進む。すべての仮想視点映像が生成されていない場合、S1905に進み、すべての仮想視点映像が生成されるまでループする。
In S1906, the
S1907において、コンテンツ生成部118は、受信した仮想視点映像の撮影方向情報に基づいて、仮想視点映像を立体形状のデジタルコンテンツの各面に対応付ける。
In S1907, the
S1908において、コンテンツ生成部118は、受信した仮想視点映像が、立体形状のデジタルコンテンツのすべての面に対応付けられているか否か判定する。対応付けられている場合は、S37に進み、対応付けられていない場合は、S1907に進む。なお、本実施形態では、すべての面に対応付けることを想定しているが、これに限定されず、特定の面に対応付けるようにしてもよい。その場合、S1908において、特定の面に仮想視点映像が対応付けられているかを判定する。
In S1908, the
上記処理により、立体形状のデジタルコンテンツの各面に撮影方向に応じた仮想視点映像を対応付けることができる。その結果、デジタルコンテンツを用いて仮想視点映像を視聴するユーザが、仮想視点映像を切り替えたいときに、各面に対応する仮想視点映像を直感的に把握することができる。 Through the above processing, each surface of the three-dimensional digital content can be associated with a virtual viewpoint video according to the shooting direction. As a result, when a user viewing a virtual viewpoint video using digital content wants to switch virtual viewpoint videos, he or she can intuitively grasp the virtual viewpoint video corresponding to each side.
(実施形態8)
実施形態7では、オペレータが指定した仮想視点を基準に、同一のタイムコードに対応する複数の仮想視点を生成し、デジタルコンテンツの各面に各仮想視点の撮影方向に応じた仮想視点映像を対応付けた。しかしながら、オペレータが指定した仮想視点から見た仮想視点映像を撮影方向に応じた面に対応付けたいケースも考えられる。実施形態8では、オペレータが指定した仮想視点から見た仮想視点映像が、注目オブジェクトをどの撮影方向から撮影しているのか特定し、撮影方向に応じてデジタルコンテンツの各面に対応付ける。
(Embodiment 8)
In the seventh embodiment, a plurality of virtual viewpoints corresponding to the same time code are generated based on a virtual viewpoint specified by the operator, and a virtual viewpoint video corresponding to the shooting direction of each virtual viewpoint is associated with each side of the digital content. I attached it. However, there may be cases where it is desired to associate a virtual viewpoint image seen from a virtual viewpoint specified by the operator with a plane corresponding to the shooting direction. In the eighth embodiment, the virtual viewpoint video viewed from the virtual viewpoint specified by the operator specifies from which shooting direction the object of interest is shot, and is associated with each side of the digital content according to the shooting direction.
図20は、実施形態8の画像処理システム101の動作フローを説明するためのフローチャートである。なお、図3のS37~S39、図19のS1901およびS1902、S1907およびS1908と同じフローについては同様の番号を付して説明を省略する。
FIG. 20 is a flowchart for explaining the operation flow of the
ステップS2001において、画像生成部117は、S1901において取得した仮想視点情報に基づいて、仮想視点映像を生成する。
In step S2001, the
ステップS2002において、画像生成部117は、仮想視点映像のフレームごとに注目オブジェクトに対する撮影方向を決定する。例えば、仮想視点映像が全体で1000フレームとした場合、「正面」の撮影方向情報が付与されたフレームが800フレームとする。「背面」の撮影方向情報が付与されたフレームが100フレームとする。「左面」の撮影方向情報が付与されたフレームが50フレームとする。「右面」の撮影方向情報が付与されたフレームが30フレームとする。「上面」の撮影方向情報が付与されたフレームが20フレームとする。「下面」の撮影方向情報が付与されたフレームが10フレームとする。このようにタイムコードの異なるフレームごとに撮影方向情報を付与する。
In step S2002, the
なお、本実施形態では、ユーザがデジタルコンテンツを視聴する際、撮影方向が異なるフレームを表示する際、対応するデジタルコンテンツの面に回転するように切り替わることを想定している。このようにすることにより、立体形状を生かし、仮想視点映像に躍動感を持たせることができる。 Note that in this embodiment, when a user views digital content, it is assumed that when frames with different shooting directions are displayed, the frame is rotated to the corresponding digital content plane. By doing so, it is possible to take advantage of the three-dimensional shape and give a sense of dynamism to the virtual viewpoint video.
また、本実施形態では、撮影方向に対して立体形状のデジタルコンテンツに対応付ける面が予め定まっていたが、これに限定されない。例えば、オブジェクトを捉えた各仮想視点映像のフレーム割合が最も多い順に立体形状のデジタルコンテンツに対応付ける面を決定してもよい。具体的には、フレーム割合が多い順に第二方向~第六方向までを設定する。仮想視点映像が、1000フレーム中、正面1604からが800フレーム、背面1605が100フレーム、左1606からのフレームが50、右1607からが30フレーム、上1608からが20フレーム,下1609からが10フレームとする。この場合、第一方向が正面、以降第二方向~第六方向が、背面、左、右、上、下という順に決定される。そして、撮影方向情報を付与した仮想視点映像をコンテンツ生成部118に出力する。
Further, in the present embodiment, the surface to be associated with the three-dimensional digital content is determined in advance with respect to the photographing direction, but the present invention is not limited to this. For example, the surfaces to be associated with the three-dimensional digital content may be determined in order of the highest frame ratio of each virtual viewpoint video capturing the object. Specifically, the second to sixth directions are set in descending order of frame ratio. The virtual viewpoint video has 1000 frames, 800 frames from the front 1604, 100 frames from the back 1605, 50 frames from the left 1606, 30 frames from the right 1607, 20 frames from the top 1608, and 10 frames from the bottom 1609. shall be. In this case, the first direction is determined as the front, and the second to sixth directions are determined in this order as back, left, right, top, and bottom. Then, the virtual viewpoint video to which the shooting direction information has been added is output to the
(実施形態9)
実施形態4では、デジタルコンテンツを保存する保存部5が画像処理装置100に組み込まれている例を説明した。実施形態9では、デジタルコンテンツを外部装置2102に保存する例を説明する。なお、画像処理装置102は、画像処理装置100から保存部5が除かれた装置である(不図示)。
(Embodiment 9)
In the fourth embodiment, an example has been described in which the
図21は、実施形態9における画像処理システム103のシステム構成を示す図である。画像処理システム103は、画像処理装置102、ユーザデバイス2101、外部装置2102を含む。
FIG. 21 is a diagram showing the system configuration of the image processing system 103 in the ninth embodiment. The image processing system 103 includes an
画像処理装置102は、実施形態1~3のいずれかに記載の方法により生成されたデジタルコンテンツを生成する。生成したデジタルコンテンツおよび生成に用いた仮想視点画像等のメディアデータ、各仮想視点画像を示すアイコン、各仮想視点画像のメタデータ等は、外部装置2102に送信される。また、実施形態4~6のいずれかに記載の表示画像を生成する。生成された表示画像は、ユーザデバイス2101に送信される。
The
ユーザデバイス2101は、例えば、PCやスマートフォン、タッチパネルを有するタブレット端末でもよい(不図示)。本実施形態では、タッチパネルを有するタブレット端末を例に説明する。
The
外部装置2102は、実施形態1~3のいずれかに記載の方法により生成されたデジタルコンテンツを保存する。なお、図1の保存部5と同様に、デジタルコンテンツのほか、仮想視点画像や、カメラ画像、各デジタルコンテンツに表示される仮想視点画像に対応するアイコン等も保存する。画像処理装置102から、特定のデジタルコンテンツを要求された場合、該当するデジタルコンテンツを画像処理装置102に送信する。なお、デジタルコンテンツだけでなく、仮想視点画像や各仮想視点画像のメタデータ等を画像処理装置102に送信してもよい。
The
図22は、実施形態9におけるデータ伝送の流れを示す図である。なお、本実施形態では、ユーザからの指示を受けて表示画像を生成し、さらに表示画像に対する操作に応じて表示する仮想視点画像を変更する流れを説明する。 FIG. 22 is a diagram showing the flow of data transmission in the ninth embodiment. In this embodiment, a flow will be described in which a display image is generated in response to an instruction from a user, and a virtual viewpoint image to be displayed is changed in response to an operation on the display image.
S2201において、ユーザデバイス2101は、ユーザからの入力を経て、画像処理装置102にデジタルコンテンツを視聴する指示を送信する。なお、この指示には、視聴したいデジタルコンテンツを特定するための情報が含まれる。具体的には、デジタルコンテンツのNFTや、外部装置2102に記憶されているアドレス等の情報である。
In S2201, the
S2202において、画像処理装置102は、取得した視聴指示に基づいて、視聴対象のデジタルコンテンツを外部装置2102に要求する。
In S2202, the
S2203において、外部装置2102は、取得した要求に対応するデジタルコンテンツを特定する。なお、要求内容に応じてデジタルコンテンツのみならず、デジタルコンテンツのメタデータや関連する仮想視点画像を特定する。
In S2203, the
S2204において、外部装置2102は、特定したデジタルコンテンツを画像処理装置102に送信する。なお、デジタルコンテンツのほかに特定した情報があれば、あわせて送信する。
In S2204, the
S2205において、画像処理装置102は、取得したデジタルコンテンツに対応する表示画像を生成する。例えば、取得したデジタルコンテンツに3つの仮想視点映像が対応付けられている場合は、実施形態4の図9に示す表示画像を作成する。なお、実施形態5の図11に示す表示画像を作成してもよいし、実施形態6の図13に示す表示画像を生成してもよい。本実施形態では、生成する表示画像は予め実施形態4の図9に示す表示画像であると設定されているものとする。なお、デジタルコンテンツに予め対応する表示画像が設定されていてもよい。その場合、デジタルコンテンツの作成時に作成者が設定し、デジタルコンテンツのメタデータに格納する。また、他の例として、ユーザが生成する表示画像を指示してもよい。その場合、S2201のデジタルコンテンツの視聴指示の際に、あわせて表示する表示画像の種類を指示する。そして、生成した表示画像に取得したデジタルコンテンツの各面を対応付ける。本実施形態では、被写体をバスケットの選手とし、第1表示領域901に選手を映すメイン画像に対応する画像を表示する。第2表示領域902には、メイン画像に表示される選手に関連する3つの仮想視点映像を示す画像および仮想視点映像を示すアイコン913を重畳表示する。第3表示領域903にメイン画像に表示される選手の所属するチームの情報を示す画像が表示される。第4表示領域904に、メイン画像に表示される選手の、メイン画像が撮像されたシーズンの成績情報を示す画像が表示される。第5表示領域905に撮影時の試合の最終スコアを示す画像が表示される。第6表示領域906にデジタルコンテンツの著作権情報を示す画像が表示される。なお、第1表示領域901~第6表示領域906は、ユーザ操作により選択可能な画像である。S2205では、第7表示領域907には、初期画像として第1表示領域901に表示した選手を映すメイン画像が表示される。
In S2205, the
S2206において、画像処理装置102は、S2205にて生成した表示画像をユーザデバイス2101に送信する。
In S2206, the
S2207において、ユーザデバイス2101は、受信した表示画像を表示する。
In S2207, the
S2208において、ユーザデバイス2101は、ユーザ操作により表示画像の表示領域を選択する操作を受信した場合、選択された表示領域を指定する情報を画像処理装置102に送信する。例えば、実施形態4の図9に示す表示画像を表示し、ユーザが表示領域902に対応する画像を選択した場合、表示領域902が選択されたことを示す情報を画像処理装置102に送信する。なお、本実施形態では、表示領域を指定する情報を画像処理装置102に送信した。これは第1表示領域901~第6表示領域906に表示されている画像と異なる画像または映像を第7表示領域907に表示できるようにするためである。なお、これに限定されず、ユーザ操作により選択された画像を第7表示領域907に表示するようにしてもよい。その場合、選択された表示領域を示す情報ではなく、選択された画像を示す情報を画像処理装置102に送信する。
In S2208, when the
S2209において、画像処理装置102は、選択された表示部に対応するアイコンから、デジタルコンテンツのどの画像が選択されたのか判定する。S2208において、表示領域902が選択されたため、表示領域902に対応する仮想視点映像が選択されたことになる。したがって、第7表示領域907に、デジタルコンテンツに含まれる仮想視点映像を表示する。なお、デジタルコンテンツに複数の仮想視点映像が含まれている場合、初めに表示する仮想視点映像を予め設定しておく。上記処理により、第1表示領域901~第6表示領域906のうちユーザ操作により選択された画像に対応する表示領域を指定する情報を受信し、選択された表示領域に対応する画像または映像を第7表示領域907に表示することで表示画面を更新する。また、実施形態6の図13が示す表示画面のように、第2領域1308に複数の仮想視点映像を表示する場合、それら表示した仮想視点映像に対するタッチ入力やフリック入力を受信したか否か判定する。タッチ入力を受信した場合、再生されている仮想視点映像を一時停止する。フリック入力を受信した場合、第5表示領域1305に表示され、現在再生されている仮想視点映像を異なる仮想視点映像に切り替える。
In S2209, the
S2210において、画像処理装置102は、更新した表示画像をユーザデバイス2101に送信する。
In S2210, the
上記処理により、ユーザの所望のデジタルコンテンツを表示する表示画像を作成し、ユーザデバイス上に表示することができる。 Through the above processing, a display image displaying digital content desired by the user can be created and displayed on the user device.
以上、本開示を複数の実施形態に基づいて詳述してきたが、本開示は上記実施形態に限定されるものではなく、本開示の主旨に基づき種々の変形が可能であり、それらを本開示の範囲から除外するものではない。例えば、以上の実施形態1~7を適宜組み合わせても良い。
Although the present disclosure has been described in detail based on a plurality of embodiments, the present disclosure is not limited to the above embodiments, and various modifications can be made based on the gist of the present disclosure. It is not excluded from the scope of For example, the
尚、本実施形態における制御の一部又は全部を上述した実施形態の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理システム等に供給するようにしてもよい。そしてその画像処理システム等におけるコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本開示を構成することとなる。 Note that a computer program that implements some or all of the functions of the above-described embodiments of control in this embodiment may be supplied to an image processing system or the like via a network or various storage media. Then, a computer (or CPU, MPU, etc.) in the image processing system or the like may read and execute the program. In that case, the program and the storage medium storing the program constitute the present disclosure.
尚、本実施形態の開示は、以下の構成、方法およびプログラムを含む。 Note that the disclosure of this embodiment includes the following configuration, method, and program.
(構成1)立体形状のデジタルコンテンツの第1面に対応付けられた仮想視点画像であって、複数の撮像装置で撮像されることにより得られた複数の画像と仮想視点とに基づいて生成される仮想視点画像と、前記デジタルコンテンツの第2面に対応付けられた前記仮想視点画像に対応する前記仮想視点と異なる視点の画像とを特定する特定手段と、
前記仮想視点画像に対応する画像と、前記仮想視点と異なる視点の画像に対応する画像とを表示領域に表示する制御を行う表示制御手段と、
を有することを特徴とする装置。
(Configuration 1) A virtual viewpoint image associated with the first surface of three-dimensional digital content, which is generated based on a plurality of images obtained by capturing images with a plurality of imaging devices and a virtual viewpoint. identifying means for identifying a virtual viewpoint image associated with a second surface of the digital content, and an image having a different viewpoint from the virtual viewpoint corresponding to the virtual viewpoint image associated with a second surface of the digital content;
Display control means for controlling display of an image corresponding to the virtual viewpoint image and an image corresponding to an image from a viewpoint different from the virtual viewpoint in a display area;
A device characterized by having:
(構成2)更に、前記表示領域を選択する入力情報を取得する取得手段を有し、
前記表示制御手段は、前記取得手段により前記取得された入力情報に基づいて、前記選択された表示領域に対応する画像を前記選択された表示領域と異なる表示領域である選択画像表示領域に表示すること
を特徴とする構成1に記載の装置。
(Configuration 2) further comprising an acquisition means for acquiring input information for selecting the display area,
The display control means displays an image corresponding to the selected display area in a selected image display area that is a different display area from the selected display area, based on the input information acquired by the acquisition means. The device according to
(構成3)前記デジタルコンテンツは、前記複数の画像と前記仮想視点を含む複数の仮想視点とに基づいて生成される複数の仮想視点画像を含むことを特徴とする構成1又は2に記載の装置。
(Structure 3) The device according to
(構成4)前記表示制御手段は、前記複数の仮想視点画像に対応する画像をそれぞれ異なる表示領域に表示することを特徴とする構成1乃至3のいずれか1項に記載の装置。
(Structure 4) The apparatus according to any one of
(構成5)前記複数の仮想視点画像に対応する画像を特定の表示領域に対応付け、
前記表示制御手段は、前記取得手段により前記複数の仮想視点画像に対応する画像を表示する表示領域を選択する入力を取得した場合、前記複数の仮想視点画像のうち、特定の仮想視点画像を前記選択画像表示領域に表示することを特徴とする構成1乃至4のいずれか1項に記載の装置。
(Configuration 5) Associating images corresponding to the plurality of virtual viewpoint images with a specific display area,
The display control means selects a specific virtual viewpoint image from among the plurality of virtual viewpoint images when the acquisition means obtains an input for selecting a display area in which an image corresponding to the plurality of virtual viewpoint images is displayed. 5. The device according to any one of
(構成6)前記複数の仮想視点画像に対応する複数の仮想視点うち少なくとも一つの仮想視点は、前記複数の撮像装置で撮像されることにより得られた複数の画像のうち少なくとも一つの画像に含まれる被写体に基づいて決定されることを特徴とする構成1乃至5のいずれか1項に記載の装置。
(Configuration 6) At least one virtual viewpoint among the plurality of virtual viewpoints corresponding to the plurality of virtual viewpoint images is included in at least one image among the plurality of images obtained by imaging with the plurality of imaging devices. 6. The apparatus according to any one of
(構成7)前記仮想視点の位置は、前記被写体を表す3次元形状の位置に基づいて決定されることを特徴とする構成1乃至6のいずれか1項に記載の装置。
(Configuration 7) The device according to any one of
(構成8)前記複数の仮想視点画像に対応する複数の仮想視点うち少なくとも一つの仮想視点の位置は被写体の位置に基づいて決定され、当該仮想視点からの視線方向は前記被写体の向きに基づいて決定されることを特徴とする構成1乃至7のいずれか1項に記載の装置。
(Configuration 8) The position of at least one virtual viewpoint among the plurality of virtual viewpoints corresponding to the plurality of virtual viewpoint images is determined based on the position of the subject, and the line of sight direction from the virtual viewpoint is determined based on the orientation of the subject. 8. The device according to any one of
(構成9)前記複数の仮想視点画像に対応する複数の仮想視点うち少なくとも一つの仮想視点の位置は被写体の後方に所定の距離離れた位置に基づいて決定され、当該仮想視点からの視線方向は前記被写体の向きに基づいて決定されることを特徴とする構成1乃至7のいずれか1項に記載の装置。
(Configuration 9) The position of at least one virtual viewpoint among the plurality of virtual viewpoints corresponding to the plurality of virtual viewpoint images is determined based on a position a predetermined distance behind the subject, and the line of sight direction from the virtual viewpoint is 8. The apparatus according to any one of
(構成10)前記複数の仮想視点画像に対応する複数の仮想視点うち少なくとも一つの仮想視点の位置は、被写体を中心とする球面上の位置に基づいて決定され、当該仮想視点からの視線方向は当該仮想視点の位置から前記被写体に向かう方向に基づいて決定されることを特徴とする構成1乃至7のいずれか1項に記載の装置。
(Configuration 10) The position of at least one virtual viewpoint among the plurality of virtual viewpoints corresponding to the plurality of virtual viewpoint images is determined based on the position on a spherical surface centered on the subject, and the line of sight direction from the virtual viewpoint is 8. The apparatus according to any one of
(構成11)前記被写体は人物であり、
前記被写体の向きは、前記被写体の顔の向きであることを特徴とする構成1乃至8のいずれか1項に記載の装置。
(Configuration 11) The subject is a person,
9. The device according to any one of
(構成12)前記表示制御手段は、前記選択画像表示領域に対し特定の操作情報が入力された場合、前記選択画像表示領域に表示している仮想視点画像と、前記複数の仮想視点画像のうち前記選択画像表示領域に表示している仮想視点画像と異なる仮想視点画像と、を切り替えることを特徴とする構成1乃至5のいずれか1項に記載の装置。
(Configuration 12) When specific operation information is input to the selected image display area, the display control means selects one of the virtual viewpoint images displayed in the selected image display area and the plurality of virtual viewpoint images. 6. The device according to any one of
(構成13)前記特定の操作情報は、キーボードのタイピング操作、マウスのクリック操作、マウスによるスクロール操作、仮想視点画像が表示されている表示装置に対するタッチ操作、スライド操作、フリックジェスチャ、ピンチイン・ピンチアウト操作の少なくとも何れか一つに関する操作情報である構成12に記載の装置。 (Configuration 13) The specific operation information includes keyboard typing operation, mouse click operation, mouse scroll operation, touch operation on the display device on which the virtual viewpoint image is displayed, slide operation, flick gesture, pinch-in/pinch-out The device according to configuration 12, wherein the device is operation information regarding at least one of the operations.
(構成14)前記表示制御手段は、前記複数の仮想視点画像それぞれに対応するアイコンを前記選択画像表示領域に重畳表示し、前記アイコンを選択する入力を受け付けると、前記選択画像表示領域に表示している仮想視点画像と、前記入力された前記アイコンに対応する前記仮想視点画像とを切り替えることを特徴とする構成12に記載の装置。 (Configuration 14) The display control means displays icons corresponding to each of the plurality of virtual viewpoint images in a superimposed manner on the selected image display area, and upon receiving an input to select the icon, displays the icons on the selected image display area. 13. The device according to configuration 12, wherein the device switches between a virtual viewpoint image corresponding to the inputted icon and a virtual viewpoint image corresponding to the inputted icon.
(構成15)前記表示制御手段は、前記仮想視点画像を示すアイコンを、前記仮想視点画像を示す画像に重畳表示することを特徴とする構成1乃至14のいずれか1項に記載の装置。
(Structure 15) The apparatus according to any one of
(方法)立体形状のデジタルコンテンツの第1面に対応付けられた仮想視点画像であって、複数の撮像装置で撮像されることにより得られた複数の画像と仮想視点とに基づいて生成される仮想視点画像と、前記デジタルコンテンツの第2面に対応付けられた前記仮想視点画像に対応する前記仮想視点と異なる視点の画像とを特定する特定工程と、
前記仮想視点画像に対応する画像と、前記仮想視点と異なる視点の画像に対応する画像とを表示領域に表示する制御を行う表示制御工程と、
を有することを特徴とする画像処理方法。
(Method) A virtual viewpoint image associated with the first surface of three-dimensional digital content, which is generated based on a plurality of images obtained by capturing images with a plurality of imaging devices and a virtual viewpoint. identifying a virtual viewpoint image and an image with a different viewpoint from the virtual viewpoint corresponding to the virtual viewpoint image associated with the second side of the digital content;
a display control step of controlling display of an image corresponding to the virtual viewpoint image and an image corresponding to an image of a viewpoint different from the virtual viewpoint in a display area;
An image processing method comprising:
(プログラム)構成1乃至15のいずれか1項に記載の装置に記載の各手段をコンピュータにより制御するためのプログラム。
(Program) A program for controlling each means described in the apparatus described in any one of
1 カメラ
2 形状推定部
3 画像生成部
4 コンテンツ生成部
5 保存部
115 表示部
116 操作部
100 画像処理装置
1
Claims (17)
前記仮想視点画像に対応する画像と、前記仮想視点と異なる視点の画像に対応する画像とを表示領域に表示する制御を行う表示制御手段と、
を有することを特徴とする画像処理システム。 A virtual viewpoint image associated with the first surface of three-dimensional digital content, which is generated based on a plurality of images obtained by capturing images with a plurality of imaging devices and a virtual viewpoint. and identifying means for identifying an image of a different viewpoint from the virtual viewpoint corresponding to the virtual viewpoint image associated with the second side of the digital content;
Display control means for controlling display of an image corresponding to the virtual viewpoint image and an image corresponding to an image from a viewpoint different from the virtual viewpoint in a display area;
An image processing system comprising:
前記表示制御手段は、前記取得手段により前記取得された入力情報に基づいて、前記選択された表示領域に対応する画像を前記選択された表示領域と異なる表示領域である選択画像表示領域に表示すること
を特徴とする請求項1に記載の画像処理システム。 Furthermore, it has an acquisition means for acquiring input information for selecting the display area,
The display control means displays an image corresponding to the selected display area in a selected image display area that is a different display area from the selected display area, based on the input information acquired by the acquisition means. The image processing system according to claim 1, characterized in that:
前記表示制御手段は、前記取得手段により前記複数の仮想視点画像に対応する画像を表示する表示領域を選択する入力を取得した場合、前記複数の仮想視点画像のうち、特定の仮想視点画像を前記選択画像表示領域に表示することを特徴とする請求項3に記載の画像処理システム。 associating images corresponding to the plurality of virtual viewpoint images with a specific display area;
The display control means selects a specific virtual viewpoint image from among the plurality of virtual viewpoint images when the acquisition means obtains an input for selecting a display area in which an image corresponding to the plurality of virtual viewpoint images is displayed. 4. The image processing system according to claim 3, wherein the image processing system displays the selected image in a selected image display area.
前記被写体の向きは、前記被写体の顔の向きであることを特徴とする請求項8に記載の画像処理システム。 The subject is a person,
9. The image processing system according to claim 8, wherein the orientation of the subject is the orientation of the face of the subject.
前記仮想視点画像に対応する画像と、前記仮想視点と異なる視点の画像に対応する画像とを表示領域に表示する制御を行う表示制御工程と、
を有することを特徴とする画像処理方法。 A virtual viewpoint image associated with the first surface of three-dimensional digital content, which is generated based on a plurality of images obtained by capturing images with a plurality of imaging devices and a virtual viewpoint. and a specifying step of identifying an image of a different viewpoint from the virtual viewpoint corresponding to the virtual viewpoint image associated with the second side of the digital content;
a display control step of controlling display of an image corresponding to the virtual viewpoint image and an image corresponding to an image of a viewpoint different from the virtual viewpoint in a display area;
An image processing method comprising:
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US18/306,055 US20230353717A1 (en) | 2022-04-27 | 2023-04-24 | Image processing system, image processing method, and storage medium |
KR1020230053723A KR20230152589A (en) | 2022-04-27 | 2023-04-25 | Image processing system, image processing method, and storage medium |
CN202310462138.2A CN116962660A (en) | 2022-04-27 | 2023-04-26 | Image processing system, image processing method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022073894 | 2022-04-27 | ||
JP2022073894 | 2022-04-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023163133A true JP2023163133A (en) | 2023-11-09 |
Family
ID=88651115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023038750A Pending JP2023163133A (en) | 2022-04-27 | 2023-03-13 | Image processing system, image processing method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023163133A (en) |
-
2023
- 2023-03-13 JP JP2023038750A patent/JP2023163133A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109889914B (en) | Video picture pushing method and device, computer equipment and storage medium | |
US9751015B2 (en) | Augmented reality videogame broadcast programming | |
US10650590B1 (en) | Method and system for fully immersive virtual reality | |
CN113784148A (en) | Data processing method, system, related device and storage medium | |
US20080109729A1 (en) | Method and apparatus for control and processing of video images | |
US20060114251A1 (en) | Methods for simulating movement of a computer user through a remote environment | |
KR20010074508A (en) | Method and apparatus for generating virtual views of sporting events | |
JP2019079298A (en) | Information processing device, display control method, and program | |
US20230353717A1 (en) | Image processing system, image processing method, and storage medium | |
JP2020086983A (en) | Image processing device, image processing method, and program | |
JP7207913B2 (en) | Information processing device, information processing method and program | |
EP4054186A1 (en) | Information processing apparatus, information processing method, and program | |
JP7446754B2 (en) | Image processing device, image processing method, and program | |
JP2024124469A (en) | Image processing device, image processing method, and computer program | |
WO2009078909A1 (en) | Virtual object rendering system and method | |
US10796723B2 (en) | Spatialized rendering of real-time video data to 3D space | |
JP2024019537A (en) | Image processing apparatus, image processing method, and program | |
JP2023163133A (en) | Image processing system, image processing method, and computer program | |
CN116962660A (en) | Image processing system, image processing method, and storage medium | |
JP2023132320A (en) | Image processing system, image processing method, and computer program | |
JP2020067716A (en) | Information processing apparatus, control method and program | |
JP7204843B2 (en) | Transmission device, transmission method, and program | |
WO2023127430A1 (en) | Information processing device, image processing method, and program | |
WO2022201509A1 (en) | Information processing device, information processing method, and program | |
WO2024070761A1 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240605 |