JP7080586B2 - Information processing equipment, information processing methods and programs - Google Patents
Information processing equipment, information processing methods and programs Download PDFInfo
- Publication number
- JP7080586B2 JP7080586B2 JP2017074829A JP2017074829A JP7080586B2 JP 7080586 B2 JP7080586 B2 JP 7080586B2 JP 2017074829 A JP2017074829 A JP 2017074829A JP 2017074829 A JP2017074829 A JP 2017074829A JP 7080586 B2 JP7080586 B2 JP 7080586B2
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- information processing
- information
- virtual viewpoint
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、仮想視点画像を生成する技術に関する。 The present invention relates to a technique for generating a virtual viewpoint image.
従来、異なる位置に設置された複数のカメラにより複数の方向から被写体を撮影し、当該撮影により得られた複数の撮影画像(複数視点画像)を用いて仮想視点画像を生成する技術が提案されている。このようにして生成される仮想視点画像は、設置されたカメラの視点に限らない仮想的な視点における見えを表す画像である。仮想視点画像を生成する技術によれば、例えば、撮影されたサッカーやバスケットボールの試合を、自由に指定可能な様々な視点から見ることが可能になり、従来の撮影画像よりも高い臨場感を視聴者に与えることが出来る。 Conventionally, a technique has been proposed in which a subject is photographed from a plurality of directions by a plurality of cameras installed at different positions, and a virtual viewpoint image is generated using a plurality of captured images (multi-viewpoint images) obtained by the shooting. There is. The virtual viewpoint image generated in this way is an image representing the appearance in a virtual viewpoint not limited to the viewpoint of the installed camera. According to the technology that generates virtual viewpoint images, for example, it is possible to view a shot soccer or basketball game from various viewpoints that can be freely specified, and to view a higher sense of reality than conventional shot images. Can be given to a person.
特許文献1には、複数視点画像には含まれない仮想オブジェクトである広告を仮想視点画像に挿入して表示させることが記載されている。また、広告を挿入する位置として、複数視点画像に含まれる壁など実空間上の平面状の領域を選択することが記載されている。
しかしながら、特許文献1に記載の技術では、仮想視点画像に仮想オブジェクトが挿入される場合に、カメラによる撮影範囲に含まれる壁などの被写体の少なくとも一部が、仮想視点画像において仮想オブジェクトに遮蔽されてしまう。
However, in the technique described in
本発明は上記の課題に鑑みてなされたものであり、仮想視点画像に仮想オブジェクトが挿入される場合に、カメラによる撮影範囲に含まれる被写体が仮想視点画像において仮想オブジェクトに遮蔽されてしまう虞を低減することを目的とする。 The present invention has been made in view of the above problems, and when a virtual object is inserted into a virtual viewpoint image, there is a risk that the subject included in the shooting range of the camera will be shielded by the virtual object in the virtual viewpoint image. The purpose is to reduce.
上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、撮影範囲をそれぞれ異なる位置から撮影する複数の撮影装置による撮影に基づく撮影画像に対応する画像データを取得するデータ取得手段と、前記データ取得手段により取得された画像データと仮想視点を示す視点情報とに基づいて生成される仮想視点画像に含まれる所定の被写体を遮蔽しない領域として定義された複数の候補領域から前記複数の撮影装置による撮影範囲外に対応する特定領域を決定する第1の決定手段と、前記特定領域に実在しない仮想オブジェクトが前記仮想視点画像内の前記特定領域に対応する位置に表示されるように、前記仮想オブジェクトの位置を決定する第2の決定手段と、を有する。 In order to solve the above problems, the information processing apparatus according to the present invention has, for example, the following configuration. That is, a data acquisition means for acquiring image data corresponding to an image taken based on shooting by a plurality of shooting devices that shoot a shooting range from different positions, and a viewpoint showing the image data acquired by the data acquisition means and a virtual viewpoint. The first is to determine a specific area corresponding to the outside of the shooting range by the plurality of photographing devices from a plurality of candidate areas defined as areas that do not block a predetermined subject included in the virtual viewpoint image generated based on the information. It has a determination means and a second determination means for determining the position of the virtual object so that the virtual object that does not exist in the specific area is displayed at the position corresponding to the specific area in the virtual viewpoint image. ..
本発明によれば、仮想視点画像に仮想オブジェクトが挿入される場合に、カメラによる撮影範囲に含まれる被写体が仮想視点画像において仮想オブジェクトに遮蔽されてしまう虞を低減できる。 According to the present invention, when a virtual object is inserted into a virtual viewpoint image, it is possible to reduce the possibility that the subject included in the shooting range of the camera is obscured by the virtual object in the virtual viewpoint image.
以下、図面を参照しながら本発明の実施形態について説明する。ただし、本発明は以下の実施形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments.
[システム構成]
図1は、本実施形態に係る画像処理システム10の構成例を示す図である。画像処理システム10は、情報処理装置100、複数の撮影装置(カメラ)108、及び端末装置109を有する。複数の撮影装置108は、それぞれ異なる方向から同期して撮影を行い、撮影に基づくデータを情報処理装置100に入力する。本実施形態では、複数の撮影装置108から情報処理装置100に入力される撮影に基づくデータが複数の撮影画像(複数視点画像)である場合を中心に説明するが、これに限らない。例えば、複数の撮影画像の差分に基づいて生成されるデータなどが撮影に基づくデータとして入力されてもよい。
[System configuration]
FIG. 1 is a diagram showing a configuration example of the
情報処理装置100は、複数の撮影装置108から取得したデータに基づいて、仮想視点画像を生成して出力する。端末装置109は、情報処理装置100から出力された仮想視点画像を取得してディスプレイなどの表示部に表示する。端末装置109は、例えば放送局や視聴者が有する装置であり、具体的にはPCやスマートフォンなどである。
The
本実施形態における仮想視点画像は、仮想的な視点(仮想視点)から被写体を撮影した場合に得られる画像を表す。言い換えると、仮想視点画像は、指定された視点における見えを表す画像である。仮想視点は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(仮想視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお本実施形態では、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム10は、静止画及び動画の何れについても処理可能である。
The virtual viewpoint image in the present embodiment represents an image obtained when a subject is photographed from a virtual viewpoint (virtual viewpoint). In other words, a virtual viewpoint image is an image that represents the appearance at a specified viewpoint. The virtual viewpoint may be specified by the user, or may be automatically specified based on the result of image analysis or the like. That is, the virtual viewpoint image includes an arbitrary viewpoint image (virtual viewpoint image) corresponding to the viewpoint arbitrarily designated by the user. Further, an image corresponding to a viewpoint designated by the user from a plurality of candidates and an image corresponding to the viewpoint automatically designated by the device are also included in the virtual viewpoint image. In the present embodiment, unless otherwise specified, the word "image" will be described as including the concepts of both moving images and still images. That is, the
本実施形態において、情報処理装置100から出力される仮想視点画像には、撮影装置108により撮影された複数視点画像には含まれない仮想オブジェクトが挿入されうる。なお、仮想視点画像に仮想オブジェクトを挿入するという文言が表す内容は、仮想オブジェクトを含む仮想視点画像をレンダリング処理により生成する形態に限らない。例えば、仮想視点画像と仮想オブジェクトの画像とをそれぞれ独立したレンダリング処理により生成し、生成された仮想視点画像と仮想オブジェクトの画像とが重なるように表示する形態も含まれる。また、挿入の方向は限定されず、例えば、生成された仮想オブジェクトの画像に後から仮想視点画像を合成する形態も含まれる。
In the present embodiment, a virtual object that is not included in the plurality of viewpoint images taken by the photographing
なお本実施形態では、仮想視点画像に挿入される仮想オブジェクトが、仮想視点画像内に広告を表示させるための仮想広告である場合を中心に説明する。ただし、仮想オブジェクトは広告に限らない。例えば仮想オブジェクトとして、試合の途中経過に関する情報や試合に関する統計情報が表示されてもよいし、人物などの被写体を説明する文字や画像、当該人物の生体情報などが表示されてもよい。また、本実施形態では仮想オブジェクトが面状のオブジェクトである場合を中心に説明するが、直方体や球体など立体形状のオブジェクトであってもよい。 In this embodiment, the case where the virtual object inserted in the virtual viewpoint image is a virtual advertisement for displaying an advertisement in the virtual viewpoint image will be mainly described. However, virtual objects are not limited to advertisements. For example, as a virtual object, information on the progress of the game or statistical information on the game may be displayed, or characters or images explaining a subject such as a person, biological information of the person, or the like may be displayed. Further, in the present embodiment, the case where the virtual object is a planar object will be mainly described, but it may be a three-dimensional object such as a rectangular parallelepiped or a sphere.
次に、情報処理装置100のハードウェア構成について説明する。なお、端末装置109のハードウェア構成も情報処理装置100と同様である。情報処理装置100は、CPU101、ROM102、RAM103、補助記憶装置104、操作部105、通信I/F(インターフェース)106、及びシステムバス107を有する。
Next, the hardware configuration of the
CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて各種処理のための演算や論理判断などを行い、システムバス107に接続された各構成要素を制御する。なお、情報処理装置100がCPU101とは異なる専用の1又は複数のハードウェアやGPU(Graphics Processing Unit)を有し、CPU101による処理の少なくとも一部をGPUや専用のハードウェアが行ってもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM102は、プログラムメモリであって、後述する各種処理をCPU101が実行するためのプログラムやパラメータを格納する。RAM103は、データメモリであり、補助記憶装置104から供給されるプログラムやデータ、及び通信I/F106を介して外部から供給されるデータなどを一時記憶する。またRAM103は、CPU101がプログラムを実行する際のワーク領域、エラー処理を行う際のデータの退避領域、及びプログラムをロードする領域などとして機能する。
The
補助記憶装置104は、例えばハードディスクドライブ等で構成され、静止画や動画などのコンテンツデータ、及びプログラムなどを記憶する。なお、補助記憶装置104はハードディスクドライブに限らず、同様の役割を果たす外部記憶装置であってもよい。ここで外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現される。このようなメディアとしては、例えばFD(フレキシブルディスク)、CD-ROM、DVD、USBメモリ、MO(光磁気ディスク)、フラッシュメモリ等が用いられる。また、補助記憶装置104は、情報処理装置100とネットワークで接続されたサーバー装置などであってもよい。
The auxiliary storage device 104 is composed of, for example, a hard disk drive or the like, and stores content data such as still images and moving images, programs, and the like. The auxiliary storage device 104 is not limited to the hard disk drive, and may be an external storage device that plays a similar role. Here, the external storage device is realized by, for example, a medium (recording medium) and an external storage drive for realizing access to the media. As such media, for example, FD (flexible disk), CD-ROM, DVD, USB memory, MO (magneto-optical disk), flash memory and the like are used. Further, the auxiliary storage device 104 may be a server device or the like connected to the
表示部110は、例えば液晶ディスプレイ等で構成され、ユーザが情報処理装置100を操作するためのGUI(Graphic User Interface)などを表示する。操作部105は、例えばジョイスティック、ゲームパッド、タッチパネル、キーボード、及びマウスなどの入力デバイスで構成され、ユーザによる操作を受けて各種の指示をCPU101に入力する。通信I/F106は、端末装置109や撮影装置108などの外部の装置と通信を行う。例えば、情報処理装置100が外部の装置と有線で接続される場合には、LANケーブル等が通信I/F106に接続される。なお、情報処理装置100が外部の装置と無線通信する機能を有する場合、通信I/F106はアンテナを備える。システムバス107は、情報処理装置100の各部を繋いで情報を伝達する。
The
なお、本実施形態では表示部110と操作部105は情報処理装置100の内部に存在するが、情報処理装置100は表示部110及び操作部105の少なくとも一方を備えていなくてもよい。また、表示部110及び操作部105の少なくとも一方が情報処理装置100の外部に別の装置として存在していて、CPU101が、表示部110を制御する表示制御部、及び操作部105を制御する操作制御部として動作してもよい。
In the present embodiment, the
[機能構成]
図2は、本実施形態に係る情報処理装置100の機能構成例を示すブロック図である。情報処理装置100は、画像取得部201、分離処理部202、前景モデル生成部203、前景テクスチャ決定部204、背景モデル取得部205、背景テクスチャ決定部206、カメラパラメータ取得部207、及び領域特定部208を有する。情報処理装置100はまた、注視点取得部209、候補決定部210、視点取得部211、配置決定部212、広告モデル生成部213、広告テクスチャ決定部214、レンダリング処理部215、及び出力部216を有する。情報処理装置100が有するこれらの各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現される。なお、図2に示す機能部の少なくとも一部を、CPU101とは異なる専用の1又は複数のハードウェアやGPUにより実現してもよい。
[Functional configuration]
FIG. 2 is a block diagram showing a functional configuration example of the
画像取得部201は、複数の撮影装置108によるそれぞれ異なる方向からの撮影に基づくデータを取得する。ここでは、画像取得部201が複数の撮影画像(複数視点画像)を取得するものとする。ただしこの例に限らず、例えば、複数の撮影画像の差分に基づいて生成されるデータなどが画像取得部201により取得されるようにしてもよい。
The
分離処理部202は、画像取得部201が取得した撮影画像(複数視点画像)を、所定の被写体に対応する前景と、当該所定の被写体とは異なる被写体に対応する背景とに分離する。ここで所定の被写体とは、例えば予め定められた形状パターンに合致する被写体や、動きのある被写体などである。例えば、撮影装置108により撮影される対象がスタジアムにおけるサッカーの試合である場合には、選手やボールが前景として処理される。一方、スタジアムのフィールドや観客席、屋根など、前景として処理される所定の被写体とは異なる被写体は、背景として処理される。なお、撮影装置108による撮影対象はサッカーの試合に限らず、ラグビーや相撲など他の競技であってもよい。さらに、撮影対象はスタジアムにおける競技に限らず、ステージにおけるコンサートなどであってもよい。
The
前景と背景の分離方法としては、たとえば動きの有る被写体を前景とする場合、撮影装置108による撮影画像において複数のフレームにわたり画素値の変化がないまたは小さい領域を背景とし、画素値の変化が大きい領域を前景とする方法などがある。また別の方法として背景差分法を用いる場合は、前景となる所定の被写体が存在しない状態で予め撮影した背景画像を保持しておき、撮影画像と背景画像との差分をとることで前景を抽出することもできる。
As a method of separating the foreground and the background, for example, when a moving subject is used as the foreground, the pixel value changes significantly in the image captured by the photographing
前景モデル生成部203は、複数視点画像のそれぞれから分離処理部202が分離した前景の画像に基づいて、前景に対応する被写体(例えば選手やボール)の形状を表す3次元モデルに関するモデル情報を生成する。モデル情報には例えば、被写体の3次元モデルを特定する情報と、当該被写体の3次元座標系における位置に関する情報とが含まれる。本実施形態における3次元座標系とは、情報処理装置100が仮想視点画像を生成するために3次元モデルを配置する仮想的な3次元空間を規定する座標系であり、3次元座標系における位置と実空間上の位置とが対応関係にある。被写体の3次元モデルの決定方法としては、例えば、複数視点画像のそれぞれにおける被写体の2次元シルエットを用いて計算される当該被写体の3次元形状を表すビジュアルハルを用いる方法などがある。
The foreground
前景テクスチャ決定部204は、前景モデル生成部203が決定した前景の3次元モデルに対し、被写体の色や質感を表すテクスチャをマッピングすることで、テクスチャに関する情報を含む前景のモデル情報を生成する。具体的には、前景テクスチャ決定部204は、分離処理部202が分離した前景の画像をテクスチャとして、3次元モデルを表す点群やポリゴンにマッピングする。
The foreground
背景モデル取得部205は、複数視点画像から分離処理部202が分離した背景の画像に基づいて、背景に対応する被写体(例えばスタジアムなど)のモデル情報を生成する。なお、背景のモデル情報を事前に補助記憶装置104に保存しておき、背景モデル取得部205は背景のモデル情報を補助記憶装置104から読みだすことで取得してもよい。背景テクスチャ決定部206は、背景モデル取得部205が決定した背景の3次元モデルに、分離処理部202が分離した背景の画像をテクスチャとしてマッピングする。
The background
カメラパラメータ取得部207は、複数の撮影装置108それぞれの外部パラメータおよび内部パラメータを取得する。外部パラメータは撮影装置108の位置や向きに関する情報であり、内部パラメータは撮影装置108の画角や焦点距離に関する情報である。領域特定部208は、前景のモデル情報と背景のモデル情報とに基づいて、仮想視点画像の描画対象となる領域のうち撮影装置108による撮影範囲外に対応する非撮影領域を特定する。ここで特定される非撮影領域は、仮想視点画像内における仮想広告を挿入する位置を決定するために用いられる。非撮影領域の特定の詳細については後述する。
The camera
注視点取得部209は、複数の撮影装置108の撮影方向に応じた注視点を特定する。本実施形態において注視点とは、複数の撮影装置108が向いている位置、すなわち複数の撮影装置108の視野の中心に対応する位置である。画像処理システム10においては、複数の撮影装置108それぞれの向きを雲台によって変更することができ、例えば撮影対象の試合の状況に応じて注視点の位置を変えることができる。そして注視点取得部209は、注視点の位置の変化に応じて新たに注視点を特定する。なお、画像処理システム10において注視点は複数存在していてもよい。すなわち、複数の撮影装置108のうち第1のグループに含まれる複数の撮影装置108が第1の注視点に向いており、第2のグループに含まれる複数の撮影装置108が第1の注視点とは異なる第2の注視点に向いていてもよい。
The gaze
候補決定部210は、前景のモデル情報、背景のモデル情報、及び注視点などに基づいて、3次元座標系における仮想広告の配置候補となる領域を決定する。視点取得部211は、仮想視点画像の生成に係る仮想視点を特定するための視点情報を取得する。視点情報は仮想視点の指定に応じた情報であり、例えば視点取得部211は、仮想視点を指定するために操作部105に対して行われるユーザ操作に基づいて仮想視点を特定し、視点情報を生成してもよい。また例えば、視点取得部211は、端末装置109において指定された仮想視点に関する視点情報を、端末装置109から取得してもよい。配置決定部212は、候補決定部210が決定した候補に従って、3次元座標系における仮想広告の配置を決定する。
The
広告モデル生成部213は、配置決定部212が決定した仮想広告の配置に基づいて、仮想広告の3次元モデルを決定し、配置情報を含む仮想広告のモデル情報を生成する。広告テクスチャ決定部214は、広告モデル生成部213が決定した仮想広告の3次元モデルに対し、仮想広告の内容を表す画像データ(広告データ)をテクスチャとしてマッピングすることで、テクスチャに関する情報を含む仮想広告のモデル情報を生成する。広告データは事前に補助記憶装置104に記憶されているものとし、広告テクスチャ決定部214は補助記憶装置104から広告データを読み出して利用する。
The advertisement
レンダリング処理部215は、テクスチャのマッピングが反映された前景のモデル情報、背景のモデル情報、及び仮想広告のモデル情報に基づいて、視点取得部211が取得した視点情報に対応する仮想視点画像を生成する。この生成処理においてレンダリング処理部215は、広告モデル生成部213が生成した仮想広告のモデル情報に含まれる配置情報に基づいて、仮想視点画像内における仮想広告を挿入する挿入領域を決定する。そしてレンダリング処理部215は、決定された挿入領域に仮想広告が挿入された仮想視点画像を生成する。出力部216は、レンダリング処理部215が生成した仮想視点画像を端末装置109に出力することで、端末装置109の表示部に当該仮想視点画像を表示させる。
The
なお、情報処理装置100は、仮想視点画像内における決定された挿入領域に仮想オブジェクトを挿入させる制御を行えばよく、その方法は仮想広告が挿入された仮想視点画像を生成するものに限らない。例えば、レンダリング処理部215は、前景のモデル情報及び背景のモデル情報に基づいて、仮想広告が挿入されていない仮想視点画像を生成してもよい。そして出力部216は、仮想広告が挿入されていない仮想視点画像と、仮想広告のモデル情報に基づいて決定された挿入領域を特定するための情報と、挿入領域に挿入されるべき仮想広告の画像とを、端末装置109へ出力してもよい。そして端末装置109が、情報処理装置100から取得した仮想視点画像内の挿入領域に仮想広告の画像を合成することで、仮想広告が挿入された仮想視点画像を生成し、端末装置109の表示部へ生成した仮想視点画像を表示させてもよい。またこの場合、端末装置109は、仮想視点画像内の挿入領域に仮想広告の画像を合成するか否かを、ユーザによる端末装置109に対する操作の内容や、当該ユーザを識別する情報などに基づいて判定してもよい。
The
また例えば、出力部216は、仮想広告が挿入されていない仮想視点画像と挿入領域を特定するための情報とを端末装置109へ出力してもよい。そして、情報処理装置100とは異なる装置が仮想広告の画像または仮想広告のモデル情報を端末装置109へ出力してもよい。そして端末装置109が、情報処理装置100から取得した情報と、情報処理装置100とは異なる装置から取得した情報とに基づいて、仮想視点画像の生成と表示を行ってもよい。このように仮想オブジェクトが挿入された仮想視点画像を表示させるための制御には種々のバリエーションが存在する。
Further, for example, the
なお、情報処理装置100による仮想視点画像の画像生成方法は以上で説明したものに限らない。例えば情報処理装置100は、3次元モデルを生成せず撮影画像を変形したり合成したりすることで仮想視点画像を生成してもよい。
The image generation method of the virtual viewpoint image by the
[動作フロー]
図3は、情報処理装置100による仮想視点画像の生成に係る処理の流れの例を示すフローチャートである。図3に示す処理は、仮想視点画像の生成を開始するためのユーザによる操作を操作部105が受け付けたタイミングで開始される。生成開始のためのユーザ操作は、例えば、撮影装置108による撮影の対象となる試合の開始に応じて行われる。なお、仮想視点画像の生成はリアルタイムで行われるものに限らず、例えば試合中に収録された撮影画像に基づいて、試合の終了後に仮想視点画像の生成が開始されてもよい。ただし、図3に示す処理の開始タイミングは上記タイミングに限定されない。
[Operation flow]
FIG. 3 is a flowchart showing an example of the flow of processing related to the generation of the virtual viewpoint image by the
生成される仮想視点画像が動画である場合、図3に示す処理は、動画の1フレームごとに行われる。ただし、図3に示す処理のすべてを毎フレーム実行する必要はなく、前のフレームの処理に用いた情報を再利用することで処理の一部を省略してもよい。図3に示す処理は、情報処理装置100のCPU101がROM102に格納されたプログラムをRAM103に展開して実行することで実現される。なお、図3に示す処理の少なくとも一部を、CPU101とは異なる専用の1又は複数のハードウェアやGPUにより実現してもよい。
When the generated virtual viewpoint image is a moving image, the process shown in FIG. 3 is performed for each frame of the moving image. However, it is not necessary to execute all of the processing shown in FIG. 3 every frame, and a part of the processing may be omitted by reusing the information used for the processing of the previous frame. The process shown in FIG. 3 is realized by the
S301では、画像取得部201が、複数の撮影装置108によるそれぞれ異なる方向からの撮影に基づく複数視点画像を取得する。S302では、分離処理部202が、画像取得部201が取得した複数視点画像それぞれを、前景と背景に分離する画像処理を行う。S303では、前景モデル生成部203が前景のモデル情報を生成し、背景モデル取得部205が背景のモデル情報を生成する。モデル情報には、被写体の形状を表す3次元モデルを特定する情報と、3次元座標系における被写体の位置を特定する情報が含まれる。S304では、前景テクスチャ決定部204が前景の3次元モデルにマッピングするテクスチャを決定し、テクスチャの情報を含む前景のモデル情報を生成する。また、背景テクスチャ決定部206が背景の3次元モデルにマッピングするテクスチャを決定し、テクスチャの情報を含む背景のモデル情報を生成する。
In S301, the
S305では、視点取得部211が、仮想視点画像の生成に係る、仮想視点の指定に応じた視点情報を取得する。視点情報には視点の位置や視線の方向を特定する情報が含まれる。S306では、領域特定部208が、前景のモデル情報と背景のモデル情報とに基づいて、仮想視点画像の描画対象となる領域のうち撮影装置108による撮影範囲外に対応する非撮影領域を特定する。ここで特定される非撮影領域は、仮想視点画像内における仮想広告を挿入する位置を決定するために用いられる。S306の処理の詳細については図4を用いて後述する。S307では、配置決定部212が広告の配置を決定し、広告モデル生成部213が仮想広告のモデル情報を生成する。S307の処理の詳細については図8を用いて後述する。
In S305, the
S308では、レンダリング処理部215が、前景、背景及び仮想広告それぞれのモデル情報を用いて、視点取得部211が取得した視点情報に対応する、仮想広告が挿入された仮想視点画像を生成する。S309では、出力部216が、レンダリング処理部215が生成した仮想視点画像を端末装置109に出力して処理を終了する。
In S308, the
図4は、図3のS306における非撮影領域の特定に係る処理の詳細を示すフローチャートである。図4の処理の開始時には非撮影領域が初期化され、図4の処理の中で非撮影領域が更新されていく。そして、更新が行われて最終的に特定された非撮影領域が、仮想広告を配置する対象の領域となる。 FIG. 4 is a flowchart showing the details of the process relating to the identification of the non-photographed area in S306 of FIG. At the start of the process of FIG. 4, the non-photographed area is initialized, and the non-photographed area is updated in the process of FIG. Then, the non-shooting area that is updated and finally identified becomes the target area for arranging the virtual advertisement.
S401では、領域特定部208が、前景のモデル情報および背景のモデル情報を取得する。ここで取得される前景のモデル情報には、前景に対応する被写体の3次元モデルを特定する情報、3次元座標系における当該被写体の位置に関する情報、および3次元モデルにマッピングされたテクスチャに関する情報が含まれている。同様に、背景のモデル情報には、背景に対応する被写体の3次元モデルを特定する情報、3次元座標系における当該被写体の位置に関する情報、および3次元モデルにマッピングされたテクスチャに関する情報が含まれている。
In S401, the
S402では、領域特定部208が、S401で取得された各被写体のモデル情報に対してS403からS405の処理が行われたか否かを判定する。未処理の被写体のモデル情報がある場合はその中の一つが処理対象として選択され、S403に移る。未処理の被写体のモデル情報がない場合はS406に移る。
In S402, the
S403では、領域特定部208が、処理対象の被写体の3次元モデルにおいてテクスチャがマッピングされていない領域を特定する。テクスチャがマッピングされていない領域は、すなわち、被写体の3次元モデルを表現するポリゴンまたは点群のうち、撮影装置108による撮影画像に基づく色情報が割り当てられていない部分である。S404では、領域特定部208が、S403で特定されたテクスチャがマッピングされていない領域を非撮影領域に追加することで、非撮影領域を更新する。
In S403, the
S405では、領域特定部208が、3次元座標系において処理対象の被写体の3次元モデルが位置しない領域を特定し、S402に戻る。処理対象の被写体を変えてS405の処理が繰りかえされることにより、3次元座標系においていずれの被写体の3次元モデルも位置しない領域が特定される。S406では、領域特定部208が、S405の処理により最終的に得られた、いずれの被写体の3次元モデルも位置しない領域を非撮影領域に追加することで、非撮影領域を更新する。
In S405, the
ここで、図5および図6を用いて、非撮影領域について説明する。図5(a)は、撮影装置108の撮影対象であるスタジアムの俯瞰図を示している。スタジアムの観客席501の内側に、フィールド502が存在している。複数の撮影装置108は、例えば観客席501の近傍やスタジアムの屋根に設置され、注視点503が視野の中心になるようにフィールド502の上方から撮影を行う。本実施形態では注視点503がフィールド面に存在するものとするが、これに限らず、注視点503はフィールド面から鉛直方向に離れた位置に存在してもよい。範囲506は複数の撮影装置108の何れの撮影範囲にも含まれるため、生成される仮想視点画像において範囲506の内部に対応する被写体は高画質で表示される。一方、生成される仮想視点画像において範囲506の外部に対応する領域は、範囲506の内部に対応する領域よりも低画質で表示されるか、または表示されない。
Here, the non-photographing region will be described with reference to FIGS. 5 and 6. FIG. 5A shows a bird's-eye view of the stadium to be photographed by the photographing
図5(b)は、スタジアムの俯瞰図における非撮影領域を示している。白抜きの領域505は、撮影装置108の少なくともいずれかの撮影範囲に含まれる領域であり、斜線の領域504は、いずれの撮影装置108の撮影範囲にも含まれない非撮影領域である。なお、本実施形態において撮影装置108はフィールド502を斜め上から撮影している。そして図5(b)の領域505は、撮影範囲に含まれる領域をフィールド面に投影したものである。そのため実際には、撮影装置108の直下付近のフィールド面は撮影されず、範囲506付近のフィールド面が、撮影される領域であり被写体の3次元モデルにマッピングされるテクスチャが得られる領域である。
FIG. 5B shows a non-photographed area in the bird's-eye view of the stadium. The
すでに説明したように、背景モデル取得部205は、背景に対応する被写体としてのスタジアム全体の3次元モデルを予め取得してもよい。この場合、領域504には、被写体の3次元モデルは存在するがテクスチャが得られないスタジアム内の領域と、被写体の3次元モデルが存在しないスタジアム外の領域とが含まれる。図6(a)及び図6(b)は、スタジアムを水平方向から見た断面図を示している。図6(b)には、図5(b)に示す領域504と領域505とが示されている。
As described above, the background
本実施形態では、このように特定された非撮影領域が仮想広告を配置する対象の領域となる。すなわち、情報処理装置100は、仮想視点画像内の領域であって、複数の撮影装置108による撮影範囲外に対応する領域を、仮想広告を挿入する挿入領域として決定する。これにより、撮影装置108の撮影範囲に含まれる被写体が仮想視点画像内において仮想広告に遮蔽されてしまう虞が低減される。なお、非撮影領域には、被写体の3次元モデルが存在しない領域と、被写体の3次元モデルは存在するがテクスチャが得られない領域とが含まれる。つまり、仮想視点画像内の領域であって、撮影装置108による撮影画像に含まれる被写体に対応しない領域が、仮想広告を挿入する挿入領域として決定される。またそれに加えて、撮影画像に含まれる被写体の内部に対応する領域、及び/又は被写体の面であって撮影画像に含まれない面に対応する領域も、挿入領域として決定される。被写体の内部に対応する領域とは、例えば建造物の壁の内部などであり、被写体の面であって撮影画像に含まれない面とは、例えば観客席501の椅子の裏側などである。
In the present embodiment, the non-shooting area specified in this way is the target area for arranging the virtual advertisement. That is, the
なお、本実施形態では、いずれの撮影装置108の撮影範囲にも含まれない領域504が非撮影領域として特定され、特定された非撮影領域に基づいて仮想広告の配置が決定される場合を中心に説明する。ただしこれに限らず、例えば、いずれの撮影装置108の撮影範囲にも含まれる範囲506の外部がすべて非撮影領域として特定されてもよい。また、設置された複数の撮影装置108のうち予め定められた数以上の撮影装置108の撮影範囲に含まれる範囲の外部が非撮影領域として特定されてもよい。
In this embodiment, the
S407では、領域特定部208が、視点取得部211が保持する視点情報を取得する。S408では、領域特定部208が、S401からS406の処理で得られた非撮影領域を、視点情報から特定される仮想視点に応じて更新し、処理を終了する。なお、本実施形態では、領域特定部208により特定される非撮影領域が仮想視点に応じて変化する場合を中心に説明するが、これに限らない。非撮影領域が仮想視点に依らずに決まる場合、図4におけるS407とS408の処理は省略される。
In S407, the
図7を用いて、仮想視点に応じた非撮影領域について説明する。図7は、図6(b)に示したスタジアムを水平方向から見た断面図と、仮想視点との関係を示している。視点情報から特定される仮想視点は、地中にある位置701から地上を見上げる方向の視野705を有する。領域703は、図6(b)の領域505のうち視野705に含まれる部分である。すなわち領域703は、仮想視点の視野内であり、且つ撮影装置108の少なくとも何れかの撮影範囲に含まれる領域の一部であってテクスチャが得られる領域である。領域702は、図6(b)の領域504のうち視野705に含まれる部分である。すなわち領域702は、仮想視点の視野内であるが、いずれの撮影装置108の撮影範囲にも含まれない領域であってテクスチャが得られない領域である。なお、領域504のうち仮想視点から見て領域703と重なる部分は領域702から除かれる。領域704は、仮想視点から見て領域703と重ならない領域であり、且つ被写体の3次元モデルが存在しない領域である。S408の処理によって更新された非撮影領域は、領域704と領域702とからなる領域である。このように、仮想広告を配置する対象の領域である非撮影領域を仮想視点に応じて設定することで、撮影装置108の撮影範囲に含まれる被写体が仮想視点画像内において仮想広告に遮蔽される虞をより低減できる。
A non-photographing area corresponding to a virtual viewpoint will be described with reference to FIG. 7. FIG. 7 shows the relationship between the cross-sectional view of the stadium shown in FIG. 6 (b) viewed from the horizontal direction and the virtual viewpoint. The virtual viewpoint identified from the viewpoint information has a field of
次に、図8を用いて、図3のS307における広告の配置に係る処理の詳細を説明する。S801では、候補決定部210が、領域特定部208により特定された非撮影領域の中から、3次元座標系における仮想広告の配置の候補となる領域を決定する。仮想視点画像内に仮想広告を挿入する場合には、撮影装置108により撮影される被写体と親和性のある位置や向きで仮想広告を挿入することで、仮想視点画像を見る視聴者に与える違和感を低減できる。そのため、候補決定部210は、前景や背景に対応する被写体の3次元モデルの面と略直角又は略平行な線や面、及び被写体の3次元モデルの周辺位置などを、仮想広告の配置候補として決定する。配置候補を決定する処理の詳細については図9を用いて後述する。
Next, the details of the process relating to the placement of the advertisement in S307 of FIG. 3 will be described with reference to FIG. In S801, the
S802では、配置決定部212が、候補決定部210が決定した配置候補にしたがって、3次元座標系における仮想広告の配置を決定する。なお配置決定部212は、決定された配置候補のうち、広告効果が高い領域に優先的に仮想広告を配置してもよい。広告効果が高い領域とは、例えば、仮想視点画像内に表示される時間が長い領域、表示される頻度が多い領域、表示される面積が大きい領域などである。また、配置決定部212は、仮想広告に設定された広告料金が高いほど、広告効果が高い領域に仮想広告を配置してもよい。仮想広告の配置を決定する処理の詳細については図11を用いて後述する。
In S802, the
S803では、広告モデル生成部213が仮想広告のモデル情報を生成する。具体的には、広告モデル生成部213は、仮想広告の形状を表す3次元モデルを特定する情報と、配置決定部212により決定された仮想広告の位置に関する情報とを生成する。S804では、広告テクスチャ決定部214が、仮想広告の3次元モデルに対して、補助記憶装置104に事前に記憶された広告データをテクスチャとしてマッピングする。
In S803, the advertisement
次に図9を用いて、図8のS801における仮想広告の配置候補を決定する処理の詳細について説明する。図8の処理の開始時には配置候補が初期化され、図8の処理の中で配置候補が更新されていく。そして、更新が行われて最終的に決定された配置候補が、仮想広告を配置する対象の領域となる。 Next, with reference to FIG. 9, the details of the process of determining the placement candidate of the virtual advertisement in S801 of FIG. 8 will be described. The placement candidates are initialized at the start of the process of FIG. 8, and the placement candidates are updated in the process of FIG. Then, the placement candidate finally determined after the update is performed becomes the target area for placing the virtual advertisement.
S901では、候補決定部210が、前景および背景のモデル情報を取得する。ここで取得されるモデル情報には、被写体の3次元モデルを特定する情報、被写体の位置に関する情報、及びテクスチャに関する情報が含まれる。S902では、候補決定部210が、S901で取得された各被写体のモデル情報に対してS903からS912の処理が行われたか否かを判定する。未処理の被写体のモデル情報がある場合はその中の一つが処理対象として選択され、S903に移る。未処理の被写体のモデル情報がない場合はS913に移る。
In S901, the
S903では、候補決定部210が、処理対象の被写体が実空間上に存在する実広告(例えば看板など)であるか否かを判定し、実広告の場合はS904に移り、実広告でない場合はS905に移る。S904では、候補決定部210は、3次元座標系において実広告から鉛直方向に離れた位置を仮想広告の配置候補に追加しS902に戻る。仮想視点画像において、仮想広告を実広告の直上や直下など実広告から鉛直方向に離れた位置に挿入し、仮想広告と実広告の広告内容を関連させることで、広告効果を相乗的に向上させることができる。
In S903, the
S905では、候補決定部210が、処理対象の被写体が観客席であるか否かを判定し、観客席の場合はS906に移り、観客席でない場合はS908に移る。S906では、候補決定部210が、観客席とフィールドの境界から鉛直方向に離れた位置を配置候補に追加し、S907に移る。S907では、候補決定部210が、観客席の外壁の面を配置候補に追加し、S902に戻る。本実施形態では撮影装置108がスタジアムの中に設置されているため、観客席の外壁は撮影装置108による撮影範囲に含まれず、外壁の面に対応するテクスチャは得られない。
In S905, the
S908では、候補決定部210が、処理対象の被写体が屋根であるか否かを判定し、屋根の場合はS909に移り、屋根でない場合はS910に移る。S909では、候補決定部210が、屋根の外側の面を配置候補に追加し、902に戻る。屋根の外側の面も観客席の外壁と同様、撮影装置108による撮影範囲には含まれない。
In S908, the
S910では、候補決定部210が、処理対象の被写体がフィールドであるか否かを判定し、フィールドの場合はS911に移り、フィールドでない場合はS902に戻る。S911では、候補決定部210が、フィールドの面を配置候補に追加し、S912に移る。S912では、候補決定部210が、3次元座標系においてフィールド上に引かれた線に直角な面を配置候補に追加し、S902に戻る。
In S910, the
S913では、注視点取得部209が複数の撮影装置108の撮影方向に応じた注視点の位置を取得する。候補決定部210は、3次元座標系において注視点から鉛直方向に離れた位置に対応する領域を配置候補に追加し、S914に移る。仮想視点画像において、注視点の周辺は画質が高く、視聴者が特に注目する領域である。そのため、注視点の真下や真上など注視点から鉛直方向に離れた位置に仮想広告を挿入することで、広告効果を向上させることができる。
In S913, the gazing
S914では、候補決定部210が、領域特定部208により特定された非撮影領域を取得し、S915に移る。S915では、候補決定部210が、S903からS912の処理により追加された配置候補のうち非撮影領域に存在する配置候補のみを最終的な配置候補として決定し、処理を終了する。
In S914, the
図10は、仮想広告の配置候補の一例を示している。この例では、観客席501、フィールド502、実広告1002、及び注視点503を基準として配置候補が決定される。候補1001は、観客席501の外壁の面である。候補1004は、観客席501の屋根の外側の面である。候補1005は、スタジアムの外部で地面の高さの水平面である。候補1006は、観客席の下で地面の高さの水平面である。候補1007は、観客席とフィールドの境界から鉛直方向に離れた面である。候補1008は、撮影装置108による撮影画像に含まれる被写体である実看板から鉛直方向に離れた面である。候補1009は注視点から鉛直方向に離れた面である。
FIG. 10 shows an example of placement candidates for virtual advertisements. In this example, placement candidates are determined based on the audience seats 501, the
なお、図10では仮想広告が厚みを持った形状となっているが、これに限らず、仮想広告は厚みのない面状のオブジェクトであってもよい。例えば、観客席501の外壁の面である候補1001に仮想広告が配置される場合には、外壁のテクスチャとして広告がマッピングされてもよい。
Although the virtual advertisement has a thick shape in FIG. 10, the virtual advertisement is not limited to this, and the virtual advertisement may be a planar object having no thickness. For example, when the virtual advertisement is placed on the
ここで、候補1007、候補1008及び候補1009は、地中に対応する領域である。なお、図10では背景に対応する被写体及び注視点を基準として決定される配置候補が示されているが、選手やボールなど前景に対応する被写体を基準として配置候補が決定されてもよい。例えば、選手から鉛直方向に離れた位置に、当該選手に関する情報を表示するための仮想オブジェクトが配置されてもよい。また、図10では仮想オブジェクトが面形状である場合を示しているが、これに限らず、仮想オブジェクトは球体や直方体などの立体形状であってもよい。
Here,
次に図11を用いて、図8のS802における仮想広告の配置を決定する処理の詳細について説明する。図11を用いた以下の説明では、生成される仮想視点画像が動画であるものとする。S1101では、配置決定部212が、補助記憶装置104に予め記憶された仮想広告の広告データを取得する。仮想視点画像に挿入される仮想広告が複数ある場合には、複数の広告データが取得される。
Next, with reference to FIG. 11, the details of the process of determining the placement of the virtual advertisement in S802 of FIG. 8 will be described. In the following description using FIG. 11, it is assumed that the generated virtual viewpoint image is a moving image. In S1101, the
S1102では、配置決定部212が、S1101で取得された各広告データに対してS1103からS1108の処理が行われたか否かを判定する。未処理の広告データが存在する場合はその中の1つが処理対象として選択され、S1103に移る。未処理の広告データが存在しない場合は処理を終了する。
In S1102, the
S1103では、配置決定部212が、前のフレームの仮想視点画像の生成において処理対象の仮想広告が配置されたか否かを判定する。配置済みの場合はS1105に移動し、配置済みでない場合はS1104に移る。S1104では、配置決定部212が、候補決定部210が決定した配置候補にしたがって仮想広告の配置を決定する。候補決定部210により決定された配置候補が複数ある場合には、配置決定部212は例えば、配置候補のうち広告効果が最も高い領域に仮想広告を配置する。ただし、配置候補の中から仮想広告を配置する領域を決定する方法はこれに限らない。
In S1103, the
S1105では、配置決定部212が、視点取得部211が保持している視点情報を取得する。S1106では、配置決定部212が、仮想視点が移動中であるか否かを判定する。仮想視点が移動中である、すなわち処理対象のフレームにおける仮想視点と前のフレームにおける仮想視点とが一致しない場合はS1108に移り、仮想視点が移動中でない場合はS1107に移る。
In S1105, the
S1107では、配置決定部212が、仮想広告の配置を更新する。例えば、仮想視点の移動が停止した際、配置候補のうち広告効果が高い領域が仮想視点の移動に伴って変化していた場合に、配置決定部212は仮想広告の配置を変更してもよい。また例えば、配置決定部212は、仮想視点の移動に伴って3次元座標系における仮想広告の向きを変更してもよい。S1108では、配置決定部212が、仮想広告の配置を前フレームにおける配置から変更せずに処理を終了する。すなわち、仮想視点の移動中には仮想広告の配置が更新されない。
In S1107, the
図12および図13を用いて、仮想広告の配置の例について説明する。図12は、図11の処理に従って、仮想視点の移動に応じて3次元座標系における仮想広告の向きが変化する場合の例を示す。図12(a)の視点1201から図12(c)の視点1203まで、仮想視点が時間経過に伴って連続的に移動する。図11で説明したように、仮想視点が移動しているは仮想広告1204の向きが変化しない。一方、図12(d)は図12(c)の次のフレームに対応し、仮想視点の移動が停止したことに応じて、仮想広告の向きが変化している。このように、仮想視点の移動中は広告の向きを変化させないことで、仮想視点画像の視聴者に与える違和感を低減できる。また、仮想視点の移動が止まった後に、仮想視点に応じた向きに仮想広告を配置しなおすことで、仮想広告が視聴者の目に留まりやすくなり、広告効果を向上させることができる。以上のように、配置決定部212は、3次元座標系における仮想オブジェクトの向きを、視点取得部211が取得した視点情報に基づいて決定してもよい。
An example of the placement of a virtual advertisement will be described with reference to FIGS. 12 and 13. FIG. 12 shows an example in which the orientation of the virtual advertisement in the three-dimensional coordinate system changes according to the movement of the virtual viewpoint according to the process of FIG. The virtual viewpoint moves continuously with the passage of time from the
図12の例においては、広告が表示される所定の面が3次元座標系において地面に略水平又は略垂直となるように、仮想広告の向きが決められている。これにより、視聴者が仮想視点画像における水平方向や鉛直方向を把握しやすくなる。また図12の例では、水平向きと垂直向きのうち、仮想視点から広告内容がより見えやすい向きに、仮想広告が配置されている。広告内容が見えやすい向きとは、仮想視点の視線方向と仮想広告の面とが成す角が直角に近くなるような向きである。 In the example of FIG. 12, the orientation of the virtual advertisement is determined so that the predetermined surface on which the advertisement is displayed is substantially horizontal or substantially perpendicular to the ground in the three-dimensional coordinate system. This makes it easier for the viewer to grasp the horizontal direction and the vertical direction in the virtual viewpoint image. Further, in the example of FIG. 12, the virtual advertisement is arranged in the direction in which the advertisement content is more easily seen from the virtual viewpoint, out of the horizontal orientation and the vertical orientation. The direction in which the advertisement content is easy to see is the direction in which the angle formed by the line-of-sight direction of the virtual viewpoint and the surface of the virtual advertisement is close to a right angle.
なお、仮想広告の広告効果をより高めるために、仮想視点の移動中にも仮想広告の向きを変更してもよい。図13はこの場合の例を示す。仮想視点は図13(a)の視点1201から図13(c)の視点1203へ連続的に移動するが、図12(b)の視点1202において仮想視点から広告内容が見えやすい向きが変化するため、この時点において仮想広告の向きが変更される。
In addition, in order to further enhance the advertising effect of the virtual advertisement, the direction of the virtual advertisement may be changed even while the virtual viewpoint is moving. FIG. 13 shows an example in this case. The virtual viewpoint continuously moves from the
なお、図11を用いた以上の説明では、仮想視点の変化に応じて仮想広告の配置が変化するものとしたが、これに限らない。すなわち、配置決定部212は、3次元座標系における固定位置であって、視点取得部211により取得される視点情報に応じて変化しない固定位置を、仮想広告の位置として決定してもよい。これにより、仮想広告と撮影画像に含まれる被写体との3次元座標系における位置関係が仮想視点の移動に伴って変化することで仮想視点画像の視聴者が受ける違和感を、軽減することができる。
In the above description using FIG. 11, it is assumed that the arrangement of the virtual advertisement changes according to the change of the virtual viewpoint, but the present invention is not limited to this. That is, the
図14は、配置決定部212による仮想広告の配置の決定に従ってレンダリング処理部215により生成される仮想視点画像の例を示す。図14(a)は、地中から地上を見上げるように指定された仮想視点に対応する仮想視点画像の一例である。撮影装置108による撮影画像に含まれる被写体として、選手1400、実広告1002、及び観客席501が表示されている。フィールドと観客席の境界1403よりも下の領域は、撮影装置108による撮影範囲外に対応する地中の領域1405である。図14の例では、フィールドが透明化して表示されているため、実際はフィールドに接地している選手1400が浮いているかのように表示されている。
FIG. 14 shows an example of a virtual viewpoint image generated by the
撮影範囲外に対応する領域1405は黒画像になっており、この領域1405の中に仮想広告1204が表示されている。従来は黒画像になっており撮影範囲外であることのみを示していた領域1405に、文字情報を有する仮想広告1204などユーザに対して所定の情報を提供するための仮想オブジェクトを表示させることで、仮想視点画像内の限られた領域を有効活用できる。なお、領域1405のうち仮想広告1204以外の領域には、黒画像に限らず、予め定められた色や模様の画像が割り当てられてもよい。
The
なお、図14(a)の例のように、仮想広告1204は撮影範囲内に対応する領域(境界1403よりも上の領域)には隣接しない領域に表示してもよい。こうすることで、撮影範囲内に対応する領域と撮影範囲外に対応する領域を仮想視点画像の視聴者が識別しやすくなる。
As in the example of FIG. 14A, the
また、本実施形態では、仮想視点画像が撮影範囲内に対応する領域と撮影範囲外に対応する領域とを含む場合に、仮想視点画像内の領域であって撮影範囲外に対応する領域に仮想広告を表示させる場合について説明する。ただしこれに限らず、仮想視点画像外に広告が表示されてもよい。例えば、端末装置109の表示部が有する表示領域内において、仮想視点画像が表示される領域の外側に、広告が表示される広告領域が存在してもよい。そして、当該広告領域の形状や、当該広告領域に表示される広告の表示内容、及び当該広告領域に広告を表示させるか否かなどが、仮想視点画像の生成に係る仮想視点に応じて変化してもよい。
Further, in the present embodiment, when the virtual viewpoint image includes a region corresponding to the shooting range and a region corresponding to the outside of the shooting range, the virtual viewpoint image is virtual to the region corresponding to the outside of the shooting range. The case of displaying an advertisement will be described. However, the present invention is not limited to this, and the advertisement may be displayed outside the virtual viewpoint image. For example, in the display area of the display unit of the
図14(b)は、上空からスタジアムを見下ろすように指定された仮想視点に対応する仮想視点画像の一例である。3次元モデルは存在するがテクスチャが存在しないスタジアムの屋根に対応する領域1406に仮想広告「ADV1」が表示され、3次元モデルが存在しないスタジアムの外部に対応する領域1407に仮想広告「ADV2」が表示されている。
FIG. 14B is an example of a virtual viewpoint image corresponding to a virtual viewpoint designated to look down on the stadium from the sky. The virtual advertisement "ADV1" is displayed in the
なお、本実施形態では仮想広告を仮想視点画像内において撮影範囲外に対応する領域にのみ挿入する場合を中心に説明したが、これに限定されるものではなく、撮影範囲内に対応する領域と外部に対応する領域の両方に仮想広告を挿入してもよい。このような構成によっても、仮想広告をすべて撮影範囲内に対応する領域に挿入する場合と比べて、撮影範囲に含まれる被写体が仮想オブジェクトに遮蔽されてしまう虞を低減できる。 In the present embodiment, the case where the virtual advertisement is inserted only in the area corresponding to the outside of the shooting range in the virtual viewpoint image has been mainly described, but the present invention is not limited to this, and the area corresponds to the shooting range. Virtual ads may be inserted in both areas corresponding to the outside. Even with such a configuration, it is possible to reduce the possibility that the subject included in the shooting range is obscured by the virtual object as compared with the case where all the virtual advertisements are inserted in the corresponding area within the shooting range.
また、本実施形態では配置決定部212が仮想的な3次元座標系における仮想広告の配置を決定し、当該決定された配置に基づいてレンダリング処理部215が仮想視点画像内における仮想広告を挿入する挿入領域を決定する場合について説明した。ただしこれに限らず、情報処理装置100は例えば、仮想広告が挿入されていない仮想視点画像を生成し、当該仮想視点画像において撮影範囲外に対応する領域を、撮影装置108の撮影に関する外部パラメータ及び内部パラメータに基づいて特定してもよい。そして情報処理装置100は、仮想視点画像内の当該特定された領域を、仮想広告を挿入する挿入領域として決定してもよい。
Further, in the present embodiment, the
以上説明したように、本実施形態に係る情報処理装置100は、複数の撮影装置108による撮影画像に含まれない仮想オブジェクトが挿入される仮想視点画像の挿入領域を決定する。具体的には、複数の撮影装置108によるそれぞれ異なる方向からの撮影に基づくデータを取得し、また、当該データに基づく仮想視点画像の生成に係る、仮想視点の指定に応じた視点情報を取得する。そして情報処理装置100は、仮想視点画像内の領域であって、複数の撮影装置108による撮影範囲外に対応する領域を、仮想オブジェクトが挿入される挿入領域として決定する。このような構成によれば、仮想視点画像に仮想オブジェクトが挿入される場合に、撮影装置108による撮影範囲に含まれる被写体が仮想視点画像内において仮想オブジェクトに遮蔽されてしまう虞を低減することができる。
As described above, the
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a recording medium readable by a computer.
10 画像処理システム
100 情報処理装置
108 撮影装置
10
Claims (22)
前記データ取得手段により取得された画像データと仮想視点を示す視点情報とに基づいて生成される仮想視点画像に含まれる所定の被写体を遮蔽しない領域として定義された複数の候補領域から前記複数の撮影装置による撮影範囲外に対応する特定領域を決定する第1の決定手段と、
前記特定領域に実在しない仮想オブジェクトが前記仮想視点画像内の前記特定領域に対応する位置に表示されるように、前記仮想オブジェクトの位置を決定する第2の決定手段と、を有することを特徴とする情報処理装置。 A data acquisition means for acquiring image data corresponding to an image taken based on shooting by a plurality of shooting devices that shoot a shooting range from different positions, and a data acquisition means.
The plurality of photographs taken from a plurality of candidate areas defined as areas that do not block a predetermined subject included in the virtual viewpoint image generated based on the image data acquired by the data acquisition means and the viewpoint information indicating the virtual viewpoint. The first determination means for determining a specific area corresponding to the outside of the shooting range by the device, and
It is characterized by having a second determining means for determining the position of the virtual object so that the virtual object that does not actually exist in the specific area is displayed at the position corresponding to the specific area in the virtual viewpoint image. Information processing device.
前記第1の決定手段は、前記パラメータ取得手段により取得されるパラメータに基づいて前記撮影範囲を特定した結果に基づいて前記特定領域を決定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 It has a parameter acquisition means for acquiring parameters related to imaging by the plurality of imaging devices.
One of claims 1 to 4, wherein the first determination means determines the specific area based on the result of specifying the imaging range based on the parameters acquired by the parameter acquisition means. The information processing device described in the section.
前記第2の決定手段により決定された位置に前記仮想オブジェクトが表示される前記仮想視点画像を、前記データ取得手段により取得された画像データと前記情報取得手段により取得された前記視点情報とに基づいて生成する生成手段を有することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。 It has an information acquisition means for acquiring the viewpoint information, and has
The virtual viewpoint image in which the virtual object is displayed at a position determined by the second determination means is based on the image data acquired by the data acquisition means and the viewpoint information acquired by the information acquisition means. The information processing apparatus according to any one of claims 1 to 16, further comprising a generation means for generating the information.
前記仮想オブジェクトが挿入されていない仮想視点画像を、前記データ取得手段により取得された画像データと前記情報取得手段により取得された前記視点情報とに基づいて生成する生成手段と、
前記生成手段により生成された仮想視点画像と、前記第2の決定手段により決定された位置を特定するための情報とを、前記仮想オブジェクトが挿入された仮想視点画像を生成する装置へ出力する出力手段と、を有することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。 It has an information acquisition means for acquiring the viewpoint information, and has
A generation means for generating a virtual viewpoint image in which the virtual object is not inserted based on the image data acquired by the data acquisition means and the viewpoint information acquired by the information acquisition means.
Output to output the virtual viewpoint image generated by the generation means and the information for specifying the position determined by the second determination means to the device for generating the virtual viewpoint image into which the virtual object is inserted. The information processing apparatus according to any one of claims 1 to 16, further comprising means.
前記データ取得工程において取得された画像データと仮想視点を示す視点情報とに基づいて生成される仮想視点画像に含まれる所定の被写体を遮蔽しない領域として定義された複数の候補領域から前記複数の撮影装置による撮影範囲外に対応する特定領域を決定する第1の決定工程と、
前記特定領域に実在しない仮想オブジェクトが前記仮想視点画像内の前記特定領域に対応する位置に表示されるように、仮想オブジェクトの位置を決定する第2の決定工程と、を有することを特徴とする情報処理方法。 A data acquisition process that acquires image data corresponding to images taken based on shooting by multiple shooting devices that shoot the shooting range from different positions, and
The plurality of photographs taken from a plurality of candidate areas defined as areas that do not block a predetermined subject included in the virtual viewpoint image generated based on the image data acquired in the data acquisition step and the viewpoint information indicating the virtual viewpoint. The first determination step of determining a specific area corresponding to the outside of the shooting range by the device , and
It is characterized by having a second determination step of determining the position of the virtual object so that the virtual object that does not actually exist in the specific area is displayed at the position corresponding to the specific area in the virtual viewpoint image. Information processing method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017074829A JP7080586B2 (en) | 2017-04-04 | 2017-04-04 | Information processing equipment, information processing methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017074829A JP7080586B2 (en) | 2017-04-04 | 2017-04-04 | Information processing equipment, information processing methods and programs |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018180654A JP2018180654A (en) | 2018-11-15 |
JP2018180654A5 JP2018180654A5 (en) | 2020-05-14 |
JP7080586B2 true JP7080586B2 (en) | 2022-06-06 |
Family
ID=64276649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017074829A Active JP7080586B2 (en) | 2017-04-04 | 2017-04-04 | Information processing equipment, information processing methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7080586B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6833348B2 (en) * | 2016-05-25 | 2021-02-24 | キヤノン株式会社 | Information processing device, image processing system, information processing device control method, virtual viewpoint image generation method, and program |
JP7297439B2 (en) * | 2018-12-19 | 2023-06-26 | キヤノン株式会社 | File generation device and file generation method, image generation device and image generation method, and program |
JP7224894B2 (en) * | 2018-12-20 | 2023-02-20 | キヤノン株式会社 | Information processing device, information processing method and program |
JP7349793B2 (en) * | 2019-02-15 | 2023-09-25 | キヤノン株式会社 | Image processing device, image processing method, and program |
CN112146284B (en) * | 2019-06-28 | 2022-03-04 | 青岛海尔智能技术研发有限公司 | Control method and device for water heater system and water heater system |
JP7385385B2 (en) * | 2019-07-19 | 2023-11-22 | 株式会社ソニー・インタラクティブエンタテインメント | Image distribution system and image distribution method |
JP7390265B2 (en) | 2020-08-07 | 2023-12-01 | Kddi株式会社 | Virtual viewpoint video rendering device, method and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3300334B2 (en) | 1999-04-16 | 2002-07-08 | 松下電器産業株式会社 | Image processing device and monitoring system |
JP2009064445A (en) | 2007-09-05 | 2009-03-26 | Sony United Kingdom Ltd | Image processor and method |
JP2012048639A (en) | 2010-08-30 | 2012-03-08 | Kddi Corp | Free viewpoint video forming device, and method and program for displaying advertisement in free visual point video system |
JP2015114716A (en) | 2013-12-09 | 2015-06-22 | シャープ株式会社 | Image data reproducing apparatus and image data generation apparatus |
-
2017
- 2017-04-04 JP JP2017074829A patent/JP7080586B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3300334B2 (en) | 1999-04-16 | 2002-07-08 | 松下電器産業株式会社 | Image processing device and monitoring system |
JP2009064445A (en) | 2007-09-05 | 2009-03-26 | Sony United Kingdom Ltd | Image processor and method |
JP2012048639A (en) | 2010-08-30 | 2012-03-08 | Kddi Corp | Free viewpoint video forming device, and method and program for displaying advertisement in free visual point video system |
JP2015114716A (en) | 2013-12-09 | 2015-06-22 | シャープ株式会社 | Image data reproducing apparatus and image data generation apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP2018180654A (en) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7080586B2 (en) | Information processing equipment, information processing methods and programs | |
US20230377183A1 (en) | Depth-Aware Photo Editing | |
EP3179447B1 (en) | Foveated rendering | |
US9055277B2 (en) | Image rendering device, image rendering method, and image rendering program for rendering stereoscopic images | |
US7689031B2 (en) | Video filtering for stereo images | |
JP4764305B2 (en) | Stereoscopic image generating apparatus, method and program | |
US20130044108A1 (en) | Image rendering device, image rendering method, and image rendering program for rendering stereoscopic panoramic images | |
US20160232710A1 (en) | Generation of three-dimensional imagery from a two-dimensional image using a depth map | |
KR20140082610A (en) | Method and apaaratus for augmented exhibition contents in portable terminal | |
KR20130089649A (en) | Method and arrangement for censoring content in three-dimensional images | |
GB2546720B (en) | Method of and apparatus for graphics processing | |
US20230281912A1 (en) | Method and system for generating a target image from plural multi-plane images | |
JP2019509526A (en) | Optimal spherical image acquisition method using multiple cameras | |
EP3688993A1 (en) | Device and method for dynamic range expansion in a virtual reality scene | |
JP2020173529A (en) | Information processing device, information processing method, and program | |
JP6555755B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US20220189078A1 (en) | Image processing apparatus, method for controlling image processing apparatus, and storage medium | |
EP3665656B1 (en) | Three-dimensional video processing | |
JP6799468B2 (en) | Image processing equipment, image processing methods and computer programs | |
US11277596B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US8891857B2 (en) | Concave surface modeling in image-based visual hull | |
WO2022176720A1 (en) | Information processing device, information processing method, and program | |
JP7271095B2 (en) | Image generation device, image generation method, and program | |
CN111243099B (en) | Method and device for processing image and method and device for displaying image in AR (augmented reality) equipment | |
US20210297649A1 (en) | Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200326 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210728 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211019 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211124 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220426 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220525 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7080586 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |