JP7080586B2 - Information processing equipment, information processing methods and programs - Google Patents

Information processing equipment, information processing methods and programs Download PDF

Info

Publication number
JP7080586B2
JP7080586B2 JP2017074829A JP2017074829A JP7080586B2 JP 7080586 B2 JP7080586 B2 JP 7080586B2 JP 2017074829 A JP2017074829 A JP 2017074829A JP 2017074829 A JP2017074829 A JP 2017074829A JP 7080586 B2 JP7080586 B2 JP 7080586B2
Authority
JP
Japan
Prior art keywords
virtual
information processing
information
virtual viewpoint
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017074829A
Other languages
Japanese (ja)
Other versions
JP2018180654A5 (en
JP2018180654A (en
Inventor
泰夫 奥谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017074829A priority Critical patent/JP7080586B2/en
Publication of JP2018180654A publication Critical patent/JP2018180654A/en
Publication of JP2018180654A5 publication Critical patent/JP2018180654A5/en
Application granted granted Critical
Publication of JP7080586B2 publication Critical patent/JP7080586B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、仮想視点画像を生成する技術に関する。 The present invention relates to a technique for generating a virtual viewpoint image.

従来、異なる位置に設置された複数のカメラにより複数の方向から被写体を撮影し、当該撮影により得られた複数の撮影画像(複数視点画像)を用いて仮想視点画像を生成する技術が提案されている。このようにして生成される仮想視点画像は、設置されたカメラの視点に限らない仮想的な視点における見えを表す画像である。仮想視点画像を生成する技術によれば、例えば、撮影されたサッカーやバスケットボールの試合を、自由に指定可能な様々な視点から見ることが可能になり、従来の撮影画像よりも高い臨場感を視聴者に与えることが出来る。 Conventionally, a technique has been proposed in which a subject is photographed from a plurality of directions by a plurality of cameras installed at different positions, and a virtual viewpoint image is generated using a plurality of captured images (multi-viewpoint images) obtained by the shooting. There is. The virtual viewpoint image generated in this way is an image representing the appearance in a virtual viewpoint not limited to the viewpoint of the installed camera. According to the technology that generates virtual viewpoint images, for example, it is possible to view a shot soccer or basketball game from various viewpoints that can be freely specified, and to view a higher sense of reality than conventional shot images. Can be given to a person.

特許文献1には、複数視点画像には含まれない仮想オブジェクトである広告を仮想視点画像に挿入して表示させることが記載されている。また、広告を挿入する位置として、複数視点画像に含まれる壁など実空間上の平面状の領域を選択することが記載されている。 Patent Document 1 describes that an advertisement, which is a virtual object not included in a multi-viewpoint image, is inserted into the virtual viewpoint image and displayed. Further, it is described that a planar area in real space such as a wall included in the multi-viewpoint image is selected as the position for inserting the advertisement.

特開2012-48639号公報Japanese Unexamined Patent Publication No. 2012-48639

しかしながら、特許文献1に記載の技術では、仮想視点画像に仮想オブジェクトが挿入される場合に、カメラによる撮影範囲に含まれる壁などの被写体の少なくとも一部が、仮想視点画像において仮想オブジェクトに遮蔽されてしまう。 However, in the technique described in Patent Document 1, when a virtual object is inserted into the virtual viewpoint image, at least a part of a subject such as a wall included in the shooting range by the camera is shielded by the virtual object in the virtual viewpoint image. It ends up.

本発明は上記の課題に鑑みてなされたものであり、仮想視点画像に仮想オブジェクトが挿入される場合に、カメラによる撮影範囲に含まれる被写体が仮想視点画像において仮想オブジェクトに遮蔽されてしまう虞を低減することを目的とする。 The present invention has been made in view of the above problems, and when a virtual object is inserted into a virtual viewpoint image, there is a risk that the subject included in the shooting range of the camera will be shielded by the virtual object in the virtual viewpoint image. The purpose is to reduce.

上記の課題を解決するため、本発明に係る情報処理装置は、例えば以下の構成を有する。すなわち、撮影範囲をそれぞれ異なる位置から撮影する複数の撮影装置による撮影に基づく撮影画像に対応する画像データを取得するデータ取得手段と、前記データ取得手段により取得された画像データと仮想視点を示す視点情報とに基づいて生成される仮想視点画像に含まれる所定の被写体を遮蔽しない領域として定義された複数の候補領域から前記複数の撮影装置による撮影範囲外に対応する特定領域を決定する第1の決定手段と、前記特定領域に実在しない仮想オブジェクトが前記仮想視点画像内の前記特定領域に対応する位置に表示されるように、前記仮想オブジェクトの位置を決定する第2の決定手段と、を有する。 In order to solve the above problems, the information processing apparatus according to the present invention has, for example, the following configuration. That is, a data acquisition means for acquiring image data corresponding to an image taken based on shooting by a plurality of shooting devices that shoot a shooting range from different positions, and a viewpoint showing the image data acquired by the data acquisition means and a virtual viewpoint. The first is to determine a specific area corresponding to the outside of the shooting range by the plurality of photographing devices from a plurality of candidate areas defined as areas that do not block a predetermined subject included in the virtual viewpoint image generated based on the information. It has a determination means and a second determination means for determining the position of the virtual object so that the virtual object that does not exist in the specific area is displayed at the position corresponding to the specific area in the virtual viewpoint image. ..

本発明によれば、仮想視点画像に仮想オブジェクトが挿入される場合に、カメラによる撮影範囲に含まれる被写体が仮想視点画像において仮想オブジェクトに遮蔽されてしまう虞を低減できる。 According to the present invention, when a virtual object is inserted into a virtual viewpoint image, it is possible to reduce the possibility that the subject included in the shooting range of the camera is obscured by the virtual object in the virtual viewpoint image.

画像処理システム10の構成について説明するための図である。It is a figure for demonstrating the structure of the image processing system 10. 情報処理装置100の機能構成について説明するための図である。It is a figure for demonstrating the functional structure of the information processing apparatus 100. 情報処理装置100による仮想視点画像の生成に係る処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process which concerns on the generation of the virtual viewpoint image by the information processing apparatus 100. 情報処理装置100による非撮影領域の特定に係る処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process which concerns on the identification of the non-photographing area by the information processing apparatus 100. 非撮影領域について俯瞰図を用いて説明するための図である。It is a figure for demonstrating the non-photographing area using a bird's-eye view. 非撮影領域について断面図を用いて説明するための図である。It is a figure for demonstrating the non-photographing area using the sectional view. 仮想視点に応じた非撮影領域について説明するための図である。It is a figure for demonstrating the non-photographing area corresponding to a virtual viewpoint. 情報処理装置100による仮想広告の配置に係る処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process which concerns on the arrangement of the virtual advertisement by the information processing apparatus 100. 情報処理装置100による仮想広告の配置候補の決定に係る処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process which concerns on the determination of the placement candidate of the virtual advertisement by the information processing apparatus 100. 仮想広告の配置候補について説明するための図である。It is a figure for demonstrating the placement candidate of a virtual advertisement. 情報処理装置100による仮想広告の向きの決定に係る処理について説明するためのフローチャートである。It is a flowchart for demonstrating the process which concerns on the determination of the direction of a virtual advertisement by an information processing apparatus 100. 仮想視点に応じた仮想広告の配置の例について説明するための図である。It is a figure for demonstrating the example of the arrangement of the virtual advertisement according to the virtual viewpoint. 仮想視点に応じた仮想広告の配置の例について説明するための図である。It is a figure for demonstrating the example of the arrangement of the virtual advertisement according to the virtual viewpoint. 仮想広告が挿入された仮想視点画像について説明するための図である。It is a figure for demonstrating the virtual viewpoint image in which a virtual advertisement is inserted.

以下、図面を参照しながら本発明の実施形態について説明する。ただし、本発明は以下の実施形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. However, the present invention is not limited to the following embodiments.

[システム構成]
図1は、本実施形態に係る画像処理システム10の構成例を示す図である。画像処理システム10は、情報処理装置100、複数の撮影装置(カメラ)108、及び端末装置109を有する。複数の撮影装置108は、それぞれ異なる方向から同期して撮影を行い、撮影に基づくデータを情報処理装置100に入力する。本実施形態では、複数の撮影装置108から情報処理装置100に入力される撮影に基づくデータが複数の撮影画像(複数視点画像)である場合を中心に説明するが、これに限らない。例えば、複数の撮影画像の差分に基づいて生成されるデータなどが撮影に基づくデータとして入力されてもよい。
[System configuration]
FIG. 1 is a diagram showing a configuration example of the image processing system 10 according to the present embodiment. The image processing system 10 includes an information processing device 100, a plurality of photographing devices (cameras) 108, and a terminal device 109. The plurality of photographing devices 108 perform photographing in synchronization from different directions, and input data based on the photographing into the information processing apparatus 100. In the present embodiment, the case where the data based on the shooting input from the plurality of shooting devices 108 to the information processing device 100 is a plurality of shot images (multiple viewpoint images) will be mainly described, but the present invention is not limited to this. For example, data generated based on the difference between a plurality of captured images may be input as data based on imaging.

情報処理装置100は、複数の撮影装置108から取得したデータに基づいて、仮想視点画像を生成して出力する。端末装置109は、情報処理装置100から出力された仮想視点画像を取得してディスプレイなどの表示部に表示する。端末装置109は、例えば放送局や視聴者が有する装置であり、具体的にはPCやスマートフォンなどである。 The information processing device 100 generates and outputs a virtual viewpoint image based on the data acquired from the plurality of photographing devices 108. The terminal device 109 acquires a virtual viewpoint image output from the information processing device 100 and displays it on a display unit such as a display. The terminal device 109 is, for example, a device owned by a broadcasting station or a viewer, and specifically, a PC, a smartphone, or the like.

本実施形態における仮想視点画像は、仮想的な視点(仮想視点)から被写体を撮影した場合に得られる画像を表す。言い換えると、仮想視点画像は、指定された視点における見えを表す画像である。仮想視点は、ユーザにより指定されても良いし、画像解析の結果等に基づいて自動的に指定されても良い。すなわち仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(仮想視点画像)が含まれる。また、複数の候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお本実施形態では、特に断りがない限り、画像という文言が動画と静止画の両方の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム10は、静止画及び動画の何れについても処理可能である。 The virtual viewpoint image in the present embodiment represents an image obtained when a subject is photographed from a virtual viewpoint (virtual viewpoint). In other words, a virtual viewpoint image is an image that represents the appearance at a specified viewpoint. The virtual viewpoint may be specified by the user, or may be automatically specified based on the result of image analysis or the like. That is, the virtual viewpoint image includes an arbitrary viewpoint image (virtual viewpoint image) corresponding to the viewpoint arbitrarily designated by the user. Further, an image corresponding to a viewpoint designated by the user from a plurality of candidates and an image corresponding to the viewpoint automatically designated by the device are also included in the virtual viewpoint image. In the present embodiment, unless otherwise specified, the word "image" will be described as including the concepts of both moving images and still images. That is, the image processing system 10 of the present embodiment can process both still images and moving images.

本実施形態において、情報処理装置100から出力される仮想視点画像には、撮影装置108により撮影された複数視点画像には含まれない仮想オブジェクトが挿入されうる。なお、仮想視点画像に仮想オブジェクトを挿入するという文言が表す内容は、仮想オブジェクトを含む仮想視点画像をレンダリング処理により生成する形態に限らない。例えば、仮想視点画像と仮想オブジェクトの画像とをそれぞれ独立したレンダリング処理により生成し、生成された仮想視点画像と仮想オブジェクトの画像とが重なるように表示する形態も含まれる。また、挿入の方向は限定されず、例えば、生成された仮想オブジェクトの画像に後から仮想視点画像を合成する形態も含まれる。 In the present embodiment, a virtual object that is not included in the plurality of viewpoint images taken by the photographing apparatus 108 may be inserted into the virtual viewpoint image output from the information processing apparatus 100. The content expressed by the wording of inserting a virtual object into the virtual viewpoint image is not limited to the form in which the virtual viewpoint image including the virtual object is generated by the rendering process. For example, a form in which a virtual viewpoint image and a virtual object image are generated by independent rendering processes and the generated virtual viewpoint image and the virtual object image are displayed so as to overlap each other is also included. Further, the insertion direction is not limited, and for example, a form in which a virtual viewpoint image is later combined with the generated virtual object image is also included.

なお本実施形態では、仮想視点画像に挿入される仮想オブジェクトが、仮想視点画像内に広告を表示させるための仮想広告である場合を中心に説明する。ただし、仮想オブジェクトは広告に限らない。例えば仮想オブジェクトとして、試合の途中経過に関する情報や試合に関する統計情報が表示されてもよいし、人物などの被写体を説明する文字や画像、当該人物の生体情報などが表示されてもよい。また、本実施形態では仮想オブジェクトが面状のオブジェクトである場合を中心に説明するが、直方体や球体など立体形状のオブジェクトであってもよい。 In this embodiment, the case where the virtual object inserted in the virtual viewpoint image is a virtual advertisement for displaying an advertisement in the virtual viewpoint image will be mainly described. However, virtual objects are not limited to advertisements. For example, as a virtual object, information on the progress of the game or statistical information on the game may be displayed, or characters or images explaining a subject such as a person, biological information of the person, or the like may be displayed. Further, in the present embodiment, the case where the virtual object is a planar object will be mainly described, but it may be a three-dimensional object such as a rectangular parallelepiped or a sphere.

次に、情報処理装置100のハードウェア構成について説明する。なお、端末装置109のハードウェア構成も情報処理装置100と同様である。情報処理装置100は、CPU101、ROM102、RAM103、補助記憶装置104、操作部105、通信I/F(インターフェース)106、及びシステムバス107を有する。 Next, the hardware configuration of the information processing apparatus 100 will be described. The hardware configuration of the terminal device 109 is the same as that of the information processing device 100. The information processing device 100 includes a CPU 101, a ROM 102, a RAM 103, an auxiliary storage device 104, an operation unit 105, a communication I / F (interface) 106, and a system bus 107.

CPU101は、ROM102やRAM103に格納されているコンピュータプログラムやデータを用いて各種処理のための演算や論理判断などを行い、システムバス107に接続された各構成要素を制御する。なお、情報処理装置100がCPU101とは異なる専用の1又は複数のハードウェアやGPU(Graphics Processing Unit)を有し、CPU101による処理の少なくとも一部をGPUや専用のハードウェアが行ってもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM102は、プログラムメモリであって、後述する各種処理をCPU101が実行するためのプログラムやパラメータを格納する。RAM103は、データメモリであり、補助記憶装置104から供給されるプログラムやデータ、及び通信I/F106を介して外部から供給されるデータなどを一時記憶する。またRAM103は、CPU101がプログラムを実行する際のワーク領域、エラー処理を行う際のデータの退避領域、及びプログラムをロードする領域などとして機能する。 The CPU 101 uses computer programs and data stored in the ROM 102 and the RAM 103 to perform calculations and logical judgments for various processes, and controls each component connected to the system bus 107. The information processing apparatus 100 may have one or more dedicated hardware or GPU (Graphics Processing Unit) different from the CPU 101, and the GPU or dedicated hardware may perform at least a part of the processing by the CPU 101. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). The ROM 102 is a program memory, and stores programs and parameters for the CPU 101 to execute various processes described later. The RAM 103 is a data memory, and temporarily stores programs and data supplied from the auxiliary storage device 104, data supplied from the outside via the communication I / F 106, and the like. Further, the RAM 103 functions as a work area when the CPU 101 executes a program, a data save area when performing error processing, an area for loading a program, and the like.

補助記憶装置104は、例えばハードディスクドライブ等で構成され、静止画や動画などのコンテンツデータ、及びプログラムなどを記憶する。なお、補助記憶装置104はハードディスクドライブに限らず、同様の役割を果たす外部記憶装置であってもよい。ここで外部記憶装置は、例えば、メディア(記録媒体)と、当該メディアへのアクセスを実現するための外部記憶ドライブとで実現される。このようなメディアとしては、例えばFD(フレキシブルディスク)、CD-ROM、DVD、USBメモリ、MO(光磁気ディスク)、フラッシュメモリ等が用いられる。また、補助記憶装置104は、情報処理装置100とネットワークで接続されたサーバー装置などであってもよい。 The auxiliary storage device 104 is composed of, for example, a hard disk drive or the like, and stores content data such as still images and moving images, programs, and the like. The auxiliary storage device 104 is not limited to the hard disk drive, and may be an external storage device that plays a similar role. Here, the external storage device is realized by, for example, a medium (recording medium) and an external storage drive for realizing access to the media. As such media, for example, FD (flexible disk), CD-ROM, DVD, USB memory, MO (magneto-optical disk), flash memory and the like are used. Further, the auxiliary storage device 104 may be a server device or the like connected to the information processing device 100 via a network.

表示部110は、例えば液晶ディスプレイ等で構成され、ユーザが情報処理装置100を操作するためのGUI(Graphic User Interface)などを表示する。操作部105は、例えばジョイスティック、ゲームパッド、タッチパネル、キーボード、及びマウスなどの入力デバイスで構成され、ユーザによる操作を受けて各種の指示をCPU101に入力する。通信I/F106は、端末装置109や撮影装置108などの外部の装置と通信を行う。例えば、情報処理装置100が外部の装置と有線で接続される場合には、LANケーブル等が通信I/F106に接続される。なお、情報処理装置100が外部の装置と無線通信する機能を有する場合、通信I/F106はアンテナを備える。システムバス107は、情報処理装置100の各部を繋いで情報を伝達する。 The display unit 110 is composed of, for example, a liquid crystal display or the like, and displays a GUI (Graphic User Interface) for the user to operate the information processing apparatus 100. The operation unit 105 is composed of input devices such as a joystick, a game pad, a touch panel, a keyboard, and a mouse, and inputs various instructions to the CPU 101 in response to an operation by the user. The communication I / F 106 communicates with an external device such as a terminal device 109 or a photographing device 108. For example, when the information processing device 100 is connected to an external device by wire, a LAN cable or the like is connected to the communication I / F 106. When the information processing device 100 has a function of wirelessly communicating with an external device, the communication I / F 106 includes an antenna. The system bus 107 connects each part of the information processing apparatus 100 to transmit information.

なお、本実施形態では表示部110と操作部105は情報処理装置100の内部に存在するが、情報処理装置100は表示部110及び操作部105の少なくとも一方を備えていなくてもよい。また、表示部110及び操作部105の少なくとも一方が情報処理装置100の外部に別の装置として存在していて、CPU101が、表示部110を制御する表示制御部、及び操作部105を制御する操作制御部として動作してもよい。 In the present embodiment, the display unit 110 and the operation unit 105 exist inside the information processing device 100, but the information processing device 100 does not have to include at least one of the display unit 110 and the operation unit 105. Further, at least one of the display unit 110 and the operation unit 105 exists as another device outside the information processing device 100, and the CPU 101 controls the display control unit 110 and the operation unit 105. It may operate as a control unit.

[機能構成]
図2は、本実施形態に係る情報処理装置100の機能構成例を示すブロック図である。情報処理装置100は、画像取得部201、分離処理部202、前景モデル生成部203、前景テクスチャ決定部204、背景モデル取得部205、背景テクスチャ決定部206、カメラパラメータ取得部207、及び領域特定部208を有する。情報処理装置100はまた、注視点取得部209、候補決定部210、視点取得部211、配置決定部212、広告モデル生成部213、広告テクスチャ決定部214、レンダリング処理部215、及び出力部216を有する。情報処理装置100が有するこれらの各機能部は、CPU101が、ROM102に格納されたプログラムをRAM103に展開し、後述する各フローチャートに従った処理を実行することで実現される。なお、図2に示す機能部の少なくとも一部を、CPU101とは異なる専用の1又は複数のハードウェアやGPUにより実現してもよい。
[Functional configuration]
FIG. 2 is a block diagram showing a functional configuration example of the information processing apparatus 100 according to the present embodiment. The information processing apparatus 100 includes an image acquisition unit 201, a separation processing unit 202, a foreground model generation unit 203, a foreground texture determination unit 204, a background model acquisition unit 205, a background texture determination unit 206, a camera parameter acquisition unit 207, and an area identification unit. Has 208. The information processing apparatus 100 also includes a gaze point acquisition unit 209, a candidate determination unit 210, a viewpoint acquisition unit 211, an arrangement determination unit 212, an advertisement model generation unit 213, an advertisement texture determination unit 214, a rendering processing unit 215, and an output unit 216. Have. Each of these functional units included in the information processing apparatus 100 is realized by the CPU 101 expanding the program stored in the ROM 102 into the RAM 103 and executing processing according to each flowchart described later. It should be noted that at least a part of the functional unit shown in FIG. 2 may be realized by one or a plurality of dedicated hardware or GPU different from the CPU 101.

画像取得部201は、複数の撮影装置108によるそれぞれ異なる方向からの撮影に基づくデータを取得する。ここでは、画像取得部201が複数の撮影画像(複数視点画像)を取得するものとする。ただしこの例に限らず、例えば、複数の撮影画像の差分に基づいて生成されるデータなどが画像取得部201により取得されるようにしてもよい。 The image acquisition unit 201 acquires data based on imaging from different directions by the plurality of imaging devices 108. Here, it is assumed that the image acquisition unit 201 acquires a plurality of captured images (multiple viewpoint images). However, the present invention is not limited to this example, and for example, data generated based on the difference between a plurality of captured images may be acquired by the image acquisition unit 201.

分離処理部202は、画像取得部201が取得した撮影画像(複数視点画像)を、所定の被写体に対応する前景と、当該所定の被写体とは異なる被写体に対応する背景とに分離する。ここで所定の被写体とは、例えば予め定められた形状パターンに合致する被写体や、動きのある被写体などである。例えば、撮影装置108により撮影される対象がスタジアムにおけるサッカーの試合である場合には、選手やボールが前景として処理される。一方、スタジアムのフィールドや観客席、屋根など、前景として処理される所定の被写体とは異なる被写体は、背景として処理される。なお、撮影装置108による撮影対象はサッカーの試合に限らず、ラグビーや相撲など他の競技であってもよい。さらに、撮影対象はスタジアムにおける競技に限らず、ステージにおけるコンサートなどであってもよい。 The separation processing unit 202 separates the captured image (multi-viewpoint image) acquired by the image acquisition unit 201 into a foreground corresponding to a predetermined subject and a background corresponding to a subject different from the predetermined subject. Here, the predetermined subject is, for example, a subject that matches a predetermined shape pattern, a moving subject, or the like. For example, when the target photographed by the photographing device 108 is a soccer match in a stadium, the player or the ball is processed as the foreground. On the other hand, a subject different from a predetermined subject to be processed as a foreground, such as a stadium field, spectator seats, or a roof, is processed as a background. The subject to be photographed by the photographing apparatus 108 is not limited to a soccer match, but may be another sport such as rugby or sumo. Further, the shooting target is not limited to the competition at the stadium, but may be a concert on the stage or the like.

前景と背景の分離方法としては、たとえば動きの有る被写体を前景とする場合、撮影装置108による撮影画像において複数のフレームにわたり画素値の変化がないまたは小さい領域を背景とし、画素値の変化が大きい領域を前景とする方法などがある。また別の方法として背景差分法を用いる場合は、前景となる所定の被写体が存在しない状態で予め撮影した背景画像を保持しておき、撮影画像と背景画像との差分をとることで前景を抽出することもできる。 As a method of separating the foreground and the background, for example, when a moving subject is used as the foreground, the pixel value changes significantly in the image captured by the photographing apparatus 108 with the pixel value unchanged or small in a plurality of frames as the background. There is a method to make the area the foreground. When the background subtraction method is used as another method, the background image taken in advance in the absence of a predetermined subject as the foreground is retained, and the foreground is extracted by taking the difference between the shot image and the background image. You can also do it.

前景モデル生成部203は、複数視点画像のそれぞれから分離処理部202が分離した前景の画像に基づいて、前景に対応する被写体(例えば選手やボール)の形状を表す3次元モデルに関するモデル情報を生成する。モデル情報には例えば、被写体の3次元モデルを特定する情報と、当該被写体の3次元座標系における位置に関する情報とが含まれる。本実施形態における3次元座標系とは、情報処理装置100が仮想視点画像を生成するために3次元モデルを配置する仮想的な3次元空間を規定する座標系であり、3次元座標系における位置と実空間上の位置とが対応関係にある。被写体の3次元モデルの決定方法としては、例えば、複数視点画像のそれぞれにおける被写体の2次元シルエットを用いて計算される当該被写体の3次元形状を表すビジュアルハルを用いる方法などがある。 The foreground model generation unit 203 generates model information regarding a three-dimensional model representing the shape of a subject (for example, a player or a ball) corresponding to the foreground, based on the foreground image separated by the separation processing unit 202 from each of the plurality of viewpoint images. do. The model information includes, for example, information for specifying a three-dimensional model of the subject and information regarding the position of the subject in the three-dimensional coordinate system. The three-dimensional coordinate system in the present embodiment is a coordinate system that defines a virtual three-dimensional space in which the information processing apparatus 100 arranges a three-dimensional model in order to generate a virtual viewpoint image, and is a position in the three-dimensional coordinate system. And the position in the real space have a correspondence relationship. As a method of determining the three-dimensional model of the subject, for example, there is a method of using a visual hull representing the three-dimensional shape of the subject calculated by using the two-dimensional silhouette of the subject in each of the plurality of viewpoint images.

前景テクスチャ決定部204は、前景モデル生成部203が決定した前景の3次元モデルに対し、被写体の色や質感を表すテクスチャをマッピングすることで、テクスチャに関する情報を含む前景のモデル情報を生成する。具体的には、前景テクスチャ決定部204は、分離処理部202が分離した前景の画像をテクスチャとして、3次元モデルを表す点群やポリゴンにマッピングする。 The foreground texture determination unit 204 generates foreground model information including information about the texture by mapping a texture representing the color and texture of the subject to the foreground three-dimensional model determined by the foreground model generation unit 203. Specifically, the foreground texture determination unit 204 maps the image of the foreground separated by the separation processing unit 202 to a point cloud or polygon representing a three-dimensional model as a texture.

背景モデル取得部205は、複数視点画像から分離処理部202が分離した背景の画像に基づいて、背景に対応する被写体(例えばスタジアムなど)のモデル情報を生成する。なお、背景のモデル情報を事前に補助記憶装置104に保存しておき、背景モデル取得部205は背景のモデル情報を補助記憶装置104から読みだすことで取得してもよい。背景テクスチャ決定部206は、背景モデル取得部205が決定した背景の3次元モデルに、分離処理部202が分離した背景の画像をテクスチャとしてマッピングする。 The background model acquisition unit 205 generates model information of a subject (for example, a stadium) corresponding to the background based on the background image separated by the separation processing unit 202 from the plurality of viewpoint images. The background model information may be stored in the auxiliary storage device 104 in advance, and the background model acquisition unit 205 may acquire the background model information by reading the background model information from the auxiliary storage device 104. The background texture determination unit 206 maps the background image separated by the separation processing unit 202 as a texture to the three-dimensional model of the background determined by the background model acquisition unit 205.

カメラパラメータ取得部207は、複数の撮影装置108それぞれの外部パラメータおよび内部パラメータを取得する。外部パラメータは撮影装置108の位置や向きに関する情報であり、内部パラメータは撮影装置108の画角や焦点距離に関する情報である。領域特定部208は、前景のモデル情報と背景のモデル情報とに基づいて、仮想視点画像の描画対象となる領域のうち撮影装置108による撮影範囲外に対応する非撮影領域を特定する。ここで特定される非撮影領域は、仮想視点画像内における仮想広告を挿入する位置を決定するために用いられる。非撮影領域の特定の詳細については後述する。 The camera parameter acquisition unit 207 acquires external parameters and internal parameters of each of the plurality of photographing devices 108. The external parameter is information regarding the position and orientation of the photographing device 108, and the internal parameter is information regarding the angle of view and focal length of the photographing device 108. Based on the model information of the foreground and the model information of the background, the area specifying unit 208 specifies a non-photographing area corresponding to the outside of the shooting range by the photographing device 108 among the areas to be drawn of the virtual viewpoint image. The non-photographed area specified here is used to determine the position in which the virtual advertisement is inserted in the virtual viewpoint image. Specific details of the non-photographed area will be described later.

注視点取得部209は、複数の撮影装置108の撮影方向に応じた注視点を特定する。本実施形態において注視点とは、複数の撮影装置108が向いている位置、すなわち複数の撮影装置108の視野の中心に対応する位置である。画像処理システム10においては、複数の撮影装置108それぞれの向きを雲台によって変更することができ、例えば撮影対象の試合の状況に応じて注視点の位置を変えることができる。そして注視点取得部209は、注視点の位置の変化に応じて新たに注視点を特定する。なお、画像処理システム10において注視点は複数存在していてもよい。すなわち、複数の撮影装置108のうち第1のグループに含まれる複数の撮影装置108が第1の注視点に向いており、第2のグループに含まれる複数の撮影装置108が第1の注視点とは異なる第2の注視点に向いていてもよい。 The gaze point acquisition unit 209 specifies the gaze point according to the shooting direction of the plurality of shooting devices 108. In the present embodiment, the gazing point is a position facing the plurality of photographing devices 108, that is, a position corresponding to the center of the field of view of the plurality of photographing devices 108. In the image processing system 10, the orientation of each of the plurality of photographing devices 108 can be changed by the pan head, and for example, the position of the gazing point can be changed according to the situation of the game to be photographed. Then, the gaze point acquisition unit 209 newly specifies the gaze point according to the change in the position of the gaze point. In the image processing system 10, there may be a plurality of gazing points. That is, among the plurality of photographing devices 108, the plurality of photographing devices 108 included in the first group are oriented toward the first gazing point, and the plurality of photographing devices 108 included in the second group are directed to the first gazing point. It may be suitable for a second gaze point different from that of.

候補決定部210は、前景のモデル情報、背景のモデル情報、及び注視点などに基づいて、3次元座標系における仮想広告の配置候補となる領域を決定する。視点取得部211は、仮想視点画像の生成に係る仮想視点を特定するための視点情報を取得する。視点情報は仮想視点の指定に応じた情報であり、例えば視点取得部211は、仮想視点を指定するために操作部105に対して行われるユーザ操作に基づいて仮想視点を特定し、視点情報を生成してもよい。また例えば、視点取得部211は、端末装置109において指定された仮想視点に関する視点情報を、端末装置109から取得してもよい。配置決定部212は、候補決定部210が決定した候補に従って、3次元座標系における仮想広告の配置を決定する。 The candidate determination unit 210 determines an area that is a candidate for placement of a virtual advertisement in the three-dimensional coordinate system based on the model information of the foreground, the model information of the background, the gazing point, and the like. The viewpoint acquisition unit 211 acquires viewpoint information for specifying a virtual viewpoint related to the generation of a virtual viewpoint image. The viewpoint information is information according to the designation of the virtual viewpoint. For example, the viewpoint acquisition unit 211 specifies the virtual viewpoint based on the user operation performed on the operation unit 105 to specify the virtual viewpoint, and obtains the viewpoint information. May be generated. Further, for example, the viewpoint acquisition unit 211 may acquire the viewpoint information regarding the virtual viewpoint designated by the terminal device 109 from the terminal device 109. The placement determination unit 212 determines the placement of the virtual advertisement in the three-dimensional coordinate system according to the candidates determined by the candidate determination unit 210.

広告モデル生成部213は、配置決定部212が決定した仮想広告の配置に基づいて、仮想広告の3次元モデルを決定し、配置情報を含む仮想広告のモデル情報を生成する。広告テクスチャ決定部214は、広告モデル生成部213が決定した仮想広告の3次元モデルに対し、仮想広告の内容を表す画像データ(広告データ)をテクスチャとしてマッピングすることで、テクスチャに関する情報を含む仮想広告のモデル情報を生成する。広告データは事前に補助記憶装置104に記憶されているものとし、広告テクスチャ決定部214は補助記憶装置104から広告データを読み出して利用する。 The advertisement model generation unit 213 determines a three-dimensional model of the virtual advertisement based on the arrangement of the virtual advertisement determined by the arrangement determination unit 212, and generates model information of the virtual advertisement including the arrangement information. The advertisement texture determination unit 214 maps the image data (advertisement data) representing the content of the virtual advertisement as a texture to the three-dimensional model of the virtual advertisement determined by the advertisement model generation unit 213, thereby including information about the texture. Generate model information for ads. It is assumed that the advertisement data is stored in the auxiliary storage device 104 in advance, and the advertisement texture determination unit 214 reads the advertisement data from the auxiliary storage device 104 and uses it.

レンダリング処理部215は、テクスチャのマッピングが反映された前景のモデル情報、背景のモデル情報、及び仮想広告のモデル情報に基づいて、視点取得部211が取得した視点情報に対応する仮想視点画像を生成する。この生成処理においてレンダリング処理部215は、広告モデル生成部213が生成した仮想広告のモデル情報に含まれる配置情報に基づいて、仮想視点画像内における仮想広告を挿入する挿入領域を決定する。そしてレンダリング処理部215は、決定された挿入領域に仮想広告が挿入された仮想視点画像を生成する。出力部216は、レンダリング処理部215が生成した仮想視点画像を端末装置109に出力することで、端末装置109の表示部に当該仮想視点画像を表示させる。 The rendering processing unit 215 generates a virtual viewpoint image corresponding to the viewpoint information acquired by the viewpoint acquisition unit 211 based on the foreground model information, the background model information, and the virtual advertisement model information reflecting the texture mapping. do. In this generation process, the rendering processing unit 215 determines an insertion area for inserting the virtual advertisement in the virtual viewpoint image based on the arrangement information included in the model information of the virtual advertisement generated by the advertisement model generation unit 213. Then, the rendering processing unit 215 generates a virtual viewpoint image in which the virtual advertisement is inserted in the determined insertion area. The output unit 216 outputs the virtual viewpoint image generated by the rendering processing unit 215 to the terminal device 109, so that the display unit of the terminal device 109 displays the virtual viewpoint image.

なお、情報処理装置100は、仮想視点画像内における決定された挿入領域に仮想オブジェクトを挿入させる制御を行えばよく、その方法は仮想広告が挿入された仮想視点画像を生成するものに限らない。例えば、レンダリング処理部215は、前景のモデル情報及び背景のモデル情報に基づいて、仮想広告が挿入されていない仮想視点画像を生成してもよい。そして出力部216は、仮想広告が挿入されていない仮想視点画像と、仮想広告のモデル情報に基づいて決定された挿入領域を特定するための情報と、挿入領域に挿入されるべき仮想広告の画像とを、端末装置109へ出力してもよい。そして端末装置109が、情報処理装置100から取得した仮想視点画像内の挿入領域に仮想広告の画像を合成することで、仮想広告が挿入された仮想視点画像を生成し、端末装置109の表示部へ生成した仮想視点画像を表示させてもよい。またこの場合、端末装置109は、仮想視点画像内の挿入領域に仮想広告の画像を合成するか否かを、ユーザによる端末装置109に対する操作の内容や、当該ユーザを識別する情報などに基づいて判定してもよい。 The information processing apparatus 100 may control the insertion of a virtual object into a determined insertion region in the virtual viewpoint image, and the method is not limited to the one that generates the virtual viewpoint image in which the virtual advertisement is inserted. For example, the rendering processing unit 215 may generate a virtual viewpoint image in which a virtual advertisement is not inserted, based on the model information of the foreground and the model information of the background. Then, the output unit 216 includes a virtual viewpoint image in which the virtual advertisement is not inserted, information for specifying an insertion area determined based on the model information of the virtual advertisement, and an image of the virtual advertisement to be inserted in the insertion area. May be output to the terminal device 109. Then, the terminal device 109 synthesizes the image of the virtual advertisement in the insertion area in the virtual viewpoint image acquired from the information processing device 100 to generate the virtual viewpoint image in which the virtual advertisement is inserted, and the display unit of the terminal device 109. The virtual viewpoint image generated in may be displayed. Further, in this case, the terminal device 109 determines whether or not to synthesize the image of the virtual advertisement in the insertion area in the virtual viewpoint image based on the content of the operation on the terminal device 109 by the user, the information for identifying the user, and the like. You may judge.

また例えば、出力部216は、仮想広告が挿入されていない仮想視点画像と挿入領域を特定するための情報とを端末装置109へ出力してもよい。そして、情報処理装置100とは異なる装置が仮想広告の画像または仮想広告のモデル情報を端末装置109へ出力してもよい。そして端末装置109が、情報処理装置100から取得した情報と、情報処理装置100とは異なる装置から取得した情報とに基づいて、仮想視点画像の生成と表示を行ってもよい。このように仮想オブジェクトが挿入された仮想視点画像を表示させるための制御には種々のバリエーションが存在する。 Further, for example, the output unit 216 may output the virtual viewpoint image in which the virtual advertisement is not inserted and the information for specifying the insertion area to the terminal device 109. Then, a device different from the information processing device 100 may output the image of the virtual advertisement or the model information of the virtual advertisement to the terminal device 109. Then, the terminal device 109 may generate and display a virtual viewpoint image based on the information acquired from the information processing device 100 and the information acquired from a device different from the information processing device 100. There are various variations in the control for displaying the virtual viewpoint image in which the virtual object is inserted in this way.

なお、情報処理装置100による仮想視点画像の画像生成方法は以上で説明したものに限らない。例えば情報処理装置100は、3次元モデルを生成せず撮影画像を変形したり合成したりすることで仮想視点画像を生成してもよい。 The image generation method of the virtual viewpoint image by the information processing apparatus 100 is not limited to the one described above. For example, the information processing apparatus 100 may generate a virtual viewpoint image by transforming or synthesizing a captured image without generating a three-dimensional model.

[動作フロー]
図3は、情報処理装置100による仮想視点画像の生成に係る処理の流れの例を示すフローチャートである。図3に示す処理は、仮想視点画像の生成を開始するためのユーザによる操作を操作部105が受け付けたタイミングで開始される。生成開始のためのユーザ操作は、例えば、撮影装置108による撮影の対象となる試合の開始に応じて行われる。なお、仮想視点画像の生成はリアルタイムで行われるものに限らず、例えば試合中に収録された撮影画像に基づいて、試合の終了後に仮想視点画像の生成が開始されてもよい。ただし、図3に示す処理の開始タイミングは上記タイミングに限定されない。
[Operation flow]
FIG. 3 is a flowchart showing an example of the flow of processing related to the generation of the virtual viewpoint image by the information processing apparatus 100. The process shown in FIG. 3 is started at the timing when the operation unit 105 accepts the operation by the user for starting the generation of the virtual viewpoint image. The user operation for starting the generation is performed, for example, in response to the start of the game to be photographed by the photographing device 108. The generation of the virtual viewpoint image is not limited to the one performed in real time, and the generation of the virtual viewpoint image may be started after the end of the game, for example, based on the captured image recorded during the game. However, the start timing of the process shown in FIG. 3 is not limited to the above timing.

生成される仮想視点画像が動画である場合、図3に示す処理は、動画の1フレームごとに行われる。ただし、図3に示す処理のすべてを毎フレーム実行する必要はなく、前のフレームの処理に用いた情報を再利用することで処理の一部を省略してもよい。図3に示す処理は、情報処理装置100のCPU101がROM102に格納されたプログラムをRAM103に展開して実行することで実現される。なお、図3に示す処理の少なくとも一部を、CPU101とは異なる専用の1又は複数のハードウェアやGPUにより実現してもよい。 When the generated virtual viewpoint image is a moving image, the process shown in FIG. 3 is performed for each frame of the moving image. However, it is not necessary to execute all of the processing shown in FIG. 3 every frame, and a part of the processing may be omitted by reusing the information used for the processing of the previous frame. The process shown in FIG. 3 is realized by the CPU 101 of the information processing apparatus 100 expanding the program stored in the ROM 102 into the RAM 103 and executing the program. It should be noted that at least a part of the processing shown in FIG. 3 may be realized by one or more dedicated hardware or GPU different from the CPU 101.

S301では、画像取得部201が、複数の撮影装置108によるそれぞれ異なる方向からの撮影に基づく複数視点画像を取得する。S302では、分離処理部202が、画像取得部201が取得した複数視点画像それぞれを、前景と背景に分離する画像処理を行う。S303では、前景モデル生成部203が前景のモデル情報を生成し、背景モデル取得部205が背景のモデル情報を生成する。モデル情報には、被写体の形状を表す3次元モデルを特定する情報と、3次元座標系における被写体の位置を特定する情報が含まれる。S304では、前景テクスチャ決定部204が前景の3次元モデルにマッピングするテクスチャを決定し、テクスチャの情報を含む前景のモデル情報を生成する。また、背景テクスチャ決定部206が背景の3次元モデルにマッピングするテクスチャを決定し、テクスチャの情報を含む背景のモデル情報を生成する。 In S301, the image acquisition unit 201 acquires a plurality of viewpoint images based on images taken from different directions by the plurality of photographing devices 108. In S302, the separation processing unit 202 performs image processing for separating each of the plurality of viewpoint images acquired by the image acquisition unit 201 into a foreground and a background. In S303, the foreground model generation unit 203 generates the foreground model information, and the background model acquisition unit 205 generates the background model information. The model information includes information for specifying a three-dimensional model representing the shape of the subject and information for specifying the position of the subject in the three-dimensional coordinate system. In S304, the foreground texture determination unit 204 determines the texture to be mapped to the three-dimensional model of the foreground, and generates the model information of the foreground including the texture information. Further, the background texture determination unit 206 determines the texture to be mapped to the three-dimensional model of the background, and generates the background model information including the texture information.

S305では、視点取得部211が、仮想視点画像の生成に係る、仮想視点の指定に応じた視点情報を取得する。視点情報には視点の位置や視線の方向を特定する情報が含まれる。S306では、領域特定部208が、前景のモデル情報と背景のモデル情報とに基づいて、仮想視点画像の描画対象となる領域のうち撮影装置108による撮影範囲外に対応する非撮影領域を特定する。ここで特定される非撮影領域は、仮想視点画像内における仮想広告を挿入する位置を決定するために用いられる。S306の処理の詳細については図4を用いて後述する。S307では、配置決定部212が広告の配置を決定し、広告モデル生成部213が仮想広告のモデル情報を生成する。S307の処理の詳細については図8を用いて後述する。 In S305, the viewpoint acquisition unit 211 acquires viewpoint information according to the designation of the virtual viewpoint related to the generation of the virtual viewpoint image. The viewpoint information includes information for specifying the position of the viewpoint and the direction of the line of sight. In S306, the area specifying unit 208 specifies a non-photographing area corresponding to the outside of the shooting range by the photographing device 108 among the areas to be drawn of the virtual viewpoint image based on the model information of the foreground and the model information of the background. .. The non-photographed area specified here is used to determine the position in which the virtual advertisement is inserted in the virtual viewpoint image. Details of the processing of S306 will be described later with reference to FIG. In S307, the placement determination unit 212 determines the placement of the advertisement, and the advertisement model generation unit 213 generates model information of the virtual advertisement. The details of the processing of S307 will be described later with reference to FIG.

S308では、レンダリング処理部215が、前景、背景及び仮想広告それぞれのモデル情報を用いて、視点取得部211が取得した視点情報に対応する、仮想広告が挿入された仮想視点画像を生成する。S309では、出力部216が、レンダリング処理部215が生成した仮想視点画像を端末装置109に出力して処理を終了する。 In S308, the rendering processing unit 215 uses the model information of the foreground, the background, and the virtual advertisement to generate a virtual viewpoint image in which the virtual advertisement is inserted, which corresponds to the viewpoint information acquired by the viewpoint acquisition unit 211. In S309, the output unit 216 outputs the virtual viewpoint image generated by the rendering processing unit 215 to the terminal device 109, and ends the processing.

図4は、図3のS306における非撮影領域の特定に係る処理の詳細を示すフローチャートである。図4の処理の開始時には非撮影領域が初期化され、図4の処理の中で非撮影領域が更新されていく。そして、更新が行われて最終的に特定された非撮影領域が、仮想広告を配置する対象の領域となる。 FIG. 4 is a flowchart showing the details of the process relating to the identification of the non-photographed area in S306 of FIG. At the start of the process of FIG. 4, the non-photographed area is initialized, and the non-photographed area is updated in the process of FIG. Then, the non-shooting area that is updated and finally identified becomes the target area for arranging the virtual advertisement.

S401では、領域特定部208が、前景のモデル情報および背景のモデル情報を取得する。ここで取得される前景のモデル情報には、前景に対応する被写体の3次元モデルを特定する情報、3次元座標系における当該被写体の位置に関する情報、および3次元モデルにマッピングされたテクスチャに関する情報が含まれている。同様に、背景のモデル情報には、背景に対応する被写体の3次元モデルを特定する情報、3次元座標系における当該被写体の位置に関する情報、および3次元モデルにマッピングされたテクスチャに関する情報が含まれている。 In S401, the area specifying unit 208 acquires the model information of the foreground and the model information of the background. The foreground model information acquired here includes information for identifying the 3D model of the subject corresponding to the foreground, information regarding the position of the subject in the 3D coordinate system, and information regarding the texture mapped to the 3D model. include. Similarly, the background model information includes information that identifies the 3D model of the subject corresponding to the background, information about the position of the subject in the 3D coordinate system, and information about the texture mapped to the 3D model. ing.

S402では、領域特定部208が、S401で取得された各被写体のモデル情報に対してS403からS405の処理が行われたか否かを判定する。未処理の被写体のモデル情報がある場合はその中の一つが処理対象として選択され、S403に移る。未処理の被写体のモデル情報がない場合はS406に移る。 In S402, the area specifying unit 208 determines whether or not the processing of S403 to S405 has been performed on the model information of each subject acquired in S401. If there is model information of an unprocessed subject, one of them is selected as a processing target and the process proceeds to S403. If there is no model information of the unprocessed subject, move to S406.

S403では、領域特定部208が、処理対象の被写体の3次元モデルにおいてテクスチャがマッピングされていない領域を特定する。テクスチャがマッピングされていない領域は、すなわち、被写体の3次元モデルを表現するポリゴンまたは点群のうち、撮影装置108による撮影画像に基づく色情報が割り当てられていない部分である。S404では、領域特定部208が、S403で特定されたテクスチャがマッピングされていない領域を非撮影領域に追加することで、非撮影領域を更新する。 In S403, the area specifying unit 208 specifies an area to which the texture is not mapped in the three-dimensional model of the subject to be processed. The region to which the texture is not mapped is, that is, a portion of the polygon or point cloud representing the three-dimensional model of the subject to which the color information based on the image captured by the photographing apparatus 108 is not assigned. In S404, the area specifying unit 208 updates the non-photographed area by adding the area to which the texture specified in S403 is not mapped to the non-photographed area.

S405では、領域特定部208が、3次元座標系において処理対象の被写体の3次元モデルが位置しない領域を特定し、S402に戻る。処理対象の被写体を変えてS405の処理が繰りかえされることにより、3次元座標系においていずれの被写体の3次元モデルも位置しない領域が特定される。S406では、領域特定部208が、S405の処理により最終的に得られた、いずれの被写体の3次元モデルも位置しない領域を非撮影領域に追加することで、非撮影領域を更新する。 In S405, the area specifying unit 208 identifies an area in the three-dimensional coordinate system where the three-dimensional model of the subject to be processed is not located, and returns to S402. By repeating the processing of S405 by changing the subject to be processed, a region in which the 3D model of any subject is not located is specified in the 3D coordinate system. In S406, the area specifying unit 208 updates the non-photographed area by adding the area finally obtained by the process of S405, which is not located in the three-dimensional model of any subject, to the non-photographed area.

ここで、図5および図6を用いて、非撮影領域について説明する。図5(a)は、撮影装置108の撮影対象であるスタジアムの俯瞰図を示している。スタジアムの観客席501の内側に、フィールド502が存在している。複数の撮影装置108は、例えば観客席501の近傍やスタジアムの屋根に設置され、注視点503が視野の中心になるようにフィールド502の上方から撮影を行う。本実施形態では注視点503がフィールド面に存在するものとするが、これに限らず、注視点503はフィールド面から鉛直方向に離れた位置に存在してもよい。範囲506は複数の撮影装置108の何れの撮影範囲にも含まれるため、生成される仮想視点画像において範囲506の内部に対応する被写体は高画質で表示される。一方、生成される仮想視点画像において範囲506の外部に対応する領域は、範囲506の内部に対応する領域よりも低画質で表示されるか、または表示されない。 Here, the non-photographing region will be described with reference to FIGS. 5 and 6. FIG. 5A shows a bird's-eye view of the stadium to be photographed by the photographing apparatus 108. A field 502 exists inside the spectator seats 501 of the stadium. The plurality of photographing devices 108 are installed, for example, in the vicinity of the audience seats 501 or on the roof of the stadium, and photograph from above the field 502 so that the gazing point 503 is the center of the field of view. In the present embodiment, it is assumed that the gazing point 503 exists on the field surface, but the present invention is not limited to this, and the gazing point 503 may exist at a position vertically away from the field surface. Since the range 506 is included in any of the shooting ranges of the plurality of shooting devices 108, the subject corresponding to the inside of the range 506 is displayed in high image quality in the generated virtual viewpoint image. On the other hand, in the generated virtual viewpoint image, the area corresponding to the outside of the range 506 is displayed or not displayed with a lower image quality than the area corresponding to the inside of the range 506.

図5(b)は、スタジアムの俯瞰図における非撮影領域を示している。白抜きの領域505は、撮影装置108の少なくともいずれかの撮影範囲に含まれる領域であり、斜線の領域504は、いずれの撮影装置108の撮影範囲にも含まれない非撮影領域である。なお、本実施形態において撮影装置108はフィールド502を斜め上から撮影している。そして図5(b)の領域505は、撮影範囲に含まれる領域をフィールド面に投影したものである。そのため実際には、撮影装置108の直下付近のフィールド面は撮影されず、範囲506付近のフィールド面が、撮影される領域であり被写体の3次元モデルにマッピングされるテクスチャが得られる領域である。 FIG. 5B shows a non-photographed area in the bird's-eye view of the stadium. The white area 505 is an area included in at least one of the photographing areas of the photographing apparatus 108, and the shaded area 504 is a non-imaging area not included in the photographing range of any of the photographing devices 108. In the present embodiment, the photographing apparatus 108 photographs the field 502 from diagonally above. The area 505 in FIG. 5B is a projection of the area included in the photographing range on the field surface. Therefore, in reality, the field surface immediately below the photographing device 108 is not photographed, and the field surface near the range 506 is the area to be photographed and the area where the texture mapped to the three-dimensional model of the subject can be obtained.

すでに説明したように、背景モデル取得部205は、背景に対応する被写体としてのスタジアム全体の3次元モデルを予め取得してもよい。この場合、領域504には、被写体の3次元モデルは存在するがテクスチャが得られないスタジアム内の領域と、被写体の3次元モデルが存在しないスタジアム外の領域とが含まれる。図6(a)及び図6(b)は、スタジアムを水平方向から見た断面図を示している。図6(b)には、図5(b)に示す領域504と領域505とが示されている。 As described above, the background model acquisition unit 205 may acquire in advance a three-dimensional model of the entire stadium as a subject corresponding to the background. In this case, the area 504 includes an area inside the stadium where the three-dimensional model of the subject exists but no texture can be obtained, and an area outside the stadium where the three-dimensional model of the subject does not exist. 6 (a) and 6 (b) show a cross-sectional view of the stadium as viewed from the horizontal direction. FIG. 6 (b) shows the region 504 and the region 505 shown in FIG. 5 (b).

本実施形態では、このように特定された非撮影領域が仮想広告を配置する対象の領域となる。すなわち、情報処理装置100は、仮想視点画像内の領域であって、複数の撮影装置108による撮影範囲外に対応する領域を、仮想広告を挿入する挿入領域として決定する。これにより、撮影装置108の撮影範囲に含まれる被写体が仮想視点画像内において仮想広告に遮蔽されてしまう虞が低減される。なお、非撮影領域には、被写体の3次元モデルが存在しない領域と、被写体の3次元モデルは存在するがテクスチャが得られない領域とが含まれる。つまり、仮想視点画像内の領域であって、撮影装置108による撮影画像に含まれる被写体に対応しない領域が、仮想広告を挿入する挿入領域として決定される。またそれに加えて、撮影画像に含まれる被写体の内部に対応する領域、及び/又は被写体の面であって撮影画像に含まれない面に対応する領域も、挿入領域として決定される。被写体の内部に対応する領域とは、例えば建造物の壁の内部などであり、被写体の面であって撮影画像に含まれない面とは、例えば観客席501の椅子の裏側などである。 In the present embodiment, the non-shooting area specified in this way is the target area for arranging the virtual advertisement. That is, the information processing apparatus 100 determines an area in the virtual viewpoint image corresponding to the area outside the photographing range by the plurality of photographing devices 108 as an insertion area into which the virtual advertisement is inserted. As a result, the possibility that the subject included in the shooting range of the shooting device 108 is blocked by the virtual advertisement in the virtual viewpoint image is reduced. The non-photographed area includes an area in which the three-dimensional model of the subject does not exist and an area in which the three-dimensional model of the subject exists but the texture cannot be obtained. That is, the area in the virtual viewpoint image that does not correspond to the subject included in the image captured by the photographing device 108 is determined as the insertion area for inserting the virtual advertisement. In addition, a region corresponding to the inside of the subject included in the captured image and / or a region corresponding to a surface of the subject that is not included in the captured image is also determined as an insertion region. The area corresponding to the inside of the subject is, for example, the inside of a wall of a building, and the surface of the subject that is not included in the captured image is, for example, the back side of the chair of the audience seat 501.

なお、本実施形態では、いずれの撮影装置108の撮影範囲にも含まれない領域504が非撮影領域として特定され、特定された非撮影領域に基づいて仮想広告の配置が決定される場合を中心に説明する。ただしこれに限らず、例えば、いずれの撮影装置108の撮影範囲にも含まれる範囲506の外部がすべて非撮影領域として特定されてもよい。また、設置された複数の撮影装置108のうち予め定められた数以上の撮影装置108の撮影範囲に含まれる範囲の外部が非撮影領域として特定されてもよい。 In this embodiment, the area 504 that is not included in the shooting range of any of the shooting devices 108 is specified as the non-shooting area, and the placement of the virtual advertisement is determined based on the specified non-shooting area. Explain to. However, the present invention is not limited to this, and for example, the outside of the range 506 included in the photographing range of any photographing apparatus 108 may be specified as a non-photographing area. Further, the outside of the range included in the shooting range of the predetermined number or more of the shooting devices 108 among the plurality of installed shooting devices 108 may be specified as the non-shooting area.

S407では、領域特定部208が、視点取得部211が保持する視点情報を取得する。S408では、領域特定部208が、S401からS406の処理で得られた非撮影領域を、視点情報から特定される仮想視点に応じて更新し、処理を終了する。なお、本実施形態では、領域特定部208により特定される非撮影領域が仮想視点に応じて変化する場合を中心に説明するが、これに限らない。非撮影領域が仮想視点に依らずに決まる場合、図4におけるS407とS408の処理は省略される。 In S407, the area specifying unit 208 acquires the viewpoint information held by the viewpoint acquisition unit 211. In S408, the area specifying unit 208 updates the non-photographing area obtained by the processing of S401 to S406 according to the virtual viewpoint specified from the viewpoint information, and ends the processing. In the present embodiment, the case where the non-photographing area specified by the area specifying unit 208 changes according to the virtual viewpoint will be mainly described, but the present invention is not limited to this. When the non-photographing area is determined regardless of the virtual viewpoint, the processing of S407 and S408 in FIG. 4 is omitted.

図7を用いて、仮想視点に応じた非撮影領域について説明する。図7は、図6(b)に示したスタジアムを水平方向から見た断面図と、仮想視点との関係を示している。視点情報から特定される仮想視点は、地中にある位置701から地上を見上げる方向の視野705を有する。領域703は、図6(b)の領域505のうち視野705に含まれる部分である。すなわち領域703は、仮想視点の視野内であり、且つ撮影装置108の少なくとも何れかの撮影範囲に含まれる領域の一部であってテクスチャが得られる領域である。領域702は、図6(b)の領域504のうち視野705に含まれる部分である。すなわち領域702は、仮想視点の視野内であるが、いずれの撮影装置108の撮影範囲にも含まれない領域であってテクスチャが得られない領域である。なお、領域504のうち仮想視点から見て領域703と重なる部分は領域702から除かれる。領域704は、仮想視点から見て領域703と重ならない領域であり、且つ被写体の3次元モデルが存在しない領域である。S408の処理によって更新された非撮影領域は、領域704と領域702とからなる領域である。このように、仮想広告を配置する対象の領域である非撮影領域を仮想視点に応じて設定することで、撮影装置108の撮影範囲に含まれる被写体が仮想視点画像内において仮想広告に遮蔽される虞をより低減できる。 A non-photographing area corresponding to a virtual viewpoint will be described with reference to FIG. 7. FIG. 7 shows the relationship between the cross-sectional view of the stadium shown in FIG. 6 (b) viewed from the horizontal direction and the virtual viewpoint. The virtual viewpoint identified from the viewpoint information has a field of view 705 in the direction of looking up at the ground from the position 701 in the ground. The region 703 is a portion of the region 505 of FIG. 6B included in the visual field 705. That is, the region 703 is a region that is within the field of view of the virtual viewpoint and is a part of the region included in at least one of the imaging ranges of the imaging device 108, and the texture can be obtained. The region 702 is a portion of the region 504 of FIG. 6 (b) included in the visual field 705. That is, the region 702 is a region within the field of view of the virtual viewpoint, but is not included in the imaging range of any of the imaging devices 108, and a texture cannot be obtained. The portion of the region 504 that overlaps the region 703 when viewed from the virtual viewpoint is excluded from the region 702. The region 704 is a region that does not overlap with the region 703 when viewed from a virtual viewpoint, and is a region in which a three-dimensional model of the subject does not exist. The non-photographed area updated by the process of S408 is an area including the area 704 and the area 702. In this way, by setting the non-shooting area, which is the target area for arranging the virtual advertisement, according to the virtual viewpoint, the subject included in the shooting range of the shooting device 108 is shielded by the virtual advertisement in the virtual viewpoint image. The risk can be further reduced.

次に、図8を用いて、図3のS307における広告の配置に係る処理の詳細を説明する。S801では、候補決定部210が、領域特定部208により特定された非撮影領域の中から、3次元座標系における仮想広告の配置の候補となる領域を決定する。仮想視点画像内に仮想広告を挿入する場合には、撮影装置108により撮影される被写体と親和性のある位置や向きで仮想広告を挿入することで、仮想視点画像を見る視聴者に与える違和感を低減できる。そのため、候補決定部210は、前景や背景に対応する被写体の3次元モデルの面と略直角又は略平行な線や面、及び被写体の3次元モデルの周辺位置などを、仮想広告の配置候補として決定する。配置候補を決定する処理の詳細については図9を用いて後述する。 Next, the details of the process relating to the placement of the advertisement in S307 of FIG. 3 will be described with reference to FIG. In S801, the candidate determination unit 210 determines an area that is a candidate for the placement of the virtual advertisement in the three-dimensional coordinate system from the non-photographing area specified by the area identification unit 208. When inserting a virtual advertisement in a virtual viewpoint image, the virtual advertisement is inserted at a position and orientation compatible with the subject photographed by the photographing device 108, thereby giving a sense of discomfort to the viewer viewing the virtual viewpoint image. Can be reduced. Therefore, the candidate determination unit 210 sets a line or surface substantially perpendicular to or substantially parallel to the surface of the 3D model of the subject corresponding to the foreground or background, the peripheral position of the 3D model of the subject, and the like as candidates for arranging the virtual advertisement. decide. The details of the process of determining the placement candidate will be described later with reference to FIG.

S802では、配置決定部212が、候補決定部210が決定した配置候補にしたがって、3次元座標系における仮想広告の配置を決定する。なお配置決定部212は、決定された配置候補のうち、広告効果が高い領域に優先的に仮想広告を配置してもよい。広告効果が高い領域とは、例えば、仮想視点画像内に表示される時間が長い領域、表示される頻度が多い領域、表示される面積が大きい領域などである。また、配置決定部212は、仮想広告に設定された広告料金が高いほど、広告効果が高い領域に仮想広告を配置してもよい。仮想広告の配置を決定する処理の詳細については図11を用いて後述する。 In S802, the placement determination unit 212 determines the placement of the virtual advertisement in the three-dimensional coordinate system according to the placement candidates determined by the candidate determination unit 210. The placement determination unit 212 may preferentially place the virtual advertisement in the area where the advertising effect is high among the decided placement candidates. The area having a high advertising effect is, for example, an area that is displayed for a long time in the virtual viewpoint image, an area that is frequently displayed, an area that is displayed in a large area, and the like. Further, the placement determination unit 212 may place the virtual advertisement in an area where the higher the advertisement fee set for the virtual advertisement is, the higher the advertising effect is. The details of the process of determining the placement of the virtual advertisement will be described later with reference to FIG.

S803では、広告モデル生成部213が仮想広告のモデル情報を生成する。具体的には、広告モデル生成部213は、仮想広告の形状を表す3次元モデルを特定する情報と、配置決定部212により決定された仮想広告の位置に関する情報とを生成する。S804では、広告テクスチャ決定部214が、仮想広告の3次元モデルに対して、補助記憶装置104に事前に記憶された広告データをテクスチャとしてマッピングする。 In S803, the advertisement model generation unit 213 generates the model information of the virtual advertisement. Specifically, the advertisement model generation unit 213 generates information for specifying a three-dimensional model representing the shape of the virtual advertisement and information regarding the position of the virtual advertisement determined by the placement determination unit 212. In S804, the advertisement texture determination unit 214 maps the advertisement data stored in advance in the auxiliary storage device 104 as a texture to the three-dimensional model of the virtual advertisement.

次に図9を用いて、図8のS801における仮想広告の配置候補を決定する処理の詳細について説明する。図8の処理の開始時には配置候補が初期化され、図8の処理の中で配置候補が更新されていく。そして、更新が行われて最終的に決定された配置候補が、仮想広告を配置する対象の領域となる。 Next, with reference to FIG. 9, the details of the process of determining the placement candidate of the virtual advertisement in S801 of FIG. 8 will be described. The placement candidates are initialized at the start of the process of FIG. 8, and the placement candidates are updated in the process of FIG. Then, the placement candidate finally determined after the update is performed becomes the target area for placing the virtual advertisement.

S901では、候補決定部210が、前景および背景のモデル情報を取得する。ここで取得されるモデル情報には、被写体の3次元モデルを特定する情報、被写体の位置に関する情報、及びテクスチャに関する情報が含まれる。S902では、候補決定部210が、S901で取得された各被写体のモデル情報に対してS903からS912の処理が行われたか否かを判定する。未処理の被写体のモデル情報がある場合はその中の一つが処理対象として選択され、S903に移る。未処理の被写体のモデル情報がない場合はS913に移る。 In S901, the candidate determination unit 210 acquires the foreground and background model information. The model information acquired here includes information for identifying a three-dimensional model of the subject, information regarding the position of the subject, and information regarding the texture. In S902, the candidate determination unit 210 determines whether or not the processing of S903 to S912 has been performed on the model information of each subject acquired in S901. If there is model information of an unprocessed subject, one of them is selected as a processing target, and the process proceeds to S903. If there is no model information of the unprocessed subject, the process proceeds to S913.

S903では、候補決定部210が、処理対象の被写体が実空間上に存在する実広告(例えば看板など)であるか否かを判定し、実広告の場合はS904に移り、実広告でない場合はS905に移る。S904では、候補決定部210は、3次元座標系において実広告から鉛直方向に離れた位置を仮想広告の配置候補に追加しS902に戻る。仮想視点画像において、仮想広告を実広告の直上や直下など実広告から鉛直方向に離れた位置に挿入し、仮想広告と実広告の広告内容を関連させることで、広告効果を相乗的に向上させることができる。 In S903, the candidate determination unit 210 determines whether or not the subject to be processed is a real advertisement (for example, a signboard) existing in the real space, and if it is a real advertisement, it moves to S904, and if it is not a real advertisement, it moves to S904. Move to S905. In S904, the candidate determination unit 210 adds a position vertically away from the actual advertisement in the three-dimensional coordinate system to the placement candidate of the virtual advertisement, and returns to S902. In the virtual viewpoint image, the virtual advertisement is inserted at a position vertically away from the actual advertisement such as directly above or directly below the actual advertisement, and the advertisement content of the virtual advertisement and the actual advertisement are related to synergistically improve the advertising effect. be able to.

S905では、候補決定部210が、処理対象の被写体が観客席であるか否かを判定し、観客席の場合はS906に移り、観客席でない場合はS908に移る。S906では、候補決定部210が、観客席とフィールドの境界から鉛直方向に離れた位置を配置候補に追加し、S907に移る。S907では、候補決定部210が、観客席の外壁の面を配置候補に追加し、S902に戻る。本実施形態では撮影装置108がスタジアムの中に設置されているため、観客席の外壁は撮影装置108による撮影範囲に含まれず、外壁の面に対応するテクスチャは得られない。 In S905, the candidate determination unit 210 determines whether or not the subject to be processed is the audience seat, and if it is the audience seat, it moves to S906, and if it is not the audience seat, it moves to S908. In S906, the candidate determination unit 210 adds a position vertically away from the boundary between the spectator seat and the field to the placement candidate, and moves to S907. In S907, the candidate determination unit 210 adds the surface of the outer wall of the spectator seat to the placement candidate, and returns to S902. In the present embodiment, since the photographing device 108 is installed in the stadium, the outer wall of the audience seats is not included in the photographing range by the photographing device 108, and the texture corresponding to the surface of the outer wall cannot be obtained.

S908では、候補決定部210が、処理対象の被写体が屋根であるか否かを判定し、屋根の場合はS909に移り、屋根でない場合はS910に移る。S909では、候補決定部210が、屋根の外側の面を配置候補に追加し、902に戻る。屋根の外側の面も観客席の外壁と同様、撮影装置108による撮影範囲には含まれない。 In S908, the candidate determination unit 210 determines whether or not the subject to be processed is a roof, and if it is a roof, it moves to S909, and if it is not a roof, it moves to S910. In S909, the candidate determination unit 210 adds the outer surface of the roof to the placement candidates and returns to 902. The outer surface of the roof, like the outer wall of the audience seats, is not included in the shooting range of the shooting device 108.

S910では、候補決定部210が、処理対象の被写体がフィールドであるか否かを判定し、フィールドの場合はS911に移り、フィールドでない場合はS902に戻る。S911では、候補決定部210が、フィールドの面を配置候補に追加し、S912に移る。S912では、候補決定部210が、3次元座標系においてフィールド上に引かれた線に直角な面を配置候補に追加し、S902に戻る。 In S910, the candidate determination unit 210 determines whether or not the subject to be processed is a field, and if it is a field, it moves to S911, and if it is not a field, it returns to S902. In S911, the candidate determination unit 210 adds the surface of the field to the placement candidate and moves to S912. In S912, the candidate determination unit 210 adds a surface perpendicular to the line drawn on the field in the three-dimensional coordinate system to the placement candidate, and returns to S902.

S913では、注視点取得部209が複数の撮影装置108の撮影方向に応じた注視点の位置を取得する。候補決定部210は、3次元座標系において注視点から鉛直方向に離れた位置に対応する領域を配置候補に追加し、S914に移る。仮想視点画像において、注視点の周辺は画質が高く、視聴者が特に注目する領域である。そのため、注視点の真下や真上など注視点から鉛直方向に離れた位置に仮想広告を挿入することで、広告効果を向上させることができる。 In S913, the gazing point acquisition unit 209 acquires the gazing point position according to the photographing direction of the plurality of photographing devices 108. The candidate determination unit 210 adds a region corresponding to a position vertically away from the gazing point in the three-dimensional coordinate system to the placement candidate, and moves to S914. In the virtual viewpoint image, the area around the gazing point has high image quality and is an area that the viewer pays particular attention to. Therefore, the advertising effect can be improved by inserting the virtual advertisement at a position vertically away from the gazing point, such as directly below or above the gazing point.

S914では、候補決定部210が、領域特定部208により特定された非撮影領域を取得し、S915に移る。S915では、候補決定部210が、S903からS912の処理により追加された配置候補のうち非撮影領域に存在する配置候補のみを最終的な配置候補として決定し、処理を終了する。 In S914, the candidate determination unit 210 acquires the non-photographed area specified by the area identification unit 208 and moves to S915. In S915, the candidate determination unit 210 determines only the placement candidates existing in the non-photographing area among the placement candidates added by the processing of S903 to S912 as the final placement candidates, and ends the processing.

図10は、仮想広告の配置候補の一例を示している。この例では、観客席501、フィールド502、実広告1002、及び注視点503を基準として配置候補が決定される。候補1001は、観客席501の外壁の面である。候補1004は、観客席501の屋根の外側の面である。候補1005は、スタジアムの外部で地面の高さの水平面である。候補1006は、観客席の下で地面の高さの水平面である。候補1007は、観客席とフィールドの境界から鉛直方向に離れた面である。候補1008は、撮影装置108による撮影画像に含まれる被写体である実看板から鉛直方向に離れた面である。候補1009は注視点から鉛直方向に離れた面である。 FIG. 10 shows an example of placement candidates for virtual advertisements. In this example, placement candidates are determined based on the audience seats 501, the field 502, the actual advertisement 1002, and the gazing point 503. Candidate 1001 is the surface of the outer wall of the audience seat 501. Candidate 1004 is the outer surface of the roof of the auditorium 501. Candidate 1005 is a horizontal plane at ground level outside the stadium. Candidate 1006 is a horizontal plane at ground level under the spectators' seats. Candidate 1007 is a surface vertically separated from the boundary between the audience seats and the field. Candidate 1008 is a surface vertically away from the actual signboard, which is the subject included in the image captured by the photographing apparatus 108. Candidate 1009 is a plane away from the gazing point in the vertical direction.

なお、図10では仮想広告が厚みを持った形状となっているが、これに限らず、仮想広告は厚みのない面状のオブジェクトであってもよい。例えば、観客席501の外壁の面である候補1001に仮想広告が配置される場合には、外壁のテクスチャとして広告がマッピングされてもよい。 Although the virtual advertisement has a thick shape in FIG. 10, the virtual advertisement is not limited to this, and the virtual advertisement may be a planar object having no thickness. For example, when the virtual advertisement is placed on the candidate 1001 which is the surface of the outer wall of the audience seat 501, the advertisement may be mapped as the texture of the outer wall.

ここで、候補1007、候補1008及び候補1009は、地中に対応する領域である。なお、図10では背景に対応する被写体及び注視点を基準として決定される配置候補が示されているが、選手やボールなど前景に対応する被写体を基準として配置候補が決定されてもよい。例えば、選手から鉛直方向に離れた位置に、当該選手に関する情報を表示するための仮想オブジェクトが配置されてもよい。また、図10では仮想オブジェクトが面形状である場合を示しているが、これに限らず、仮想オブジェクトは球体や直方体などの立体形状であってもよい。 Here, Candidate 1007, Candidate 1008, and Candidate 1009 are areas corresponding to the ground. Although FIG. 10 shows a subject corresponding to the background and an arrangement candidate determined based on the gazing point, the arrangement candidate may be determined based on a subject corresponding to the foreground such as a player or a ball. For example, a virtual object for displaying information about the player may be placed at a position vertically away from the player. Further, FIG. 10 shows a case where the virtual object has a surface shape, but the present invention is not limited to this, and the virtual object may have a three-dimensional shape such as a sphere or a rectangular parallelepiped.

次に図11を用いて、図8のS802における仮想広告の配置を決定する処理の詳細について説明する。図11を用いた以下の説明では、生成される仮想視点画像が動画であるものとする。S1101では、配置決定部212が、補助記憶装置104に予め記憶された仮想広告の広告データを取得する。仮想視点画像に挿入される仮想広告が複数ある場合には、複数の広告データが取得される。 Next, with reference to FIG. 11, the details of the process of determining the placement of the virtual advertisement in S802 of FIG. 8 will be described. In the following description using FIG. 11, it is assumed that the generated virtual viewpoint image is a moving image. In S1101, the arrangement determination unit 212 acquires the advertisement data of the virtual advertisement stored in advance in the auxiliary storage device 104. When there are a plurality of virtual advertisements inserted in the virtual viewpoint image, a plurality of advertisement data are acquired.

S1102では、配置決定部212が、S1101で取得された各広告データに対してS1103からS1108の処理が行われたか否かを判定する。未処理の広告データが存在する場合はその中の1つが処理対象として選択され、S1103に移る。未処理の広告データが存在しない場合は処理を終了する。 In S1102, the placement determination unit 212 determines whether or not the processing of S1103 to S1108 has been performed on each advertisement data acquired in S1101. If there is unprocessed advertisement data, one of them is selected as the processing target and the process proceeds to S1103. If there is no unprocessed advertisement data, the process ends.

S1103では、配置決定部212が、前のフレームの仮想視点画像の生成において処理対象の仮想広告が配置されたか否かを判定する。配置済みの場合はS1105に移動し、配置済みでない場合はS1104に移る。S1104では、配置決定部212が、候補決定部210が決定した配置候補にしたがって仮想広告の配置を決定する。候補決定部210により決定された配置候補が複数ある場合には、配置決定部212は例えば、配置候補のうち広告効果が最も高い領域に仮想広告を配置する。ただし、配置候補の中から仮想広告を配置する領域を決定する方法はこれに限らない。 In S1103, the placement determination unit 212 determines whether or not the virtual advertisement to be processed has been placed in the generation of the virtual viewpoint image of the previous frame. If it has already been placed, it moves to S1105, and if it has not been placed, it moves to S1104. In S1104, the placement determination unit 212 determines the placement of the virtual advertisement according to the placement candidates determined by the candidate determination unit 210. When there are a plurality of placement candidates determined by the candidate determination unit 210, the placement determination unit 212 arranges, for example, a virtual advertisement in an area having the highest advertising effect among the placement candidates. However, the method of determining the area where the virtual advertisement is placed from the placement candidates is not limited to this.

S1105では、配置決定部212が、視点取得部211が保持している視点情報を取得する。S1106では、配置決定部212が、仮想視点が移動中であるか否かを判定する。仮想視点が移動中である、すなわち処理対象のフレームにおける仮想視点と前のフレームにおける仮想視点とが一致しない場合はS1108に移り、仮想視点が移動中でない場合はS1107に移る。 In S1105, the arrangement determination unit 212 acquires the viewpoint information held by the viewpoint acquisition unit 211. In S1106, the arrangement determination unit 212 determines whether or not the virtual viewpoint is moving. If the virtual viewpoint is moving, that is, if the virtual viewpoint in the frame to be processed and the virtual viewpoint in the previous frame do not match, the process moves to S1108, and if the virtual viewpoint is not moving, the process moves to S1107.

S1107では、配置決定部212が、仮想広告の配置を更新する。例えば、仮想視点の移動が停止した際、配置候補のうち広告効果が高い領域が仮想視点の移動に伴って変化していた場合に、配置決定部212は仮想広告の配置を変更してもよい。また例えば、配置決定部212は、仮想視点の移動に伴って3次元座標系における仮想広告の向きを変更してもよい。S1108では、配置決定部212が、仮想広告の配置を前フレームにおける配置から変更せずに処理を終了する。すなわち、仮想視点の移動中には仮想広告の配置が更新されない。 In S1107, the placement determination unit 212 updates the placement of the virtual advertisement. For example, when the movement of the virtual viewpoint is stopped, if the area of the placement candidates having a high advertising effect changes with the movement of the virtual viewpoint, the placement determination unit 212 may change the placement of the virtual advertisement. .. Further, for example, the arrangement determination unit 212 may change the direction of the virtual advertisement in the three-dimensional coordinate system as the virtual viewpoint moves. In S1108, the placement determination unit 212 ends the process without changing the placement of the virtual advertisement from the placement in the previous frame. That is, the placement of the virtual advertisement is not updated while the virtual viewpoint is moving.

図12および図13を用いて、仮想広告の配置の例について説明する。図12は、図11の処理に従って、仮想視点の移動に応じて3次元座標系における仮想広告の向きが変化する場合の例を示す。図12(a)の視点1201から図12(c)の視点1203まで、仮想視点が時間経過に伴って連続的に移動する。図11で説明したように、仮想視点が移動しているは仮想広告1204の向きが変化しない。一方、図12(d)は図12(c)の次のフレームに対応し、仮想視点の移動が停止したことに応じて、仮想広告の向きが変化している。このように、仮想視点の移動中は広告の向きを変化させないことで、仮想視点画像の視聴者に与える違和感を低減できる。また、仮想視点の移動が止まった後に、仮想視点に応じた向きに仮想広告を配置しなおすことで、仮想広告が視聴者の目に留まりやすくなり、広告効果を向上させることができる。以上のように、配置決定部212は、3次元座標系における仮想オブジェクトの向きを、視点取得部211が取得した視点情報に基づいて決定してもよい。 An example of the placement of a virtual advertisement will be described with reference to FIGS. 12 and 13. FIG. 12 shows an example in which the orientation of the virtual advertisement in the three-dimensional coordinate system changes according to the movement of the virtual viewpoint according to the process of FIG. The virtual viewpoint moves continuously with the passage of time from the viewpoint 1201 of FIG. 12 (a) to the viewpoint 1203 of FIG. 12 (c). As described with reference to FIG. 11, the direction of the virtual advertisement 1204 does not change when the virtual viewpoint is moving. On the other hand, FIG. 12 (d) corresponds to the next frame of FIG. 12 (c), and the direction of the virtual advertisement changes according to the stop of the movement of the virtual viewpoint. In this way, by not changing the direction of the advertisement while the virtual viewpoint is moving, it is possible to reduce the discomfort given to the viewer of the virtual viewpoint image. Further, by rearranging the virtual advertisement in the direction corresponding to the virtual viewpoint after the movement of the virtual viewpoint is stopped, the virtual advertisement can be easily noticed by the viewer and the advertising effect can be improved. As described above, the arrangement determination unit 212 may determine the orientation of the virtual object in the three-dimensional coordinate system based on the viewpoint information acquired by the viewpoint acquisition unit 211.

図12の例においては、広告が表示される所定の面が3次元座標系において地面に略水平又は略垂直となるように、仮想広告の向きが決められている。これにより、視聴者が仮想視点画像における水平方向や鉛直方向を把握しやすくなる。また図12の例では、水平向きと垂直向きのうち、仮想視点から広告内容がより見えやすい向きに、仮想広告が配置されている。広告内容が見えやすい向きとは、仮想視点の視線方向と仮想広告の面とが成す角が直角に近くなるような向きである。 In the example of FIG. 12, the orientation of the virtual advertisement is determined so that the predetermined surface on which the advertisement is displayed is substantially horizontal or substantially perpendicular to the ground in the three-dimensional coordinate system. This makes it easier for the viewer to grasp the horizontal direction and the vertical direction in the virtual viewpoint image. Further, in the example of FIG. 12, the virtual advertisement is arranged in the direction in which the advertisement content is more easily seen from the virtual viewpoint, out of the horizontal orientation and the vertical orientation. The direction in which the advertisement content is easy to see is the direction in which the angle formed by the line-of-sight direction of the virtual viewpoint and the surface of the virtual advertisement is close to a right angle.

なお、仮想広告の広告効果をより高めるために、仮想視点の移動中にも仮想広告の向きを変更してもよい。図13はこの場合の例を示す。仮想視点は図13(a)の視点1201から図13(c)の視点1203へ連続的に移動するが、図12(b)の視点1202において仮想視点から広告内容が見えやすい向きが変化するため、この時点において仮想広告の向きが変更される。 In addition, in order to further enhance the advertising effect of the virtual advertisement, the direction of the virtual advertisement may be changed even while the virtual viewpoint is moving. FIG. 13 shows an example in this case. The virtual viewpoint continuously moves from the viewpoint 1201 in FIG. 13 (a) to the viewpoint 1203 in FIG. 13 (c), but the direction in which the advertisement content is easily seen from the virtual viewpoint changes in the viewpoint 1202 in FIG. 12 (b). At this point, the direction of the virtual advertisement is changed.

なお、図11を用いた以上の説明では、仮想視点の変化に応じて仮想広告の配置が変化するものとしたが、これに限らない。すなわち、配置決定部212は、3次元座標系における固定位置であって、視点取得部211により取得される視点情報に応じて変化しない固定位置を、仮想広告の位置として決定してもよい。これにより、仮想広告と撮影画像に含まれる被写体との3次元座標系における位置関係が仮想視点の移動に伴って変化することで仮想視点画像の視聴者が受ける違和感を、軽減することができる。 In the above description using FIG. 11, it is assumed that the arrangement of the virtual advertisement changes according to the change of the virtual viewpoint, but the present invention is not limited to this. That is, the arrangement determination unit 212 may determine a fixed position in the three-dimensional coordinate system that does not change according to the viewpoint information acquired by the viewpoint acquisition unit 211 as the position of the virtual advertisement. As a result, it is possible to reduce the discomfort felt by the viewer of the virtual viewpoint image because the positional relationship between the virtual advertisement and the subject included in the captured image in the three-dimensional coordinate system changes with the movement of the virtual viewpoint.

図14は、配置決定部212による仮想広告の配置の決定に従ってレンダリング処理部215により生成される仮想視点画像の例を示す。図14(a)は、地中から地上を見上げるように指定された仮想視点に対応する仮想視点画像の一例である。撮影装置108による撮影画像に含まれる被写体として、選手1400、実広告1002、及び観客席501が表示されている。フィールドと観客席の境界1403よりも下の領域は、撮影装置108による撮影範囲外に対応する地中の領域1405である。図14の例では、フィールドが透明化して表示されているため、実際はフィールドに接地している選手1400が浮いているかのように表示されている。 FIG. 14 shows an example of a virtual viewpoint image generated by the rendering processing unit 215 according to the determination of the arrangement of the virtual advertisement by the arrangement determination unit 212. FIG. 14A is an example of a virtual viewpoint image corresponding to a virtual viewpoint designated to look up from the ground to the ground. A player 1400, an actual advertisement 1002, and a spectator seat 501 are displayed as subjects included in the image captured by the photographing device 108. The area below the boundary 1403 between the field and the audience seats is the underground area 1405 corresponding to the outside of the shooting range by the shooting device 108. In the example of FIG. 14, since the field is transparently displayed, it is displayed as if the player 1400 actually touching the field is floating.

撮影範囲外に対応する領域1405は黒画像になっており、この領域1405の中に仮想広告1204が表示されている。従来は黒画像になっており撮影範囲外であることのみを示していた領域1405に、文字情報を有する仮想広告1204などユーザに対して所定の情報を提供するための仮想オブジェクトを表示させることで、仮想視点画像内の限られた領域を有効活用できる。なお、領域1405のうち仮想広告1204以外の領域には、黒画像に限らず、予め定められた色や模様の画像が割り当てられてもよい。 The area 1405 corresponding to the outside of the shooting range is a black image, and the virtual advertisement 1204 is displayed in this area 1405. By displaying a virtual object for providing predetermined information to the user, such as a virtual advertisement 1204 having character information, in the area 1405 which is conventionally a black image and only indicates that it is out of the shooting range. , The limited area in the virtual viewpoint image can be effectively used. It should be noted that the area other than the virtual advertisement 1204 in the area 1405 is not limited to the black image, and an image of a predetermined color or pattern may be assigned.

なお、図14(a)の例のように、仮想広告1204は撮影範囲内に対応する領域(境界1403よりも上の領域)には隣接しない領域に表示してもよい。こうすることで、撮影範囲内に対応する領域と撮影範囲外に対応する領域を仮想視点画像の視聴者が識別しやすくなる。 As in the example of FIG. 14A, the virtual advertisement 1204 may be displayed in an area not adjacent to the area corresponding to the shooting range (the area above the boundary 1403). By doing so, it becomes easy for the viewer of the virtual viewpoint image to distinguish between the area corresponding to the shooting range and the area corresponding to the outside of the shooting range.

また、本実施形態では、仮想視点画像が撮影範囲内に対応する領域と撮影範囲外に対応する領域とを含む場合に、仮想視点画像内の領域であって撮影範囲外に対応する領域に仮想広告を表示させる場合について説明する。ただしこれに限らず、仮想視点画像外に広告が表示されてもよい。例えば、端末装置109の表示部が有する表示領域内において、仮想視点画像が表示される領域の外側に、広告が表示される広告領域が存在してもよい。そして、当該広告領域の形状や、当該広告領域に表示される広告の表示内容、及び当該広告領域に広告を表示させるか否かなどが、仮想視点画像の生成に係る仮想視点に応じて変化してもよい。 Further, in the present embodiment, when the virtual viewpoint image includes a region corresponding to the shooting range and a region corresponding to the outside of the shooting range, the virtual viewpoint image is virtual to the region corresponding to the outside of the shooting range. The case of displaying an advertisement will be described. However, the present invention is not limited to this, and the advertisement may be displayed outside the virtual viewpoint image. For example, in the display area of the display unit of the terminal device 109, an advertisement area in which the advertisement is displayed may exist outside the area in which the virtual viewpoint image is displayed. Then, the shape of the advertising area, the display content of the advertisement displayed in the advertising area, whether or not the advertisement is displayed in the advertising area, and the like change according to the virtual viewpoint related to the generation of the virtual viewpoint image. You may.

図14(b)は、上空からスタジアムを見下ろすように指定された仮想視点に対応する仮想視点画像の一例である。3次元モデルは存在するがテクスチャが存在しないスタジアムの屋根に対応する領域1406に仮想広告「ADV1」が表示され、3次元モデルが存在しないスタジアムの外部に対応する領域1407に仮想広告「ADV2」が表示されている。 FIG. 14B is an example of a virtual viewpoint image corresponding to a virtual viewpoint designated to look down on the stadium from the sky. The virtual advertisement "ADV1" is displayed in the area 1406 corresponding to the roof of the stadium where the 3D model exists but the texture does not exist, and the virtual advertisement "ADV2" is displayed in the area 1407 corresponding to the outside of the stadium where the 3D model does not exist. It is displayed.

なお、本実施形態では仮想広告を仮想視点画像内において撮影範囲外に対応する領域にのみ挿入する場合を中心に説明したが、これに限定されるものではなく、撮影範囲内に対応する領域と外部に対応する領域の両方に仮想広告を挿入してもよい。このような構成によっても、仮想広告をすべて撮影範囲内に対応する領域に挿入する場合と比べて、撮影範囲に含まれる被写体が仮想オブジェクトに遮蔽されてしまう虞を低減できる。 In the present embodiment, the case where the virtual advertisement is inserted only in the area corresponding to the outside of the shooting range in the virtual viewpoint image has been mainly described, but the present invention is not limited to this, and the area corresponds to the shooting range. Virtual ads may be inserted in both areas corresponding to the outside. Even with such a configuration, it is possible to reduce the possibility that the subject included in the shooting range is obscured by the virtual object as compared with the case where all the virtual advertisements are inserted in the corresponding area within the shooting range.

また、本実施形態では配置決定部212が仮想的な3次元座標系における仮想広告の配置を決定し、当該決定された配置に基づいてレンダリング処理部215が仮想視点画像内における仮想広告を挿入する挿入領域を決定する場合について説明した。ただしこれに限らず、情報処理装置100は例えば、仮想広告が挿入されていない仮想視点画像を生成し、当該仮想視点画像において撮影範囲外に対応する領域を、撮影装置108の撮影に関する外部パラメータ及び内部パラメータに基づいて特定してもよい。そして情報処理装置100は、仮想視点画像内の当該特定された領域を、仮想広告を挿入する挿入領域として決定してもよい。 Further, in the present embodiment, the arrangement determination unit 212 determines the arrangement of the virtual advertisement in the virtual three-dimensional coordinate system, and the rendering processing unit 215 inserts the virtual advertisement in the virtual viewpoint image based on the determined arrangement. The case of determining the insertion area has been described. However, the information processing device 100 is not limited to this, and for example, the information processing apparatus 100 generates a virtual viewpoint image in which a virtual advertisement is not inserted, and a region corresponding to the outside of the shooting range in the virtual viewpoint image is set as an external parameter related to shooting by the shooting device 108. It may be specified based on internal parameters. Then, the information processing apparatus 100 may determine the specified area in the virtual viewpoint image as an insertion area for inserting a virtual advertisement.

以上説明したように、本実施形態に係る情報処理装置100は、複数の撮影装置108による撮影画像に含まれない仮想オブジェクトが挿入される仮想視点画像の挿入領域を決定する。具体的には、複数の撮影装置108によるそれぞれ異なる方向からの撮影に基づくデータを取得し、また、当該データに基づく仮想視点画像の生成に係る、仮想視点の指定に応じた視点情報を取得する。そして情報処理装置100は、仮想視点画像内の領域であって、複数の撮影装置108による撮影範囲外に対応する領域を、仮想オブジェクトが挿入される挿入領域として決定する。このような構成によれば、仮想視点画像に仮想オブジェクトが挿入される場合に、撮影装置108による撮影範囲に含まれる被写体が仮想視点画像内において仮想オブジェクトに遮蔽されてしまう虞を低減することができる。 As described above, the information processing apparatus 100 according to the present embodiment determines the insertion region of the virtual viewpoint image into which the virtual object not included in the images captured by the plurality of imaging devices 108 is inserted. Specifically, data based on shooting from different directions by the plurality of shooting devices 108 is acquired, and viewpoint information according to the designation of the virtual viewpoint related to the generation of the virtual viewpoint image based on the data is acquired. .. Then, the information processing apparatus 100 determines an region in the virtual viewpoint image corresponding to the region outside the imaging range by the plurality of imaging devices 108 as an insertion region into which the virtual object is inserted. According to such a configuration, when a virtual object is inserted into the virtual viewpoint image, it is possible to reduce the possibility that the subject included in the shooting range by the shooting device 108 is obscured by the virtual object in the virtual viewpoint image. can.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a recording medium readable by a computer.

10 画像処理システム
100 情報処理装置
108 撮影装置
10 Image processing system 100 Information processing device 108 Imaging device

Claims (22)

撮影範囲をそれぞれ異なる位置から撮影する複数の撮影装置による撮影に基づく撮影画像に対応する画像データを取得するデータ取得手段と、
前記データ取得手段により取得された画像データと仮想視点を示す視点情報とに基づいて生成される仮想視点画像に含まれる所定の被写体を遮蔽しない領域として定義された複数の候補領域から前記複数の撮影装置による撮影範囲外に対応する特定領域を決定する第1の決定手段と、
前記特定領域に実在しない仮想オブジェクトが前記仮想視点画像内の前記特定領域に対応する位置に表示されるように、前記仮想オブジェクトの位置を決定する第2の決定手段と、を有することを特徴とする情報処理装置。
A data acquisition means for acquiring image data corresponding to an image taken based on shooting by a plurality of shooting devices that shoot a shooting range from different positions, and a data acquisition means.
The plurality of photographs taken from a plurality of candidate areas defined as areas that do not block a predetermined subject included in the virtual viewpoint image generated based on the image data acquired by the data acquisition means and the viewpoint information indicating the virtual viewpoint. The first determination means for determining a specific area corresponding to the outside of the shooting range by the device, and
It is characterized by having a second determining means for determining the position of the virtual object so that the virtual object that does not actually exist in the specific area is displayed at the position corresponding to the specific area in the virtual viewpoint image. Information processing device.
前記特定領域は、前記複数の撮影装置により撮影される被写体が存在しない領域であることを特徴とする請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the specific area is an area in which a subject photographed by the plurality of photographing devices does not exist. 前記特定領域は、前記複数の撮影装置により撮影される被写体の内部の領域、及び/又は前記被写体の表面であって前記複数の撮影装置により撮影されない表面の領域であることを特徴とする請求項1に記載の情報処理装置。 The specific area is a region inside a subject photographed by the plurality of photographing devices and / or a region of a surface of the subject which is not photographed by the plurality of photographing devices. The information processing apparatus according to 1. 前記特定領域は、前記撮影範囲に隣接しない領域であることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3, wherein the specific area is a region not adjacent to the photographing range. 前記複数の撮影装置の撮影に係るパラメータを取得するパラメータ取得手段を有し、
前記第1の決定手段は、前記パラメータ取得手段により取得されるパラメータに基づいて前記撮影範囲を特定した結果に基づいて前記特定領域を決定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
It has a parameter acquisition means for acquiring parameters related to imaging by the plurality of imaging devices.
One of claims 1 to 4, wherein the first determination means determines the specific area based on the result of specifying the imaging range based on the parameters acquired by the parameter acquisition means. The information processing device described in the section.
前記第2の決定手段は、前記仮想視点画像における前記仮想オブジェクトの位置を決定することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, wherein the second determination means determines the position of the virtual object in the virtual viewpoint image. 前記第2の決定手段は、3次元空間内における前記仮想オブジェクトの位置を決定することを特徴とする請求項1乃至5の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 5, wherein the second determination means determines the position of the virtual object in a three-dimensional space. 前記特定領域は前記仮想視点に応じて変化しない領域であることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the specific area is an area that does not change according to the virtual viewpoint. 前記特定領域は、前記データ取得手段により取得された画像データと前記仮想視点とに基づいて決定されることを特徴とする請求項1乃至7の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 7, wherein the specific area is determined based on the image data acquired by the data acquisition means and the virtual viewpoint. 前記仮想オブジェクトの向きは前記仮想視点に基づいて決定されることを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 9, wherein the orientation of the virtual object is determined based on the virtual viewpoint. 前記仮想視点が移動している間は前記仮想オブジェクトの向きが変化せず、前記仮想視点の移動が停止した後に前記仮想オブジェクトの向きが変化するように、前記仮想オブジェクトの向きが決定されることを特徴とする請求項10に記載の情報処理装置。 The orientation of the virtual object is determined so that the orientation of the virtual object does not change while the virtual viewpoint is moving and the orientation of the virtual object changes after the movement of the virtual viewpoint is stopped. The information processing apparatus according to claim 10. 前記仮想オブジェクトの所定の面が3次元空間において地面に略水平または略垂直となるように前記仮想オブジェクトの向きが決定されることを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。 The invention according to any one of claims 1 to 11, wherein the orientation of the virtual object is determined so that a predetermined surface of the virtual object is substantially horizontal or substantially perpendicular to the ground in a three-dimensional space. Information processing device. 前記特定領域は地中の領域であるすることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 12, wherein the specific area is an underground area. 前記特定領域は、前記複数の撮影装置の撮影方向に応じた注視点から3次元空間における鉛直方向に離れた位置の領域であることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。 6. Information processing equipment. 前記特定領域は、前記複数の撮影装置により撮影される被写体から3次元空間における鉛直方向に離れた位置の領域であることを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。 The information processing according to any one of claims 1 to 12, wherein the specific region is a region at a position vertically separated from a subject photographed by the plurality of photographing devices in a three-dimensional space. Device. 前記仮想オブジェクトは、前記仮想視点画像に広告を表示させるためのオブジェクトであることを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 15, wherein the virtual object is an object for displaying an advertisement on the virtual viewpoint image. 前記視点情報を取得する情報取得手段を有し、
前記第2の決定手段により決定された位置に前記仮想オブジェクトが表示される前記仮想視点画像を、前記データ取得手段により取得された画像データと前記情報取得手段により取得された前記視点情報とに基づいて生成する生成手段を有することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
It has an information acquisition means for acquiring the viewpoint information, and has
The virtual viewpoint image in which the virtual object is displayed at a position determined by the second determination means is based on the image data acquired by the data acquisition means and the viewpoint information acquired by the information acquisition means. The information processing apparatus according to any one of claims 1 to 16, further comprising a generation means for generating the information.
前記視点情報を取得する情報取得手段を有し、
前記仮想オブジェクトが挿入されていない仮想視点画像を、前記データ取得手段により取得された画像データと前記情報取得手段により取得された前記視点情報とに基づいて生成する生成手段と、
前記生成手段により生成された仮想視点画像と、前記第2の決定手段により決定された位置を特定するための情報とを、前記仮想オブジェクトが挿入された仮想視点画像を生成する装置へ出力する出力手段と、を有することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
It has an information acquisition means for acquiring the viewpoint information, and has
A generation means for generating a virtual viewpoint image in which the virtual object is not inserted based on the image data acquired by the data acquisition means and the viewpoint information acquired by the information acquisition means.
Output to output the virtual viewpoint image generated by the generation means and the information for specifying the position determined by the second determination means to the device for generating the virtual viewpoint image into which the virtual object is inserted. The information processing apparatus according to any one of claims 1 to 16, further comprising means.
撮影範囲をそれぞれ異なる位置から撮影する複数の撮影装置による撮影に基づく撮影画像に対応する画像データを取得するデータ取得工程と、
前記データ取得工程において取得された画像データと仮想視点を示す視点情報とに基づいて生成される仮想視点画像に含まれる所定の被写体を遮蔽しない領域として定義された複数の候補領域から前記複数の撮影装置による撮影範囲外に対応する特定領域を決定する第1の決定工程と、
前記特定領域に実在しない仮想オブジェクトが前記仮想視点画像内の前記特定領域に対応する位置に表示されるように、仮想オブジェクトの位置を決定する第2の決定工程と、を有することを特徴とする情報処理方法。
A data acquisition process that acquires image data corresponding to images taken based on shooting by multiple shooting devices that shoot the shooting range from different positions, and
The plurality of photographs taken from a plurality of candidate areas defined as areas that do not block a predetermined subject included in the virtual viewpoint image generated based on the image data acquired in the data acquisition step and the viewpoint information indicating the virtual viewpoint. The first determination step of determining a specific area corresponding to the outside of the shooting range by the device , and
It is characterized by having a second determination step of determining the position of the virtual object so that the virtual object that does not actually exist in the specific area is displayed at the position corresponding to the specific area in the virtual viewpoint image. Information processing method.
前記特定領域は、前記複数の撮影装置により撮影される被写体が存在しない領域であることを特徴とする請求項19に記載の情報処理方法。 The information processing method according to claim 19 , wherein the specific area is an area in which a subject photographed by the plurality of photographing devices does not exist. 前記特定領域は、前記複数の撮影装置により撮影される被写体の内部の領域、及び/又は前記被写体の表面であって前記複数の撮影装置により撮影されない表面の領域であることを特徴とする請求項19に記載の情報処理方法。 The specific area is a region inside a subject photographed by the plurality of photographing devices and / or a region of a surface of the subject which is not photographed by the plurality of photographing devices. The information processing method according to 19 . コンピュータを、請求項1乃至18の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for making a computer function as each means of the information processing apparatus according to any one of claims 1 to 18.
JP2017074829A 2017-04-04 2017-04-04 Information processing equipment, information processing methods and programs Active JP7080586B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017074829A JP7080586B2 (en) 2017-04-04 2017-04-04 Information processing equipment, information processing methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017074829A JP7080586B2 (en) 2017-04-04 2017-04-04 Information processing equipment, information processing methods and programs

Publications (3)

Publication Number Publication Date
JP2018180654A JP2018180654A (en) 2018-11-15
JP2018180654A5 JP2018180654A5 (en) 2020-05-14
JP7080586B2 true JP7080586B2 (en) 2022-06-06

Family

ID=64276649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017074829A Active JP7080586B2 (en) 2017-04-04 2017-04-04 Information processing equipment, information processing methods and programs

Country Status (1)

Country Link
JP (1) JP7080586B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833348B2 (en) * 2016-05-25 2021-02-24 キヤノン株式会社 Information processing device, image processing system, information processing device control method, virtual viewpoint image generation method, and program
JP7297439B2 (en) * 2018-12-19 2023-06-26 キヤノン株式会社 File generation device and file generation method, image generation device and image generation method, and program
JP7224894B2 (en) * 2018-12-20 2023-02-20 キヤノン株式会社 Information processing device, information processing method and program
JP7349793B2 (en) * 2019-02-15 2023-09-25 キヤノン株式会社 Image processing device, image processing method, and program
CN112146284B (en) * 2019-06-28 2022-03-04 青岛海尔智能技术研发有限公司 Control method and device for water heater system and water heater system
JP7385385B2 (en) * 2019-07-19 2023-11-22 株式会社ソニー・インタラクティブエンタテインメント Image distribution system and image distribution method
JP7390265B2 (en) 2020-08-07 2023-12-01 Kddi株式会社 Virtual viewpoint video rendering device, method and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3300334B2 (en) 1999-04-16 2002-07-08 松下電器産業株式会社 Image processing device and monitoring system
JP2009064445A (en) 2007-09-05 2009-03-26 Sony United Kingdom Ltd Image processor and method
JP2012048639A (en) 2010-08-30 2012-03-08 Kddi Corp Free viewpoint video forming device, and method and program for displaying advertisement in free visual point video system
JP2015114716A (en) 2013-12-09 2015-06-22 シャープ株式会社 Image data reproducing apparatus and image data generation apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3300334B2 (en) 1999-04-16 2002-07-08 松下電器産業株式会社 Image processing device and monitoring system
JP2009064445A (en) 2007-09-05 2009-03-26 Sony United Kingdom Ltd Image processor and method
JP2012048639A (en) 2010-08-30 2012-03-08 Kddi Corp Free viewpoint video forming device, and method and program for displaying advertisement in free visual point video system
JP2015114716A (en) 2013-12-09 2015-06-22 シャープ株式会社 Image data reproducing apparatus and image data generation apparatus

Also Published As

Publication number Publication date
JP2018180654A (en) 2018-11-15

Similar Documents

Publication Publication Date Title
JP7080586B2 (en) Information processing equipment, information processing methods and programs
US20230377183A1 (en) Depth-Aware Photo Editing
EP3179447B1 (en) Foveated rendering
US9055277B2 (en) Image rendering device, image rendering method, and image rendering program for rendering stereoscopic images
US7689031B2 (en) Video filtering for stereo images
JP4764305B2 (en) Stereoscopic image generating apparatus, method and program
US20130044108A1 (en) Image rendering device, image rendering method, and image rendering program for rendering stereoscopic panoramic images
US20160232710A1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
KR20130089649A (en) Method and arrangement for censoring content in three-dimensional images
GB2546720B (en) Method of and apparatus for graphics processing
US20230281912A1 (en) Method and system for generating a target image from plural multi-plane images
JP2019509526A (en) Optimal spherical image acquisition method using multiple cameras
EP3688993A1 (en) Device and method for dynamic range expansion in a virtual reality scene
JP2020173529A (en) Information processing device, information processing method, and program
JP6555755B2 (en) Image processing apparatus, image processing method, and image processing program
US20220189078A1 (en) Image processing apparatus, method for controlling image processing apparatus, and storage medium
EP3665656B1 (en) Three-dimensional video processing
JP6799468B2 (en) Image processing equipment, image processing methods and computer programs
US11277596B2 (en) Image processing apparatus, image processing method, and storage medium
US8891857B2 (en) Concave surface modeling in image-based visual hull
WO2022176720A1 (en) Information processing device, information processing method, and program
JP7271095B2 (en) Image generation device, image generation method, and program
CN111243099B (en) Method and device for processing image and method and device for displaying image in AR (augmented reality) equipment
US20210297649A1 (en) Image data output device, content creation device, content reproduction device, image data output method, content creation method, and content reproduction method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220426

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220525

R151 Written notification of patent or utility model registration

Ref document number: 7080586

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151