JP2020021104A - Information processing apparatus, information processing system, control method thereof and program - Google Patents

Information processing apparatus, information processing system, control method thereof and program Download PDF

Info

Publication number
JP2020021104A
JP2020021104A JP2018142025A JP2018142025A JP2020021104A JP 2020021104 A JP2020021104 A JP 2020021104A JP 2018142025 A JP2018142025 A JP 2018142025A JP 2018142025 A JP2018142025 A JP 2018142025A JP 2020021104 A JP2020021104 A JP 2020021104A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
video
information processing
virtual
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018142025A
Other languages
Japanese (ja)
Other versions
JP2020021104A5 (en
Inventor
雄一郎 川西
Yuichiro Kawanishi
雄一郎 川西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Marketing Japan Inc
Original Assignee
Canon Marketing Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Marketing Japan Inc filed Critical Canon Marketing Japan Inc
Priority to JP2018142025A priority Critical patent/JP2020021104A/en
Publication of JP2020021104A publication Critical patent/JP2020021104A/en
Publication of JP2020021104A5 publication Critical patent/JP2020021104A5/ja
Pending legal-status Critical Current

Links

Images

Abstract

To provide a mechanism to easily obtain videos of the same scene from multiple angles.SOLUTION: An information processing apparatus for generating a virtual view point video that is a video generated based on a determined view point includes acquisition means that acquires information for generating the virtual view point video, setting means that receives a designation of a first virtual view point that is a view point of the virtual view point video and sets a second virtual view point corresponding to the first virtual view point, and generation means that generates a virtual view point video of the first virtual view point set by the setting means and a virtual view point video of the second virtual view point.SELECTED DRAWING: Figure 9

Description

本発明は、情報処理装置、情報処理のシステム、およびそれらの制御方法、プログラムに関する。   The present invention relates to an information processing apparatus, an information processing system, a control method thereof, and a program.

昨今、仮想視点映像(あるいは自由視点映像)と呼ばれる複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、任意の視点(仮想視点、自由視点、カメラアングル)の映像を生成する技術が注目されている。そして、この技術により、ユーザは、例えば、サッカーやラグビー等のハイライトシーンを様々な角度から視聴することができる。しかしながら、仮想視点は任意に設定できるゆえに、同じ被写体を適切な複数の仮想視点の映像を見ようとすると、映像の数だけ都度適切な仮想視点を設定しなければならなくなり、その分操作者の負担が大きくなる。   Recently, a plurality of cameras called virtual viewpoint images (or free viewpoint images) are installed at different positions, synchronously photographed at multiple viewpoints, and an arbitrary viewpoint (virtual viewpoint, virtual viewpoint, Attention has been focused on a technology for generating an image of any viewpoint (camera angle). With this technology, the user can view highlight scenes such as soccer and rugby from various angles. However, since the virtual viewpoint can be set arbitrarily, if the user wants to view images of a plurality of appropriate virtual viewpoints for the same subject, it is necessary to set an appropriate virtual viewpoint as many times as the number of images, which imposes a burden on the operator. Becomes larger.

特開2018−36955号公報JP 2018-36955 A 特開2018−36956号公報JP 2018-36956 A WO2004/006572号公報WO2004 / 006572

特許文献1や2には、仮想視点の操作時におけるの、第1の視点に基づいて、第2の視点を決定する方法が示されている。そして、この方法を用いれば、視点の設定は一か所で済むため、操作者の視点設定の負担が軽減できる。しかし、これら方法は、被写体の取り逃がしを低減することを目的としており、一つの被写体を「アップでとらえた映像」と、その映像から被写体がフレームアウトした場合のための「似たような角度からとらえた引きの画像」しか得ることができない。つまり、同じ被写体のシーンを、同じくらいのサイズ感で、角度を変えて見比べる映像を得ることができない点に課題が残る。   Patent Literatures 1 and 2 disclose a method of determining a second viewpoint based on a first viewpoint when operating a virtual viewpoint. If this method is used, the viewpoint can be set in one place, and the burden on the operator for setting the viewpoint can be reduced. However, these methods are aimed at reducing the missing of the subject, and "an image captured from a close-up" of one subject and "a similar angle for the case where the subject goes out of frame from that image" You can only get the "image of the pull you caught." In other words, a problem remains in that it is not possible to obtain a video in which a scene of the same subject is compared with a similar sense of size at different angles.

特許文献3には、同一の被写体を別の角度から見たい場合に、基準となる映像データから、関連性の高い映像を自動的に選出し、それらの複数の映像を統合的に扱うことが可能な仕組みが示されている。つまり、同じ被写体のシーンを、角度を変えて見比べる映像を得ることができる。   Patent Literature 3 discloses that, when it is desired to view the same subject from a different angle, a video having high relevance is automatically selected from reference video data, and the plurality of videos are handled in an integrated manner. Possible mechanisms are shown. In other words, it is possible to obtain an image in which the same subject scene is compared at different angles.

しかしながらこの方法は、単に一つの定点カメラに対応する他の定点カメラの中を抽出して表示しているに過ぎない。したがって、仮想視点映像における一つの仮想視点に基づいて、別の適切な仮想視点を決定することはできない。さらに、「同じくらいのサイズ感の映像」が得られるかどうかは、選出される映像を撮影するカメラのハード性能や、撮影条件、被写体の位置等様々な条件に依存してしまう。つまり、ユーザの希望する視点の映像が得られるかどうかが、様々な条件に左右されやすい仕組みであると言える。   However, this method merely extracts and displays the other fixed-point cameras corresponding to one fixed-point camera. Therefore, it is not possible to determine another appropriate virtual viewpoint based on one virtual viewpoint in the virtual viewpoint video. Further, whether or not “an image having the same size feeling” can be obtained depends on various conditions such as the hardware performance of the camera that shoots the selected image, shooting conditions, and the position of the subject. In other words, it can be said that whether or not an image of a viewpoint desired by the user can be obtained is a mechanism easily influenced by various conditions.

本発明は、複数アングルの同じシーンの映像を、簡単に得るための仕組みを提供する。   The present invention provides a mechanism for easily obtaining images of the same scene at a plurality of angles.

本発明は、定められる視点に基づいて生成される映像である仮想視点映像を生成する情報処理装置であって、前記仮想視点映像を生成するための情報を取得する取得手段と、前記仮想視点映像の仮想視点であって、第1の仮想視点の指定を受付けるとともに、当該第1の仮想視点に対応する第2の仮想視点を設定する設定手段と、前記設定手段で設定された前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とを生成する生成手段とを備えることを特徴とする。   The present invention is an information processing apparatus that generates a virtual viewpoint video that is a video generated based on a determined viewpoint, an acquisition unit that obtains information for generating the virtual viewpoint video, and the virtual viewpoint video Setting means for receiving designation of a first virtual viewpoint and setting a second virtual viewpoint corresponding to the first virtual viewpoint; and setting the first virtual viewpoint set by the setting means. It is characterized by comprising generating means for generating a virtual viewpoint video of a virtual viewpoint and a virtual viewpoint video of the second virtual viewpoint.

このように設けることで、複数アングルの同じシーンの映像を、簡単に得るための仕組みを提供することができる。   With such provision, it is possible to provide a mechanism for easily obtaining images of the same scene at a plurality of angles.

本発明のシステム構成の一例を示した構成図である。FIG. 1 is a configuration diagram showing an example of a system configuration of the present invention. 本発明のハードウエアの構成の一例を示した構成図である。FIG. 2 is a configuration diagram illustrating an example of a hardware configuration according to the present invention. 情報処理装置110で生成する映像の仮想視点を決定するための条件を受付けるための受付画面の一例を示した構成図である。FIG. 2 is a configuration diagram illustrating an example of a reception screen for receiving a condition for determining a virtual viewpoint of a video generated by the information processing apparatus 110. 表示映像の開始点の指定を受付けるための画面の一例を示した構成図である。FIG. 4 is a configuration diagram illustrating an example of a screen for receiving designation of a start point of a display image. 仮想視点表示画面401を介してユーザから仮想視点の変更指示を受付ける一連の流れの一例を示した構成図である。FIG. 11 is a configuration diagram showing an example of a series of flows for receiving a virtual viewpoint change instruction from a user via a virtual viewpoint display screen 401. 仮想視点表示画面401を介してユーザから仮想視点の変更指示を受付ける一連の流れの一例を示した構成図である。FIG. 11 is a configuration diagram showing an example of a series of flows for receiving a virtual viewpoint change instruction from a user via a virtual viewpoint display screen 401. 図6(g)のケースにおける、表示映像の開始点の指定を受付けるための画面の一例を示した構成図である。FIG. 7 is a configuration diagram showing an example of a screen for accepting designation of a start point of a display image in the case of FIG. 6 (g). 図6(g)のケースにおける、表示映像の終了点の指定を受付けるための画面の一例を示した構成図である。FIG. 7 is a configuration diagram showing an example of a screen for receiving designation of an end point of a display video in the case of FIG. 6 (g). 図6(g)のケースにおける、表示映像の終了点の指定を受付けるための画面の一例を示した構成図である。FIG. 7 is a configuration diagram showing an example of a screen for receiving designation of an end point of a display video in the case of FIG. 6 (g). 図9の変形例の一例を示した構成図である。FIG. 10 is a configuration diagram illustrating an example of a modification of FIG. 9. 仮想視点を始点と終点が時間変化に応じて、どのように変化するかを管理するためのデータテーブルの一例と、それを説明するための説明図を示した構成図である。FIG. 2 is a configuration diagram showing an example of a data table for managing how a start point and an end point of a virtual viewpoint change with time, and an explanatory diagram for explaining the example; 本発明のフローの一例を示した構成図である。FIG. 3 is a configuration diagram showing an example of a flow of the present invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明のシステム構成の一例を示した構成図である。   FIG. 1 is a configuration diagram showing an example of the system configuration of the present invention.

情報処理装置110は、仮想視点コンテンツを生成するための情報処理を行う装置である。本発明の実施例では、複数のカメラ(撮影装置120)を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する情報処理装置110について説明する。   The information processing device 110 is a device that performs information processing for generating virtual viewpoint content. In an embodiment of the present invention, an information processing apparatus that installs a plurality of cameras (imaging devices 120) at different positions, synchronously shoots at multiple viewpoints, and generates virtual viewpoint content using the multiple viewpoint images obtained by the shooting. 110 will be described.

また、このシステムは、「トラッキング機能」を有しており、トラッキングする対象となる被写体を任意に指定して映像を生成することができる。例えば、サッカーボールをトラッキングするよう指定した場合、これを主被写体としたサッカーボールが含まれるような、映像を、連続的に生成することができる。   In addition, this system has a “tracking function”, and can generate an image by arbitrarily specifying a subject to be tracked. For example, when it is designated to track a soccer ball, an image including a soccer ball having the soccer ball as a main subject can be continuously generated.

撮影装置120は、情報処理装置110で仮想視点コンテンツを生成するための映像を撮影するための装置である。撮影装置120は、異なる位置に複数され、多視点で同期撮影しできるよう、設けられている。   The image capturing device 120 is a device for capturing an image for generating virtual viewpoint content in the information processing device 110. The plurality of image capturing devices 120 are provided at different positions, and are provided so as to perform synchronous image capturing from multiple viewpoints.

表示端末130は、情報処理装置110で生成された仮想視点コンテンツを受信して、表示可能な端末で、例えば、パーソナルコンピュータ、各種モニタ、ヘッドマウントディスプレイ、タブレット端末など、コンテンツの表示できる様々な情報処理端末が含まれる。   The display terminal 130 is a terminal that can receive and display the virtual viewpoint content generated by the information processing device 110, and is, for example, a personal computer, various monitors, a head-mounted display, a tablet terminal, and various information capable of displaying the content. A processing terminal is included.

本実施例のハードウエアは、情報処理装置110、撮影装置120、表示端末130は、1または複数設置されている。各ハードウエアの台数は、発明の実施に必要なだけの台数を準備できるものとする。また、各ハードウエアの役割の一部または全部は、他のハードウエアが兼ねる構成であっても構わない。   In the hardware of the present embodiment, one or a plurality of information processing apparatuses 110, image capturing apparatuses 120, and display terminals 130 are provided. It is assumed that the number of each hardware can be prepared as many as necessary for implementing the invention. In addition, a part or all of the role of each hardware may be configured to be shared by other hardware.

通信ネットワーク140は、本発明の実施にあたって必要となるハードウエア同士(情報処理装置110、撮影装置120、表示端末130など)を、通信可能に接続するネットワークである。   The communication network 140 is a network for connecting hardware (such as the information processing device 110, the photographing device 120, and the display terminal 130) necessary for implementing the present invention in a communicable manner.

また、通信ネットワーク140の通信方法は、既存の様々な技術を用いることができる。さらに、有線であっても無線であってもよく、WAN(Wide Area Network)であってもLAN(Local Area Network)であってもよい。   Further, as a communication method of the communication network 140, various existing technologies can be used. Furthermore, it may be wired or wireless, and may be a WAN (Wide Area Network) or a LAN (Local Area Network).

図2は、本発明のハードウエアの構成の一例を示した構成図である。本発明におけるハードウエアは、情報処理装置110、撮影装置120、表示端末130である。   FIG. 2 is a configuration diagram showing an example of a hardware configuration of the present invention. The hardware in the present invention is the information processing device 110, the imaging device 120, and the display terminal 130.

201はCPUで、ROM202のプログラム用ROMや外部メモリ211に記憶されたプログラムをRAM203にロードして実行することによりシステムバス204に接続された各デバイスを制御する。また、このROM202のフォント用ROMにはフォントデータ等を記憶し、ROM202のデータ用ROMには各種データを記憶する。203はRAMで、CPU201の主メモリ、ワークエリア等として機能する。202はキーボードコントローラ(入力コントローラ)で、209や図示しないポインティングデバイス、例えばタッチパッドからの入力を制御する。   A CPU 201 controls each device connected to a system bus 204 by loading a program ROM stored in a program ROM of a ROM 202 or an external memory 211 into a RAM 203 and executing the program. The font ROM of the ROM 202 stores font data and the like, and the data ROM of the ROM 202 stores various data. A RAM 203 functions as a main memory, a work area, and the like for the CPU 201. Reference numeral 202 denotes a keyboard controller (input controller) which controls an input from a keyboard 209 or a pointing device (not shown) such as a touch pad.

入力コントローラ205は入力デバイス209を制御する。なお入力デバイス209には、タッチパネルも含まれ、その場合は、入力デバイス209が表示部210(映像を表示する表示画面を映すための表示装置)を兼ねているケースもある。206はビデオカード(VC)で、表示部210の表示を制御する。   The input controller 205 controls the input device 209. Note that the input device 209 also includes a touch panel. In this case, the input device 209 may also serve as the display unit 210 (a display device for displaying a display screen that displays an image). A video card (VC) 206 controls display on the display unit 210.

207はメモリコントローラで、外部メモリ211(ハードディスク等)とのアクセスを制御する。208はネットワークインターフェースカード(NIC)で、通信ネットワーク140上の通信を制御する。   A memory controller 207 controls access to the external memory 211 (such as a hard disk). A network interface card (NIC) 208 controls communication on the communication network 140.

撮像ユニットコントローラ220は、撮影装置120に備えられたユニットで、撮像ユニット221を制御するコントローラである。   The imaging unit controller 220 is a unit provided in the imaging device 120 and controls the imaging unit 221.

撮像ユニット221は、撮影装置120に備えられたユニットで、映像を撮影するためのユニットである。ユニットの構成は、特段限定されず、様々な利用形態がとれるものとするが、テレビカメラ、ネットワークカメラ、監視カメラといった撮影機器が有する映像撮影用のユニットであることが望ましい。   The image capturing unit 221 is a unit provided in the image capturing apparatus 120 and is a unit for capturing an image. The configuration of the unit is not particularly limited, and may take various forms of use. However, it is preferable that the unit is a unit for capturing video, which is included in a capturing device such as a television camera, a network camera, or a monitoring camera.

図3は、情報処理装置110で生成する映像の仮想視点を決定するための条件を受付けるための受付画面の一例を示した構成図である。   FIG. 3 is a configuration diagram illustrating an example of a reception screen for receiving a condition for determining a virtual viewpoint of a video generated by the information processing device 110.

トラッキング選択メニュー301は、トラッキングする主被写体の指定を受付けるオブジェクトである。具体的なトラッキングの方法は、既存の様々な方法を用いることができる。また、主被写体の選択も様々な方法が利用できる。例えば、予め登録された被写体をプルダウンメニューで選択するような形式や、映像内のどの被写体をトラッキングするかをユーザから受付けるような形式等が考えられる。   The tracking selection menu 301 is an object for receiving designation of a main subject to be tracked. As a specific tracking method, various existing methods can be used. Various methods can be used to select the main subject. For example, a format in which a pre-registered subject is selected from a pull-down menu, a format in which a subject in a video is tracked by a user, and the like can be considered.

図4は、表示映像の開始点の指定を受付けるための画面の一例を示した構成図である。   FIG. 4 is a configuration diagram showing an example of a screen for receiving designation of a start point of a display image.

仮想視点表示画面401は、ユーザから仮想視点映像の仮想視点の指定を受付けるための領域である。ここでは、トラッキング対象はサッカーボールである。そして、図4では、ボールを中心とした半径2mの距離に、プレーヤの進行方向(右方向)を正面として、正面と右側面の2か所に、フィールドからの高さ1.5m、高さ画角90°の仮想視点が設定されている。図4では、サッカーボールの座標と、それぞれの仮想視点とを結んだ線から構成される角度は、一例としてデフォルト値で90°としてる。そして、このように、同じ被写体を異なる角度(上記は一例として2つの90度をデフォルト値にしているが、変更可能)で捉えた複数の自由視点映像を得られる点が、本実施例の特徴の一つである。これは、「複数アングルの同じシーンの映像を、簡単に得るための仕組み」を実現する上で、役に立つ。操作の詳細については、図5、図6にて後述する。   The virtual viewpoint display screen 401 is an area for receiving designation of a virtual viewpoint of a virtual viewpoint video from a user. Here, the tracking target is a soccer ball. In FIG. 4, the distance from the field is 1.5 m and the height is two at the front and right sides, with the traveling direction (right direction) of the player being the front at a distance of 2 m around the ball. A virtual viewpoint with an angle of view of 90 ° is set. In FIG. 4, the angle formed by the line connecting the coordinates of the soccer ball and the respective virtual viewpoints is set to 90 ° by default as an example. The feature of this embodiment is that a plurality of free viewpoint videos can be obtained by capturing the same subject at different angles (the above example uses two 90 degrees as default values, but can be changed). one of. This is useful for realizing “a mechanism for easily obtaining images of the same scene at a plurality of angles”. Details of the operation will be described later with reference to FIGS.

映像表示画面402は、仮想視点表示画面401で受付けた仮想視点に基づいて構成された仮想視点映像を、表示する画面である。図4では、仮想視点が2つなので、2つの映像表示画面402が並べて表示されている。しかし、仮想視点の数に対応して、より多くの表示画面を備えていたり、1つの画面をタブ等で切り替えられるよう設けられていたりしてもよい(不図示)。   The video display screen 402 is a screen that displays a virtual viewpoint video formed based on the virtual viewpoint received on the virtual viewpoint display screen 401. In FIG. 4, since there are two virtual viewpoints, two video display screens 402 are displayed side by side. However, more display screens may be provided in correspondence with the number of virtual viewpoints, or one screen may be provided so as to be switched by a tab or the like (not shown).

始点終点設定タイムライン403は、ユーザから仮想視点の表示映像の開始点あるいは終了点の指定を受付けるためのスライドバーである。図4では、タイムライン表示の一例としてバーの時間表示がキックオフを0:00としたサッカーの試合経過時間が表示されている。つまり、この図4の場合、試合開始から12:35が経過していることになる。   The start point / end point setting time line 403 is a slide bar for receiving designation of a start point or an end point of a display image of a virtual viewpoint from a user. In FIG. 4, as an example of a timeline display, a bar time display shows a soccer game elapsed time with a kick-off of 0:00. That is, in the case of FIG. 4, 12:35 has elapsed since the start of the match.

図5及び図6は、仮想視点表示画面401を介してユーザから仮想視点の変更指示を受付ける一連の流れの一例を示した構成図である。   FIGS. 5 and 6 are configuration diagrams illustrating an example of a flow of a sequence of receiving a virtual viewpoint change instruction from the user via the virtual viewpoint display screen 401.

図5(a)は、図4の仮想視点表示画面である。本実施例では一例としてサッカースタジアムの仮想視点映像を生成する装置を想定しており、ゴールは左右方向にあるものとする。   FIG. 5A is a virtual viewpoint display screen of FIG. In the present embodiment, as an example, a device that generates a virtual viewpoint video of a soccer stadium is assumed, and the goal is in the left-right direction.

図5(a)の上半分は、フィールドを上から見下ろした様子を示した図であり、下半分は、フィールドを横手前方向から見た様子を示した図である。   The upper half of FIG. 5A is a view showing the field viewed from the top, and the lower half is a view showing the field viewed from the front side.

主被写体501は、トラッキング選択メニュー301で指定されたトラッキング対象を示すオブジェクトで、本実施例では一例としてサッカーボールが指定されている。   The main subject 501 is an object indicating a tracking target specified in the tracking selection menu 301. In the present embodiment, a soccer ball is specified as an example.

プレーヤオブジェクト502は、ボールを持ったプレーヤを示すオブジェクトである。   The player object 502 is an object indicating a player holding a ball.

仮想視点オブジェクト503は、仮想視点の位置を示したオブジェクトである。   The virtual viewpoint object 503 is an object indicating the position of the virtual viewpoint.

仮想視点オブジェクト503には様々な補助表示が示されている。図5(a)の場合、主被写体501から2m離れた距離にあり、1.5m高い位置にあること、画角は90°であること、主被写体501と2つの仮想視点オブジェクト503それぞれとを結んだ線の角度が90°であること等が表示されている。
このように、図5(a)では、第1の仮想視点(503a)と前記第2の仮想視点(503b)とが、トラッキング対象(所定の基準)とフィールド面とに交差する軸を中心とした同心円の周囲近傍(半径2m)に設定されている。
Various auxiliary displays are shown on the virtual viewpoint object 503. In the case of FIG. 5A, the distance from the main subject 501 is 2 m, the position is 1.5 m higher, the angle of view is 90 °, and the main subject 501 and the two virtual viewpoint objects 503 are connected. It is displayed that the angle of the connected line is 90 ° or the like.
As described above, in FIG. 5A, the first virtual viewpoint (503a) and the second virtual viewpoint (503b) are centered on the axis intersecting the tracking target (predetermined reference) and the field surface. It is set in the vicinity of the concentric circle (radius 2 m).

図5(b)は、ユーザから仮想視点オブジェクト503aの高さの変更指示を受付ける様子の一例を示した構成図である。本実施例では、タッチパネル操作によって様々な指示を受付ける想定で構成図を示しているが、マウスのドラッグや、キーボード操作など、指示の受付は様々な形態があってよい。   FIG. 5B is a configuration diagram illustrating an example of a state in which a change instruction of the height of the virtual viewpoint object 503a is received from the user. In the present embodiment, the configuration diagram is shown on the assumption that various instructions are received by touch panel operation. However, instruction reception such as mouse dragging and keyboard operation may take various forms.

図5(b)では、ユーザのスライド操作に基づいて、仮想視点オブジェクト503aの高さを、1.5mから1.3mに変更する旨の指示を受付ける様子を示している。そして、これに伴い、仮想視点オブジェクト503bの高さも、連動して同じ高さに変更されている様子を示している。   FIG. 5B shows a state in which an instruction to change the height of the virtual viewpoint object 503a from 1.5 m to 1.3 m is received based on the slide operation of the user. In addition, the height of the virtual viewpoint object 503b is also changed to the same height in conjunction with this.

図5(c)は、ユーザのスライド操作に基づいて、主被写体501と仮想視点オブジェクト503aとの距離を、2.0mから2.5mに変更する旨の指示を受付ける様子を示している。そして、これに伴い、主被写体501と仮想視点オブジェクト503bとの距離も、連動して同じ距離に変更されている様子を示している。   FIG. 5C shows a state in which an instruction to change the distance between the main subject 501 and the virtual viewpoint object 503a from 2.0 m to 2.5 m is received based on the user's slide operation. In addition, this shows that the distance between the main subject 501 and the virtual viewpoint object 503b is also changed to the same distance in conjunction therewith.

図5(d)は、ユーザのスライド操作に基づいて、仮想視点オブジェクト503aの角度を、主被写体501を中心として反時計方向に45°変更する旨の指示を受付ける様子を示している。そして、これに伴い、仮想視点オブジェクト503bの角度も連動して、主被写体501を中心に同じ角度だけ変更されている様子を示している。   FIG. 5D shows a state in which an instruction to change the angle of the virtual viewpoint object 503a by 45 ° counterclockwise around the main subject 501 based on the slide operation of the user is shown. In addition, the angle of the virtual viewpoint object 503b is also changed in association with this, and the angle is changed by the same angle around the main subject 501.

図6(e)は、ユーザのピンチ操作に基づいて、仮想視点オブジェクト503aの画角を、90°から60°に変更する旨の指示を受付ける様子を示している。そして、これに伴い、仮想視点オブジェクト503bの高さも、連動して同じ高さに変更されている。様子を示している。   FIG. 6E illustrates a state in which an instruction to change the angle of view of the virtual viewpoint object 503a from 90 ° to 60 ° is received based on a user's pinch operation. Accordingly, the height of the virtual viewpoint object 503b is also changed to the same height in conjunction with this. It shows the situation.

図6(f)及び図6(g)は、ユーザのタッチ操作とスライド操作とに基づいて、主被写体501を基準とした仮想視点オブジェクト503aと仮想視点オブジェクト503bととから成る角度を変更する旨の指示を受付ける様子を示している。具体的には、一方の仮想視点オブジェクト503をタッチしつつ、もう一方の仮想視点オブジェクト503を、時計回りあるいは反時計回りにスライドしている。例えば、図6(f)では、仮想視点オブジェクト503aをタッチしつつ、仮想視点オブジェクト503bを、反時計回りにスライドし、角度を90°から60°に変更している。また、図6(g)では、仮想視点オブジェクト503bをタッチしつつ、仮想視点オブジェクト503aを、反時計回りにスライドし、角度を90°から180°に変更している。   FIGS. 6F and 6G show that the angle formed by the virtual viewpoint object 503a and the virtual viewpoint object 503b with respect to the main subject 501 is changed based on the user's touch operation and slide operation. Of receiving the instruction. Specifically, while touching one virtual viewpoint object 503, the other virtual viewpoint object 503 is slid clockwise or counterclockwise. For example, in FIG. 6F, the virtual viewpoint object 503b is slid counterclockwise while touching the virtual viewpoint object 503a, and the angle is changed from 90 ° to 60 °. In FIG. 6G, the virtual viewpoint object 503a is slid counterclockwise while touching the virtual viewpoint object 503b, and the angle is changed from 90 ° to 180 °.

画像反転ゾーン601は、図6(f)や図6(g)のような、仮想視点オブジェクト503の角度を変更する際に補助表示されるオブジェクトである。そして、このエリア内に仮想視点オブジェクト503が移動した場合、映像表示画面402に表示される仮想視点映像は、左右方向を反転させた映像を表示する処理を行う。
このように、トラッキング対象を基準とする軸の同心円状に配置された、2つの仮想視点と、中心とを結んだ線の角度が、所定の範囲の角度であった場合には、少なくともいずれか1つの左右を反転させた仮想視点映像を生成するよう設けている。この機能は、被写体(トラッキング対象)を挟むような2つの視点の映像を並べてみるときに有効である。したがって、「所定の角度」は、被写体(トラッキング対象)を挟むような2つの視点の角度の範囲で設定することが望ましい。つまり、画像反転ゾーン601は、その「所定の範囲の角度」がどこにあるのかを識別可能に表示するオブジェクトなのである。そして、画像反転ゾーン601の設けられる「所定の角度」とは180°±45°程度が好適な角度であると考えられる。しかし、画像反転ゾーン601は、発明の実施状況に合わせて任意に設定できればよい。
The image inversion zone 601 is an object that is auxiliary displayed when the angle of the virtual viewpoint object 503 is changed, as shown in FIGS. 6F and 6G. Then, when the virtual viewpoint object 503 moves into this area, the virtual viewpoint image displayed on the image display screen 402 performs a process of displaying an image in which the horizontal direction is reversed.
In this way, if the angle of the line connecting the two virtual viewpoints and the center arranged concentrically with respect to the axis based on the tracking target is within a predetermined range, at least one of the angles is used. It is provided so as to generate one virtual viewpoint video with left and right inverted. This function is effective when arranging videos of two viewpoints that sandwich a subject (tracking target). Therefore, it is desirable that the “predetermined angle” be set within a range of angles of the two viewpoints that sandwich the subject (tracking target). That is, the image reversal zone 601 is an object that displays where the “angle of the predetermined range” is located so as to be identifiable. The “predetermined angle” provided with the image reversal zone 601 is considered to be a suitable angle of about 180 ° ± 45 °. However, the image reversal zone 601 may be arbitrarily set according to the embodiment of the present invention.

図7は、図6(g)のケースにおける、表示映像の開始点の指定を受付けるための画面の一例を示した構成図である。図7は、始点終点設定タイムライン403を介して、ユーザから、仮想視点の表示映像の開始点を、12:35とする指示を受付けている様子の一例を示している。そして、映像表示画面402には、始点終点設定タイムライン403で受付けたの指定時間と、仮想視点表示画面401で受付けた仮想視点映像の仮想視点に対応する仮想視点の仮想視点映像が表示されている。   FIG. 7 is a configuration diagram showing an example of a screen for accepting designation of a start point of a display image in the case of FIG. 6 (g). FIG. 7 shows an example of a state in which an instruction to set the start point of the display image of the virtual viewpoint to 12:35 is received from the user via the start point end point setting time line 403. Then, on the video display screen 402, the designated time received on the start point / end point setting time line 403 and the virtual viewpoint video of the virtual viewpoint corresponding to the virtual viewpoint of the virtual viewpoint video received on the virtual viewpoint display screen 401 are displayed. I have.

図7では、仮想視点オブジェクト503aが、画像反転ゾーン601にあるため、これに対応して、映像表示画面402の左半分に、仮想視点オブジェクト503aの仮想視点映像の左右反転映像が、表示されている。一方、映像表示画面402の右半分には、仮想視点オブジェクト503bの仮想視点映像が、左右反転されることなく表示されている。   In FIG. 7, since the virtual viewpoint object 503a is located in the image inversion zone 601, a left-right inverted image of the virtual viewpoint image of the virtual viewpoint object 503a is displayed in the left half of the video display screen 402 in correspondence with this. I have. On the other hand, in the right half of the video display screen 402, a virtual viewpoint video of the virtual viewpoint object 503b is displayed without being horizontally inverted.

このように設ける目的は、被写体を挟み込むような2つの視点で得られた映像を、比較して見やすくするためである。仮にこの仕組みがなかった場合、左半分には左方向に向かってボールを蹴りだすプレーヤの映像が表示されることになる。一方、右半分には右方向に向かってボールを蹴りだすプレーヤの映像が表示されることになる。このように、2つの映像のボールを蹴りだす方向が見かけ上逆向きになってしまうので、見比べにくくなってしまうのである。   The purpose of this provision is to make it easier to compare images obtained from two viewpoints that sandwich the subject. If this mechanism had not been provided, an image of a player kicking the ball toward the left would be displayed in the left half. On the other hand, the right half displays an image of a player kicking the ball rightward. As described above, since the directions in which the balls of the two images are kicked out are apparently opposite, it is difficult to compare them.

以上のような、使いにくさを解消するために、上記の仕組みが設けられているため、画像反転ゾーン601の角度は、用途やユーザの見やすさに応じて適宜変更することができるよう設けられてることが望ましい(不図示)。   Since the above mechanism is provided in order to eliminate the inconvenience as described above, the angle of the image reversal zone 601 is provided so that it can be appropriately changed according to the application and the user's visibility. (Not shown).

図8は、図6(g)のケースにおける、表示映像の終了点の指定を受付けるための画面の一例を示した構成図である。図8は、始点終点設定タイムライン403を介して、ユーザから、仮想視点の表示映像の終了点を、12:38とする指示を受付けている様子の一例を示している。そして、映像表示画面402には、始点終点設定タイムライン403で受付けたの指定時間と、仮想視点表示画面401で受付けた仮想視点映像の仮想視点に対応する仮想視点の仮想視点映像が表示されている。   FIG. 8 is a configuration diagram showing an example of a screen for receiving designation of the end point of the display video in the case of FIG. 6 (g). FIG. 8 shows an example of a state in which an instruction to set the end point of the display image of the virtual viewpoint to 12:38 is received from the user via the start point end point setting time line 403. Then, on the video display screen 402, the designated time received on the start point / end point setting time line 403 and the virtual viewpoint video of the virtual viewpoint corresponding to the virtual viewpoint of the virtual viewpoint video received on the virtual viewpoint display screen 401 are displayed. I have.

反転ボタン801は、映像表示画面402に表示されている映像が、左右反転していることを示すオブジェクトである。また、反転ボタン801は、ユーザの押下を受付けると、映像表示画面402に表示している仮想視点オブジェクト503の仮想視点映像の左右反転映像を、左右反転していない映像に切替える指示を受付けることもできる。つまり、図8で、ユーザから反転ボタン801の押下を受付けると、映像表示画面402の左半分に、左右反転されていない仮想視点オブジェクト503aの仮想視点映像の映像が表示される。そして、右半分に、左右反転されていない仮想視点オブジェクト503bの仮想視点映像の映像が表示されることになる。   The inversion button 801 is an object indicating that the image displayed on the image display screen 402 is horizontally inverted. When the inversion button 801 receives the press of the user, the inversion button 801 may also receive an instruction to switch the left-right inverted video of the virtual viewpoint video of the virtual viewpoint object 503 displayed on the video display screen 402 to a video that is not horizontally inverted. it can. That is, in FIG. 8, when the user presses the inversion button 801 from the user, an image of the virtual viewpoint image of the virtual viewpoint object 503a that is not horizontally inverted is displayed in the left half of the image display screen 402. Then, in the right half, the image of the virtual viewpoint image of the virtual viewpoint object 503b that is not flipped horizontally is displayed.

両転ボタン802は、映像表示画面402に表示されている映像の、左右反転している映像をしていない映像に切替える指示と、左右反転していない映像をしている映像に切り替える指示とを、一度に受付けるためのオブジェクトである。つまり、図8で、ユーザから両転ボタン802の押下を受付けると、映像表示画面402の左半分に、左右反転されていない仮想視点オブジェクト503aの仮想視点の映像が表示されることになる。そして、右半分に、左右反転された仮想視点オブジェクト503bの仮想視点映像の映像が、表示されることになる。   The two-way button 802 is used to switch an image displayed on the image display screen 402 to an image that has not been inverted horizontally and an image that has not been inverted. , An object to accept at once. That is, in FIG. 8, when the user presses the two-way button 802, the image of the virtual viewpoint object 503 a that is not horizontally inverted is displayed in the left half of the image display screen 402. Then, in the right half, the image of the virtual viewpoint image of the virtual viewpoint object 503b that is reversed left and right is displayed.

仮想視点映像生成ボタン803は、上記のようなユーザから受付けた仮想視点映像生成の始点・終点、仮想視点やその軌道等の指示に基づいて、仮想視点映像を生成する指示を、ユーザから受付けるボタンである。   The virtual viewpoint video generation button 803 is a button for receiving, from the user, an instruction to generate a virtual viewpoint video based on instructions such as the start and end points of the virtual viewpoint video generation received from the user and the virtual viewpoint and its trajectory. It is.

図9は、図6(g)のケースにおける、表示映像の終了点の指定を受付けるための画面の一例を示した構成図である。図9は、図8の変形例の一例であり、仮想視点表示画面401を介して、仮想視点映像の開始点(始点)から終了点(終了点)タイムラインの遷移に従って、仮想視点を変化させる指示を、ユーザから受付ける様子の一例を示している。   FIG. 9 is a configuration diagram showing an example of a screen for accepting the designation of the end point of the display video in the case of FIG. 6 (g). FIG. 9 is an example of a modification of FIG. 8, in which the virtual viewpoint is changed via the virtual viewpoint display screen 401 in accordance with the transition from the start point (start point) to the end point (end point) timeline of the virtual viewpoint video. 9 shows an example of how an instruction is received from a user.

まず、ユーザは仮想視点オブジェクト503aをタッチする。次に、ユーザは仮想視点オブジェクト503aを、仮想視点オブジェクト503a´の位置まで点線の円に沿って、スライドさせてタッチ解除する。   First, the user touches the virtual viewpoint object 503a. Next, the user releases the touch by sliding the virtual viewpoint object 503a along the dotted circle to the position of the virtual viewpoint object 503a '.

上記のような指示を受付けることで、以下のような映像を生成するための指示を受付ける。(1)第1の仮想視点の映像は、12:35を開始点、12:38を終了点とする。(2)トラッキング対象(サッカーボール)を中心として、反時計周りに90°仮想視点が回転しながら遷移する。
この実施例に対応する、仮想視点映像の座標変化を示すデータテーブルの例については、図11(a)に、仮想視点映像の座標変化を説明する図は図11(b)に、それぞれ示してる。
By receiving the above instruction, the following instruction for generating a video is received. (1) The video of the first virtual viewpoint has a start point at 12:35 and an end point at 12:38. (2) The virtual viewpoint makes a transition while rotating counterclockwise by 90 ° around the tracking target (soccer ball).
FIG. 11A shows an example of a data table indicating the coordinate change of the virtual viewpoint video corresponding to this embodiment, and FIG. 11B shows a diagram for explaining the coordinate change of the virtual viewpoint video. .

そして、上記の指定に対応する形で、第2の仮想視点映像についても、仮想視点映像の開始点(始点)から終了点(終了点)タイムラインの遷移に従って、どのように変化させるかが設定されることになる。具体的には、図9の場合、第2の仮想視点映像は、第1の仮想視点映像に対してトラッキング対象を軸として対照的に、反時計周りに90°仮想視点が回転しながら遷移する映像を生成する設定がなされたことになる。(詳細な仮想視点の座標の変化は図11(a)を参照)
なお、図9では、フィールドの面に対して鉛直方向(高さ方向)は、変更する指示は、ユーザから受付けていない。しかし、図10に示あるように、仮想視点表示画面401を介して、図5(b)のようなスライド操作をユーザから受付けることによって、終点側の仮想視点の高さ(フィールド鉛直方向の距離)をを変化させる指示を受け継画可能である。同様に、図5(c)のようなスライド操作をユーザから受付けることによって、トラッキング対象との仮想視点の距離を変化させる指示を受付けることも可能である。また、図6(e)のようなピンチ操作をユーザから受付けることによって、カメラの画角を変化させる指示を受付けることも可能である。
Then, in the form corresponding to the above specification, how to change the second virtual viewpoint video according to the transition from the start point (start point) to the end point (end point) timeline of the virtual viewpoint video is set. Will be done. Specifically, in the case of FIG. 9, the second virtual viewpoint video transitions while rotating the virtual viewpoint 90 ° counterclockwise in contrast to the first virtual viewpoint video with the tracking target as an axis. This means that the settings for generating the video have been made. (Refer to FIG. 11 (a) for detailed changes in the coordinates of the virtual viewpoint.)
In FIG. 9, an instruction to change the direction perpendicular to the surface of the field (the height direction) is not received from the user. However, as shown in FIG. 10, by receiving a slide operation as shown in FIG. 5B from the user via the virtual viewpoint display screen 401, the height of the virtual viewpoint on the end point side (distance in the field vertical direction) ) Can be inherited. Similarly, by receiving a slide operation as shown in FIG. 5C from the user, it is also possible to receive an instruction to change the distance between the virtual viewpoint and the tracking target. Also, by receiving a pinch operation as shown in FIG. 6E from the user, it is also possible to receive an instruction to change the angle of view of the camera.

仮想視点移動表示オブジェクト901は、始点から終点まで仮想視点がどのように変化するかを、仮想視点表示画面401に識別可能紙示したオブジェクトである。矢印の元が始点の位置、先端が終点の位置、線が軌道をそれぞれ示しており、四角内の数字は、遷移の時間を示している。つまり、図9の場合は、3秒かかることが示されている。   The virtual viewpoint movement display object 901 is an object that indicates how the virtual viewpoint changes from the start point to the end point on the virtual viewpoint display screen 401 in an identifiable paper. The origin of the arrow indicates the position of the start point, the end indicates the position of the end point, and the line indicates the trajectory, and the numbers in the squares indicate the transition time. That is, it takes three seconds in the case of FIG.

図10は、図9の変形例の一例を示した構成図である。図10は、図9で述べたような、終点の仮想視点映像の、高さ、トラッキング対象との距離、画角、回転方向の角度等を、組み合わせて変化させる指示を受付けたケースの一例を示した構成図である。   FIG. 10 is a configuration diagram showing an example of a modification of FIG. FIG. 10 shows an example of a case where an instruction to change the height, the distance to the tracking target, the angle of view, the angle of the rotation direction, and the like of the virtual viewpoint video at the end point as described in FIG. 9 is received. FIG.

図9と同様に、第1または第2の仮想視点のうち、いずれか一方の仮想視点を変化させる指示を受付けることによって、もう一方仮想視点も指示を受付けた側の仮想視点に対応する形で、仮想視点が変化するよう設定される。そして、本実施例ではトラッキング対象を中心とした点対称あるいは線対称の対応例を挙げたが、対応の基準は、本発明の実施形態に応じて様々に設定できるものとして、必ずしもトラッキング対象だけである必要はない。
例えば、フィールド面に対して垂直方向の視点のブレを抑制するために、XY軸は(フィールド面に対しての縦横方向)は、トラッキング対象を仮想視点を変化させるための基準とし、高さ方向は所定の高さに固定する、といった方法も考えられる。また、サッカーボールをププレーヤが所定の時間保持している場合には、トラッキング対象をボールではなく、ボールをキープしているプレーヤに切り替え、そのプレーヤを仮想視点を変化させる基準とする、といった方法も、考えられる。
As in FIG. 9, by receiving an instruction to change one of the first or second virtual viewpoints, the other virtual viewpoint also corresponds to the virtual viewpoint on the side that has received the instruction. , The virtual viewpoint is set to change. In the present embodiment, an example of the correspondence of point symmetry or line symmetry with respect to the tracking target is given. However, the corresponding reference can be variously set according to the embodiment of the present invention. No need to be.
For example, in order to suppress blurring of the viewpoint in the vertical direction with respect to the field plane, the XY axes (vertical and horizontal directions with respect to the field plane) are used as a reference for changing the virtual viewpoint with respect to the tracking target, and in the height direction. May be fixed at a predetermined height. Further, when the player holds the soccer ball for a predetermined time, the tracking target is switched not to the ball but to the player keeping the ball, and the player is used as a reference for changing the virtual viewpoint. ,Conceivable.

図11は、仮想視点を始点と終点が時間変化に応じて、どのように変化するかを管理するためのデータテーブルの一例と、それを説明するための説明図を示した構成図である。   FIG. 11 is a configuration diagram showing an example of a data table for managing how a start point and an end point of a virtual viewpoint change with time, and an explanatory diagram for explaining the example.

図11(a)は、仮想視点を始点と終点が時間変化に応じて、どのように変化するかを管理するためのデータテーブルの一例である。図11(a)は、図9において、第1の仮想視点映像の仮想視点を始点と終点とで変化させる指示を受付けたことに対応して、どのように視点を変化させるか示したデータテーブルの一例を示している。図9において、第1の仮想視点は、キックオフから12分35秒を始点、キックオフから12分38秒を終点としている。そして、始点の座標は、トラッキング対象を原点として、図9の上方向を「Y方向」、右方向を「X方向」鉛直方向を「Z方向」とした場合、X方向に0.00m,Y方向に2。00m、フィールドから1.5m(Z方向)である。そして、これを起点に反時計回りに仮想視点が変化し、終点の座標は、トラッキング対象を原点として、X方向に−2.00m,Y方向に0.00m、フィールドから1.5m(Z方向)である。   FIG. 11A is an example of a data table for managing how the start point and the end point of the virtual viewpoint change with time. FIG. 11A is a data table showing how the viewpoint is changed in response to receiving an instruction to change the virtual viewpoint of the first virtual viewpoint video between the start point and the end point in FIG. An example is shown. In FIG. 9, the first virtual viewpoint has a start point of 12:35 from the kickoff and an end point of 12:38 from the kickoff. Then, the coordinates of the starting point are 0.00 m in the X direction and Y in the case where the upward direction in FIG. 9 is the “Y direction”, the right direction is the “X direction”, and the vertical direction is the “Z direction”, with the tracking target as the origin. 2.00 m in the direction and 1.5 m from the field (Z direction). Then, the virtual viewpoint changes counterclockwise from this point, and the coordinates of the end point are -2.00 m in the X direction, 0.00 m in the Y direction, and 1.5 m from the field (Z direction), with the tracking target as the origin. ).

したがって、例えば、第1の仮想視点の始点の座標は、X=2m×COS90°=0,Y=2m×SIN90°=2mである。そして、第1の仮想視点の始点と終点との中間地点(12分36秒50におけるXY座標)の座標は、X=2m×COS135°≒1.41m,Y=2m×SIN135°≒−1.41m,となる。そして、終点の第1の仮想視点の座標は、X=2m×COS90°=0,Y=2m×SIN90°=2mとなる。   Therefore, for example, the coordinates of the start point of the first virtual viewpoint are X = 2m × COS90 ° = 0, Y = 2m × SIN90 ° = 2m. Then, the coordinates of the intermediate point (XY coordinates at 12:36:50) between the start point and the end point of the first virtual viewpoint are X = 2m × COS135 ° ≒ 1.41m, Y = 2m × SIN135 ° ≒ -1. 41m. Then, the coordinates of the first virtual viewpoint at the end point are X = 2m × COS90 ° = 0, Y = 2m × SIN90 ° = 2m.

同様に、第2の仮想視点の始点の座標は、X=2m×COS270°=0,Y=2m×SIN270°=−2mである。そして、第1の仮想視点の始点と終点との中間地点(12分36秒50におけるXY座標)の座標は、X=2m×COS315°≒1.41m,Y=2m×SIN315°≒−1.41m,となる。そして、終点の第1の仮想視点の座標は、X=2m×COS0°=2m,Y=2m×SIN0°=0mとなる。   Similarly, the coordinates of the start point of the second virtual viewpoint are X = 2m × COS270 ° = 0, Y = 2m × SIN270 ° = −2m. Then, the coordinates of the intermediate point (XY coordinates at 12:36:50) between the start point and the end point of the first virtual viewpoint are X = 2m × COS315 ° ≒ 1.41m, Y = 2m × SIN315 ° ≒ -1. 41m. Then, the coordinates of the first virtual viewpoint at the end point are X = 2m × COS0 ° = 2m, Y = 2m × SIN0 ° = 0m.

なお、上記の仮想視点映像の座標は、トラッキング対象のXY座標を、中心とした相対的な座標である。トラッキング対象自体はフィールド内で移動するため、仮想視点画像の絶対的な座標は、トラッキング対象の絶対的な座標の移動に対応して変化するものである。   Note that the coordinates of the virtual viewpoint video are relative coordinates centered on the XY coordinates of the tracking target. Since the tracking target itself moves in the field, the absolute coordinates of the virtual viewpoint image change in accordance with the movement of the absolute coordinates of the tracking target.

以上、予め取得した仮想視点画像の元となる情報に基づいて仮想視点映像(仮想視点映像)を生成するやり方が第1の実施例である。そして、変形例として、仮想視点画像の元となる情報が、リアルタイムに送信されてくるケースも想定できる。そしてこのようなケースの場合は、リアルタイムに、複数の仮想視点のうち1の仮想視点の切換えをユーザから受付け、その指示に基づいて他の1または複数の仮想視点の切換えを行ない、それらの視点に基づいた仮想視点映像を生成することになる。   As described above, the first embodiment is a method of generating a virtual viewpoint video (virtual viewpoint video) based on information that is a source of a virtual viewpoint image acquired in advance. Then, as a modified example, a case where information serving as a source of a virtual viewpoint image is transmitted in real time can be assumed. In such a case, switching of one virtual viewpoint among a plurality of virtual viewpoints is received from a user in real time, and switching of one or more other virtual viewpoints is performed based on the instruction, and the viewpoints are switched. Is generated based on the virtual viewpoint.

図12は、本発明のフローの一例を示した構成図である。本時実施例のフローの説明においては、具体的には、CPU201が外部メモリに記憶された制御プログラムをRAM203にロードして実行することにより行われるものである。しかし、簡易な表現とすべく情報処理装置110、撮影装置120、表示端末130を主体として説明する。   FIG. 12 is a configuration diagram showing an example of the flow of the present invention. In the description of the flow of the present embodiment, specifically, the CPU 201 loads the control program stored in the external memory into the RAM 203 and executes the control program. However, for simplicity, the description will be given mainly of the information processing device 110, the imaging device 120, and the display terminal 130.

また、ユーザからの指示の受付の方法は、ここまでの説明では、主にタッチパネルを想定して例を挙げてきたが、特に限定されるものではなく、既存の様々な方法を用いることができるものとする。具体的には、例えば、入力デバイス209(KB/ボタン/タッチパネル等)や表示部210を介して受けつける方法が含まれる。   In the above description, the method of accepting an instruction from the user has been described mainly on the assumption that the touch panel is mainly used. However, the method is not particularly limited, and various existing methods can be used. Shall be. Specifically, for example, a method of receiving the information via the input device 209 (KB / button / touch panel or the like) or the display unit 210 is included.

ステップS1201では、撮影装置120は、仮想視点映像を生成するための映像情報を取得する。具体的には、例えば、各カメラの撮像ユニット221を用いて映像を撮影する。   In step S1201, the imaging device 120 acquires video information for generating a virtual viewpoint video. Specifically, for example, an image is shot using the imaging unit 221 of each camera.

ステップS1202では、撮影装置120は、ステップS1201で取得した映像情報を情報処理装置110に送信する。   In step S1202, the imaging device 120 transmits the video information acquired in step S1201 to the information processing device 110.

ステップS1203では、撮影装置120は、フローを終了するか否かの判定を行う。そして、フローを終了すると判定した場合には、本フローを終了する。一方、撮影装置120は、フフローを終了すると判定しなかった場合には、ステップS1201に遷移する。   In step S1203, the imaging device 120 determines whether to end the flow. When it is determined that the flow is to be ended, the present flow is ended. On the other hand, if the imaging device 120 determines that the flow is not to be ended, the process proceeds to step S1201.

なお、フローを終了するか否かの判定をどのように行うかは、特段限定しないが、例えば、ユーザから終了指示を受付けたか否か、処理フローにエラーが出たか否か等、適切にフローを処理するために必要な様々なケースが想定される。(不図示)これは、後述のステップS1211やステップS1214も同様である。   Note that there is no particular limitation on how to determine whether or not to end the flow. For example, an appropriate flow such as whether or not an end instruction has been received from the user, whether or not an error has occurred in the processing flow, and the like. Various cases necessary for processing are assumed. (Not shown) This is the same for step S1211 and step S1214 described later.

ステップS1204では、情報処理装置110は、ステップS1202で撮影装置120から送信された仮想視点映像を生成するための映像情報を受信する。   In step S1204, the information processing device 110 receives the video information for generating the virtual viewpoint video transmitted from the imaging device 120 in step S1202.

ステップS1205では、情報処理装置110は、図3の画面を介してトラッキング対象の指定を受付ける。   In step S1205, the information processing device 110 accepts the designation of the tracking target via the screen of FIG.

ステップS1206では、情報処理装置110は、図4や図7の画面を介して、仮想視点映像の始点の設定指示をユーザから受付ける。具体的には、仮想視点映像の始まるタイミングや、開始時の仮想視点などである。   In step S1206, the information processing apparatus 110 receives an instruction to set the start point of the virtual viewpoint video from the user via the screens of FIGS. Specifically, it is the timing at which the virtual viewpoint video starts, the virtual viewpoint at the start, and the like.

ステップS1207では、情報処理装置110は、図8乃至図10の画面を介して、仮想視点映像の終点の設定指示と、仮想視点映像の生成指示とをユーザから受付ける。具体的には、仮想視点映像の終了のタイミングや、開始から終了に至る仮想視点の軌道の受付、などである。   In step S1207, the information processing apparatus 110 receives an instruction to set the end point of the virtual viewpoint video and an instruction to generate the virtual viewpoint video from the user via the screens of FIGS. Specifically, it is the timing of the end of the virtual viewpoint video, the reception of the trajectory of the virtual viewpoint from the start to the end, and the like.

また、リアルタイムに配信される映像情報に基づいて連続的に仮想視点映像を生成する場合には、ステップS1206とステップS1207とは一つにまとめることもできる。その場合には、仮想視点映像の開始や終了のタイミングの指定受付は省かれ、仮想視点の変更指示を、仮想視点映像を生成(ステップS1209)しつつ連続的に受付けることになる。   Further, when continuously generating virtual viewpoint videos based on video information distributed in real time, step S1206 and step S1207 can be combined into one. In this case, the designation reception of the start and end timings of the virtual viewpoint video is omitted, and the virtual viewpoint change instruction is continuously received while generating the virtual viewpoint video (step S1209).

ステップS1208では、情報処理装置110は、ステップS1207で仮想視点映像を生成する指示を、受付けたか否かの判定を行う。そして、情報処理装置110は、仮想視点映像を生成する指示を、受付けたと判定した場合には、ステップS1209に遷移する。一方、情報処理装置110は、仮想視点映像を生成する指示を、受付けたと判定しなかった場合には、ステップS1204に遷移する。   In step S1208, the information processing apparatus 110 determines whether an instruction to generate a virtual viewpoint video in step S1207 has been received. If the information processing device 110 determines that the instruction to generate the virtual viewpoint video has been received, the process proceeds to step S1209. On the other hand, if it is not determined that the instruction to generate the virtual viewpoint video has been received, the information processing apparatus 110 transitions to step S1204.

このステップの判定は、具体的には、例えば、仮想視点映像生成ボタン803の押下を受けつけたか否かの判定である。また、リアルタイムに配信される映像情報に基づいて連続的に仮想視点映像を生成する場合には、このステップは省かれる。   Specifically, the determination in this step is, for example, whether or not the press of the virtual viewpoint video generation button 803 has been accepted. If the virtual viewpoint video is continuously generated based on the video information distributed in real time, this step is omitted.

ステップS1209では、情報処理装置110は、ステップS1204で受信した映像情報と、ステップS1205乃至ステップS11207で受付けた条件に基づいて、仮想視点映像を生成する。生成される映像は、図8乃至図10にて説明があったように、所定の条件下おいては、複数の仮想視点映像のうち、少なくとも一つ以上の左右反転映像が含まれる。また、好ましくは、表示端末130側においても、左右反転映像とそうでない映像とが切り替え可能な仮想視点映像であることが望ましい。   In step S1209, the information processing apparatus 110 generates a virtual viewpoint video based on the video information received in step S1204 and the conditions received in steps S1205 to S11207. As described with reference to FIGS. 8 to 10, the generated video includes, under a predetermined condition, at least one or more left-right inverted video among a plurality of virtual viewpoint videos. Also, it is preferable that the display terminal 130 side is a virtual viewpoint video that can switch between a left-right inverted video and a video that is not.

ステップS1210では、情報処理装置110は、ステップS1209で生成した仮想視点映像を、表示端末130に送信する。   In step S1210, the information processing device 110 transmits the virtual viewpoint video generated in step S1209 to the display terminal 130.

ステップS1211では、情報処理装置110は、フローを終了するか否かの判定を行う。そして、フローを終了すると判定した場合には、情報処理装置110は、本フローを終了する。一方、フローを終了すると判定しなかった場合には、情報処理装置110は、ステップS1204に遷移する。   In step S1211, the information processing device 110 determines whether to end the flow. Then, when determining to end the flow, the information processing apparatus 110 ends the present flow. On the other hand, if it is not determined that the flow is to be ended, the information processing apparatus 110 transitions to step S1204.

ステップS1212では、表示端末130は、ステップS1210で情報処理装置110から送信された仮想視点映像を、受信する。   In step S1212, the display terminal 130 receives the virtual viewpoint video transmitted from the information processing device 110 in step S1210.

ステップS1213では、表示端末130は、ステップS1212にて受信した由視点映像を、表示する。また、左右反転映像が含まれる場合には、左右反転映像の切換え指示も受け付ける。受付け方は例えば、図8のような反転ボタン801や両転ボタン802のようなオブジェクトを介する方法が考えられるが、冒頭に説明したように、利用形態に合わせた様々な指示受付方法があってよい。   In step S1213, the display terminal 130 displays the free viewpoint video received in step S1212. When a left-right inverted video is included, an instruction to switch the left-right inverted video is also accepted. For example, a method via an object such as a reverse button 801 or a two-sided button 802 as shown in FIG. 8 can be considered. Good.

ステップS1214では、表示端末130は、フローを終了するか否かの判定を行う。そして、表示端末130は、フローを終了すると判定した場合には、本フローを終了する。一方、表示端末130は、フローを終了すると判定しなかった場合には、ステップS1212に遷移する。   In step S1214, the display terminal 130 determines whether to end the flow. When the display terminal 130 determines that the flow is to be ended, the display terminal 130 ends the present flow. On the other hand, when the display terminal 130 does not determine to end the flow, the process proceeds to step S1212.

以上説明したように、本発明は、複数アングルの同じシーンの映像を、簡単に得るための仕組みを提供することができる。   As described above, the present invention can provide a mechanism for easily obtaining images of the same scene at a plurality of angles.

また、前述した実施形態の機能を実現するプログラムを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   Further, a recording medium storing a program for realizing the functions of the above-described embodiments is supplied to a system or an apparatus, and a computer (or CPU or MPU) of the system or the apparatus reads out and executes the program stored in the recording medium. It goes without saying that the object of the present invention is achieved also by this.

この場合、記録媒体から読み出されたプログラム自体が本発明の新規な機能を実現することになり、そのプログラムを記憶した記録媒体は本発明を構成することになる。   In this case, the program itself read from the recording medium implements the novel function of the present invention, and the recording medium storing the program constitutes the present invention.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROM、EEPROM、シリコンディスク、ソリッドステートドライブ等を用いることができる。   Examples of a recording medium for supplying the program include a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a DVD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, an EEPROM, and a silicon. A disk, a solid state drive, or the like can be used.

また、コンピュータが読み出したプログラムを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   When the computer executes the read program, not only the functions of the above-described embodiments are realized, but also an OS (operating system) or the like running on the computer based on the instructions of the program. It goes without saying that a part or all of the processing is performed, and the functions of the above-described embodiments are realized by the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program read from the recording medium is written into the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board is executed based on the instruction of the program code. It goes without saying that a CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.

さらに、本発明を達成するためのプログラムをネットワーク上のサーバ、データベース等から通信プログラムによりダウンロードして読み出すことによって、そのシステムあるいは装置が、本発明の効果を享受することが可能となる。なお、上述した各実施形態およびその変形例を組み合わせた構成も全て本発明に含まれるものである。   Further, by downloading and reading out a program for achieving the present invention from a server, a database, or the like on a network by using a communication program, the system or device can enjoy the effects of the present invention. It should be noted that the present invention includes all configurations obtained by combining the above-described embodiments and their modifications.

110 情報処理装置
120 撮影装置
130 表示端末
140 通信ネットワーク
201 CPU
202 ROM
203 RAM
204 システムバス
205 入力コントローラ
206 ビデオコントローラ
207 メモリコントローラ
208 通信I/Fコントローラ
209 入力デバイス(KB/ボタン/タッチパネルなど)
210 表示端末(表示部)
211 外部メモリ
220 撮像ユニットコントローラ
221 撮像ユニット
301 トラッキング選択メニュー映像表示画面
401 仮想視点表示画面
402 映像表示画面
403 始点終点設定タイムライン
501 主被写体
502 プレーヤオブジェクト
503 仮想視点オブジェクト
601 画像反転ゾーン
801 反転ボタン
802 両転ボタン
803 仮想視点映像生成ボタン
901 仮想視点移動表示オブジェクト
110 Information Processing Device 120 Photographing Device 130 Display Terminal 140 Communication Network 201 CPU
202 ROM
203 RAM
204 System bus 205 Input controller 206 Video controller 207 Memory controller 208 Communication I / F controller 209 Input device (KB / button / touch panel, etc.)
210 display terminal (display unit)
211 external memory 220 imaging unit controller 221 imaging unit 301 tracking selection menu video display screen 401 virtual viewpoint display screen 402 video display screen 403 start point end point setting timeline 501 main subject 502 player object 503 virtual viewpoint object 601 image inversion zone 801 inversion button 802 Two way button 803 Virtual viewpoint video generation button 901 Virtual viewpoint movement display object

Claims (15)

定められる視点に基づいて生成される映像である仮想視点映像を生成する情報処理装置であって、
前記仮想視点映像を生成するための情報を取得する取得手段と、
前記仮想視点映像の仮想視点であって、第1の仮想視点の指定を受付けるとともに、当該第1の仮想視点に対応する第2の仮想視点を設定する設定手段と、
前記設定手段で設定された前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とを生成する生成手段とを備えることを特徴とする情報処理装置。
An information processing apparatus that generates a virtual viewpoint video that is a video generated based on a determined viewpoint,
Acquisition means for acquiring information for generating the virtual viewpoint video,
Setting means for receiving a designation of a first virtual viewpoint, which is a virtual viewpoint of the virtual viewpoint video, and setting a second virtual viewpoint corresponding to the first virtual viewpoint;
An information processing apparatus comprising: a generation unit configured to generate a virtual viewpoint video of the first virtual viewpoint set by the setting unit and a virtual viewpoint video of the second virtual viewpoint.
前記生成手段は、それぞれ視点の角度が異なる同じ被写体を含んだ前記第1の仮想視点の仮想視点映像と前記第2の仮想視点の仮想視点映像とを、生成することを特徴とする請求項1に記載の情報処理装置。   The method according to claim 1, wherein the generation unit generates a virtual viewpoint image of the first virtual viewpoint and a virtual viewpoint image of the second virtual viewpoint including the same subject having different viewpoint angles. An information processing apparatus according to claim 1. 前記第1の仮想視点と前記第2の仮想視点とのうち、いずれか一方を変更する指示を受付ける受付手段を更に備え、
前記設定手段は、前記受付手段で変更を受付けた一方の仮想視点に対応させて、もう一方の仮想視点を変更することを特徴とする請求項1または2に記載の情報処理装置。
A receiving unit that receives an instruction to change any one of the first virtual viewpoint and the second virtual viewpoint;
The information processing apparatus according to claim 1, wherein the setting unit changes the other virtual viewpoint corresponding to one of the virtual viewpoints whose change has been received by the receiving unit.
前記受付手段は、仮想視点の位置または画角のうち少なくともいずれか一つを変更する指示を受付ける可能に設けられていることを特徴とする請求項3に記載の情報処理装置。   4. The information processing apparatus according to claim 3, wherein the receiving unit is configured to receive an instruction to change at least one of a position of a virtual viewpoint and an angle of view. 5. 前記設定手段で設定される仮想視点は、所定の被写体に対応して定められる所定の基準に基づいて定められ、
前記生成手段で生成される前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とには、前記被写体が含まれることを特徴とする請求項1乃至4のうちいずれか1項に記載の情報処理装置。
The virtual viewpoint set by the setting means is determined based on a predetermined criterion determined corresponding to a predetermined subject,
5. The virtual viewpoint video of the first virtual viewpoint and the virtual viewpoint video of the second virtual viewpoint generated by the generation unit include the subject. The information processing device according to claim 1.
前記設定手段は、前記第1の仮想視点と前記第2の仮想視点とが、前記所定の基準と該同じ距離になるよう仮想視点を設定することを特徴とする請求項5に記載の情報処理装置。   The information processing apparatus according to claim 5, wherein the setting unit sets a virtual viewpoint such that the first virtual viewpoint and the second virtual viewpoint are at the same distance as the predetermined reference. apparatus. 前記設定手段は、前記第1の仮想視点と前記第2の仮想視点とが、前記所定の基準と交差する軸を中心とした同心円の周囲近傍となるように仮想視点を設定することを特徴とする請求項5または6に記載の情報処理装置。   The setting means sets the virtual viewpoint such that the first virtual viewpoint and the second virtual viewpoint are near the periphery of a concentric circle centered on an axis intersecting the predetermined reference. The information processing apparatus according to claim 5, wherein 前記生成手段は、前記所定の基準と交差する軸をとした同心円の中心と前記第1の仮想視点とを結んだ線と、当該中心と前記第2の仮想視点とを結んだ線との角度が所定の範囲の角度であった場合には、左右反転させた前記第1の仮想視点の仮想視点映像と、左右反転させた前記第2の仮想視点映像とのうち、少なくともいずれか1つの仮想視点映像を生成することを特徴とする請求項5乃至7のうちいずれか1項に記載の情報処理装置。   The generation means may include an angle between a line connecting the center of a concentric circle having an axis intersecting the predetermined reference and the first virtual viewpoint and a line connecting the center and the second virtual viewpoint. Is an angle in a predetermined range, at least one of the virtual viewpoint video of the first virtual viewpoint inverted left and right and the second virtual viewpoint video inverted left and right. The information processing apparatus according to claim 5, wherein a viewpoint video is generated. 前記生成手段で生成される、左右反転させた仮想視点映像は、左右反転させていない仮想視点映像に切り替えて表示が可能であることを特徴とする請求項8に記載の情報処理装置。   9. The information processing apparatus according to claim 8, wherein the left-right inverted virtual viewpoint video generated by the generation unit can be displayed by switching to a virtual left-right inverted virtual viewpoint video. 前記生成手段で生成される映像は、互いに異なる方向から被写体を撮像する複数の撮像装置により撮像された複数の映像に基づく仮想視点映像であることを特徴とする請求項1乃至9のうちいずれか1項に記載の情報処理装置。   10. The video generated by the generation unit is a virtual viewpoint video based on a plurality of videos captured by a plurality of imaging devices that capture subjects from different directions. 2. The information processing apparatus according to claim 1. 定められる視点に基づいて生成される映像である仮想視点映像を生成する情報処理装置における制御方法であって、
前記情報処理装置の取得手段が、前記仮想視点映像を生成するための情報を取得する取得工程と、
前記情報処理装置の設定手段が、前記仮想視点映像の仮想視点であって、第1の仮想視点の指定を受付けるとともに、当該第1の仮想視点に対応する第2の仮想視点を設定する設定工程と、
前記情報処理装置の生成手段が、前記設定手段で設定された前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とを生成する生成工程とを含むことを特徴とする制御方法。
A control method in an information processing apparatus that generates a virtual viewpoint video that is a video generated based on a determined viewpoint,
Acquisition means of the information processing apparatus, an acquisition step of acquiring information for generating the virtual viewpoint video,
A setting step of setting a second virtual viewpoint corresponding to the first virtual viewpoint, wherein the setting means of the information processing device accepts designation of a first virtual viewpoint that is a virtual viewpoint of the virtual viewpoint video When,
A generating step of generating a virtual viewpoint video of the first virtual viewpoint set by the setting unit and a virtual viewpoint video of the second virtual viewpoint set by the setting unit. And control method.
定められる視点に基づいて生成される映像である仮想視点映像を生成する情報処理装置で読み取り実行が可能なプログラムであって、
前記情報処理装置を
前記仮想視点映像を生成するための情報を取得する取得手段と、
前記仮想視点映像の仮想視点であって、第1の仮想視点の指定を受付けるとともに、当該第1の仮想視点に対応する第2の仮想視点を設定する設定手段と、
前記設定手段で設定された前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とを生成する生成手段として機能させることを特徴とするプログラム。
A program that can be read and executed by an information processing device that generates a virtual viewpoint video that is a video generated based on a determined viewpoint,
Acquisition means for acquiring the information for generating the virtual viewpoint video,
Setting means for receiving a designation of a first virtual viewpoint, which is a virtual viewpoint of the virtual viewpoint video, and setting a second virtual viewpoint corresponding to the first virtual viewpoint;
A program for causing a virtual viewpoint video of the first virtual viewpoint set by the setting unit and a virtual viewpoint video of the second virtual viewpoint to be generated as a generation unit.
定められる視点に基づいて生成される映像である仮想視点映像を生成する情報処理のシステムであって、
前記仮想視点映像を生成するための情報を取得する取得手段と、
前記仮想視点映像の仮想視点であって、第1の仮想視点の指定を受付けるとともに、当該第1の仮想視点に対応する第2の仮想視点を設定する設定手段と、
前記設定手段で設定された前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とを生成する生成手段とを備えることを特徴とする情報処理のシステム。
An information processing system that generates a virtual viewpoint video that is a video generated based on a determined viewpoint,
Acquisition means for acquiring information for generating the virtual viewpoint video,
Setting means for receiving a designation of a first virtual viewpoint, which is a virtual viewpoint of the virtual viewpoint video, and setting a second virtual viewpoint corresponding to the first virtual viewpoint;
An information processing system comprising: a generation unit configured to generate a virtual viewpoint video of the first virtual viewpoint set by the setting unit and a virtual viewpoint video of the second virtual viewpoint.
定められる視点に基づいて生成される映像である仮想視点映像を生成する情報処理のシステムにおける制御方法であって、
前記情報処理のシステムの取得手段が、前記仮想視点映像を生成するための情報を取得する取得工程と、
前記情報処理のシステムの設定手段が、前記仮想視点映像の仮想視点であって、第1の仮想視点の指定を受付けるとともに、当該第1の仮想視点に対応する第2の仮想視点を設定する設定工程と、
前記情報処理のシステムの生成手段が、前記設定手段で設定された前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とを生成する生成工程とを含むことを特徴とする制御方法。
A control method in an information processing system that generates a virtual viewpoint video that is a video generated based on a determined viewpoint,
Acquisition means of the information processing system, an acquisition step of acquiring information for generating the virtual viewpoint video,
The setting means of the information processing system receives a designation of a first virtual viewpoint, which is a virtual viewpoint of the virtual viewpoint video, and sets a second virtual viewpoint corresponding to the first virtual viewpoint. Process and
A generating step of generating the virtual viewpoint video of the first virtual viewpoint set by the setting unit and the virtual viewpoint video of the second virtual viewpoint set by the setting unit. Characteristic control method.
定められる視点に基づいて生成される映像である仮想視点映像を生成する情報処理のシステムで読み取り実行が可能なプログラムであって、
前記情報処理のシステムを
前記仮想視点映像を生成するための情報を取得する取得手段と、
前記仮想視点映像の仮想視点であって、第1の仮想視点の指定を受付けるとともに、当該第1の仮想視点に対応する第2の仮想視点を設定する設定手段と、
前記設定手段で設定された前記第1の仮想視点の仮想視点映像と、前記第2の仮想視点の仮想視点映像とを生成する生成手段として機能させることを特徴とするプログラム。
A program that can be read and executed by an information processing system that generates a virtual viewpoint video that is a video generated based on a determined viewpoint,
An acquisition unit configured to acquire information for generating the virtual viewpoint video,
Setting means for receiving a designation of a first virtual viewpoint, which is a virtual viewpoint of the virtual viewpoint video, and setting a second virtual viewpoint corresponding to the first virtual viewpoint;
A program for causing a virtual viewpoint video of the first virtual viewpoint set by the setting unit and a virtual viewpoint video of the second virtual viewpoint to be generated as a generation unit.
JP2018142025A 2018-07-30 2018-07-30 Information processing apparatus, information processing system, control method thereof and program Pending JP2020021104A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018142025A JP2020021104A (en) 2018-07-30 2018-07-30 Information processing apparatus, information processing system, control method thereof and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018142025A JP2020021104A (en) 2018-07-30 2018-07-30 Information processing apparatus, information processing system, control method thereof and program

Publications (2)

Publication Number Publication Date
JP2020021104A true JP2020021104A (en) 2020-02-06
JP2020021104A5 JP2020021104A5 (en) 2021-07-29

Family

ID=69589815

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018142025A Pending JP2020021104A (en) 2018-07-30 2018-07-30 Information processing apparatus, information processing system, control method thereof and program

Country Status (1)

Country Link
JP (1) JP2020021104A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113473244A (en) * 2020-06-23 2021-10-01 青岛海信电子产业控股股份有限公司 Free viewpoint video playing control method and device
WO2022181175A1 (en) * 2021-02-25 2022-09-01 ソニーグループ株式会社 Information processing device, information processing method, program, and display system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036955A (en) * 2016-09-01 2018-03-08 キヤノン株式会社 Image processor, image processing method, and program
JP2018092491A (en) * 2016-12-06 2018-06-14 キヤノン株式会社 Information processing apparatus, control method therefor, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018036955A (en) * 2016-09-01 2018-03-08 キヤノン株式会社 Image processor, image processing method, and program
JP2018092491A (en) * 2016-12-06 2018-06-14 キヤノン株式会社 Information processing apparatus, control method therefor, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113473244A (en) * 2020-06-23 2021-10-01 青岛海信电子产业控股股份有限公司 Free viewpoint video playing control method and device
WO2022181175A1 (en) * 2021-02-25 2022-09-01 ソニーグループ株式会社 Information processing device, information processing method, program, and display system

Similar Documents

Publication Publication Date Title
US10687119B2 (en) System for providing multiple virtual reality views
US20180321742A1 (en) Methods and Systems for Gaze-Based Control of Virtual Reality Media Content
JP7263456B2 (en) Information processing device, information processing method and program
US20180077345A1 (en) Predictive camera control system and method
US20110085017A1 (en) Video Conference
JP2024050721A (en) Information processing device, information processing method, and computer program
JP2018036955A (en) Image processor, image processing method, and program
JP2019139673A (en) Information processing apparatus, information processing method, and computer program
CN104601892A (en) Terminal and image shooting method and device
US10764493B2 (en) Display method and electronic device
US20210047036A1 (en) Controller and imaging method
US20210349620A1 (en) Image display apparatus, control method and non-transitory computer-readable storage medium
JP2020021104A (en) Information processing apparatus, information processing system, control method thereof and program
WO2019187732A1 (en) Information processing device, information processing method, and program
US20190058828A1 (en) Electronic devices having multiple position cameras
US20160344946A1 (en) Screen System
JP6509302B1 (en) Game program and game system
US11330240B2 (en) Information processing system, information processing method and non-transitory computer readable medium
US20230353717A1 (en) Image processing system, image processing method, and storage medium
JP2022073651A (en) Information processing apparatus, information processing method, and program
Foote et al. One-man-band: A touch screen interface for producing live multi-camera sports broadcasts
JP4714231B2 (en) Image generating apparatus, wide-field image generating method, and program
Chu et al. Design of a motion-based gestural menu-selection interface for a self-portrait camera
JP5687670B2 (en) Display control system, game system, display control device, and program
JP2023140922A (en) Display terminal, information processing system, communication system, display method, information processing method, communication method, and program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20181031

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220906