JP2020053088A - Control device, control method, and program - Google Patents

Control device, control method, and program Download PDF

Info

Publication number
JP2020053088A
JP2020053088A JP2019223941A JP2019223941A JP2020053088A JP 2020053088 A JP2020053088 A JP 2020053088A JP 2019223941 A JP2019223941 A JP 2019223941A JP 2019223941 A JP2019223941 A JP 2019223941A JP 2020053088 A JP2020053088 A JP 2020053088A
Authority
JP
Japan
Prior art keywords
virtual viewpoint
sight
touch position
line
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019223941A
Other languages
Japanese (ja)
Inventor
祐二 加藤
Yuji Kato
祐二 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019223941A priority Critical patent/JP2020053088A/en
Publication of JP2020053088A publication Critical patent/JP2020053088A/en
Priority to JP2022027204A priority patent/JP7434385B2/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a control device capable of easily setting a virtual viewpoint.SOLUTION: A viewpoint control part 204 is configured to perform the steps of: detecting a user's operation made on a display surface for displaying virtual viewpoint images (S801); and controlling at least either one of a position and a direction of a virtual viewpoint relevant to generation of a virtual viewpoint image responding to the user's operation (S803, S808, S812, and S814).SELECTED DRAWING: Figure 2

Description

本発明は仮想視点の制御方法に関する。   The present invention relates to a virtual viewpoint control method.

視点の異なる複数のカメラで撮影して得られる複数の撮影映像から任意の視点の映像を生成する仮想視点映像生成技術が知られている。仮想視点映像の生成方法(レンダリング方法)として、予め定められた仮想視点の移動経路に基づいて仮想視点映像を生成しておく方法や、視聴者等により指定された仮想視点の位置及び姿勢等に従って仮想視点映像を生成する方法が知られている。   2. Description of the Related Art A virtual viewpoint video generation technology for generating a video of an arbitrary viewpoint from a plurality of captured videos obtained by capturing with a plurality of cameras having different viewpoints is known. As a virtual viewpoint video generation method (rendering method), according to a method of generating a virtual viewpoint video based on a predetermined moving path of the virtual viewpoint, a position and a posture of the virtual viewpoint specified by a viewer or the like, and the like. A method for generating a virtual viewpoint video is known.

仮想視点映像の生成技術によれば、インタラクティブ性の高い映像の視聴を行うことが可能である。一方で、タッチパネルを主要なインタフェイスとするタブレットやスマートフォンなどの機器では、望み通りに視点を操作することが困難である。特許文献1には、複数の視点座標データと、複数の回転起点データのうちから、それぞれ1つずつをユーザに選択させ、その後、視点の回転角度と移動量を入力して視点を設定することが記載されている。   According to the virtual viewpoint video generation technology, it is possible to view a video with high interactivity. On the other hand, with devices such as tablets and smartphones that use a touch panel as a main interface, it is difficult to operate the viewpoint as desired. Patent Literature 1 discloses that a user selects one of each of a plurality of viewpoint coordinate data and a plurality of rotation start data, and then sets a viewpoint by inputting a rotation angle and a movement amount of the viewpoint. Is described.

特開2015−187797号公報JP-A-2005-187797

特許文献1の方法は、仮想視点の設定のための操作手順が多い。本発明は、仮想視点の設定をより簡易に行えるようにすることを目的とする。   The method of Patent Document 1 has many operation procedures for setting a virtual viewpoint. An object of the present invention is to make it possible to set a virtual viewpoint more easily.

上記課題を解決するために、本発明に係る制御装置は、以下の構成を有する。すなわち、複数の撮影装置により所定の撮影対象領域を異なる方向から撮影することで得られる画像データを用いて生成される仮想視点画像に係る仮想視点の位置及び仮想視点からの視線方向を制御する制御装置であって、前記仮想視点画像を表示する表示面上の1以上の位置をタッチしたままタッチ位置を移動させる操作が行われた場合に、前記仮想視点からの視線方向を変化させることなく前記仮想視点の位置を前記視線方向に応じた方向に移動させるか、前記仮想視点からの視線方向上の回転基点を基準として所定の平面上で前記仮想視点の位置を回転移動させるか、又は、前記仮想視点からの視線方向上の回転基点を基準として、前記所定の平面上での回転移動の方向と直交する方向に前記仮想視点の位置を回転移動させるように、前記表示面上におけるタッチ位置の変化に基づいて、前記仮想視点の位置及び前記仮想視点からの視線方向に関するパラメータを決定する決定手段と、前記決定手段により決定されたパラメータに従って、前記仮想視点を制御する制御手段と、を有する。   In order to solve the above problems, a control device according to the present invention has the following configuration. That is, control for controlling the position of the virtual viewpoint and the direction of the line of sight from the virtual viewpoint with respect to the virtual viewpoint image generated using image data obtained by photographing a predetermined imaging target region from different directions by a plurality of imaging devices. The apparatus, wherein when an operation of moving a touch position while touching one or more positions on a display surface displaying the virtual viewpoint image is performed, without changing a line-of-sight direction from the virtual viewpoint. Either move the position of the virtual viewpoint in a direction according to the line of sight, or rotate and move the position of the virtual viewpoint on a predetermined plane with reference to a rotation base point in the line of sight from the virtual viewpoint, or On the basis of the rotation base point in the line of sight from the virtual viewpoint, to rotate the position of the virtual viewpoint in a direction orthogonal to the direction of the rotational movement on the predetermined plane, Determining means for determining a parameter relating to the position of the virtual viewpoint and a line-of-sight direction from the virtual viewpoint based on a change in the touch position on the display surface; and controlling the virtual viewpoint in accordance with the parameters determined by the determining means. Control means for performing the operation.

本発明によれば、仮想視点の設定をより簡易に行うことができるようになる。   According to the present invention, the setting of the virtual viewpoint can be performed more easily.

制御装置100のハードウェア構成を示すブロック図。FIG. 2 is a block diagram showing a hardware configuration of the control device 100. 制御装置100の機能構成を示すブロック図。FIG. 2 is a block diagram showing a functional configuration of the control device 100. 実施形態1の1本指のスライド操作における仮想視点制御の例を示す図。FIG. 4 is a diagram illustrating an example of virtual viewpoint control in a one-finger slide operation according to the first embodiment. 実施形態1の3本指のスライド操作における仮想視点制御の例を示す図。FIG. 4 is a diagram illustrating an example of virtual viewpoint control in a three-finger slide operation according to the first embodiment. 実施形態1の2本指のスライド操作における仮想視点制御の例を示す図。FIG. 4 is a diagram illustrating an example of virtual viewpoint control in a two-finger slide operation according to the first embodiment. 実施形態1の2本指のピンチアウト操作における仮想視点制御の例を示す図。FIG. 4 is a diagram illustrating an example of virtual viewpoint control in a two-finger pinch-out operation according to the first embodiment. 実施形態1の制御装置100における処理の流れを示すフローチャート。5 is a flowchart illustrating a flow of processing in the control device 100 according to the first embodiment. ユーザ操作に応じた仮想視点制御の流れを示すフローチャート。9 is a flowchart illustrating a flow of virtual viewpoint control according to a user operation.

以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The following embodiments do not limit the present invention, and all combinations of features described in the present embodiments are not necessarily essential to the solution of the present invention. The same components will be described with the same reference numerals.

<実施形態1>
実施形態1は、ユーザが表示スクリーン(タッチパネル)を操作することにより、仮想視点の位置及び向き等を制御し、それに応じた仮想視点映像を生成する例について説明する。なお、本実施形態では、「仮想カメラの位置を変更する」と「仮想視点の位置を変更する」は同様の意味として用いる。また、「仮想カメラの姿勢を変更する」と「仮想視点の向きを変更する」は同様の意味として用いる。
<First embodiment>
In the first embodiment, an example will be described in which a user operates a display screen (touch panel) to control the position and orientation of a virtual viewpoint and generate a virtual viewpoint video according to the control. In the present embodiment, “change the position of the virtual camera” and “change the position of the virtual viewpoint” have the same meaning. Further, "change the posture of the virtual camera" and "change the direction of the virtual viewpoint" have the same meaning.

また、本実施形態において仮想視点映像とは、フィールド(撮影対象領域)を異なる方向から撮影する複数のカメラにより得られた複数の撮影映像に基づいて生成される映像であり、仮想視点(仮想カメラ)の位置及び姿勢等に従って生成される映像である。また、本実施形態の仮想視点映像は、各画像フレームが所定の動画圧縮の方式により圧縮された映像データであっても良いし、各画像フレームが所定の静止画圧縮の方式により圧縮された映像データであっても良いし、非圧縮の映像データであっても良い。   Further, in the present embodiment, the virtual viewpoint video is a video generated based on a plurality of captured videos obtained by a plurality of cameras capturing a field (an imaging target region) from different directions, and includes a virtual viewpoint (virtual camera). ) Is an image generated according to the position and orientation. Further, the virtual viewpoint video of the present embodiment may be video data in which each image frame is compressed by a predetermined moving image compression method, or video in which each image frame is compressed by a predetermined still image compression method. It may be data or uncompressed video data.

本実施形態における制御装置100のシステム構成例について、図1を用いて説明する。同図において、CPU101は、RAM102をワークメモリとして、ROM103及び/又はハードディスクドライブ(HDD)105に格納されたプログラムを実行し、システムバス112を介して後述する各構成を制御する。これにより、後述する様々な処理が実行される。HDDインタフェイス(I/F)104は、制御装置100と、HDD105や光ディスクドライブなどの二次記憶装置とを接続する、例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、HDDインタフェイス(I/F)104を介した、HDD105からのデータ読み出し、およびHDD105へのデータ書き込みが可能である。さらにCPU101は、HDD105に格納されたデータをRAM102に展開する。また、CPU101は、プログラムの実行により得られたRAM102上の各種データをHDD105に保存することが可能である。入力インタフェイス(I/F)106は、1又は複数の座標を入力するためのタッチパネル、キーボード、マウス、デジタルカメラ、スキャナなどの入力デバイス107と制御装置100とを接続する。入力インタフェイス(I/F)106は、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。CPU101は、入力I/F106を介して入力デバイス107からデータを読み込むことが可能である。出力インタフェイス(I/F)108は、ディスプレイなどの出力デバイス109と制御装置100とを接続する、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。CPU101は、出力I/F108を介して出力デバイス109に仮想視点映像に係るデータを送ることで、仮想視点映像の表示を実行させることができる。ネットワークインタフェイス(I/F)110は、制御装置100と外部サーバ111とを接続する、例えばLANカードなどのネットワークカードである。CPU101は、ネットワークI/F110を介して外部サーバ111からデータを読み込むことが可能である。   An example of a system configuration of the control device 100 according to the present embodiment will be described with reference to FIG. In FIG. 1, a CPU 101 executes a program stored in a ROM 103 and / or a hard disk drive (HDD) 105 using a RAM 102 as a work memory, and controls each component described later via a system bus 112. Thereby, various processes described later are executed. The HDD interface (I / F) 104 is an interface such as a serial ATA (SATA) for connecting the control device 100 to a secondary storage device such as the HDD 105 or an optical disk drive. The CPU 101 can read data from the HDD 105 and write data to the HDD 105 via the HDD interface (I / F) 104. Further, the CPU 101 loads the data stored in the HDD 105 into the RAM 102. Further, the CPU 101 can save various data on the RAM 102 obtained by executing the program in the HDD 105. An input interface (I / F) 106 connects an input device 107 such as a touch panel, a keyboard, a mouse, a digital camera, or a scanner for inputting one or a plurality of coordinates to the control device 100. The input interface (I / F) 106 is, for example, a serial bus interface such as USB or IEEE1394. The CPU 101 can read data from the input device 107 via the input I / F 106. The output interface (I / F) 108 is a video output interface, such as DVI or HDMI (registered trademark), for connecting the output device 109 such as a display and the control device 100. The CPU 101 can execute the display of the virtual viewpoint video by sending data relating to the virtual viewpoint video to the output device 109 via the output I / F 108. The network interface (I / F) 110 is a network card such as a LAN card that connects the control device 100 and the external server 111. The CPU 101 can read data from the external server 111 via the network I / F 110.

なお、本実施形態では、入力デバイス107が制御装置100のタッチパネルである場合の例を中心に説明する。つまり、制御装置100はスマートフォンやタブレット端末などであっても良く、この場合は、入力デバイス107(タッチパネル)や出力デバイス109(表示スクリーン)は、制御装置100と一体である。また、図1にて示した構成のすべてが必須の構成とは限らない。例えば、HDD105に記憶された仮想視点映像を再生する場合、外部サーバ111は不要である。逆に、外部サーバ111から取得した仮想視点映像を生成する場合、HDD105は不要である。また、制御装置100が複数のCPU101を有してもよい。また、CPU101とは異なる専用の1又は複数のハードウェアやGPU(Graphics Processing Unit)を有し、CPU101による処理の少なくとも一部をGPUや専用のハードウェアが行うようにしてもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。   In the present embodiment, an example in which the input device 107 is the touch panel of the control device 100 will be mainly described. That is, the control device 100 may be a smartphone, a tablet terminal, or the like. In this case, the input device 107 (touch panel) and the output device 109 (display screen) are integrated with the control device 100. Further, not all of the configurations shown in FIG. 1 are necessarily required. For example, when reproducing the virtual viewpoint video stored in the HDD 105, the external server 111 is unnecessary. Conversely, when generating a virtual viewpoint video acquired from the external server 111, the HDD 105 is unnecessary. Further, the control device 100 may include a plurality of CPUs 101. The CPU 101 may include one or more dedicated hardware different from the CPU 101 or a GPU (Graphics Processing Unit), and at least a part of the processing by the CPU 101 may be performed by the GPU or dedicated hardware. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors).

本実施形態では、タッチパネルに対するユーザ操作によってユーザの意図に沿った仮想カメラの制御を行う方法について述べる。本実施形態におけるユーザ操作には、タップ操作、指1本〜3本のスライド操作、ピンチイン・ピンチアウト操作が少なくとも含まれるものとする。   In the present embodiment, a method of controlling a virtual camera according to a user's intention by a user operation on a touch panel will be described. It is assumed that the user operation in the present embodiment includes at least a tap operation, a slide operation of one to three fingers, and a pinch-in / pinch-out operation.

指1本のユーザ操作は初心者でも行いやすい反面、複雑な情報を入力することが難しく、指3本のユーザ操作は細かい操作が難しい。よって、指1本と指3本のユーザ操作(スライド操作)には単純な仮想カメラの制御処理を割り当てる。そして、指2本の操作に複雑な仮想カメラの制御処理を割り当てる。   Even a beginner can easily perform a user operation with one finger, but it is difficult to input complicated information, and a user operation with three fingers is difficult to perform a detailed operation. Therefore, a simple virtual camera control process is assigned to the user operation (slide operation) of one finger and three fingers. Then, a complicated virtual camera control process is assigned to the operation of two fingers.

図3から図6を用いて具体的なユーザ操作と仮想カメラの動作の関係について説明する。図3は、1本指のスライド操作によって、仮想カメラの位置及び姿勢が変化する様子を示している。ユーザ操作前の画像301に対して指1本で左方向にスライド操作を行うと、仮想カメラの位置及び姿勢が変更され、画像302が表示される。このとき、仮想カメラの位置及び姿勢は俯瞰画像303の中心に描画された3次元空間上の点304を中心として仮想視点305から右側に回り込んだ仮想視点306へ変化する。すなわち、ユーザ操作により同時に指定される表示スクリーン上(表示面上)の座標の数が第1の数(1つ)である場合、視点制御部204は、その座標の移動に応じて、仮想カメラを所定の注目座標を中心に旋回させる。別の言い方をすると、ユーザ操作により同時に指定される表示面上の座標の数が第1の数(1つ)である場合、視点制御部204は、その座標の移動に応じて、仮想カメラが所定の注目座標を注目したまま移動するように制御する。   The specific relationship between the user operation and the operation of the virtual camera will be described with reference to FIGS. FIG. 3 shows how the position and the posture of the virtual camera are changed by the sliding operation of one finger. When a slide operation is performed to the left with one finger on the image 301 before the user operation, the position and orientation of the virtual camera are changed, and the image 302 is displayed. At this time, the position and orientation of the virtual camera change from a virtual viewpoint 305 to a virtual viewpoint 306 that moves to the right around a point 304 in the three-dimensional space drawn at the center of the overhead image 303. That is, when the number of coordinates on the display screen (on the display surface) specified simultaneously by the user operation is the first number (one), the viewpoint control unit 204 changes the virtual camera in accordance with the movement of the coordinates. Is turned around predetermined attention coordinates. In other words, if the number of coordinates on the display surface specified simultaneously by the user operation is the first number (one), the viewpoint control unit 204 changes the virtual camera in accordance with the movement of the coordinates. Control is performed so as to move while paying attention to predetermined attention coordinates.

図3に示すように、1本指のスライド操作が検出された場合は、仮想カメラの移動範囲を円307上に限定し、移動方向を水平方向に制限する。これにより、例えば、タッチ操作に不慣れなユーザや、タッチの軌道がぶれやすい利用シーンにおいても、ユーザの意図に近い仮想カメラの移動が行える。したがって、簡易にブレのないバレットタイムのような仮想視点映像を生成することができる。   As shown in FIG. 3, when a one-finger slide operation is detected, the movement range of the virtual camera is limited to the circle 307, and the movement direction is limited to the horizontal direction. Accordingly, for example, even in a user who is unfamiliar with the touch operation or in a use scene in which the trajectory of the touch is likely to be blurred, the virtual camera can be moved closer to the intention of the user. Therefore, it is possible to easily generate a virtual viewpoint image such as a bullet time without blurring.

図4は、3本指のスライド操作によって、仮想カメラの位置が変化する様子を示している。ユーザ操作前の画像401に対して指3本で右方向にスライド操作を行うと、仮想カメラの位置が変更され、画像402が表示される。このとき、仮想カメラの位置は俯瞰画像403において示される通り仮想視点404から仮想視点405へ移動する。すなわち、ユーザ操作により同時に指定される表示スクリーン上の座標の数が第3の数(3つ)である場合、視点制御部204は、その座標の変化に応じて、仮想カメラが3次元空間内において並行移動するように、仮想カメラの位置を制御する。   FIG. 4 shows a state in which the position of the virtual camera is changed by a three-finger sliding operation. When a slide operation is performed to the right with three fingers on the image 401 before the user operation, the position of the virtual camera is changed, and the image 402 is displayed. At this time, the position of the virtual camera moves from the virtual viewpoint 404 to the virtual viewpoint 405 as shown in the overhead image 403. That is, when the number of coordinates on the display screen specified simultaneously by the user operation is the third number (three), the viewpoint control unit 204 sets the virtual camera in the three-dimensional space according to the change in the coordinates. The position of the virtual camera is controlled so as to move in parallel.

なお、「3つの座標が同時に指定される」とは、3本の指が同時に表示スクリーンにタッチした場合に限らない。例えば、2本の指が表示スクリーンにタッチしている状態を保持しつつ、3本目の指が表示スクリーンにタッチした場合、3本の指が同時に表示スクリーンにタッチしている状態として判定される。このように、指ごとに表示スクリーンにタッチ開始するタイミングが異なっていたとしても、複数の座標が同時に指定されることがありうる。   Note that “three coordinates are specified at the same time” is not limited to the case where three fingers simultaneously touch the display screen. For example, when the third finger touches the display screen while holding the state where the two fingers are touching the display screen, it is determined that the three fingers are simultaneously touching the display screen. . As described above, even when the timing to start touching the display screen differs for each finger, a plurality of coordinates may be specified at the same time.

また、本実施形態の視点制御部204は、表示スクリーン上での指の移動量と、ユーザ操作に応じて特定される3次元点406の仮想視点映像における描画位置の移動量が等しくなるように仮想カメラを移動する。このように、指の移動量と3次元点406の移動量とを一致させることで、ユーザは、より直感的に仮想カメラの制御を行うことができる。ただし、指の移動量と、仮想視点映像における3次元点406の描画位置の移動量とが異なるように制御しても良い。また、3本指によるユーザ操作においては、指の移動量は、3本指のそれぞれの移動量の平均値を用いるようにしても良いし、中央値を用いるようにしても良いし、代表値を用いるようにしても良いし、その他の値を用いるようにしても良い。また、本実施形態においては、3本指のスライド操作が行われた場合は、仮想カメラの位置を変更するが、仮想カメラの姿勢は変更しない。つまり、ユーザ操作により同時に指定される表示スクリーン上の座標の数が第3の数(3つ)である場合、視点制御部204は、その座標の変化に応じて、仮想視点の位置を変更し、仮想視点の向きは変更しない。   In addition, the viewpoint control unit 204 of the present embodiment makes the moving amount of the finger on the display screen equal to the moving amount of the drawing position of the three-dimensional point 406 specified according to the user operation in the virtual viewpoint image. Move the virtual camera. As described above, by matching the moving amount of the finger with the moving amount of the three-dimensional point 406, the user can more intuitively control the virtual camera. However, control may be performed such that the moving amount of the finger and the moving amount of the drawing position of the three-dimensional point 406 in the virtual viewpoint video are different. Further, in the user operation with three fingers, the moving amount of the finger may use an average value of the moving amounts of the three fingers, a median value, or a representative value. May be used, or another value may be used. In the present embodiment, when a three-finger slide operation is performed, the position of the virtual camera is changed, but the posture of the virtual camera is not changed. That is, when the number of coordinates on the display screen specified simultaneously by the user operation is the third number (three), the viewpoint control unit 204 changes the position of the virtual viewpoint according to the change in the coordinates. The direction of the virtual viewpoint is not changed.

図5は、2本指のスライド操作によって、仮想カメラの位置及び向きが変化する様子を示している。ユーザ操作前の画像501に対して指2本で左下方向にスライド操作を行うと、仮想カメラの位置及び姿勢が変更され、画像502が表示される。このとき、仮想カメラの位置及び姿勢は俯瞰画像503において示される通り、ユーザの指の位置に基づいて決定された3次元上の点504を中心として仮想視点505から仮想視点506へと変化する。仮想カメラの移動範囲は球面507に限定する。つまり、1本指のスライド操作を行った場合は、仮想カメラの高さ方向の位置を変更せず、水平方向の位置を変更したのに対し、2本指のスライド操作を行った場合は、仮想カメラの高さ方向と水平方向の両方の位置を変更する。すなわち、ユーザ操作により同時に指定される表示スクリーン上の座標の数が第2の数(2つ)である場合、視点制御部204は、その座標の移動に応じて、仮想カメラの位置を第1方向及び第2方向に変更する。このように、本実施形態の制御装置100は、1本指でスライド操作が行われた場合よりも、2本指でスライド操作が行われた場合のほうが、より複雑な仮想カメラの制御を実行する。2本指のスライド操作を行うことにより、任意のオブジェクトを任意の方向から見た仮想視点映像を生成できる。   FIG. 5 shows how the position and the direction of the virtual camera are changed by the slide operation of two fingers. When a slide operation is performed on the image 501 before the user operation with two fingers in the lower left direction, the position and orientation of the virtual camera are changed, and the image 502 is displayed. At this time, the position and orientation of the virtual camera change from the virtual viewpoint 505 to the virtual viewpoint 506 around a three-dimensional point 504 determined based on the position of the user's finger, as shown in the overhead image 503. The moving range of the virtual camera is limited to the spherical surface 507. In other words, when a one-finger slide operation is performed, the position of the virtual camera in the height direction is not changed, and the position in the horizontal direction is changed. Change both the height and horizontal position of the virtual camera. That is, when the number of coordinates on the display screen specified simultaneously by the user operation is the second number (two), the viewpoint control unit 204 sets the position of the virtual camera to the first position in accordance with the movement of the coordinates. The direction and the second direction are changed. As described above, the control device 100 of the present embodiment executes more complicated virtual camera control when the slide operation is performed with two fingers than when the slide operation is performed with one finger. I do. By performing a two-finger sliding operation, a virtual viewpoint video in which an arbitrary object is viewed from an arbitrary direction can be generated.

図6は、2本指のピンチアウト操作によって、仮想カメラの位置が変化する様子を示している。ユーザ操作前の画像601に対してピンチアウト操作を行うと、仮想カメラの位置が変更され、画像602が表示される。このとき、仮想カメラの位置は俯瞰画像603において示される通り、仮想視点604から仮想視点605へ移動する。なお、2本指のピンチイン操作が行われた場合は、仮想視点605から仮想視点604の方向へ移動する。すなわち、ユーザ操作により同時に指定される表示スクリーン上の座標の数が第2の数(2つ)である場合、視点制御部204は、その座標の変化に応じて、仮想カメラの視線方向に応じた方向に仮想カメラを移動させる。   FIG. 6 illustrates a state where the position of the virtual camera is changed by the pinch-out operation of two fingers. When the pinch-out operation is performed on the image 601 before the user operation, the position of the virtual camera is changed, and the image 602 is displayed. At this time, the position of the virtual camera moves from the virtual viewpoint 604 to the virtual viewpoint 605 as shown in the overhead view image 603. When a two-finger pinch-in operation is performed, the virtual viewpoint moves from the virtual viewpoint 605 to the virtual viewpoint 604. That is, when the number of coordinates on the display screen specified at the same time by the user operation is the second number (two), the viewpoint control unit 204 responds to the change in the coordinates and the direction of the line of sight of the virtual camera. Move the virtual camera in the direction

ピンチイン操作及びピンチアウト操作により、仮想カメラの位置は点線606で示すように前後に移動する。指を広げた分だけ被写体(例えば選手等のオブジェクト)が大きく表示され、指を狭めた分だけ被写体が小さく表示でき、直感的な操作が可能となる。このように、2本指のユーザ操作に応じて仮想カメラの前後移動と回転が行われるようにすることで、自由度の高い仮想カメラの制御を実現できる。なお、ピンチイン操作とピンチアウト操作に応じて仮想カメラの位置を変更する代わりに、仮想カメラのズーム値に関するパラメータを変更するようにしても良い。   By the pinch-in operation and the pinch-out operation, the position of the virtual camera moves back and forth as indicated by a dotted line 606. The subject (for example, an object such as a player) is displayed large as the finger is widened, and the subject is displayed small as the finger is narrowed, thereby enabling intuitive operation. As described above, by moving the virtual camera back and forth and rotating in accordance with the user operation of the two fingers, it is possible to realize the control of the virtual camera with a high degree of freedom. Instead of changing the position of the virtual camera according to the pinch-in operation and the pinch-out operation, a parameter related to the zoom value of the virtual camera may be changed.

また、本実施形態では、第1の数が「1」、第2の数が「2」、第3の数が「3」である場合の例を中心に説明するが、これに限らない。例えば、第1の数が「3」、第2の数が「2」、第3の数が「1」であっても良いし、第1の数が「1」、第2の数が「2」、第3の数が「4」であっても良い。   In the present embodiment, an example in which the first number is “1”, the second number is “2”, and the third number is “3” will be mainly described, but the present invention is not limited to this. For example, the first number may be “3”, the second number may be “2”, the third number may be “1”, or the first number may be “1”, and the second number may be “1”. 2 "and the third number may be" 4 ".

本実施形態の制御装置100が行う処理の流れについて、図2と図7とを参照して説明する。図2は、本実施形態における制御装置100の機能構成を示すブロック図である。CPU101は、ROM103及び/又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで、図2に示す制御装置100内部の各機能ブロックの役割を果たす。なお、図2の操作部201及び表示部206は、図1の入力デバイス107及び出力デバイス109にそれぞれ対応する。また、CPU101が制御装置100内部の全ての機能ブロックの役割を果たす必要はなく、各機能ブロックに対応する専用の処理回路を設けるようにしてもよい。   The flow of processing performed by the control device 100 of the present embodiment will be described with reference to FIGS. FIG. 2 is a block diagram illustrating a functional configuration of the control device 100 according to the present embodiment. The CPU 101 reads out a program stored in the ROM 103 and / or the HDD 104 and executes the program using the RAM 102 as a work area, thereby playing a role of each functional block inside the control device 100 shown in FIG. Note that the operation unit 201 and the display unit 206 in FIG. 2 correspond to the input device 107 and the output device 109 in FIG. 1, respectively. Further, the CPU 101 does not need to play the role of all the function blocks in the control device 100, and a dedicated processing circuit corresponding to each function block may be provided.

図7は本実施形態の制御装置100で行われる処理の流れを示すフローチャートである。図7を用いて説明する各処理は、制御装置100が備えるCPU101が、ROM103及び/又はHDD104に格納されたプログラムを読み出してRAM102をワークエリアとして実行することで実現される。   FIG. 7 is a flowchart illustrating a flow of a process performed by the control device 100 according to the present embodiment. Each process described with reference to FIG. 7 is realized by CPU 101 included in control device 100 reading out a program stored in ROM 103 and / or HDD 104 and executing RAM 102 as a work area.

S701では、取得データ制御部202が、操作部201に対するタップ操作を検出するまで待機する。タップ操作は、短時間指で表示スクリーンをタッチする操作である。タップ操作の判定に利用される接触時間の閾値は任意の値を設定可能である。タップ操作が検出された場合、表示部206における現在の仮想視点映像の再生状態が一時停止状態であれば再生状態に変更する。一方、タップ操作が検出されたときに仮想視点映像の再生状態であれば、取得データ制御部202は、仮想視点映像の一時停止状態に変更する。このように、取得データ制御部202は、表示スクリーンに対するタップ操作に応じて、仮想視点映像の再生状態を変更するので、ユーザは直観的な操作で再生状態を切り替えることができる。ただし、S701は必須の処理ではない。   In step S701, the process waits until the acquired data control unit 202 detects a tap operation on the operation unit 201. The tap operation is an operation of touching the display screen with a finger for a short time. An arbitrary value can be set as the threshold value of the contact time used for the determination of the tap operation. When the tap operation is detected, if the current reproduction state of the virtual viewpoint video on the display unit 206 is the pause state, the state is changed to the reproduction state. On the other hand, if the virtual viewpoint video is being reproduced when the tap operation is detected, the acquired data control unit 202 changes the virtual viewpoint video to the paused state. As described above, the acquired data control unit 202 changes the reproduction state of the virtual viewpoint video according to the tap operation on the display screen, so that the user can switch the reproduction state by an intuitive operation. However, S701 is not an essential process.

S702では、視点制御部204が、操作部201に対するユーザ操作の検出結果に基づいて、仮想カメラの位置及び姿勢に関するカメラパラメータを描画部205へ出力する。S702の詳細は図8を用いて後述する。   In step S702, the viewpoint control unit 204 outputs camera parameters related to the position and orientation of the virtual camera to the drawing unit 205 based on the detection result of the user operation on the operation unit 201. Details of S702 will be described later with reference to FIG.

S703では、データ取得部203が、HDD105又は外部サーバ111からレンダリングに必要なデータ(ポリゴンデータやテクスチャデータ)を取得し、描画部205に出力する。データ取得部203は、仮想視点映像を動画として再生している状態であれば、次の画像フレームのレンダリングに必要なデータを取得する。一方、仮想視点映像の再生が一時停止状態であれば、すでに現在再生中の画像フレームのレンダリングに必要なデータを取得する。なお、一時停止状態の場合は、改めてデータを取得しなくても良い。   In step S703, the data acquisition unit 203 acquires data (polygon data or texture data) necessary for rendering from the HDD 105 or the external server 111, and outputs the data to the rendering unit 205. If the virtual viewpoint video is being reproduced as a moving image, the data acquisition unit 203 acquires data necessary for rendering the next image frame. On the other hand, if the reproduction of the virtual viewpoint video is in a pause state, data necessary for rendering the image frame that is already being reproduced is acquired. In the case of the pause state, it is not necessary to acquire data again.

S704では、描画部205が、データ取得部203から取得したデータと視点制御部204から取得したカメラパラメータとを基に仮想視点映像を生成し、当該生成された仮想視点映像を表示部206に出力する。表示部206は描画部205から取得した仮想視点映像を表示する。レンダリングに関しては既存の技術を使用できるためここでは詳しく説明を行わない。カメラパラメータとは、仮想カメラの外部パラメータと内部パラメータに分類できる。仮想カメラの外部パラメータとは、仮想カメラの位置及び姿勢を表すパラメータである。また、仮想カメラの内部パラメータとは、仮想カメラの光学的な特性を表すパラメータである。外部パラメータと内部パラメータについてより具体的に説明する。仮想カメラの位置を表すベクトルをt,回転を表す行列をRとすると、仮想カメラの外部パラメータは以下のように表すことができる。   In step S704, the drawing unit 205 generates a virtual viewpoint video based on the data acquired from the data acquisition unit 203 and the camera parameters acquired from the viewpoint control unit 204, and outputs the generated virtual viewpoint video to the display unit 206. I do. The display unit 206 displays the virtual viewpoint video acquired from the drawing unit 205. The rendering is not described in detail here because existing techniques can be used. The camera parameters can be classified into external parameters and internal parameters of the virtual camera. The external parameters of the virtual camera are parameters representing the position and orientation of the virtual camera. In addition, the internal parameters of the virtual camera are parameters representing optical characteristics of the virtual camera. The external parameters and the internal parameters will be described more specifically. Assuming that a vector representing the position of the virtual camera is t and a matrix representing the rotation is R, the external parameters of the virtual camera can be represented as follows.

Figure 2020053088
Figure 2020053088

ここで、座標系は左手座標系として記載し、仮想視点において右を+x方向、上を+y方向、前を+z方向とする。   Here, the coordinate system is described as a left-handed coordinate system, and in the virtual viewpoint, the right is the + x direction, the upper is the + y direction, and the front is the + z direction.

また、仮想視点映像の主点位置を(c,c)、仮想カメラの焦点距離をfとすると、仮想カメラの内部パラメータKは以下のように表すことができる。 If the principal point position of the virtual viewpoint video is (c x , cy ) and the focal length of the virtual camera is f, the internal parameter K of the virtual camera can be expressed as follows.

Figure 2020053088
Figure 2020053088

なお、カメラパラメータの表現方法は行列以外の表現であってもかまわない。例えば、仮想カメラの位置を3次元座標で表し、仮想カメラの姿勢をyaw、roll、及びpitchの値の羅列によって表すようにしてもよい。また、外部パラメータと内部パラメータは上述のものに限るわけではない。例えば、仮想カメラのズーム値を表す情報が仮想カメラの内部パラメータとして取得されるようにしてもよい。このように、仮想視点映像の生成のために用いられる仮想カメラのパラメータには種々のバリエーションが存在する。以上が本実施形態の制御装置100で行われる処理の流れである。   The method of expressing the camera parameters may be an expression other than the matrix. For example, the position of the virtual camera may be represented by three-dimensional coordinates, and the posture of the virtual camera may be represented by a list of values of yaw, roll, and pitch. Further, the external parameters and the internal parameters are not limited to those described above. For example, information indicating the zoom value of the virtual camera may be obtained as an internal parameter of the virtual camera. As described above, there are various variations in the parameters of the virtual camera used for generating the virtual viewpoint video. The above is the flow of the processing performed by the control device 100 of the present embodiment.

<ユーザ操作に応じた仮想カメラの制御>
図7のS702の処理の詳細を、図8を参照して説明する。S702においては、視点制御部204は、操作部201に対するユーザ操作の検出結果を取得し、仮想視点映像の描画に用いられる仮想カメラのカメラパラメータを描画部205に出力する。
<Control of virtual camera according to user operation>
Details of the processing in S702 of FIG. 7 will be described with reference to FIG. In step S702, the viewpoint control unit 204 acquires a detection result of a user operation performed on the operation unit 201, and outputs camera parameters of a virtual camera used for drawing a virtual viewpoint video to the drawing unit 205.

S801では、視点制御部204は、操作部201に対するユーザ操作の検出結果を取得する。ユーザ操作の検出結果には、表示スクリーン上におけるタッチされた点の数n、タッチされた点の2次元スクリーン座標x--(i=1〜n)、及びタッチされた点の代表点の2次元スクリーン座標x’が含まれるものとする。また、ユーザ操作の検出結果には、前の画像フレームにおける代表点からの移動量を表す2次元ベクトルd=(d,d)、及び、上記代表点に基づいて特定される3次元点の位置を表す3次元ベクトルTが含まれるものとする。ただし、必ずしも上記すべての情報を検出結果として取得しなければならないわけではない。例えば、1本指の操作が行われた場合、2次元スクリーン座標xiと代表点の2次元スクリーン座標x’は同じであるため何れか一方は省略可能である。 In step S801, the viewpoint control unit 204 acquires a detection result of a user operation performed on the operation unit 201. The detection result of the user operation includes the number n of touched points on the display screen, the two-dimensional screen coordinates x-- i (i = 1 to n) of the touched point, and the representative point of the touched point. It is assumed that two-dimensional screen coordinates x 'are included. In addition, the detection result of the user operation includes a two-dimensional vector d = (d x , dy ) representing an amount of movement from the representative point in the previous image frame, and a three-dimensional point specified based on the representative point. Is assumed to be included. However, it is not always necessary to acquire all the above information as a detection result. For example, when an operation with one finger is performed, one of the two-dimensional screen coordinates xi and the two-dimensional screen coordinates x ′ of the representative point can be omitted because they are the same.

2次元スクリーンの座標系は左上を原点とし、右を+x、下を+yとする。代表点はタッチされた複数の点の2次元スクリーン座標xの重心に位置する座標とする。しかしながら、代表点は重心に限らず、2次元スクリーン座標xの平均に位置する座標であっても良いし、複数の2次元スクリーン座標xのうちの1点がランダムに選択されるようにしても良いし、最も長い時間タッチされた点が選択されるようにしても良い。 The coordinate system of the two-dimensional screen has the origin at the upper left, + x at the right, and + y at the lower. Representative point is the coordinates located at the center of gravity of the two-dimensional screen coordinates x i of the plurality of points are touched. However, the representative point is not limited to the center of gravity, may be the coordinates of the position to the average of the two-dimensional screen coordinates x i, as one point of a plurality of 2-dimensional screen coordinates x i are selected randomly Alternatively, the point touched for the longest time may be selected.

また、3次元点は、仮想カメラの位置に応じた3次元座標を始点として仮想カメラの撮影方向へ仮想的に光線を飛ばし(レイキャスト)、被写体と衝突した点とする。この3次元点は、仮想カメラの操作において回転基点や移動の基準点として利用される。また、この3次元点は、タッチの数が前の画像フレームから変化した場合のみ決定し、変化していない場合は前の画像フレームの処理において決定済みの3次元ベクトルTをそのまま利用する。なお、本実施形態では3次元点は3次元ベクトルTにより表される例を説明するが、必ずしもベクトルの形式で示さなくても良い。   In addition, the three-dimensional point is a point where light rays are virtually skipped (ray cast) in the shooting direction of the virtual camera starting from the three-dimensional coordinates corresponding to the position of the virtual camera, and collide with the subject. The three-dimensional point is used as a rotation base point or a movement reference point in the operation of the virtual camera. The three-dimensional point is determined only when the number of touches has changed from the previous image frame, and when the number of touches has not changed, the three-dimensional vector T determined in the processing of the previous image frame is used as it is. In the present embodiment, an example in which a three-dimensional point is represented by a three-dimensional vector T will be described. However, the three-dimensional point need not always be represented in a vector format.

S802では、視点制御部204は、操作部201に対するユーザ操作に応じて視点リセットを行うか否かを判定する。本実施形態では、表示スクリーン上の特定の領域(例えば視点リセットボタンが表示されている領域)がタップされた場合に、視点リセットを行うと判定される。   In step S802, the viewpoint control unit 204 determines whether to perform a viewpoint reset in accordance with a user operation on the operation unit 201. In the present embodiment, when a specific area on the display screen (for example, an area where the viewpoint reset button is displayed) is tapped, it is determined that the viewpoint is reset.

S803では、視点制御部204が、仮想カメラの位置及び姿勢等をリセットする。すなわち視点制御部204は、表示スクリーン上の所定位置に対してユーザ操作が検出されたことに応じて、仮想視点の位置及び向きを予め定められた位置及び向きに変更する。そして、視点制御部204は、リセット時の仮想カメラのカメラパラメータを描画部205に出力する。本実施形態においてリセット時の仮想カメラの位置は[0 0 0]であり、仮想カメラの姿勢は単位行列であるものとする。しかしながら、リセット時の視点情報は上述のものに限るわけではない。例えば、予めユーザが設定した値を利用してもよいし、画像データに埋め込まれた推奨の視点情報を読出して利用しても良い。   In step S803, the viewpoint control unit 204 resets the position and orientation of the virtual camera. That is, the viewpoint control unit 204 changes the position and orientation of the virtual viewpoint to a predetermined position and orientation in response to detection of a user operation at a predetermined position on the display screen. Then, the viewpoint control unit 204 outputs the camera parameters of the virtual camera at the time of reset to the drawing unit 205. In the present embodiment, the position of the virtual camera at the time of reset is [0 0 0], and the posture of the virtual camera is a unit matrix. However, the viewpoint information at the time of reset is not limited to the above. For example, a value set in advance by a user may be used, or recommended viewpoint information embedded in image data may be read and used.

S804では、視点制御部204が、タッチされた点数nに基づいて、仮想カメラの制御方法を決定する。タッチされた指の本数に合わせて仮想カメラの制御方法を異ならせることで、より多彩な制御が実現できるようになる。タッチ点数が0点の場合、S805に進み、現在の仮想カメラの位置及び姿勢を描画部205へ出力する。   In step S804, the viewpoint control unit 204 determines a control method of the virtual camera based on the touched score n. By making the control method of the virtual camera different according to the number of touched fingers, more various controls can be realized. If the number of touch points is 0, the process advances to step S805 to output the current position and orientation of the virtual camera to the drawing unit 205.

タッチ点数が1点の場合(つまり1本指の操作が検出された場合)、S806に進み、視点制御部204は、上述の3次元点を回転中心として仮想カメラを回転させる。3次元点は、仮想カメラの位置に応じた3次元座標(例えば仮想カメラの中心座標)を始点として仮想カメラの撮影方向へ仮想的に光線を飛ばし(レイキャスト)、被写体と衝突した点とする。別の言い方をすると、3次元点とは、タッチ時に表示される仮想視点映像の中心位置に対応する3次元空間上の座標である。ただし、3次元点はこの例に限るものではない。S806〜S808の詳細は後述する。   When the number of touch points is one (that is, when the operation of one finger is detected), the process proceeds to S806, and the viewpoint control unit 204 rotates the virtual camera around the above three-dimensional point. The three-dimensional point is a point at which light rays are virtually skipped (ray cast) in the shooting direction of the virtual camera starting from three-dimensional coordinates (for example, the center coordinates of the virtual camera) corresponding to the position of the virtual camera, and collide with the subject. . In other words, the three-dimensional point is a coordinate in the three-dimensional space corresponding to the center position of the virtual viewpoint image displayed at the time of touch. However, the three-dimensional point is not limited to this example. Details of S806 to S808 will be described later.

タッチ点数が2点の場合(つまり2本指の操作が検出された場合)、S809に進み、視点制御部204は、ユーザによるスライド操作に応じて、仮想カメラの高さ方向と水平方向の両方の位置を変更する制御を行う。また、S811においては、視点制御部204は、ピンチイン操作及び/又はピンチアウト操作に応じて仮想カメラの位置を前後方向に移動させる制御を行う。S809〜S812の詳細は後述する。   If the number of touch points is two (that is, if an operation with two fingers is detected), the process proceeds to step S809, and the viewpoint control unit 204 performs both the height direction and the horizontal direction of the virtual camera in accordance with the slide operation by the user. Control to change the position of. In step S811, the viewpoint control unit 204 performs control to move the position of the virtual camera in the front-rear direction according to the pinch-in operation and / or the pinch-out operation. Details of S809 to S812 will be described later.

タッチ点数が3点の場合(つまり3本指の操作が検出された場合)、S813に進み、視点制御部204は、仮想カメラをスライド操作に応じて並行移動させる制御を行う。S813及びS814の詳細は後述する。   When the number of touch points is three (that is, when the operation of three fingers is detected), the process proceeds to S813, and the viewpoint control unit 204 performs control to move the virtual camera in parallel according to the slide operation. Details of S813 and S814 will be described later.

S806では、視点制御部204が仮想カメラを回転する際の回転中心となる3次元点の座標を決定する。視点制御部204は、1本指のタッチの検出に応じて、例えば、仮想カメラの中心を視点として仮想的に3次元空間へ光線を飛ばし、被写体と衝突した点を3次元点とする。3次元点は3次元ベクトルAとして表され、回転中心として利用される。なお、1度3次元点を決定した後は、タッチ状態が継続している間は再決定しなくて良い。   In step S806, the viewpoint control unit 204 determines the coordinates of a three-dimensional point that is the center of rotation when rotating the virtual camera. In response to the detection of one finger touch, for example, the viewpoint control unit 204 virtually emits a light ray to a three-dimensional space with the center of the virtual camera as a viewpoint, and sets a point that has collided with the subject as a three-dimensional point. The three-dimensional point is represented as a three-dimensional vector A, and is used as a rotation center. Note that once the three-dimensional point is determined, it is not necessary to determine it again while the touch state continues.

S807では、視点制御部204が代表点の移動量dを取得し、仮想カメラの移動量を決定する。なお1本指のユーザ操作の場合は、仮想カメラの移動方向は、3次元点を中心とする回転方向のみである。また、1本指のユーザ操作の場合、仮想カメラは垂直方向には移動せず、水平方向のみ移動する。このようにすることで、スライド操作における手ぶれの影響を受けにくく、仮想カメラの移動をスムーズに行うことができる。なお、本実施形態の視点制御部204は、代表点の移動量dにスケール係数sを乗算することで仮想カメラの移動量(水平方向の回転量θ)を決定する。表示スクリーンの解像度を幅w画素とし、表示スクリーンの端から端までスライド操作した時の回転量を360度とすると移動量dから回転量θ[degree]を決定するためのスケールsは以下の式で表せる。 In step S807, the viewpoint control unit 204 acquires the moving amount d of the representative point, and determines the moving amount of the virtual camera. In the case of one-finger user operation, the moving direction of the virtual camera is only the rotation direction about the three-dimensional point. In the case of a one-finger user operation, the virtual camera does not move in the vertical direction, but moves only in the horizontal direction. With this configuration, the virtual camera can be smoothly moved without being easily affected by camera shake in the slide operation. Note that the viewpoint control unit 204 of the present embodiment determines the movement amount (the horizontal rotation amount θ) of the virtual camera by multiplying the movement amount d x of the representative point by the scale factor s. Assuming that the resolution of the display screen is width w pixels and the rotation amount when the slide operation is performed from end to end of the display screen is 360 degrees, a scale s for determining the rotation amount θ [degree] from the movement amount d x is as follows. It can be expressed by an equation.

Figure 2020053088
Figure 2020053088

このスケール係数を用いて仮想カメラの回転量は以下の式で表せる。   Using this scale factor, the rotation amount of the virtual camera can be expressed by the following equation.

Figure 2020053088
Figure 2020053088

なお本実施形態では指1本のユーザ操作に基づく仮想カメラの移動方向は水平方向のみとする例を中心に説明するが、垂直方向のみの移動として良い。また、ユーザ操作の内容に応じて、水平方向のみの移動にするか、垂直方向のみの移動にするかが決定されるようにしても良い。具体的には、タッチが検出されてから所定数の画像フレームのスライド操作の方向に応じて移動方向を決定してもよい。例えば、所定数の画像フレームにおけるスライド操作によるx方向とy方向の移動量を比較し、x方向の移動量が大きければ水平方向のみの移動とし、y方向の移動量が大きければ垂直方向のみの移動としても良い。また、スケール係数sの決定方法は上述のものに限らない。例えばユーザが任意の値を指定するようにしても良いし、複数の選択肢の中からユーザが任意に選択できるようにしても良い。   In this embodiment, an example in which the moving direction of the virtual camera based on a user operation of one finger is limited to only the horizontal direction will be mainly described, but the moving direction may be limited to the vertical direction. Further, it may be determined whether to perform the movement only in the horizontal direction or the movement only in the vertical direction according to the content of the user operation. Specifically, the moving direction may be determined according to the direction of the sliding operation of a predetermined number of image frames after the touch is detected. For example, the amount of movement in the x and y directions by a slide operation in a predetermined number of image frames is compared. If the amount of movement in the x direction is large, the movement is performed only in the horizontal direction. It may be moving. Further, the method of determining the scale coefficient s is not limited to the method described above. For example, the user may specify an arbitrary value, or the user may arbitrarily select from a plurality of options.

S808では、視点制御部204がユーザのスライド操作に応じた仮想カメラの位置及び姿勢の決定を行い、その結果を描画部205に出力する。仮想カメラの位置Rn−1及び姿勢tn−1を、座標Aを中心に水平方向にθだけ回転した場合の仮想カメラの位置R及び姿勢tは以下の式で表すことができる。 In step S808, the viewpoint control unit 204 determines the position and orientation of the virtual camera according to the user's slide operation, and outputs the result to the drawing unit 205. The position R n-1 and the orientation t n-1 of the virtual camera, the position R n and orientation t n of the virtual camera when rotated by θ in the horizontal direction about the coordinate A can be expressed by the following equation.

Figure 2020053088
Figure 2020053088

ただし、R(θ、φ)は水平方向にθ、垂直方向にφだけ回転する回転行列である。また、回転させた現在の仮想カメラの位置及び姿勢を求める式はこれに限らない。   Here, R (θ, φ) is a rotation matrix that rotates by θ in the horizontal direction and φ in the vertical direction. Further, the formula for calculating the current position and orientation of the rotated virtual camera is not limited to this.

S809では、視点制御部204が代表点の移動量dを取得し、仮想カメラの移動量を決定する。なお2本指のユーザ操作の場合は、自由度の高い制御を実現するため、S807とは異なり、3次元点を中心として、水平方向と垂直方向の両方向に仮想カメラの回転させることができる。水平方向の回転量θとスケールsはS807と同様にして求める。垂直方向の回転量φは、以下の式で表すことができる。
φ=s×d
S810では、視点制御部204がユーザのスライド操作に応じた仮想カメラの位置及び姿勢の決定を行い、その結果を描画部205に出力する。仮想カメラの位置Rn−1及び姿勢tn−1を、3次元点Tを中心に水平方向にθだけ回転し、垂直方向にφだけ回転した場合の仮想カメラの位置R、姿勢t’は以下の式で表すことができる。
In step S809, the viewpoint control unit 204 acquires the movement amount d of the representative point, and determines the movement amount of the virtual camera. Note that in the case of a two-finger user operation, unlike S807, the virtual camera can be rotated in both the horizontal and vertical directions around a three-dimensional point, in order to realize control with a high degree of freedom. The horizontal rotation amount θ and the scale s are obtained in the same manner as in S807. The amount of rotation φ in the vertical direction can be represented by the following equation.
φ = s × d y
In step S810, the viewpoint control unit 204 determines the position and orientation of the virtual camera according to the user's slide operation, and outputs the result to the drawing unit 205. The position R n-1 and the orientation t n-1 of the virtual camera, rotated by θ in the horizontal direction about the three-dimensional point T, the position R n of the virtual camera when rotated by φ in the vertical direction, attitude t ' n can be represented by the following equation.

Figure 2020053088
Figure 2020053088

ただし、3次元点Tを中心に回転させた場合の仮想カメラの位置及び姿勢を求める式はこれに限らない。例えば、所定の係数等を用いることで、指の移動量に対する仮想カメラの移動量を大きくすることも可能であるし、逆に、指の移動量に対する仮想カメラの移動量を小さくすることも可能である。   However, the expression for obtaining the position and orientation of the virtual camera when the virtual camera is rotated about the three-dimensional point T is not limited to this. For example, by using a predetermined coefficient or the like, it is possible to increase the movement amount of the virtual camera with respect to the movement amount of the finger, and conversely, it is also possible to reduce the movement amount of the virtual camera with respect to the movement amount of the finger It is.

S811では、視点制御部204がユーザのピンチイン操作、及びピンチアウト操作に応じた仮想カメラの前後方向の移動量の決定を行う。現在の画像フレームが表示されているときの2本指の距離をdとし、直前の画像フレームが表示されているときの2本指の距離をdn−1とすると、その変化量ΔdはΔd=d−dn−1である。その変化量に比例して仮想カメラを前後に移動する。移動の敏感度をmとすると、仮想カメラの移動量ΔzはΔz=m×Δdで表すことができる。つまり、ピンチイン操作、及びピンチアウト操作による単位時間当たりの指の移動量に応じて、仮想カメラの移動量が決定される。なお、移動量を決定する方法は上述の方法に限らない。例えば、仮想カメラから3次元点Tまでの距離に基づいて表示スクリーン上での指の移動量に合うように3次元空間上での移動量が決定されるようにしても良い。 In step S811, the viewpoint control unit 204 determines the amount of movement of the virtual camera in the front-back direction according to the pinch-in operation and the pinch-out operation of the user. Assuming that the distance between the two fingers when the current image frame is displayed is dn and the distance between the two fingers when the immediately preceding image frame is displayed is dn-1 , the change amount Δd is [Delta] d = a d n -d n-1. The virtual camera is moved back and forth in proportion to the amount of change. Assuming that the sensitivity of the movement is m, the movement amount Δz of the virtual camera can be represented by Δz = m × Δd. That is, the moving amount of the virtual camera is determined according to the moving amount of the finger per unit time due to the pinch-in operation and the pinch-out operation. Note that the method of determining the moving amount is not limited to the method described above. For example, the moving amount in the three-dimensional space may be determined based on the distance from the virtual camera to the three-dimensional point T so as to match the moving amount of the finger on the display screen.

S812では、視点制御部204がユーザのピンチイン操作、及びピンチアウト操作に応じた仮想カメラの位置の決定を行い、その結果を描画部205に出力する。前後方向にΔzだけ移動した仮想カメラの位置は以下の式で表される。   In step S <b> 812, the viewpoint control unit 204 determines the position of the virtual camera according to the user's pinch-in operation and pinch-out operation, and outputs the result to the drawing unit 205. The position of the virtual camera moved by Δz in the front-rear direction is represented by the following equation.

Figure 2020053088
Figure 2020053088

S813では、視点制御部204がユーザのスライド操作に応じた仮想カメラの上下左右方向の移動量の決定を行う。本実施形態では、表示スクリーン上における指の移動量と等しい距離だけ3次元点が表示スクリーン上で移動するように移動量が決定される。つまり、あるオブジェクト(例えばサッカー選手)の表示位置に3本指でタッチして、その3本指を表示スクリーン上でスライド移動させると、そのオブジェクトの表示位置と3本指の位置関係が変化しないように、仮想カメラの位置が変化する。移動量Δx,Δyは、仮想カメラからタッチした3次元点までの距離をrとすると以下の式で表すことができる。   In step S813, the viewpoint control unit 204 determines the amount of movement of the virtual camera in the up, down, left, and right directions according to the slide operation of the user. In the present embodiment, the moving amount is determined such that the three-dimensional point moves on the display screen by a distance equal to the moving amount of the finger on the display screen. That is, when the display position of an object (for example, a soccer player) is touched with three fingers and the three fingers are slid on the display screen, the positional relationship between the display position of the object and the three fingers does not change. Thus, the position of the virtual camera changes. The movement amounts Δx and Δy can be expressed by the following expressions, where r is the distance from the virtual camera to the touched three-dimensional point.

Figure 2020053088
Figure 2020053088

S814では、視点制御部204がユーザのスライド操作に応じた仮想カメラの位置及び姿勢の決定を行い、その結果を描画部205に出力する。左右方向にΔx、上下方向にΔyだけ移動した場合の仮想カメラの位置及び姿勢は以下の式で表される。   In step S814, the viewpoint control unit 204 determines the position and orientation of the virtual camera according to the user's slide operation, and outputs the result to the drawing unit 205. The position and orientation of the virtual camera when moving by Δx in the horizontal direction and Δy in the vertical direction are represented by the following equations.

Figure 2020053088
Figure 2020053088

なお、指の本数と処理の内容の対応関係は、上述に示した例に限らない。例えば、指1本のスライド操作と指3本のスライド操作による仮想カメラの位置及び姿勢の制御は入れ替えることも可能である。つまり、指1本のスライド操作に基づいて仮想カメラを上下左右に平行移動させ、指3本のスライド操作に基づいて3次元点を中心とする仮想カメラの回転移動を実行するようにしても良い。また、指の本数と制御方法の関係を、ユーザが任意に設定できるようにしても良い。このようにすれば、ユーザのスキルや、仮想視点映像の表示環境等によりマッチした操作機能を提供できるようになる。また、本実施形態では、タッチ点数が0点の場合の処理(S805)、1点の場合の処理(S806〜S808)、2点の場合の処理(S809〜S812)、3点の場合の処理(S813、S814)をすべて行う倍の例を中心に説明した。しかしこの例に限らない。例えば、タッチ点数が2点の場合の処理(S809〜S812)と、3点の場合の処理(S813、S814)のみを実行するようにしても良いし、タッチ点数が1点の場合の処理(S806〜S808)のみを実行するようにしても良い。また、事前のユーザ設定に応じて、どの処理を有効にするかが切り替わるようにしても良い。   Note that the correspondence between the number of fingers and the content of the processing is not limited to the example described above. For example, the control of the position and orientation of the virtual camera by the sliding operation of one finger and the sliding operation of three fingers can be exchanged. That is, the virtual camera may be moved up, down, left, and right in parallel based on the sliding operation of one finger, and the virtual camera may be rotated around the three-dimensional point based on the sliding operation of three fingers. . Further, the relationship between the number of fingers and the control method may be arbitrarily set by the user. This makes it possible to provide an operation function that matches the user's skill, the display environment of the virtual viewpoint video, and the like. Further, in the present embodiment, processing when the number of touch points is 0 (S805), processing when the number of touch points is 1 (S806 to S808), processing when the number of touch points is 2 (S809 to S812), processing when the number of touch points is 3 The description has been made centering on an example in which (S813, S814) are all performed twice. However, it is not limited to this example. For example, only the processing when the number of touch points is two (S809 to S812) and the processing when the number of touch points is three (S813 and S814) may be performed, or the processing when the number of touch points is one ( Only steps S806 to S808) may be executed. Further, which process is enabled may be switched according to a user setting in advance.

以上説明した通り、本実施形態の制御装置100は、仮想視点映像を表示するための表示面(表示スクリーン)に対するユーザ操作に応じて、仮想視点の位置及び向きのうち少なくとも何れか一方を制御する。このような構成によれば、ユーザは、従来よりも簡易に仮想視点に関する制御を行うことができるようになる。また、本実施形態の制御装置100は、表示面から検出された指の本数(ユーザ操作により同時に指定される座標の数)に応じて、ユーザ操作に応じた仮想視点の制御方法を切り替える。このような構成を採用することにより、ユーザは、その意図に応じた仮想視点の制御を、より直観的な操作で行うことができるようになる。言い換えれば、本実施形態の制御装置100によれば、よりユーザの意図に沿った仮想視点映像を生成することができるようになるという効果がある。   As described above, the control device 100 of the present embodiment controls at least one of the position and the orientation of the virtual viewpoint according to the user operation on the display surface (display screen) for displaying the virtual viewpoint video. . According to such a configuration, the user can control the virtual viewpoint more easily than before. In addition, the control device 100 according to the present embodiment switches the control method of the virtual viewpoint according to the user operation according to the number of fingers detected from the display surface (the number of coordinates specified simultaneously by the user operation). By adopting such a configuration, the user can control the virtual viewpoint according to the intention by a more intuitive operation. In other words, according to the control device 100 of the present embodiment, there is an effect that it is possible to generate a virtual viewpoint video more in line with the user's intention.

<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Other embodiments>
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. This processing can be realized. Further, it can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

100 制御装置
201 操作部
202 取得データ制御部
203 データ取得部
204 視点制御部
205 描画部
206 表示部
REFERENCE SIGNS LIST 100 control device 201 operation unit 202 acquired data control unit 203 data acquisition unit 204 viewpoint control unit 205 drawing unit 206 display unit

Claims (21)

複数の撮影装置により所定の撮影対象領域を異なる方向から撮影することで得られる画像データを用いて生成される仮想視点画像に係る仮想視点の位置及び仮想視点からの視線方向を制御する制御装置であって、
前記仮想視点画像を表示する表示面上の1以上の位置をタッチしたままタッチ位置を移動させる操作が行われた場合に、前記仮想視点からの視線方向を変化させることなく前記仮想視点の位置を前記視線方向に応じた方向に移動させるか、前記仮想視点からの視線方向上の回転基点を基準として所定の平面上で前記仮想視点の位置を回転移動させるか、又は、前記仮想視点からの視線方向上の回転基点を基準として、前記所定の平面上での回転移動の方向と直交する方向に前記仮想視点の位置を回転移動させるように、前記表示面上におけるタッチ位置の変化に基づいて、前記仮想視点の位置及び前記仮想視点からの視線方向に関するパラメータを決定する決定手段と、
前記決定手段により決定されたパラメータに従って、前記仮想視点を制御する制御手段と、を有することを特徴とする制御装置。
A control device that controls a position of a virtual viewpoint and a gaze direction from the virtual viewpoint with respect to a virtual viewpoint image generated using image data obtained by photographing a predetermined imaging target region from different directions by a plurality of imaging devices. So,
When an operation of moving the touch position while touching one or more positions on the display surface displaying the virtual viewpoint image is performed, the position of the virtual viewpoint is changed without changing the line of sight from the virtual viewpoint. Move in the direction according to the line of sight, or rotate and move the position of the virtual viewpoint on a predetermined plane with reference to the rotation base point in the line of sight from the virtual viewpoint, or look from the virtual viewpoint On the basis of the rotation base point in the direction, based on a change in the touch position on the display surface, so as to rotate and move the position of the virtual viewpoint in a direction orthogonal to the direction of the rotational movement on the predetermined plane. Determining means for determining a parameter relating to the position of the virtual viewpoint and the viewing direction from the virtual viewpoint,
Control means for controlling the virtual viewpoint in accordance with the parameters determined by the determining means.
前記表示面上の第1のタッチ位置と第2のタッチ位置をタッチしたまま前記第1のタッチ位置と前記第2のタッチ位置とを互いに離していくピンチアウト操作が行われた場合、及び、前記第1のタッチ位置と前記第2のタッチ位置とを互いに近づけていくピンチイン操作が行われた場合、前記決定手段は、前記仮想視点からの視線方向を変化させることなく前記仮想視点の位置を前記視線方向に応じた方向に変化させるように、前記パラメータを決定することを特徴とする請求項1に記載の制御装置。   A case where a pinch-out operation of separating the first touch position and the second touch position from each other while touching the first touch position and the second touch position on the display surface is performed; and When a pinch-in operation is performed to bring the first touch position and the second touch position closer to each other, the determining unit may change the position of the virtual viewpoint without changing a line-of-sight direction from the virtual viewpoint. The control device according to claim 1, wherein the parameter is determined such that the parameter is changed in a direction corresponding to the viewing direction. 複数の撮影装置により所定の撮影対象領域を異なる方向から撮影することで得られる画像データを用いて生成される仮想視点画像に係る仮想視点の位置及び仮想視点からの視線方向を制御する制御装置であって、
前記仮想視点画像を表示する表示面上の1以上の位置をタッチしたままタッチ位置を移動させる操作が行われた場合に、前記仮想視点からの視線方向を変化させることなく前記仮想視点に係るズームパラメータを変化させるか、前記仮想視点からの視線方向上の回転基点を基準として所定の平面上で前記仮想視点の位置を回転移動させるか、又は、前記仮想視点からの視線方向上の回転基点を基準として、前記所定の平面上での回転移動の方向と直交する方向に前記仮想視点の位置を回転移動させるように、前記表示面上におけるタッチ位置の変化に基づいて、前記仮想視点の位置及び前記仮想視点からの視線方向に関するパラメータを決定する決定手段と、
前記決定手段により決定されたパラメータに従って、前記仮想視点を制御する制御手段と、を有することを特徴とする制御装置。
A control device that controls a position of a virtual viewpoint and a gaze direction from the virtual viewpoint with respect to a virtual viewpoint image generated using image data obtained by photographing a predetermined imaging target region from different directions by a plurality of imaging devices. So,
When an operation of moving a touch position is performed while touching one or more positions on a display surface displaying the virtual viewpoint image, a zoom related to the virtual viewpoint without changing a line of sight from the virtual viewpoint. Change the parameter, rotate the position of the virtual viewpoint on a predetermined plane with reference to the rotation base point in the line of sight from the virtual viewpoint, or change the rotation base point in the line of sight from the virtual viewpoint. As a reference, based on a change in a touch position on the display surface, the position of the virtual viewpoint and the position of the virtual viewpoint are rotated and moved in a direction orthogonal to the direction of the rotational movement on the predetermined plane. Deciding means for deciding a parameter related to a line-of-sight direction from the virtual viewpoint,
Control means for controlling the virtual viewpoint in accordance with the parameters determined by the determining means.
前記表示面上の第1のタッチ位置と第2のタッチ位置をタッチしたまま前記第1のタッチ位置と前記第2のタッチ位置とを互いに離していくピンチアウト操作が行われた場合、及び、前記第1のタッチ位置と前記第2のタッチ位置とを互いに近づけていくピンチイン操作が行われた場合、前記決定手段は、前記仮想視点からの視線方向を変化させることなく前記仮想視点に係るズームパラメータを変化させるように、前記パラメータを決定することを特徴とする請求項3に記載の制御装置。   A case where a pinch-out operation of separating the first touch position and the second touch position from each other while touching the first touch position and the second touch position on the display surface is performed; and When a pinch-in operation is performed to bring the first touch position and the second touch position closer to each other, the determining unit may perform zooming on the virtual viewpoint without changing a line of sight from the virtual viewpoint. The control device according to claim 3, wherein the parameter is determined so as to change the parameter. 前記表示面上の1の位置をタッチしたままタッチ位置を移動させるスライド操作が行われた場合、前記決定手段は、前記仮想視点からの視線方向上の回転基点を基準として前記所定の平面上で前記仮想視点の位置を回転移動させるように、前記パラメータを決定することを特徴とする請求項1乃至4の何れか1項に記載の制御装置。   When a slide operation of moving the touch position while touching the position 1 on the display surface is performed, the determining unit determines the position on the predetermined plane on the basis of the rotation base point in the line of sight from the virtual viewpoint. The control device according to any one of claims 1 to 4, wherein the parameter is determined so that the position of the virtual viewpoint is rotated. 前記所定の平面は水平面であることを特徴とする請求項1乃至5の何れか1項に記載の制御装置。   The control device according to any one of claims 1 to 5, wherein the predetermined plane is a horizontal plane. 前記表示面上の2以上の所定数の位置をタッチしたまま前記所定数のタッチ位置を並行して移動させるスライド操作が行われた場合、前記決定手段は、前記仮想視点からの視線方向上の回転基点を基準として、前記所定の平面上での回転移動の方向と直交する方向に前記仮想視点の位置を回転移動させるように、前記パラメータを決定することを特徴とする請求項1乃至6の何れか1項に記載の制御装置。   When a slide operation of moving the predetermined number of touch positions in parallel while touching two or more predetermined numbers of positions on the display surface is performed, the determining unit determines a position in a line-of-sight direction from the virtual viewpoint. 7. The parameter according to claim 1, wherein the parameter is determined such that the position of the virtual viewpoint is rotationally moved in a direction orthogonal to a direction of the rotational movement on the predetermined plane with reference to a rotational base point. The control device according to claim 1. 前記所定数は2であることを特徴とする請求項7に記載の制御装置。   The control device according to claim 7, wherein the predetermined number is two. 前記決定手段は、前記仮想視点からの視線方向が所定の回転基点を向いたまま前記仮想視点の位置を移動させるように、前記パラメータを決定することを特徴とする請求項1乃至8の何れか1項に記載の制御装置。   9. The parameter according to claim 1, wherein the determining unit determines the parameter such that a position of the virtual viewpoint is moved while a line of sight from the virtual viewpoint is directed to a predetermined rotation base point. 2. The control device according to claim 1. 前記表示面に対する特定のユーザ操作を検出する検出手段を有し、
前記制御手段は、前記検出手段により前記特定のユーザ操作が検出されたことに応じて、前記仮想視点の位置及び前記仮想視点からの視線方向が予め定められた位置及び方向になるように前記仮想視点を制御することを特徴とする請求項1乃至9の何れか1項に記載の制御装置。
Having a detecting means for detecting a specific user operation on the display surface,
The control unit is configured to respond to the detection of the specific user operation by the detection unit so that a position of the virtual viewpoint and a line-of-sight direction from the virtual viewpoint become a predetermined position and direction. The control device according to claim 1, wherein a viewpoint is controlled.
前記表示面に対する前記特定のユーザ操作は、前記表示面上の所定位置に対するタッチ操作であることを特徴とする請求項10に記載の制御装置。   The control device according to claim 10, wherein the specific user operation on the display surface is a touch operation on a predetermined position on the display surface. 前記表示面に表示されている仮想視点画像の再生が一時停止状態になっている間に前記表示面に対する所定のタッチ操作が検出された場合、前記制御手段は、前記表示面に表示されている仮想視点画像の再生状態を前記一時停止状態から再生状態に変更することを特徴とする請求項1乃至11の何れか1項に記載の制御装置。   When a predetermined touch operation on the display surface is detected while the reproduction of the virtual viewpoint image displayed on the display surface is in a pause state, the control unit displays the virtual viewpoint image on the display surface. 12. The control device according to claim 1, wherein a reproduction state of the virtual viewpoint image is changed from the pause state to a reproduction state. 前記所定の撮影対象領域には1以上のオブジェクトが存在することを特徴とする請求項1乃至12の何れか1項に記載の制御装置。   The control device according to claim 1, wherein one or more objects exist in the predetermined imaging target area. 前記オブジェクトの少なくとも1つはスポーツ選手であることを特徴とする請求項13
に記載の制御装置。
The at least one of the objects is a sports player.
The control device according to claim 1.
複数の撮影装置により所定の撮影対象領域を異なる方向から撮影することで得られる画像データを用いて生成される仮想視点画像に係る仮想視点の位置及び仮想視点からの視線方向を制御する制御装置が行う制御方法であって、
前記仮想視点画像を表示する表示面上の1以上の位置をタッチしたままタッチ位置を移動させる操作が行われた場合に、前記仮想視点からの視線方向を変化させることなく前記仮想視点の位置を前記視線方向に応じた方向に移動させるか、前記仮想視点からの視線方向上の回転基点を基準として所定の平面上で前記仮想視点の位置を回転移動させるか、又は、前記仮想視点からの視線方向上の回転基点を基準として、前記所定の平面上での回転移動の方向と直交する方向に前記仮想視点の位置を回転移動させるように、前記表示面上におけるタッチ位置の変化に基づいて、前記仮想視点の位置及び前記仮想視点からの視線方向に関するパラメータを決定する決定工程と、
前記決定工程において決定されたパラメータに従って、前記仮想視点を制御する制御工程と、を有することを特徴とする制御方法。
A control device that controls a position of a virtual viewpoint and a gaze direction from the virtual viewpoint related to a virtual viewpoint image generated using image data obtained by photographing a predetermined imaging target region from different directions by a plurality of imaging devices. Control method to be performed,
When an operation of moving the touch position while touching one or more positions on the display surface displaying the virtual viewpoint image is performed, the position of the virtual viewpoint is changed without changing the line of sight from the virtual viewpoint. Move in the direction according to the line of sight, or rotate and move the position of the virtual viewpoint on a predetermined plane with reference to the rotation base point in the line of sight from the virtual viewpoint, or look from the virtual viewpoint On the basis of the rotation base point in the direction, based on a change in the touch position on the display surface, so as to rotate and move the position of the virtual viewpoint in a direction orthogonal to the direction of the rotational movement on the predetermined plane. A determining step of determining a parameter relating to a position of the virtual viewpoint and a viewing direction from the virtual viewpoint,
Controlling the virtual viewpoint in accordance with the parameters determined in the determining step.
前記表示面上の第1のタッチ位置と第2のタッチ位置をタッチしたまま前記第1のタッチ位置と前記第2のタッチ位置とを互いに離していくピンチアウト操作が行われた場合、及び、前記第1のタッチ位置と前記第2のタッチ位置とを互いに近づけていくピンチイン操作が行われた場合、前記決定工程は、前記仮想視点からの視線方向を変化させることなく前記仮想視点の位置を前記視線方向に応じた方向に変化させるように、前記パラメータを決定することを特徴とする請求項15に記載の制御方法。   A case where a pinch-out operation of separating the first touch position and the second touch position from each other while touching the first touch position and the second touch position on the display surface is performed; and When a pinch-in operation is performed to bring the first touch position and the second touch position closer to each other, the determining step includes changing a position of the virtual viewpoint without changing a line-of-sight direction from the virtual viewpoint. 16. The control method according to claim 15, wherein the parameter is determined so as to change in a direction corresponding to the line-of-sight direction. 複数の撮影装置により所定の撮影対象領域を異なる方向から撮影することで得られる画像データを用いて生成される仮想視点画像に係る仮想視点の位置及び仮想視点からの視線方向を制御する制御装置が行う制御方法であって、
前記仮想視点画像を表示する表示面上の1以上の位置をタッチしたままタッチ位置を移動させる操作が行われた場合に、前記仮想視点からの視線方向を変化させることなく前記仮想視点に係るズームパラメータを変化させるか、前記仮想視点からの視線方向上の回転基点を基準として所定の平面上で前記仮想視点の位置を回転移動させるか、又は、前記仮想視点からの視線方向上の回転基点を基準として、前記所定の平面上での回転移動の方向と直交する方向に前記仮想視点の位置を回転移動させるように、前記表示面上におけるタッチ位置の変化に基づいて、前記仮想視点の位置及び前記仮想視点からの視線方向に関するパラメータを決定する決定工程と、
前記決定工程において決定されたパラメータに従って、前記仮想視点を制御する制御工程と、を有することを特徴とする制御方法。
A control device that controls a position of a virtual viewpoint and a gaze direction from the virtual viewpoint related to a virtual viewpoint image generated using image data obtained by photographing a predetermined imaging target region from different directions by a plurality of imaging devices. Control method to be performed,
When an operation of moving a touch position is performed while touching one or more positions on a display surface displaying the virtual viewpoint image, a zoom related to the virtual viewpoint without changing a line of sight from the virtual viewpoint. Change the parameter, rotate the position of the virtual viewpoint on a predetermined plane with reference to the rotation base point in the line of sight from the virtual viewpoint, or change the rotation base point in the line of sight from the virtual viewpoint. As a reference, based on a change in a touch position on the display surface, the position of the virtual viewpoint and the position of the virtual viewpoint are rotated and moved in a direction orthogonal to the direction of the rotational movement on the predetermined plane. A determining step of determining a parameter related to a line-of-sight direction from the virtual viewpoint;
Controlling the virtual viewpoint in accordance with the parameters determined in the determining step.
前記表示面上の第1のタッチ位置と第2のタッチ位置をタッチしたまま前記第1のタッチ位置と前記第2のタッチ位置とを互いに離していくピンチアウト操作が行われた場合、及び、前記第1のタッチ位置と前記第2のタッチ位置とを互いに近づけていくピンチイン操作が行われた場合、前記決定工程は、前記仮想視点からの視線方向を変化させることなく前記仮想視点に係るズームパラメータを変化させるように、前記パラメータを決定することを特徴とする請求項17に記載の制御方法。   A case where a pinch-out operation of separating the first touch position and the second touch position from each other while touching the first touch position and the second touch position on the display surface is performed; and When a pinch-in operation for bringing the first touch position and the second touch position closer to each other is performed, the determining step includes the step of zooming the virtual viewpoint without changing a line-of-sight direction from the virtual viewpoint. The control method according to claim 17, wherein the parameter is determined so as to change the parameter. 前記表示面上の1の位置をタッチしたままタッチ位置を移動させるスライド操作が行われた場合、前記決定工程は、前記仮想視点からの視線方向上の回転基点を基準として前記所定の平面上で前記仮想視点の位置を回転移動させるように、前記パラメータを決定することを特徴とする請求項15乃至18の何れか1項に記載の制御方法。   When a slide operation for moving the touch position while touching the position 1 on the display surface is performed, the determining step is performed on the predetermined plane on the basis of the rotation base point in the line of sight from the virtual viewpoint. 19. The control method according to claim 15, wherein the parameter is determined such that the position of the virtual viewpoint is rotated. 前記表示面上の所定位置に対するタッチ操作を検出する検出工程を有し、
前記制御工程は、前記検出工程において前記特定のユーザ操作が検出されたことに応じて、前記仮想視点の位置及び前記仮想視点からの視線方向が予め定められた位置及び方向になるように前記仮想視点を制御することを特徴とする請求項15乃至19の何れか1項に記載の制御方法。
A detecting step of detecting a touch operation on a predetermined position on the display surface,
The control step is such that, in response to the detection of the specific user operation in the detection step, the virtual viewpoint position and the line-of-sight direction from the virtual viewpoint become the predetermined position and direction. The control method according to claim 15, wherein the viewpoint is controlled.
コンピュータを請求項1乃至14の何れか1項に記載の制御装置の各手段として動作させるためのプログラム。   A program for causing a computer to operate as each unit of the control device according to claim 1.
JP2019223941A 2019-12-11 2019-12-11 Control device, control method, and program Pending JP2020053088A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019223941A JP2020053088A (en) 2019-12-11 2019-12-11 Control device, control method, and program
JP2022027204A JP7434385B2 (en) 2019-12-11 2022-02-24 Control device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019223941A JP2020053088A (en) 2019-12-11 2019-12-11 Control device, control method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018192133A Division JP6632681B2 (en) 2018-10-10 2018-10-10 Control device, control method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022027204A Division JP7434385B2 (en) 2019-12-11 2022-02-24 Control device, control method, and program

Publications (1)

Publication Number Publication Date
JP2020053088A true JP2020053088A (en) 2020-04-02

Family

ID=69997445

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019223941A Pending JP2020053088A (en) 2019-12-11 2019-12-11 Control device, control method, and program
JP2022027204A Active JP7434385B2 (en) 2019-12-11 2022-02-24 Control device, control method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022027204A Active JP7434385B2 (en) 2019-12-11 2022-02-24 Control device, control method, and program

Country Status (1)

Country Link
JP (2) JP2020053088A (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6105244B2 (en) * 2012-09-28 2017-03-29 富士通テン株式会社 Image processing apparatus and image processing system
JP5994019B2 (en) 2013-03-22 2016-09-21 株式会社スクウェア・エニックス Video game processing apparatus, video game processing method, and video game processing program
JP6354244B2 (en) * 2014-03-25 2018-07-11 大日本印刷株式会社 Image playback terminal, image playback method, program, and multi-viewpoint image playback system
JP2015187797A (en) * 2014-03-27 2015-10-29 シャープ株式会社 Image data generation device and image data reproduction device
JP2016025633A (en) * 2014-07-24 2016-02-08 ソニー株式会社 Information processing apparatus, management device, information processing method, and program
US20170104982A1 (en) * 2015-10-09 2017-04-13 SoliDDD Corp. Presentation of a virtual reality scene from a series of images

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
丸谷 宜史 TAKAFUMI MARUTANI: "レスリング映像を用いた多視点映像ストリーミング配信実験 Multi-View Video Contents Streaming Experime", 映像情報メディア学会技術報告 VOL.36 NO.35 ITE TECHNICAL REPORT, vol. 第36巻, JPN6021019193, 6 September 2012 (2012-09-06), JP, pages 23 - 28, ISSN: 0004644897 *
柏熊 淳也,外3名: "マルチタッチ操作を用いた自由視点映像閲覧法の検討", 第16回日本バーチャルリアリティ学会大会 論文集, JPN6019032833, 2 September 2011 (2011-09-02), pages 674 - 677, ISSN: 0004644896 *

Also Published As

Publication number Publication date
JP7434385B2 (en) 2024-02-20
JP2022071030A (en) 2022-05-13

Similar Documents

Publication Publication Date Title
JP6419278B1 (en) Control device, control method, and program
US9690388B2 (en) Identification of a gesture
JP5822400B2 (en) Pointing device with camera and mark output
JP7267753B2 (en) Control device, control method, and program
US20210390721A1 (en) Display control apparatus, display control method, and storage medium
US9275275B2 (en) Object tracking in a video stream
US11477432B2 (en) Information processing apparatus, information processing method and storage medium
JP6632681B2 (en) Control device, control method, and program
US10979700B2 (en) Display control apparatus and control method
JP7434385B2 (en) Control device, control method, and program
JP7210153B2 (en) ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211124