JP2022050305A - Processing system, control method therefor, and program - Google Patents

Processing system, control method therefor, and program Download PDF

Info

Publication number
JP2022050305A
JP2022050305A JP2021075358A JP2021075358A JP2022050305A JP 2022050305 A JP2022050305 A JP 2022050305A JP 2021075358 A JP2021075358 A JP 2021075358A JP 2021075358 A JP2021075358 A JP 2021075358A JP 2022050305 A JP2022050305 A JP 2022050305A
Authority
JP
Japan
Prior art keywords
subject
processing system
marker
virtual viewpoint
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021075358A
Other languages
Japanese (ja)
Other versions
JP2022050305A5 (en
Inventor
大地 阿達
Taichi Adachi
肇 佐藤
Hajime Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US17/471,200 priority Critical patent/US11917117B2/en
Publication of JP2022050305A publication Critical patent/JP2022050305A/en
Publication of JP2022050305A5 publication Critical patent/JP2022050305A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Projection Apparatus (AREA)

Abstract

To provide a technique for supporting an object (performer) when capturing images used for generating virtual viewpoint images.SOLUTION: A processing system for generating a virtual viewpoint image representing a view from a virtual viewpoint is provided, the system being configured to present an indication for determining the orientation of an object in a space including the object to be shot by multiple image capturing means.SELECTED DRAWING: Figure 1

Description

本開示は、処理システム及びその制御方法及びプログラムに関するものである。 The present disclosure relates to a processing system and its control method and program.

昨今、異なる位置に設置して複数のカメラによる同期撮影を行い、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。このような技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることができる。 Recently, attention has been paid to a technique of installing virtual viewpoint contents at different positions, performing synchronous shooting with a plurality of cameras, and generating virtual viewpoint contents using the multi-viewpoint images obtained by the shooting. According to such a technique, for example, a highlight scene of soccer or basketball can be viewed from various angles, so that a user can be given a high sense of presence as compared with a normal image.

特許文献1には、被写体を取り囲むように複数のカメラを配置し、これら複数のカメラで撮影した被写体の画像を用いて任意の視点の画像を生成する技術が開示されている。 Patent Document 1 discloses a technique in which a plurality of cameras are arranged so as to surround a subject, and an image of an arbitrary viewpoint is generated using images of the subject taken by the plurality of cameras.

特開2008-015756号公報Japanese Unexamined Patent Publication No. 2008-015756

従来から、いわゆるタリー(タリーランプ、タリーライト)がある。タリーとは、テレビカメラなどに付いている赤いランプで、その機器が使用されているときに点灯し、通常スイッチャー等と連動する。出演者(被写体)が、自分が今撮られていることが分かるのでセリフやアクションのきっかけに使える。 Traditionally, there are so-called tally (tally lamps, tally lights). A tally is a red lamp attached to a TV camera or the like, which lights up when the device is in use and normally works with a switcher or the like. The performer (subject) knows that he or she is being photographed, so it can be used as a trigger for dialogue or action.

しかしながら、上述した仮想視点コンテンツを生成するシステムにおいては、仮想視点の位置には実際のカメラ(実カメラ)は無い。そのため、例えばスタジオで撮影を行う場合など、演者は、どこに目線を向けてよいかわからないため、演出面での制限が生じたりする。 However, in the system that generates the virtual viewpoint content described above, there is no actual camera (real camera) at the position of the virtual viewpoint. Therefore, for example, when shooting in a studio, the performer does not know where to look, which may limit the production.

本開示は上記問題に鑑みてなされたものであり、仮想視点画像の生成に用いられる画像の撮影において、被写体(演者)の支援を行う技術を提供しようとするものである。 The present disclosure has been made in view of the above problems, and is an object of the present invention to provide a technique for supporting a subject (performer) in taking an image used for generating a virtual viewpoint image.

この課題を解決するため、例えば本開示の処理システムは以下の構成を備える。すなわち、
仮想視点からの見えを表す仮想視点画像を生成するための処理システムであって、
被写体を含む空間を撮影する複数の撮影手段と、
前記空間において、前記被写体の向きを決定するための提示を行う提示手段と、を有する。
In order to solve this problem, for example, the processing system of the present disclosure has the following configuration. That is,
It is a processing system for generating a virtual viewpoint image that represents the appearance from a virtual viewpoint.
Multiple shooting methods for shooting the space including the subject,
In the space, the presenting means for making a presentation for determining the direction of the subject is provided.

本開示によれば、仮想視点画像の生成に用いられる画像の撮影において、被写体(演者)の支援を行う技術を提供することができる。 According to the present disclosure, it is possible to provide a technique for supporting a subject (performer) in shooting an image used for generating a virtual viewpoint image.

第1の実施形態における画像処理システムの全体構成図。The whole block diagram of the image processing system in 1st Embodiment. 第1の実施形態における被写体を囲む空間における構成及びその一部を示す図。The figure which shows the structure in the space surrounding a subject and a part thereof in 1st Embodiment. マーカー表示を説明するための説明図。Explanatory drawing for explaining a marker display. 第1の実施形態におけるマーカー表示処理を示すフローチャート。The flowchart which shows the marker display processing in 1st Embodiment. 第2の実施形態におけるマーカー表示処理を説明するための説明図。Explanatory drawing for demonstrating marker display processing in 2nd Embodiment. 第3の実施形態におけるマーカー表示のための構成を説明するための図。The figure for demonstrating the structure for marker display in 3rd Embodiment. 第4の実施形態におけるマーカーを提示する構成を説明するための図。The figure for demonstrating the structure which presents a marker in 4th Embodiment. 第5の実施形態におけるマーカーの提示法を説明するための図。The figure for demonstrating the method of presenting a marker in 5th Embodiment. 実施形態のシステムを構成する各装置のハードウェア構成を示す図。The figure which shows the hardware configuration of each apparatus constituting the system of an embodiment. 第1の実施形態の第1の変形例における装置のハードウェア構成を示す図。The figure which shows the hardware composition of the apparatus in the 1st modification of 1st Embodiment. 第1の実施形態の第1の変形例における処理手順を示すフローチャート。The flowchart which shows the processing procedure in 1st modification of 1st Embodiment. 第1の実施形態の第2の変形例における被写体を囲む空間における構成及びその一部を示す図。The figure which shows the structure in the space surrounding a subject in the 2nd modification of 1st Embodiment, and a part thereof. 第1の実施形態の第3及び第4の変形例における被写体を囲む空間における構成及びその一部を示す図。The figure which shows the structure in the space surrounding a subject and a part thereof in 3rd and 4th modification of 1st Embodiment. 第1の実施形態の第5の変形例における処理手順を示すフローチャート。The flowchart which shows the processing procedure in 5th modification of 1st Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.

[第1の実施形態]
競技場(スタジアム)やコンサートホール、スタジオなどの施設に複数のカメラを設置し撮影を行うシステムについて、図1を用いて説明する。
[First Embodiment]
A system for taking pictures by installing a plurality of cameras in facilities such as a stadium, a concert hall, and a studio will be described with reference to FIG.

図1は、第1の実施形態が適用される画像処理システム100の全体構成図である。本システム100は、撮影装置1、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5を有し、これはネットワークを介して接続されているものとする。なお、ネットワークは、有線、無線を問わない。 FIG. 1 is an overall configuration diagram of an image processing system 100 to which the first embodiment is applied. The system 100 includes a photographing device 1, a real space information holding device 2, an image processing device 3, a user terminal 4, and a marker output device 5, which are connected via a network. The network may be wired or wireless.

上記構成において、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5は、パーソナルコンピュータ(PC)に代表される情報処理装置と、その情報処理装置上で実行するアプリケーションプログラムにより実現できる。図9は、その情報処理装置200のハードウェアブロック構成図である。情報処理装置200は、CPU211、ROM212、RAM213、補助記憶装置214、表示装置215、操作部216、通信インタフェース(I/F)217を有し、これらがシステムバス218に接続される構造を有する。本装置の電源がONになると、CPU211はROM212のブートプログラムを実行し、補助記憶装置214(例えばハードディスク)からOS(オペレーティングシステム)をRAM213にロードし、OSを実行する。この結果、情報処理装置200は、操作部26を介してユーザからの各種指示を入力し、対応する処理を実行可能となる。更に、CPU211がOSの制御下で、補助記憶装置214に予め格納されているアプリケーションプログラムを実行することができる。例えば、そのアプリケーションプログラムの種類によっては、この情報処理装置200が、実空間情報保持装置2、画像処理装置3、ユーザ端末4、或いは、マーカー出力装置5として機能する。例えば、情報処理装置200が画像処理装置3として機能する場合、通信I/F217は、ネットワーク(ユーザ端末4、マーカー出力装置5と通信するため)、並びに、撮影装置1、実空間情報保持装置2と通信可能に接続されていることになる。また、情報処理装置200がマーカー出力装置5として機能する場合には、通信I/F217には、ネットワーク(ユーザ端末4、マーカー出力装置と通信するため)、並びに、プロジェクタが接続されていることになる。情報処理装置200が実空間情報保持装置2として機能する場合には、補助記憶装置214には、実空間情報(詳細後述)が格納された上で、ファイルサーバとして機能する機能させればよい。 In the above configuration, the real space information holding device 2, the image processing device 3, the user terminal 4, and the marker output device 5 are an information processing device represented by a personal computer (PC) and an application program executed on the information processing device. Can be realized by. FIG. 9 is a hardware block configuration diagram of the information processing apparatus 200. The information processing device 200 has a CPU 211, a ROM 212, a RAM 213, an auxiliary storage device 214, a display device 215, an operation unit 216, and a communication interface (I / F) 217, and has a structure in which these are connected to the system bus 218. When the power of this device is turned on, the CPU 211 executes the boot program of the ROM 212, loads the OS (operating system) from the auxiliary storage device 214 (for example, the hard disk) into the RAM 213, and executes the OS. As a result, the information processing apparatus 200 can input various instructions from the user via the operation unit 26 and execute the corresponding processing. Further, the CPU 211 can execute the application program stored in advance in the auxiliary storage device 214 under the control of the OS. For example, depending on the type of the application program, the information processing device 200 functions as a real space information holding device 2, an image processing device 3, a user terminal 4, or a marker output device 5. For example, when the information processing device 200 functions as the image processing device 3, the communication I / F 217 includes a network (to communicate with the user terminal 4 and the marker output device 5), a photographing device 1, and a real space information holding device 2. It will be connected so that it can communicate with. Further, when the information processing device 200 functions as the marker output device 5, the communication I / F 217 is connected to a network (to communicate with the user terminal 4 and the marker output device) and a projector. Become. When the information processing device 200 functions as the real space information holding device 2, the auxiliary storage device 214 may function as a file server after storing the real space information (details will be described later).

撮影装置1は、競技フィールドやスタジオ等を取り囲むように設置された複数台のカメラで構成され、それらは互いに同期撮影して得た画像を画像処理装置3に送信する。 The photographing device 1 is composed of a plurality of cameras installed so as to surround the competition field, the studio, etc., and they transmit images obtained by synchronously photographing each other to the image processing device 3.

実空間情報保持装置2は、被写体(演者)を含む所定範囲の空間に関する情報を保持する。具体的には、競技場のフィールドや観客席など、あるいはスタジオの設備など、仮想視点画像内に背景として映りこむ物体(背景オブジェクト)の3次元モデル情報や、仮想視点を設定可能な範囲を示す3次元空間情報、並びに、撮影装置1それぞれの設置位置や撮影方向、焦点距離等である。この実空間情報保持装置2に保持された情報は、画像処理装置3が仮想視点画像を生成する際に参照されるものであるので、画像処理装置3内に設けられるようにしても良い。 The real space information holding device 2 holds information about a predetermined range of space including the subject (performer). Specifically, it shows the 3D model information of an object (background object) reflected as a background in a virtual viewpoint image such as a field of a stadium, spectator seats, or equipment of a studio, and a range in which a virtual viewpoint can be set. Three-dimensional spatial information, as well as the installation position, shooting direction, focal length, etc. of each of the photographing devices 1. Since the information held in the real space information holding device 2 is referred to when the image processing device 3 generates a virtual viewpoint image, it may be provided in the image processing device 3.

画像処理装置3は、仮想視点画像生成部301、仮想カメラパス算出部302、仮想カメラパス情報保持部303、マーカー座標算出部304、表示画像生成部305、通信部306を有している。 The image processing device 3 has a virtual viewpoint image generation unit 301, a virtual camera path calculation unit 302, a virtual camera path information holding unit 303, a marker coordinate calculation unit 304, a display image generation unit 305, and a communication unit 306.

仮想視点画像生成部301は、撮影装置1から取得した複数視点の画像をもとに、前景オブジェクトの3次元モデルを生成する。そして、仮想視点画像生成部301は、生成した前景3次元モデルおよび、実空間情報保持装置2から得た背景3次元モデルに対し、仮想カメラパス算出部302から取得した仮想視点に合わせたテクスチャをマッピングし、レンダリングを行うことにより、仮想視点画像を生成する。この生成の過程で、仮想視点画像生成部301は、生成しようとする仮想視点画像に映りこむ前景オブジェクトおよび背景オブジェクトの座標を算出し、当該座標についてのみのテクスチャマッピング、レンダリングを実行する。この座標値を仮想視点画像生成部301は、被写体前景座標、実空間背景座標として後述の仮想カメラパス情報保持部303に受け渡す。 The virtual viewpoint image generation unit 301 generates a three-dimensional model of the foreground object based on the images of the plurality of viewpoints acquired from the photographing apparatus 1. Then, the virtual viewpoint image generation unit 301 applies a texture matching the virtual viewpoint acquired from the virtual camera path calculation unit 302 to the generated foreground 3D model and the background 3D model obtained from the real space information holding device 2. A virtual viewpoint image is generated by mapping and rendering. In the process of this generation, the virtual viewpoint image generation unit 301 calculates the coordinates of the foreground object and the background object reflected in the virtual viewpoint image to be generated, and executes texture mapping and rendering only for the coordinates. The virtual viewpoint image generation unit 301 passes these coordinate values to the virtual camera path information holding unit 303, which will be described later, as the subject foreground coordinates and the real space background coordinates.

仮想カメラパス算出部302は、ユーザ端末4の仮想カメラパス指示部403に対するユーザの指示内容に基づき、時間的に連続する仮想カメラパスパラメータを算出する。仮想カメラパラメータとは、少なくとも仮想カメラの位置、向き(注視方向)および画角(焦点距離)であり、撮影シーン中のどの瞬間のパラメータであるか特定できるよう、複数視点画像に付されたフレーム番号ないしタイムコードと関連づけられている。この算出の際には、実空間情報保持部2から得た実空間情報を参照し、仮想視点を設定可能な範囲に仮想カメラパスを設定する。 The virtual camera path calculation unit 302 calculates temporally continuous virtual camera path parameters based on the contents of instructions given by the user to the virtual camera path instruction unit 403 of the user terminal 4. The virtual camera parameters are at least the position, orientation (gaze direction) and angle of view (focal length) of the virtual camera, and are frames attached to the multi-viewpoint image so that the parameters at which moment in the shooting scene can be specified. It is associated with a number or timecode. At the time of this calculation, the real space information obtained from the real space information holding unit 2 is referred to, and the virtual camera path is set within the range in which the virtual viewpoint can be set.

仮想カメラ情報保持部303は、仮想視点画像生成部301から受け取った被写体前景座標および実空間背景座標、仮想カメラパス算出部302で算出された仮想カメラパスパラメータを蓄積していく。 The virtual camera information holding unit 303 accumulates the subject foreground coordinates and the real space background coordinates received from the virtual viewpoint image generation unit 301, and the virtual camera path parameters calculated by the virtual camera path calculation unit 302.

マーカー座標算出部304は、仮想カメラ情報保持部303に蓄積された仮想カメラに関する仮想カメラパラメータおよび実空間情報保持部2が保持する3次元空間情報(背景情報)に基づき、実空間に表示するマーカー情報の座標パラメータについて情報生成を行う。 The marker coordinate calculation unit 304 displays a marker in the real space based on the virtual camera parameters related to the virtual camera stored in the virtual camera information holding unit 303 and the three-dimensional space information (background information) held by the real space information holding unit 2. Information is generated for the coordinate parameters of the information.

表示画像生成部305は、ユーザ端末4の画像表示部402に表示される表示画像を生成する。ここで生成される表示画像は、仮想視点画像生成部301で生成された、仮想視点画像である。仮想視点画像は、仮想視点からの見えを表す画像である。 The display image generation unit 305 generates a display image to be displayed on the image display unit 402 of the user terminal 4. The display image generated here is a virtual viewpoint image generated by the virtual viewpoint image generation unit 301. The virtual viewpoint image is an image showing the appearance from the virtual viewpoint.

通信部306は、画像処理装置3とユーザ端末4およびマーカー出力装置5の間で非図示のネットワーク等を介してやり取りされる。通信部306は、画像処理装置3とユーザ端末4の間では、画像、音声、テキストデータや、仮想視点画像を生成する際にユーザ側から送られる仮想カメラパス指示等の指示情報の送受信を行う。通信部306は、画像処理装置3とマーカー出力装置5の間では、マーカー表示に必要な座標情報、マーカーの形状、色、大きさ、表示情報等の表示パラメータの送受信を行う。 The communication unit 306 is exchanged between the image processing device 3, the user terminal 4, and the marker output device 5 via a network (not shown) or the like. The communication unit 306 transmits / receives image, voice, text data, instruction information such as a virtual camera path instruction sent from the user side when generating a virtual viewpoint image, between the image processing device 3 and the user terminal 4. .. The communication unit 306 transmits / receives display parameters such as coordinate information necessary for marker display, marker shape, color, size, and display information between the image processing device 3 and the marker output device 5.

ユーザ端末4は、通信部401、画像表示部402、仮想カメラパス指示部403、ユーザ情報発信部404およびマーカー情報発信部405を有する。 The user terminal 4 has a communication unit 401, an image display unit 402, a virtual camera path instruction unit 403, a user information transmission unit 404, and a marker information transmission unit 405.

通信部401は、前述の装置通信部306との間で、前述のとおり種々の情報の送受信を行う。画像表示部402は、前述の表示画像生成部305で生成された画像を受け取り、表示する。仮想カメラパス指示部403は、ユーザから仮想カメラパスに対する指示を受け付け、通信部401、通信部306を介して、仮想カメラパス算出部302に渡す。ここでユーザは、必ずしも仮想カメラパラメータのすべてを、視聴したい全時間に対して厳密に指示する必要はない。たとえば特定の選手や演者などに注目した仮想視点画像を視聴したい、ボールの周囲ある一定の範囲を常に視聴したい、より注目すべきイベントが発生している箇所を視聴したい、など種々の観点に基づく指示を入力することも可能である。 The communication unit 401 transmits and receives various information to and from the device communication unit 306 described above as described above. The image display unit 402 receives and displays the image generated by the display image generation unit 305 described above. The virtual camera path instruction unit 403 receives an instruction for the virtual camera path from the user and passes it to the virtual camera path calculation unit 302 via the communication unit 401 and the communication unit 306. Here, the user does not necessarily have to specify all of the virtual camera parameters exactly for the entire time he wants to watch. For example, based on various viewpoints such as wanting to watch a virtual viewpoint image focusing on a specific player or performer, always watching a certain area around the ball, or watching a place where a more remarkable event is occurring. It is also possible to enter instructions.

ユーザ情報発信部404は、通信部401から通信部306に向けて送信される情報に対し、ユーザIDを始めとするユーザ情報を添付する。マーカー情報発信部405は、通信部401から通信部306に向けて送信される情報に対し、マーカーの種類(形状、色を含む)等のマーカー種別パラメータ情報を添付する。 The user information transmission unit 404 attaches user information including a user ID to the information transmitted from the communication unit 401 to the communication unit 306. The marker information transmission unit 405 attaches marker type parameter information such as a marker type (including shape and color) to the information transmitted from the communication unit 401 to the communication unit 306.

マーカー出力装置5は、通信部501、制御データ生成部502、マーカー制御部503、表示データ出力部504を有する。マーカー出力装置5は、被写体となる人物に対して認識可能なマーカーを表示(もしくは提示)する。なお、表示するマーカーは、仮想カメラパラメータに関連する位置に対して出力される。すなわち、仮想カメラパラメータと連動して、マーカーの位置がマーカー出力装置5によって制御される。 The marker output device 5 includes a communication unit 501, a control data generation unit 502, a marker control unit 503, and a display data output unit 504. The marker output device 5 displays (or presents) a recognizable marker for a person as a subject. The marker to be displayed is output for the position related to the virtual camera parameter. That is, the position of the marker is controlled by the marker output device 5 in conjunction with the virtual camera parameter.

通信部501は、前述したように、画像処理装置3の装置通信部306とネットワーク等を介して、マーカー座標算出部304およびユーザ端末4とのやり取りを行う。 As described above, the communication unit 501 communicates with the marker coordinate calculation unit 304 and the user terminal 4 via the device communication unit 306 of the image processing device 3 and the network or the like.

制御データ生成部502は、仮想視点画像生成部301、マーカー座標算出部304から出力されるデータと仮想カメラパス指示部403、マーカー情報発信部405から出力されるデータを統合し、マーカーの種別や表示更新時間、位置座標などの制御データを生成し、マーカー制御部503に出力する。 The control data generation unit 502 integrates the data output from the virtual viewpoint image generation unit 301 and the marker coordinate calculation unit 304 and the data output from the virtual camera path instruction unit 403 and the marker information transmission unit 405, and determines the type of marker and the data. Control data such as display update time and position coordinates are generated and output to the marker control unit 503.

マーカー制御部503は、マーカーの表示位置、大きさ、形状、表示内容などの表示パラメータに基づき、表示データ(スクリーン座標系)に変換し、表示データ出力部504に出力する。 The marker control unit 503 converts the marker into display data (screen coordinate system) based on display parameters such as the display position, size, shape, and display content of the marker, and outputs the data to the display data output unit 504.

表示データ出力部504は、プロジェクタなどの表示装置から構成されていて、マーカー制御部503の出力データに基づき、表示データが出力される。 The display data output unit 504 is composed of a display device such as a projector, and the display data is output based on the output data of the marker control unit 503.

図2(a)は、本実施形態における画像処理システムにおける被写体を囲む現実空間の模式図である。本実施形態における画像処理システムは、被写体を含む所定範囲の実空間を取り囲むように複数のカメラ(撮影装置1)を有する。また、被写体(人間)が認識可能なマーカーを仮想カメラパス情報に基づく位置に表示するために、プロジェクタ(表示データ出力部504)を有する。 FIG. 2A is a schematic diagram of a real space surrounding a subject in the image processing system according to the present embodiment. The image processing system in the present embodiment has a plurality of cameras (shooting device 1) so as to surround a predetermined range of real space including a subject. Further, it has a projector (display data output unit 504) in order to display a marker recognizable by the subject (human) at a position based on virtual camera path information.

図示の画像処理システムは、円形のスタジオにて本構成を実施した場合の一例であり、カメラ21a~21f、プロジェクタ22a~22f、スクリーン23a~23fが被写体24を囲むように配置されている。画像処理装置3は、カメラ21a~21fが取得する複数視点画像から仮想視点画像を生成し、被写体24と仮想視点とを結ぶ延長線上のスクリーン上の座標をマーカー座標として算出する。そして、マーカー出力装置5は、そのマーカー座標を受け取り、該当するスクリーン上にマーカーを表示する。具体的には、マーカーの表示はプロジェクタ22a~22fによってスクリーンに投影され、プロジェクタ22aは、正面のスクリーン領域23eに投影する。同様に、プロジェクタ22bは、スクリーン領域23dに、プロジェクタ22cは、スクリーン領域23fに、プロジェクタ22dは、スクリーン領域23bにマーカーを表示する。また、プロジェクタ22eは、スクリーン領域23aに、プロジェクタ22fは、スクリーン領域23cにマーカーを表示する。なお、プロジェクタ22a~22fは、ネットワークで接続されており、表示データ出力部504が、表示すべきプロジェクタに表示データを送信するよう構成されている。スクリーンは、床面および天面にも構成され、床面スクリーン25には、プロジェクタ22bおよびプロジェクタ22eが投影を行う。また、天面スクリーン26には、プロジェクタ27aおよび27bが投影を行う。 The illustrated image processing system is an example of the case where the present configuration is implemented in a circular studio, and the cameras 21a to 21f, the projectors 22a to 22f, and the screens 23a to 23f are arranged so as to surround the subject 24. The image processing device 3 generates a virtual viewpoint image from the plurality of viewpoint images acquired by the cameras 21a to 21f, and calculates the coordinates on the screen on the extension line connecting the subject 24 and the virtual viewpoint as the marker coordinates. Then, the marker output device 5 receives the marker coordinates and displays the marker on the corresponding screen. Specifically, the marker display is projected onto the screen by the projectors 22a to 22f, and the projector 22a projects onto the front screen area 23e. Similarly, the projector 22b displays a marker in the screen area 23d, the projector 22c displays a marker in the screen area 23f, and the projector 22d displays a marker in the screen area 23b. Further, the projector 22e displays a marker in the screen area 23a, and the projector 22f displays a marker in the screen area 23c. The projectors 22a to 22f are connected by a network, and the display data output unit 504 is configured to transmit display data to the projector to be displayed. The screen is also configured on the floor surface and the top surface, and the projector 22b and the projector 22e project onto the floor surface screen 25. Further, the projectors 27a and 27b project onto the top screen 26.

図2(b)は、図2(a)に示した本実施形態の円形スタジオの一部断面図である。上述したように、マーカーの表示は、プロジェクタによってスクリーンに投影される構成であり、プロジェクタ22は、スクリーン23および25に投影し、プロジェクタ27は、スクリーン26にユーザが設定した種類のマーカーを投影する。 FIG. 2B is a partial cross-sectional view of the circular studio of the present embodiment shown in FIG. 2A. As described above, the marker display is configured to be projected onto the screen by the projector, the projector 22 projects onto the screens 23 and 25, and the projector 27 projects a user-configured type of marker onto the screen 26. ..

図3(a)は、図2(a)に示した画像処理システムから、一部の構成を抜き出した図である。仮想視点31は、ある仮想視点画像を生成したときの仮想カメラ位置を示している。また、マーカー32が、プロジェクタ22eによってスクリーン領域23aに投影されている。いま被写体24は、実際には、仮想カメラの位置(仮想視点31)は視認することはできないので、仮想カメラに視線を合わせようとする場合には、投影されているマーカー32を見ることになる。なお、マーカー32の投影位置は、被写体24の顔(目)と仮想視点31を結んだ延長上となるように、マーカー制御部503にて投影位置が制御される。また、被写体の顔から仮想視点31までの距離は、マーカー32bの円の大きさで表現する。このように、スクリーンに投影されたマーカーと被写体の顔との間のどのあたりに仮想視点31があるかは、マーカーの表示形態(ここでは大きさ)によって表現することが可能である。例えば、円を大きくした場合は、被写体に近い位置、円を小さくした場合は、マーカーに近い位置に仮想カメラがあることを被写体にあらかじめ報知しておくことで実現できる。 FIG. 3A is a diagram in which a part of the configuration is extracted from the image processing system shown in FIG. 2A. The virtual viewpoint 31 indicates a virtual camera position when a certain virtual viewpoint image is generated. Further, the marker 32 is projected onto the screen area 23a by the projector 22e. Now, since the subject 24 cannot actually see the position of the virtual camera (virtual viewpoint 31), when trying to match the line of sight with the virtual camera, the projected marker 32 is seen. .. The projection position of the marker 32 is controlled by the marker control unit 503 so that the projection position is on the extension connecting the face (eyes) of the subject 24 and the virtual viewpoint 31. Further, the distance from the face of the subject to the virtual viewpoint 31 is expressed by the size of the circle of the marker 32b. In this way, where the virtual viewpoint 31 is located between the marker projected on the screen and the face of the subject can be expressed by the display form (here, the size) of the marker. For example, when the circle is enlarged, it can be realized by notifying the subject in advance that the virtual camera is located near the subject and when the circle is decreased, the virtual camera is located near the marker.

図3(b)~(e)は、被写体と仮想カメラおよびマーカーの位置関係を示す図で、図3(a)を横から見た図である。図3(b)~(e)において、白丸33は、仮想視点を示し、黒丸34は、スクリーンに投影されたマーカーを示している。この図に示したように、被写体の顔と仮想視点およびマーカーが直線上に並ぶように構成される。スクリーンは、床面および天面にも構成されているので、図3(b)~(e)に示すように、仮想カメラが被写体の上または下からのアングルであっても、被写体24は仮想カメラに目線を合わせることができる。 3 (b) to 3 (e) are views showing the positional relationship between the subject, the virtual camera, and the marker, and are views of FIG. 3 (a) viewed from the side. In FIGS. 3B to 3E, the white circle 33 indicates a virtual viewpoint, and the black circle 34 indicates a marker projected on the screen. As shown in this figure, the face of the subject, the virtual viewpoint, and the marker are configured to be aligned on a straight line. Since the screen is also configured on the floor surface and the top surface, as shown in FIGS. 3 (b) to 3 (e), the subject 24 is virtual even if the virtual camera is at an angle from above or below the subject. You can look at the camera.

図4は、マーカー出力装置5の制御データ生成部502の処理を示したフローチャートである。 FIG. 4 is a flowchart showing the processing of the control data generation unit 502 of the marker output device 5.

S100にて、制御データ生成部502は生成処理を開始する。S101にて、制御データ生成部502は、マーカー情報発信部405から出力されるデータに基づき、マーカー表示用設定ファイルの生成処理が行う。この設定ファイルには、マーカーの種別、マーカーの表示パラメータ(色、形状など)を定義する情報が含まれる。 In S100, the control data generation unit 502 starts the generation process. In S101, the control data generation unit 502 performs a marker display setting file generation process based on the data output from the marker information transmission unit 405. This configuration file contains information that defines the marker type and marker display parameters (color, shape, etc.).

S102にて、制御データ生成部502は、仮想視点画像生成部301から出力される仮想視点画像内の被写体の3次元モデルから、被写体数をカウントし、被写体IDを付与する。 In S102, the control data generation unit 502 counts the number of subjects from the three-dimensional model of the subject in the virtual viewpoint image output from the virtual viewpoint image generation unit 301, and assigns a subject ID.

S103にて、制御データ生成部502は、被写体の3次元モデル情報から、世界座標系における被写体の顔の座標を算出する。なお被写体が複数ある場合は、人数分同様の処理を行う。また、被写体の3次元モデルから顔の特定は、モデルの形状や特徴点から一般的な画像処理技術を用いて行うことができる。 In S103, the control data generation unit 502 calculates the coordinates of the face of the subject in the world coordinate system from the three-dimensional model information of the subject. If there are multiple subjects, the same processing is performed for the number of subjects. Further, the face can be specified from the three-dimensional model of the subject by using a general image processing technique from the shape and feature points of the model.

S104にて、制御データ生成部502は、設定ファイル、被写体位置(顔の座標)、仮想カメラ座標に基づいて、表示すべきマーカー座標を算出する。マーカー座標の算出は、世界座標系で実行し、顔座標と仮想カメラ座標との延長線上にスクリーンと交差するマーカー座標を算出する。この結果、投影するスクリーン、投影するプロジェクタが決定される。 In S104, the control data generation unit 502 calculates the marker coordinates to be displayed based on the setting file, the subject position (face coordinates), and the virtual camera coordinates. The marker coordinates are calculated in the world coordinate system, and the marker coordinates that intersect the screen on the extension line of the face coordinates and the virtual camera coordinates are calculated. As a result, the screen to be projected and the projector to be projected are determined.

S105には、制御データ生成部502は、設定ファイルから表示パラメータ情報を生成し、マーカー座標とともにマーカー制御部503に出力する。 In S105, the control data generation unit 502 generates display parameter information from the setting file and outputs the display parameter information together with the marker coordinates to the marker control unit 503.

この結果、マーカー制御部503が表示データ出力部504を制御し、設定された位置に設定された種類のマーカーを表示する。 As a result, the marker control unit 503 controls the display data output unit 504 to display the set type of marker at the set position.

なお、表示するマーカーは、被写体にとって仮想視点の存在する方向を示すシンボルであるので、仮想視点カメラを表すアイコン等であっても良い。この場合、アイコンを、被写体と仮想視点との実空間の距離に応じたサイズで表示しても良い。この結果、被写体にとっては、単純に仮想視点の存在する方向だけでなく、仮想視点までの距離を把握できるようになる。 Since the marker to be displayed is a symbol indicating the direction in which the virtual viewpoint exists for the subject, it may be an icon or the like representing the virtual viewpoint camera. In this case, the icon may be displayed in a size corresponding to the distance between the subject and the virtual viewpoint in the real space. As a result, the subject can grasp not only the direction in which the virtual viewpoint exists but also the distance to the virtual viewpoint.

また、被写体が複数ある場合には、被写体ごとにマーカー座標を算出し、それぞれ異なる設定(色および形)で表示することにより、同じ位置に目線を合わせることができる。このとき各被写体にはあらかじめマーカーの設定を報知しておくことで実現できる。また、複数の被写体が常に同じ位置に目線を向けるのであれば、マーカーは一つであってもよい。 Further, when there are a plurality of subjects, the marker coordinates are calculated for each subject and displayed with different settings (color and shape), so that the line of sight can be aligned with the same position. At this time, it can be realized by notifying each subject of the marker setting in advance. Further, if a plurality of subjects always look at the same position, the number of markers may be one.

[第1の実施形態の第1の変形例]
上記実施形態では、画像処理システムが、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5が独立した装置であるものとして説明したが、処理能力が十分にある場合には、これらを1つの情報処理装置とアプリケーションプログラムで実現させても良い。この場合の画像処理システムの構成を図10に示す。画像処理システムは、情報処理装置300、撮影装置1としての複数のカメラ350a、350b、…、表示データ出力部504としての複数のプロジェクタ360a、360b、…で構成される。情報処理装置300は、CPU301、ROM302、RAM303、補助記憶装置304、表示装置305、操作部306、カメラI/F307、プロジェクタI/Fを有する。ここで、カメラI/F307、プロジェクタI//F308をまとめて1つのI/Fで実現しても構わない。なお、補助記憶装置304には、OSを始め、実空間情報が可能されているものとする。また、被写体を囲む撮影、投影に係る構成は図2(a)と同じとする。
[First Modification Example of First Embodiment]
In the above embodiment, the image processing system has been described as an independent device in which the real space information holding device 2, the image processing device 3, the user terminal 4, and the marker output device 5 are independent devices, but when the processing capacity is sufficient. May realize these with one information processing device and an application program. The configuration of the image processing system in this case is shown in FIG. The image processing system includes an information processing device 300, a plurality of cameras 350a and 350b as a photographing device 1, and a plurality of projectors 360a and 360b as a display data output unit 504. The information processing device 300 includes a CPU 301, a ROM 302, a RAM 303, an auxiliary storage device 304, a display device 305, an operation unit 306, a camera I / F 307, and a projector I / F. Here, the camera I / F307 and the projector I // F308 may be combined into one I / F. It is assumed that the auxiliary storage device 304 is capable of real space information including the OS. Further, the configuration related to shooting and projection surrounding the subject is the same as in FIG. 2A.

本装置に電源がONになると、CPU301は、ROM302に格納されたブートプログラムに従って補助記憶装置304に格納されたOSをRAM303にロードし、実行する。この結果、本装置がユーザからの指示に従った処理を行う装置として機能する。更に、CPU301が、画像処理プログラムを補助記憶装置304よりRAM303にロードし実行することで、本装置が、図1における、仮想視点画像生成部301、仮想カメラパス算出部302、仮想カメラ情報保持部303、マーカー座標算出部304、表示画像生成部305、画像表示部402、仮想カメラパス指示部403、ユーザ情報発信部404、マーカー情報発信部405、制御データ生成部502、マーカー制御部503として機能することになる。 When the power of the apparatus is turned on, the CPU 301 loads the OS stored in the auxiliary storage device 304 into the RAM 303 according to the boot program stored in the ROM 302, and executes the OS. As a result, this device functions as a device that performs processing according to instructions from the user. Further, the CPU 301 loads the image processing program from the auxiliary storage device 304 into the RAM 303 and executes the image processing program, whereby the present device performs the virtual viewpoint image generation unit 301, the virtual camera path calculation unit 302, and the virtual camera information holding unit in FIG. Functions as 303, marker coordinate calculation unit 304, display image generation unit 305, image display unit 402, virtual camera path instruction unit 403, user information transmission unit 404, marker information transmission unit 405, control data generation unit 502, marker control unit 503. Will be done.

CPU301が画像処理プログラムを実行した際の処理手順を、図11のフローチャートを参照して説明する。なお、説明を単純化するため、マーカーに関する情報は既に設定済みであるものとする。 The processing procedure when the CPU 301 executes the image processing program will be described with reference to the flowchart of FIG. For the sake of simplicity, it is assumed that the information about the marker has already been set.

S401にて、CPU301は、操作部306を介して仮想視点に係る情報を入力する。この情報は、実空間内の仮想視点の座標、並びに、仮想視点からの視線方向、画角が含まれる。 In S401, the CPU 301 inputs information related to the virtual viewpoint via the operation unit 306. This information includes the coordinates of the virtual viewpoint in the real space, the line-of-sight direction from the virtual viewpoint, and the angle of view.

S402にて、CPU301は、カメラI/F307を介して、カメラ350a、350b、…それぞれから撮影画像データを受信する。そして、S403にて、CPU301は、補助記憶装置304に格納されている実空間情報(特にカメラの設置位置や方向等の情報)を参照して、仮想視点画像を生成する。そして、S404にて、CPU301は、生成した仮想視点画像を表示装置305に表示する。 In S402, the CPU 301 receives captured image data from the cameras 350a, 350b, ... Via the camera I / F307. Then, in S403, the CPU 301 refers to the real space information (particularly information such as the installation position and direction of the camera) stored in the auxiliary storage device 304 to generate a virtual viewpoint image. Then, in S404, the CPU 301 displays the generated virtual viewpoint image on the display device 305.

S405にて、CPU301は、実空間内における、被写体の顔の座標と仮想視点の座標とを結ぶ線とスクリーン面との交点位置を、マーカー表示位置として算出する。そして、S406にて、CPU301は、プロジェクタI/F308を介して、算出したマーカー表示位置を投影対象としているプロジェクタに対し、マーカー位置へのマーカー表示を行わせる。 In S405, the CPU 301 calculates the intersection position of the line connecting the coordinates of the face of the subject and the coordinates of the virtual viewpoint and the screen surface in the real space as the marker display position. Then, in S406, the CPU 301 causes the projector whose projection target is the calculated marker display position to display the marker at the marker position via the projector I / F 308.

この後、CPU301は、S407にて、ユーザによるアプリケーションの終了指示があったか否かを判定し、否の場合には処理をS401に戻し、上記処理を繰り返すことになる。 After that, the CPU 301 determines in S407 whether or not the user has instructed to end the application, and if not, returns the process to S401 and repeats the above process.

なお、本変形例では、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5が図3の情報処理装置に統合されるものとしたが、その幾つかが独立した装置であっても構わない。 In this modification, the real space information holding device 2, the image processing device 3, the user terminal 4, and the marker output device 5 are integrated into the information processing device of FIG. 3, but some of them are independent devices. It doesn't matter.

また、例えば映画等で演者の動きの仮想視点画像を生成する際には、演者にとっても臨場感があった方が演技し易いので、各プロジェクタはマーカーだけでなく、演者を取り囲む周囲景色を表示させても良い。 Also, for example, when generating a virtual viewpoint image of a performer's movement in a movie, it is easier for the performer to perform if there is a sense of presence, so each projector displays not only the marker but also the surrounding scenery surrounding the performer. You may let me.

なお、マーカーの提示位置は、仮想視点によらずに決定してもよい。特に、マーカーの位置は、被写体の目線を向けさせる位置であればよく、例えばユーザが指定してもよい。
[第1の実施形態の第2の変形例]
上記実施形態ではプロジェクタからスクリーンに投影することでマーカーを表示したが、表示データ出力部504の構成はこれに限らない。図12に示すように、スクリーン23、25、26、28の表面に敷き詰めるように液晶ディスプレイを複数設置してもよい。この場合、S104において制御データ生成部502は、世界座標系で算出したマーカー座標に対応するディスプレイ28aを決定し、あらかじめ校正してあるディスプレイ28aの位置と向きに基づいてディスプレイ画面上の表示座標を算出する。ディスプレイの校正にあたっては、ディスプレイ上に表示したマーカーの三次元座標をカメラ21a~21fを用いて三角測量で算出し、マーカーのディスプレイ上の座標と対応付けることで行うことができる。また、S105では、マーカー制御部503が表示データ出力部504を制御し、対応するディスプレイ28a上の表示座標に設定された種類のマーカー32を表示する。ディスプレイ上のマーカー表示座標以外の画面およびマーカーが投影されないその他のディスプレイ上の画面には、目立たないようにスクリーンの色を表示してもよいし、演者を取り囲む周囲景色を表示させてもよい。
The marker presentation position may be determined regardless of the virtual viewpoint. In particular, the position of the marker may be any position as long as it directs the line of sight of the subject, and may be specified by the user, for example.
[Second variant of the first embodiment]
In the above embodiment, the marker is displayed by projecting the marker onto the screen from the projector, but the configuration of the display data output unit 504 is not limited to this. As shown in FIG. 12, a plurality of liquid crystal displays may be installed so as to be spread on the surfaces of the screens 23, 25, 26, and 28. In this case, in S104, the control data generation unit 502 determines the display 28a corresponding to the marker coordinates calculated in the world coordinate system, and determines the display coordinates on the display screen based on the position and orientation of the display 28a calibrated in advance. calculate. The calibration of the display can be performed by calculating the three-dimensional coordinates of the marker displayed on the display by triangulation using the cameras 21a to 21f and associating them with the coordinates of the marker on the display. Further, in S105, the marker control unit 503 controls the display data output unit 504 to display the marker 32 of the type set in the display coordinates on the corresponding display 28a. The screen color may be displayed inconspicuously on the screen other than the marker display coordinates on the display and the screen on the other display on which the marker is not projected, or the surrounding scenery surrounding the performer may be displayed.

[第1の実施形態の第3の変形例]
第1の実施形態では仮想視点の存在する方向を点のマーカーを用いて表示したが、さらに仮想カメラの姿勢を示すために仮想カメラの3次元モデルをスクリーンに投影してもよい。このとき、仮想カメラの3次元モデルはあらかじめ補助記憶装置214に記憶しておき、アプリケーションプログラム実行時にRAM213に展開する。マーカーの種別は仮想カメラ3次元モデルとなる。図13(a)に仮想カメラの3次元モデルを投影する様子を示す。S405にて、CPU301は、仮想カメラの3次元モデルを、実空間内における被写体の顔の座標24fからスクリーン23aに向かって仮想的に投影し、その像32cの三次元座標を算出する。そして像32cの三次元座標をプロジェクタ22dに向かって逆投影することにより、プロジェクタ22dで表示するマーカーの画像を生成する。なお、仮想カメラ3次元モデルは任意の形状、テクスチャ、透過率、でよく、またカメラではなく立体的な矢印のモデルなどでもよい。
[Third variant of the first embodiment]
In the first embodiment, the direction in which the virtual viewpoint exists is displayed by using a point marker, but a three-dimensional model of the virtual camera may be projected on the screen to further indicate the posture of the virtual camera. At this time, the three-dimensional model of the virtual camera is stored in the auxiliary storage device 214 in advance, and is expanded in the RAM 213 when the application program is executed. The type of marker is a virtual camera 3D model. FIG. 13A shows how a three-dimensional model of a virtual camera is projected. In S405, the CPU 301 virtually projects the three-dimensional model of the virtual camera from the coordinates 24f of the face of the subject in the real space toward the screen 23a, and calculates the three-dimensional coordinates of the image 32c. Then, by back-projecting the three-dimensional coordinates of the image 32c toward the projector 22d, an image of the marker to be displayed by the projector 22d is generated. The virtual camera three-dimensional model may have any shape, texture, and transmittance, and may be a three-dimensional arrow model instead of the camera.

これにより、被写体は仮想視点の存在する方向に加えて、仮想視点の姿勢も認識することができる。 As a result, the subject can recognize the posture of the virtual viewpoint in addition to the direction in which the virtual viewpoint exists.

[第1の実施形態の第4の変形例]
上記実施形態では、仮想視点の存在する方向、姿勢を点または三次元モデルを用いて表示したが、仮想視点の画角を示すために仮想視点画像を表示してもよい。このとき、表示画像生成部305はプロジェクタまたはディスプレイに対して直前に生成した仮想視点画像を送信する。マーカーの種別は仮想視点画像となる。図13(b)に仮想視点画像を投影する様子を示す。S104にて、制御データ生成部502は、スクリーンまたはディスプレイ上のマーカー座標を算出するとともに、マーカー座標が中心かつ被写体から仮想視点画像が正対して見えるように仮想視点画像に対して射影変換を行う。射影変換はアフィン変換またはホモグラフィ変換を用いる。S105では、マーカー制御部503が表示データ出力部504を制御し、対応するスクリーンまたはディスプレイ上の表示座標に射影変換した仮想視点画像32dを投影する。
[Fourth variant of the first embodiment]
In the above embodiment, the direction and posture in which the virtual viewpoint exists are displayed by using a point or a three-dimensional model, but a virtual viewpoint image may be displayed to show the angle of view of the virtual viewpoint. At this time, the display image generation unit 305 transmits the virtual viewpoint image generated immediately before to the projector or the display. The type of marker is a virtual viewpoint image. FIG. 13B shows how a virtual viewpoint image is projected. In S104, the control data generation unit 502 calculates the marker coordinates on the screen or the display, and performs a projective conversion on the virtual viewpoint image so that the marker coordinates are at the center and the virtual viewpoint image can be seen directly from the subject. .. The projective transformation uses an affine transformation or a homography transformation. In S105, the marker control unit 503 controls the display data output unit 504 to project the projected virtual viewpoint image 32d onto the display coordinates on the corresponding screen or display.

これにより、被写体は仮想視点の存在する方向と、仮想視点における画角や仮想視点からの写り具合を仮想視点画像を見ることで認識できる。なお、ユーザーは必要に応じてマーカーの表示設定を変更して仮想視点画像を左右反転し、あたかも鏡写しに被写体自身が見えるように仮想視点画像を表示してもよい。 As a result, the subject can recognize the direction in which the virtual viewpoint exists, the angle of view at the virtual viewpoint, and the image quality from the virtual viewpoint by looking at the virtual viewpoint image. If necessary, the user may change the display setting of the marker to flip the virtual viewpoint image left and right, and display the virtual viewpoint image so that the subject itself can be seen in a mirror image.

[第1の実施形態の第5の変形例]
仮想視点の数が10以上など非常に多く、また高速に動く仮想視点が複数存在する場合、そのままマーカーを表示すると被写体から見て煩わしく見えることがある。本変形例では、互いに近距離にある仮想視点をまとめて表示したり、高速に動く仮想視点のマーカーを視認しにくくなるように表示する。
[Fifth variant of the first embodiment]
When the number of virtual viewpoints is very large, such as 10 or more, and there are a plurality of virtual viewpoints moving at high speed, displaying the marker as it is may look annoying to the subject. In this modification, virtual viewpoints that are close to each other are displayed together, and markers of virtual viewpoints that move at high speed are displayed so as to be difficult to see.

仮想カメラ情報保持部303は、同一タイムコードにおける仮想カメラパスを、マーカー座標算出部304に複数送信する。マーカー座標算出部304におけるマーカー表示の変更処理フローを図14に示す。S201にて仮想カメラ情報として座標と速度を複数取得する。S202にて、マーカーの表示設定に記載される距離しきい値(半径2m)と、数量しきい値(=10)を取得し、受信した複数の仮想カメラ同士が2m以内に10個以上存在するか判別する。Noの場合はS204へ進む。Yesの場合はS203において互いに2m以内にある仮想カメラの集合の重心を代表点として決定し、代表点に対してのみマーカーを表示する。この際、代表点であることを示すために色やマーカー種別を変更してもよいし、集合の要素数をテキストで表示してもよい。S204にて、マーカーの表示設定に記載される最低速度しきい値(2m/s)、最大速度しきい値(10m/s)、最大透過量(90%)に基づき、2~10m/sの速度の仮想カメラの透過量を線形に変更して決定する。なお、0~2m/sは透過量0%、10m/s以上は透過量90%とする。透過量の決定方法はこれに限らない。また、透過に限らず、明度、彩度などを変更することで仮想カメラの速度が速いほど視認しにくくなるようにマーカー表示を変更してもよい。 The virtual camera information holding unit 303 transmits a plurality of virtual camera paths in the same time code to the marker coordinate calculation unit 304. FIG. 14 shows a flow of changing the marker display in the marker coordinate calculation unit 304. Acquire a plurality of coordinates and velocities as virtual camera information in S201. In S202, the distance threshold value (radius 2 m) and the quantity threshold value (= 10) described in the marker display setting are acquired, and there are 10 or more of the received virtual cameras within 2 m. To determine. If No, the process proceeds to S204. In the case of Yes, the center of gravity of a set of virtual cameras within 2 m from each other is determined as a representative point in S203, and the marker is displayed only for the representative point. At this time, the color or marker type may be changed to indicate that the point is a representative point, or the number of elements of the set may be displayed as text. In S204, 2 to 10 m / s based on the minimum speed threshold value (2 m / s), the maximum speed threshold value (10 m / s), and the maximum transmission amount (90%) described in the marker display setting. Determined by linearly changing the transmission amount of the speed virtual camera. The transmittance of 0 to 2 m / s is 0%, and the transmittance of 10 m / s or more is 90%. The method for determining the amount of transmission is not limited to this. Further, not limited to transparency, the marker display may be changed so that the faster the speed of the virtual camera, the harder it is to see by changing the brightness, saturation, and the like.

これにより、被写体は仮想視点の数が多い場合にも、演技に集中することができる。 As a result, the subject can concentrate on acting even when the number of virtual viewpoints is large.

また、本変形例の効果として、被写体の撮影からマーカーの表示までに遅延がある場合に、素早く動く仮想カメラの遅延による位置のずれをマーカーの透過により視認しにくくする。そして素早く動かない仮想カメラは遅延による位置のずれが比較的少なく、透過せずに視認しやすくすることができる。 Further, as an effect of this modification, when there is a delay from the shooting of the subject to the display of the marker, the displacement of the position due to the delay of the virtual camera that moves quickly is made difficult to be visually recognized by the transparency of the marker. A virtual camera that does not move quickly has relatively little displacement due to delay, and can be easily viewed without being transmitted.

[第2の実施形態]
先述した第1の実施形態及びその変形例においては、被写体が視認するマーカーの位置は、仮想カメラパラメータのうち、仮想カメラの位置に対して目線(視線)が合うように構成したものであった。マーカーが表現する内容は、上述したものに限定されるものではない。
[Second Embodiment]
In the first embodiment and its modification described above, the position of the marker visually recognized by the subject is configured so that the line of sight (line of sight) matches the position of the virtual camera among the virtual camera parameters. .. The content expressed by the marker is not limited to the above.

本第2の実施形態においては、表示するマーカーは仮想カメラパラメータに関連するものの、仮想カメラに目線を合わせるのではなく、被写体が目線を合わせたい位置(被写体の目線を向けたい位置)を示す。このような構成にすることによって、被写体がマーカーに向けた視線のシーンを仮想カメラで捉えた映像として生成することが可能となる。 In the second embodiment, although the marker to be displayed is related to the virtual camera parameter, it indicates the position where the subject wants to align the line of sight (the position where the subject's line of sight is desired to be directed) instead of aligning the line of sight with the virtual camera. With such a configuration, it is possible to generate a scene of the line of sight of the subject toward the marker as an image captured by a virtual camera.

図5(a)は、本実施形態を説明するための図である。図中のマーカー51は、先述したように被写体が目線を合わせたい位置(被写体に目線を合わせて欲しい位置)を示している。本実施形態のマーカーの種類は、第1の実施形態とは異なる。このため、マーカーの種類の切り替えは、ユーザ端末4のマーカー情報発信部405が発信するマーカー種別パラメータ情報によって行われる。 FIG. 5A is a diagram for explaining the present embodiment. As described above, the marker 51 in the figure indicates a position where the subject wants to align his / her line of sight (a position where he / she wants to align his / her line of sight with the subject). The type of marker of this embodiment is different from that of the first embodiment. Therefore, the marker type is switched by the marker type parameter information transmitted by the marker information transmission unit 405 of the user terminal 4.

図中の参照符号52aおよび52bは、仮想カメラで、被写体24は実際には視認できないが、マーカー51に視線を合わせた映像を仮想カメラで捉えた映像が生成できる。 Reference numerals 52a and 52b in the figure are virtual cameras, and although the subject 24 is not actually visible, it is possible to generate an image obtained by capturing an image in which the line of sight is aligned with the marker 51 by the virtual camera.

図5(b)は、仮想カメラとマーカーの位置関係を模式的に示した図である。本実施形態における仮想カメラとマーカーの位置関係は、あらかじめ設定ファイルとして、マーカー情報発信部405において定義される。設定ファイルには、例えば、仮想カメラパス55と対応するマーカー53が、それぞれ被写体の顔との延長線とにおいて、なす角度57として定義される。このように、ある目標に視線を向けている被写体の映像を様々なアングルからの映像として、自由視点映像の作成が可能となる。 FIG. 5B is a diagram schematically showing the positional relationship between the virtual camera and the marker. The positional relationship between the virtual camera and the marker in the present embodiment is defined in advance in the marker information transmission unit 405 as a setting file. In the setting file, for example, the virtual camera path 55 and the corresponding marker 53 are defined as an angle 57 formed by an extension line with the face of the subject. In this way, it is possible to create a free-viewpoint image by using an image of a subject whose line of sight is directed at a certain target as an image from various angles.

[第3の実施形態]
第1の実施形態及び変形例、並びに、第2の実施形態において、マーカーは、プロジェクタでスクリーンに投影することによって、被写体に視認可能な構成としていた。しかしながら、仮設のスタジオや、撮影ロケーション先で自由視点映像を生成する場合には、必ずしもスクリーンを構成できない場合が考えられる。そこで、本実施形態においては、カメラを搭載する取付部材にインジケータを用意して、そのインジケータの表示の仕方で、仮想カメラの位置を被写体に認識させる構成としている。
[Third Embodiment]
In the first embodiment and the modification, and the second embodiment, the marker is configured to be visible to the subject by projecting it on the screen with a projector. However, when generating a free-viewpoint image in a temporary studio or a shooting location, it may not always be possible to configure the screen. Therefore, in the present embodiment, an indicator is prepared on the mounting member on which the camera is mounted, and the position of the virtual camera is recognized by the subject by the display method of the indicator.

図6を用いて、本第3の実施形態について説明する。実空間において被写体を囲むように配置された取付部材62a~62cには、カメラ61a~61cが搭載されている。これら取付部材には、インジケータが設けられており、高さ方向の点灯位置や点滅速度、表示色などが、マーカー制御部503によって制御される。図中の参照符号64は、仮想カメラの位置を示しており、被写体には直接視認ができない。しかし、被写体は、インジケータの表示によって、概略の仮想カメラの位置が認識可能となる。例えば、いまインジケータ63aと63bが点灯している場合、仮想カメラの位置は、実カメラ61aと61bの間にあり、かつ、概略インジケータの高さにあることが認識可能となる。さらには、インジケータ63aが点滅する場合、仮想カメラの位置は、実カメラ61aに近い側にある、ということが、認識可能となる。 The third embodiment will be described with reference to FIG. The cameras 61a to 61c are mounted on the mounting members 62a to 62c arranged so as to surround the subject in the real space. Indicators are provided on these mounting members, and the lighting position, blinking speed, display color, etc. in the height direction are controlled by the marker control unit 503. Reference numeral 64 in the figure indicates the position of the virtual camera and cannot be directly seen by the subject. However, the subject can recognize the approximate position of the virtual camera by displaying the indicator. For example, when the indicators 63a and 63b are lit now, it can be recognized that the position of the virtual camera is between the actual cameras 61a and 61b and is at the height of the approximate indicator. Further, when the indicator 63a blinks, it can be recognized that the position of the virtual camera is on the side closer to the actual camera 61a.

このように、実カメラの取付部材にインジケータを構成することで、概略仮想カメラ位置を被写体が認識可能な構成とすることができる。 In this way, by configuring the indicator on the mounting member of the actual camera, the approximate virtual camera position can be configured so that the subject can recognize it.

本第3の実施形態を採用する場合、図1におけるマーカー出力装置5が、インジケータの表示の制御を行うことになる。 When the third embodiment is adopted, the marker output device 5 in FIG. 1 controls the display of the indicator.

[第4の実施形態]
先述した各実施形態(変形例を含む)においては、マーカーの提示は、実空間の中で仮想カメラの位置を2次元的に表示するマーカーで表現していた。本実施形態では、3次元的にすなわち仮想カメラの位置そのものを被写体に視認可能に提示する構成について説明する。
[Fourth Embodiment]
In each of the above-described embodiments (including modified examples), the marker presentation is represented by a marker that displays the position of the virtual camera two-dimensionally in the real space. In this embodiment, a configuration is described in which the position itself of the virtual camera is three-dimensionally presented to the subject so as to be visible.

本第4の実施形態におけるマーカーは、例えば、ドローンなどのホバーリング機能を有する自立飛行可能な飛翔装置を用いる。本実施形態のマーカーは、動力を有し飛行可能でかつ、座標値を制御可能な構成であれば、どのようなものを用いてもよい。すなわち、本実施形態のマーカーは、マーカー制御部503が出力する仮想カメラ位置座標を実空間の世界座標値として、受け取ってその位置に飛行するものである。なお、マーカーは複数あってもよい。 As the marker in the fourth embodiment, for example, a flying device capable of self-sustaining flight having a hovering function such as a drone is used. As the marker of the present embodiment, any marker may be used as long as it has a power, can fly, and has a configuration in which the coordinate values can be controlled. That is, the marker of the present embodiment receives the virtual camera position coordinates output by the marker control unit 503 as the world coordinate values in the real space and flies to the position. There may be a plurality of markers.

マーカーは、例えば、図7に示したように、飛行物体71が、仮想カメラの視線方向がわかるような目印(図示では矢印表示72や側面のマーキング73)を有する構成となっている。 As shown in FIG. 7, for example, the marker has a configuration in which the flying object 71 has a mark (in the figure, an arrow display 72 and a side marking 73) so that the line-of-sight direction of the virtual camera can be understood.

このように構成することで、被写体は、仮想カメラの位置を認識可能となる。なお、マーカーが複数あって、自由視点映像を生成する場合に、このマーカーが仮想カメラの画角に入る場合がある。しかし、仮想カメラの位置およびマーカーの形状があらかじめ分かっているので、映像としては、マーカーを消去して自由視点映像を生成することが可能である。このとき、マーカーの座標をカメラ21のそれぞれに投影し、カメラ映像上の投影座標をモデル生成やレンダリング処理から除外することでマーカーの像がモデル生成およびレンダリングに影響を及ぼすことを防ぐ。そのほか、当該位置の対象となる領域を周囲と同様のテクスチャとスムージングして合成処理することによって消去してもよいし、あらかじめ背景と同じ色でマーカーを表示することによって消去してもよい。

[第4の実施形態の変形例]
上述の第4の実施形態ではドローンを用いたが、そのほかの3次元的に表示できるデバイスを用いて仮想カメラの位置や姿勢を表示してもよい。例えばプラズマを励起させることで空気を発光させるエアリアルディスプレイや、アナグリフ、偏光シャッター方式の3Dディスプレイ、AR表示可能なホロレンズなどの眼鏡型あるいはコンタクトレンズ型デバイスなどがある。いずれもマーカーの3次元モデルを仮想空間において被写体の左右それぞれの目の座標に投影し、各デバイスで表示するための映像を生成することで被写体に対して仮想カメラを3次元的に表示することができる。また、仮想カメラが複数ある場合に各デバイスごとに表示するマーカーを制御し、被写体ごとに特定の仮想カメラを認識しやすくしてもよい。
With this configuration, the subject can recognize the position of the virtual camera. When there are a plurality of markers and a free viewpoint image is generated, these markers may be included in the angle of view of the virtual camera. However, since the position of the virtual camera and the shape of the marker are known in advance, it is possible to erase the marker and generate a free viewpoint image as an image. At this time, the coordinates of the marker are projected on each of the cameras 21 and the projected coordinates on the camera image are excluded from the model generation and rendering processing to prevent the image of the marker from affecting the model generation and rendering. In addition, the target area at the position may be erased by smoothing it with the same texture as the surroundings and performing a composite process, or by displaying a marker in the same color as the background in advance.

[Variation example of the fourth embodiment]
Although the drone is used in the above-mentioned fourth embodiment, the position and posture of the virtual camera may be displayed by using another device that can display three-dimensionally. For example, there are aerial displays that emit air by exciting plasma, anaglyphs, polarized shutter type 3D displays, and eyeglass-type or contact lens-type devices such as holo lenses that can display AR. In each case, the virtual camera is displayed three-dimensionally on the subject by projecting a three-dimensional model of the marker on the coordinates of the left and right eyes of the subject in the virtual space and generating an image to be displayed on each device. Can be done. Further, when there are a plurality of virtual cameras, the marker displayed for each device may be controlled to make it easier to recognize a specific virtual camera for each subject.

これにより、被写体はドローンに接触する危険性を回避しながら立体的に仮想カメラの位置や姿勢を視認できる。 As a result, the subject can visually recognize the position and posture of the virtual camera three-dimensionally while avoiding the danger of contacting the drone.

[第5の実施形態]
先述した実施形態においては、マーカーは、被写体の視線に関連した情報を示していた。実空間の中で、被写体が演じる場合には、必ずしも視線が何かに合っている必要が無い場合もある。その場合、実空間上である位置に被写体が立ち、演目を演じるとき、その立ち位置を被写体に認識させたい場合がある。本第5の実施形態においては、マーカーの表示を床面に投影する。被写体は、床面に表示された内容に基づき、仮想カメラに連動した立ち位置を認識可能となる。
[Fifth Embodiment]
In the embodiments described above, the marker indicates information related to the line of sight of the subject. When the subject plays in real space, it may not always be necessary for the line of sight to match something. In that case, when the subject stands at a position in the real space and the performance is performed, the subject may want to recognize the standing position. In the fifth embodiment, the display of the marker is projected on the floor surface. The subject can recognize the standing position linked to the virtual camera based on the content displayed on the floor surface.

本実施形態の構成を図8に示す。プロジェクタ83は、自由雲台84に取付けられており、投影位置はパン角、チルト角、ズーム倍率によって制御が可能な構成となっている。また、表示内容86としては、立ち位置、移動方向などを表示する。また、マーカーの表示位置、表示内容は、マーカー情報発信部405で定義される設定ファイルによって、仮想カメラ位置とマーカー位置が制御されることになる。このように構成することによって、例えば、ある立ち位置から別の立ち位置に移動する様子を仮想カメラで捉えたような自由視点映像を生成することが可能となる。 The configuration of this embodiment is shown in FIG. The projector 83 is attached to a free platform 84, and the projection position can be controlled by a pan angle, a tilt angle, and a zoom magnification. Further, as the display content 86, a standing position, a moving direction, and the like are displayed. Further, the display position and display contents of the marker are controlled by the virtual camera position and the marker position by the setting file defined by the marker information transmission unit 405. With such a configuration, it is possible to generate, for example, a free-viewpoint image in which a virtual camera captures a movement from one standing position to another.

これまで、説明してきた実施形態においては、撮影時に被写体がマーカーの位置を視認する構成であったが、必ずしもその構成に限定はされるわけではない。例えば、上述したような、マーカー位置をアーカイブ映像にも重畳することで、撮影時にだけ使用する構成に限定せず、視聴する側においても、仮想カメラと視線の関係がわかるような表示にしてもよい。 In the embodiments described so far, the subject has been configured to visually recognize the position of the marker at the time of shooting, but the configuration is not necessarily limited. For example, by superimposing the marker position on the archive video as described above, the display is not limited to the configuration used only at the time of shooting, and the viewer can also see the relationship between the virtual camera and the line of sight. good.

上記を実現するためには、仮想視点ごとにストリームを複数用意しておくことで実現できる。さらには、実空間を俯瞰する映像を用意しておき、マーカーの位置をインタラクション可能な構成にしておくことで、ユーザは、カメラ位置を切り替えて、自由視点映像を参照することが可能となる。 In order to realize the above, it can be realized by preparing multiple streams for each virtual viewpoint. Furthermore, by preparing an image that gives a bird's-eye view of the real space and making the position of the marker interactable, the user can switch the camera position and refer to the free viewpoint image.

また、複数のカメラが撮影した画像をアーカイブ映像として保持し、後日操作者が自由視点映像を生成する場合に、被写体の顔位置(視線)を検出し、仮想空間中の当該延長線上の位置にマーカーを表示してもよい。このように構成することによって、自由視点映像の画角を決定する際、操作者の操作性が向上する。 In addition, images taken by multiple cameras are retained as archived images, and when the operator later generates free-viewpoint images, the face position (line of sight) of the subject is detected and the position on the extension line in the virtual space is reached. Markers may be displayed. With such a configuration, the operability of the operator is improved when determining the angle of view of the free viewpoint image.

また、これまで説明してきた実施形態におけるマーカーは、各カメラが撮影する画像に当然映り込むため、生成する自由視点映像においては邪魔になる場合も考えられる。しかしながら、仮想空間上でマーカーの表示位置、色、形状等は既知であるので、当該位置の対象となる領域を周囲と同様のテクスチャとスムージングして合成処理することによって消去可能である。また、あらかじめ背景と同じ色でマーカーを表示することによっても上述のように簡易的に解決可能である。 Further, since the markers in the embodiments described so far are naturally reflected in the images taken by each camera, they may be an obstacle in the generated free-viewpoint image. However, since the display position, color, shape, etc. of the marker are known in the virtual space, it can be erased by smoothing the target area of the marker with the same texture as the surroundings and performing a composite process. Further, it can be easily solved as described above by displaying the marker in the same color as the background in advance.

(その他の実施例)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present disclosure supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。 The invention is not limited to the above embodiment, and various modifications and modifications can be made without departing from the spirit and scope of the invention.

1…多視点映像保持部、2…被写体情報保持部、3…画像処理装置、301…仮想視点画像生成部、302…仮想カメラパス算出部、303…仮想カメラ情報保持部、304…マーカー座標算出部、305…表示画像生成部、306…装置通信部、4…ユーザ端末、401…端末通信部、402…画像表示部、403…仮想カメラパス指示部、404…ユーザ情報発信部、405…マーカー情報発信部、5…マーカー出力装置、501…装置通信部、502…制御データ生成部、503…マーカー制御部、504…表示データ出力部 1 ... Multi-viewpoint image holding unit, 2 ... Subject information holding unit, 3 ... Image processing device, 301 ... Virtual viewpoint image generation unit, 302 ... Virtual camera path calculation unit, 303 ... Virtual camera information holding unit, 304 ... Marker coordinate calculation Unit, 305 ... Display image generation unit, 306 ... Device communication unit, 4 ... User terminal, 401 ... Terminal communication unit, 402 ... Image display unit, 403 ... Virtual camera path indicator unit, 404 ... User information transmission unit, 405 ... Marker Information transmission unit, 5 ... Marker output device, 501 ... Device communication unit, 502 ... Control data generation unit, 503 ... Marker control unit, 504 ... Display data output unit

Claims (19)

仮想視点からの見えを表す仮想視点画像を生成するための処理システムであって、
被写体を含む空間を撮影する複数の撮影手段と、
前記空間において、前記被写体の向きを決定するための提示を行う提示手段と、を有する処理システム。
It is a processing system for generating a virtual viewpoint image that represents the appearance from a virtual viewpoint.
Multiple shooting methods for shooting the space including the subject,
A processing system comprising a presentation means for presenting to determine the orientation of the subject in the space.
前記仮想視点の位置を特定する特定手段と、
前記提示手段は、前記特定手段により特定された前記仮想視点の位置に基づいて、前記空間において、前記被写体の向きを決定するための提示を行うことを特徴とする請求項1に記載の処理システム。
Specific means for specifying the position of the virtual viewpoint and
The processing system according to claim 1, wherein the presenting means makes a presentation for determining the direction of the subject in the space based on the position of the virtual viewpoint specified by the specific means. ..
前記複数の撮影手段及び投影のためのスクリーンが、前記被写体を囲むように配置されていて、
前記提示手段は、前記スクリーンに前記被写体の向きを決定するための情報を投影する
ことを特徴とする請求項1又は2に記載の処理システム。
The plurality of photographing means and a screen for projection are arranged so as to surround the subject.
The processing system according to claim 1 or 2, wherein the presentation means projects information for determining the orientation of the subject on the screen.
前記提示手段は、前記被写体と前記仮想視点とを結ぶ延長線と、前記スクリーンとの交点の位置に、前記被写体の向きを決定するための情報を投影することを特徴とする請求項3に記載の処理システム。 The third aspect of the present invention is characterized in that the presenting means projects information for determining the orientation of the subject at a position of an intersection of an extension line connecting the subject and the virtual viewpoint and the screen. Processing system. 前記提示手段は、前記被写体と前記仮想視点とを結ぶ延長線に対して所定の方向にずれた線と前記スクリーンとの交点の位置を、前記被写体の向きを決定するための情報を投影することを特徴とする請求項3に記載の処理システム。 The presenting means projects information for determining the orientation of the subject at the position of the intersection of the screen and the line deviated in a predetermined direction with respect to the extension line connecting the subject and the virtual viewpoint. The processing system according to claim 3. 前記提示手段は、前記被写体と前記仮想視点との間の距離に応じたサイズで被写体の向きを決定するための情報を提示することを特徴とする請求項1乃至5のいずれか1項に記載の処理システム。 The presenting means according to any one of claims 1 to 5, wherein the presenting means presents information for determining the orientation of the subject in a size corresponding to the distance between the subject and the virtual viewpoint. Processing system. 前記複数の撮影手段は、高さ方向の位置に対して設定された位置を点灯するインジケータを持つ取付部材に取り付けられ、且つ、前記被写体を囲むように配置されていて、
前記提示手段は、前記被写体の目線を向けさせる位置を点灯する
ことを特徴とする請求項1又は2に記載の処理システム。
The plurality of photographing means are attached to a mounting member having an indicator that lights a position set with respect to a position in the height direction, and are arranged so as to surround the subject.
The processing system according to claim 1 or 2, wherein the presentation means lights a position at which the subject's line of sight is directed.
前記提示手段は、前記被写体の目線を向けさせる位置に、飛翔装置を位置させる手段であることを特徴とする請求項1又は2に記載の処理システム。 The processing system according to claim 1 or 2, wherein the presentation means is a means for locating the flight device at a position where the line of sight of the subject is directed. 前記飛翔装置は、仮想視点の視線方向を表す目印が設けられていることを特徴とする請求項8に記載の処理システム。 The processing system according to claim 8, wherein the flying device is provided with a mark indicating a line-of-sight direction of a virtual viewpoint. 前記提示手段は、パン角、チルト角を制御可能な取付部材に搭載されたプロジェクタのパン、チルト角を制御する手段であって、前記被写体の目線を向けさせる位置に応じた床に、前記被写体の向きを決定するための情報を投影する
ことを特徴とする請求項1又は2に記載の処理システム。
The presenting means is a means for controlling the pan and tilt angles of a projector mounted on a mounting member capable of controlling the pan angle and the tilt angle, and the subject is placed on a floor corresponding to a position where the subject's line of sight is directed. The processing system according to claim 1 or 2, wherein the processing system is characterized by projecting information for determining the orientation of the.
前記提示手段は、前記仮想視点の位置に、前記被写体の向きを決定するための情報を提示することを特徴とする請求項1乃至10のいずれか1項に記載の処理システム。 The processing system according to any one of claims 1 to 10, wherein the presenting means presents information for determining the orientation of the subject at the position of the virtual viewpoint. 前記提示手段は、前記仮想視点の位置とは異なる位置であって、前記被写体を向ける方向における位置に、前記被写体の向きを決定するための情報を提示することを特徴とする請求項1乃至10のいずれか1項に記載の処理システム。 Claims 1 to 10 are characterized in that the presenting means presents information for determining the direction of the subject at a position different from the position of the virtual viewpoint and at a position in a direction in which the subject is directed. The processing system according to any one of the above. 前記被写体の向きとは、前記被写体である人物の顔の向きであることを特徴とする請求項1乃至12のいずれか1項に記載の処理システム。 The processing system according to any one of claims 1 to 12, wherein the orientation of the subject is the orientation of the face of the person who is the subject. 前記被写体の向きとは、前記被写体である人物の目線の向きであることを特徴とする請求項1乃至12のいずれか1項に記載の処理システム。 The processing system according to any one of claims 1 to 12, wherein the orientation of the subject is the orientation of the line of sight of the person who is the subject. 前記仮想視点を指定するための指定手段、及び、前記仮想視点画像を表示する表示手段を有するユーザ端末と、
前記仮想視点画像を生成すると画像処理装置と、
前記提示手段を有する提示装置と
を有することを特徴とする請求項1乃至14のいずれか1項に記載の処理システム。
A user terminal having a designation means for designating the virtual viewpoint and a display means for displaying the virtual viewpoint image, and
When the virtual viewpoint image is generated, the image processing device and
The processing system according to any one of claims 1 to 14, further comprising a presentation device having the presentation means.
前記提示手段は、仮想視点画像を提示することを特徴とする請求項1乃至15のいずれか1項に記載の処理システム。 The processing system according to any one of claims 1 to 15, wherein the presentation means presents a virtual viewpoint image. 前記提示手段は、前記仮想視点の数または速度に応じて色または形状を制御することを特徴とする請求項1乃至16のいずれか1項に記載の処理システム。 The processing system according to any one of claims 1 to 16, wherein the presenting means controls a color or a shape according to the number or speed of the virtual viewpoints. 仮想視点からの見えを表す仮想視点画像を生成するための処理システムの制御方法であって、
被写体を含む空間を複数の撮影手段により撮影する工程と、前記空間において、前記被写体の向きを決定するための提示を行う提示工程と、
を有することを特徴とする制御方法。
It is a control method of a processing system for generating a virtual viewpoint image that represents the appearance from a virtual viewpoint.
A step of photographing a space including a subject by a plurality of photographing means, a presenting step of presenting for determining the orientation of the subject in the space, and a presentation step.
A control method characterized by having.
コンピュータに、請求項18に記載の方法の各工程を実行させるためのプログラム。 A program for causing a computer to perform each step of the method according to claim 18.
JP2021075358A 2020-09-17 2021-04-27 Processing system, control method therefor, and program Pending JP2022050305A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/471,200 US11917117B2 (en) 2020-09-17 2021-09-10 Processing system, processing method and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020156622 2020-09-17
JP2020156622 2020-09-17

Publications (2)

Publication Number Publication Date
JP2022050305A true JP2022050305A (en) 2022-03-30
JP2022050305A5 JP2022050305A5 (en) 2024-05-02

Family

ID=80854354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021075358A Pending JP2022050305A (en) 2020-09-17 2021-04-27 Processing system, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP2022050305A (en)

Similar Documents

Publication Publication Date Title
US11301199B2 (en) Multi-viewpoint switched shooting system and method
JP7146662B2 (en) Image processing device, image processing method, and program
CN111447340A (en) Mixed reality virtual preview shooting system
JP5861499B2 (en) Movie presentation device
US20040041822A1 (en) Image processing apparatus, image processing method, studio apparatus, storage medium, and program
CN112330736A (en) Scene picture shooting method and device, electronic equipment and storage medium
KR20140100525A (en) System for filming a video movie
JP7237538B2 (en) Information processing device, system including the same, information processing method, and program
JP7446754B2 (en) Image processing device, image processing method, and program
WO2020050103A1 (en) Virtual viewpoint control device and method for controlling same
CN114953463A (en) Information processing apparatus, information processing method, and storage medium
CN105991972A (en) Aerial photographing system
JP2022050305A (en) Processing system, control method therefor, and program
US11847735B2 (en) Information processing apparatus, information processing method, and recording medium
JP2020102687A (en) Information processing apparatus, image processing apparatus, image processing method, and program
US11917117B2 (en) Processing system, processing method and non-transitory computer-readable storage medium
CN212231547U (en) Mixed reality virtual preview shooting system
JP2002271694A (en) Image processing method, image processing unit, studio device, storage medium and program
JP2022012398A (en) Information processor, information processing method, and program
WO2018235762A1 (en) Display control device, display control method, and program
WO2024070761A1 (en) Information processing device, information processing method, and program
WO2024070762A1 (en) Information processing device, information processing method, and program
JP7494153B2 (en) Generation device, generation method, and program
WO2022220306A1 (en) Video display system, information processing device, information processing method, and program
US11682175B2 (en) Previsualization devices and systems for the film industry

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240423