JP2022050305A - Processing system, control method therefor, and program - Google Patents
Processing system, control method therefor, and program Download PDFInfo
- Publication number
- JP2022050305A JP2022050305A JP2021075358A JP2021075358A JP2022050305A JP 2022050305 A JP2022050305 A JP 2022050305A JP 2021075358 A JP2021075358 A JP 2021075358A JP 2021075358 A JP2021075358 A JP 2021075358A JP 2022050305 A JP2022050305 A JP 2022050305A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- processing system
- marker
- virtual viewpoint
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 64
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000003550 marker Substances 0.000 description 166
- 238000004891 communication Methods 0.000 description 22
- 230000005540 biological transmission Effects 0.000 description 16
- 230000010365 information processing Effects 0.000 description 13
- 230000004048 modification Effects 0.000 description 13
- 238000012986 modification Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 3
- 238000002834 transmittance Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Studio Devices (AREA)
- Projection Apparatus (AREA)
Abstract
Description
本開示は、処理システム及びその制御方法及びプログラムに関するものである。 The present disclosure relates to a processing system and its control method and program.
昨今、異なる位置に設置して複数のカメラによる同期撮影を行い、当該撮影により得られた複数視点画像を用いて仮想視点コンテンツを生成する技術が注目されている。このような技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来るため、通常の画像と比較してユーザに高臨場感を与えることができる。 Recently, attention has been paid to a technique of installing virtual viewpoint contents at different positions, performing synchronous shooting with a plurality of cameras, and generating virtual viewpoint contents using the multi-viewpoint images obtained by the shooting. According to such a technique, for example, a highlight scene of soccer or basketball can be viewed from various angles, so that a user can be given a high sense of presence as compared with a normal image.
特許文献1には、被写体を取り囲むように複数のカメラを配置し、これら複数のカメラで撮影した被写体の画像を用いて任意の視点の画像を生成する技術が開示されている。 Patent Document 1 discloses a technique in which a plurality of cameras are arranged so as to surround a subject, and an image of an arbitrary viewpoint is generated using images of the subject taken by the plurality of cameras.
従来から、いわゆるタリー(タリーランプ、タリーライト)がある。タリーとは、テレビカメラなどに付いている赤いランプで、その機器が使用されているときに点灯し、通常スイッチャー等と連動する。出演者(被写体)が、自分が今撮られていることが分かるのでセリフやアクションのきっかけに使える。 Traditionally, there are so-called tally (tally lamps, tally lights). A tally is a red lamp attached to a TV camera or the like, which lights up when the device is in use and normally works with a switcher or the like. The performer (subject) knows that he or she is being photographed, so it can be used as a trigger for dialogue or action.
しかしながら、上述した仮想視点コンテンツを生成するシステムにおいては、仮想視点の位置には実際のカメラ(実カメラ)は無い。そのため、例えばスタジオで撮影を行う場合など、演者は、どこに目線を向けてよいかわからないため、演出面での制限が生じたりする。 However, in the system that generates the virtual viewpoint content described above, there is no actual camera (real camera) at the position of the virtual viewpoint. Therefore, for example, when shooting in a studio, the performer does not know where to look, which may limit the production.
本開示は上記問題に鑑みてなされたものであり、仮想視点画像の生成に用いられる画像の撮影において、被写体(演者)の支援を行う技術を提供しようとするものである。 The present disclosure has been made in view of the above problems, and is an object of the present invention to provide a technique for supporting a subject (performer) in taking an image used for generating a virtual viewpoint image.
この課題を解決するため、例えば本開示の処理システムは以下の構成を備える。すなわち、
仮想視点からの見えを表す仮想視点画像を生成するための処理システムであって、
被写体を含む空間を撮影する複数の撮影手段と、
前記空間において、前記被写体の向きを決定するための提示を行う提示手段と、を有する。
In order to solve this problem, for example, the processing system of the present disclosure has the following configuration. That is,
It is a processing system for generating a virtual viewpoint image that represents the appearance from a virtual viewpoint.
Multiple shooting methods for shooting the space including the subject,
In the space, the presenting means for making a presentation for determining the direction of the subject is provided.
本開示によれば、仮想視点画像の生成に用いられる画像の撮影において、被写体(演者)の支援を行う技術を提供することができる。 According to the present disclosure, it is possible to provide a technique for supporting a subject (performer) in shooting an image used for generating a virtual viewpoint image.
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential for the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are given the same reference numbers, and duplicate explanations are omitted.
[第1の実施形態]
競技場(スタジアム)やコンサートホール、スタジオなどの施設に複数のカメラを設置し撮影を行うシステムについて、図1を用いて説明する。
[First Embodiment]
A system for taking pictures by installing a plurality of cameras in facilities such as a stadium, a concert hall, and a studio will be described with reference to FIG.
図1は、第1の実施形態が適用される画像処理システム100の全体構成図である。本システム100は、撮影装置1、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5を有し、これはネットワークを介して接続されているものとする。なお、ネットワークは、有線、無線を問わない。
FIG. 1 is an overall configuration diagram of an
上記構成において、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5は、パーソナルコンピュータ(PC)に代表される情報処理装置と、その情報処理装置上で実行するアプリケーションプログラムにより実現できる。図9は、その情報処理装置200のハードウェアブロック構成図である。情報処理装置200は、CPU211、ROM212、RAM213、補助記憶装置214、表示装置215、操作部216、通信インタフェース(I/F)217を有し、これらがシステムバス218に接続される構造を有する。本装置の電源がONになると、CPU211はROM212のブートプログラムを実行し、補助記憶装置214(例えばハードディスク)からOS(オペレーティングシステム)をRAM213にロードし、OSを実行する。この結果、情報処理装置200は、操作部26を介してユーザからの各種指示を入力し、対応する処理を実行可能となる。更に、CPU211がOSの制御下で、補助記憶装置214に予め格納されているアプリケーションプログラムを実行することができる。例えば、そのアプリケーションプログラムの種類によっては、この情報処理装置200が、実空間情報保持装置2、画像処理装置3、ユーザ端末4、或いは、マーカー出力装置5として機能する。例えば、情報処理装置200が画像処理装置3として機能する場合、通信I/F217は、ネットワーク(ユーザ端末4、マーカー出力装置5と通信するため)、並びに、撮影装置1、実空間情報保持装置2と通信可能に接続されていることになる。また、情報処理装置200がマーカー出力装置5として機能する場合には、通信I/F217には、ネットワーク(ユーザ端末4、マーカー出力装置と通信するため)、並びに、プロジェクタが接続されていることになる。情報処理装置200が実空間情報保持装置2として機能する場合には、補助記憶装置214には、実空間情報(詳細後述)が格納された上で、ファイルサーバとして機能する機能させればよい。
In the above configuration, the real space information holding device 2, the image processing device 3, the user terminal 4, and the
撮影装置1は、競技フィールドやスタジオ等を取り囲むように設置された複数台のカメラで構成され、それらは互いに同期撮影して得た画像を画像処理装置3に送信する。 The photographing device 1 is composed of a plurality of cameras installed so as to surround the competition field, the studio, etc., and they transmit images obtained by synchronously photographing each other to the image processing device 3.
実空間情報保持装置2は、被写体(演者)を含む所定範囲の空間に関する情報を保持する。具体的には、競技場のフィールドや観客席など、あるいはスタジオの設備など、仮想視点画像内に背景として映りこむ物体(背景オブジェクト)の3次元モデル情報や、仮想視点を設定可能な範囲を示す3次元空間情報、並びに、撮影装置1それぞれの設置位置や撮影方向、焦点距離等である。この実空間情報保持装置2に保持された情報は、画像処理装置3が仮想視点画像を生成する際に参照されるものであるので、画像処理装置3内に設けられるようにしても良い。 The real space information holding device 2 holds information about a predetermined range of space including the subject (performer). Specifically, it shows the 3D model information of an object (background object) reflected as a background in a virtual viewpoint image such as a field of a stadium, spectator seats, or equipment of a studio, and a range in which a virtual viewpoint can be set. Three-dimensional spatial information, as well as the installation position, shooting direction, focal length, etc. of each of the photographing devices 1. Since the information held in the real space information holding device 2 is referred to when the image processing device 3 generates a virtual viewpoint image, it may be provided in the image processing device 3.
画像処理装置3は、仮想視点画像生成部301、仮想カメラパス算出部302、仮想カメラパス情報保持部303、マーカー座標算出部304、表示画像生成部305、通信部306を有している。
The image processing device 3 has a virtual viewpoint
仮想視点画像生成部301は、撮影装置1から取得した複数視点の画像をもとに、前景オブジェクトの3次元モデルを生成する。そして、仮想視点画像生成部301は、生成した前景3次元モデルおよび、実空間情報保持装置2から得た背景3次元モデルに対し、仮想カメラパス算出部302から取得した仮想視点に合わせたテクスチャをマッピングし、レンダリングを行うことにより、仮想視点画像を生成する。この生成の過程で、仮想視点画像生成部301は、生成しようとする仮想視点画像に映りこむ前景オブジェクトおよび背景オブジェクトの座標を算出し、当該座標についてのみのテクスチャマッピング、レンダリングを実行する。この座標値を仮想視点画像生成部301は、被写体前景座標、実空間背景座標として後述の仮想カメラパス情報保持部303に受け渡す。
The virtual viewpoint
仮想カメラパス算出部302は、ユーザ端末4の仮想カメラパス指示部403に対するユーザの指示内容に基づき、時間的に連続する仮想カメラパスパラメータを算出する。仮想カメラパラメータとは、少なくとも仮想カメラの位置、向き(注視方向)および画角(焦点距離)であり、撮影シーン中のどの瞬間のパラメータであるか特定できるよう、複数視点画像に付されたフレーム番号ないしタイムコードと関連づけられている。この算出の際には、実空間情報保持部2から得た実空間情報を参照し、仮想視点を設定可能な範囲に仮想カメラパスを設定する。
The virtual camera
仮想カメラ情報保持部303は、仮想視点画像生成部301から受け取った被写体前景座標および実空間背景座標、仮想カメラパス算出部302で算出された仮想カメラパスパラメータを蓄積していく。
The virtual camera
マーカー座標算出部304は、仮想カメラ情報保持部303に蓄積された仮想カメラに関する仮想カメラパラメータおよび実空間情報保持部2が保持する3次元空間情報(背景情報)に基づき、実空間に表示するマーカー情報の座標パラメータについて情報生成を行う。
The marker coordinate
表示画像生成部305は、ユーザ端末4の画像表示部402に表示される表示画像を生成する。ここで生成される表示画像は、仮想視点画像生成部301で生成された、仮想視点画像である。仮想視点画像は、仮想視点からの見えを表す画像である。
The display
通信部306は、画像処理装置3とユーザ端末4およびマーカー出力装置5の間で非図示のネットワーク等を介してやり取りされる。通信部306は、画像処理装置3とユーザ端末4の間では、画像、音声、テキストデータや、仮想視点画像を生成する際にユーザ側から送られる仮想カメラパス指示等の指示情報の送受信を行う。通信部306は、画像処理装置3とマーカー出力装置5の間では、マーカー表示に必要な座標情報、マーカーの形状、色、大きさ、表示情報等の表示パラメータの送受信を行う。
The
ユーザ端末4は、通信部401、画像表示部402、仮想カメラパス指示部403、ユーザ情報発信部404およびマーカー情報発信部405を有する。
The user terminal 4 has a
通信部401は、前述の装置通信部306との間で、前述のとおり種々の情報の送受信を行う。画像表示部402は、前述の表示画像生成部305で生成された画像を受け取り、表示する。仮想カメラパス指示部403は、ユーザから仮想カメラパスに対する指示を受け付け、通信部401、通信部306を介して、仮想カメラパス算出部302に渡す。ここでユーザは、必ずしも仮想カメラパラメータのすべてを、視聴したい全時間に対して厳密に指示する必要はない。たとえば特定の選手や演者などに注目した仮想視点画像を視聴したい、ボールの周囲ある一定の範囲を常に視聴したい、より注目すべきイベントが発生している箇所を視聴したい、など種々の観点に基づく指示を入力することも可能である。
The
ユーザ情報発信部404は、通信部401から通信部306に向けて送信される情報に対し、ユーザIDを始めとするユーザ情報を添付する。マーカー情報発信部405は、通信部401から通信部306に向けて送信される情報に対し、マーカーの種類(形状、色を含む)等のマーカー種別パラメータ情報を添付する。
The user
マーカー出力装置5は、通信部501、制御データ生成部502、マーカー制御部503、表示データ出力部504を有する。マーカー出力装置5は、被写体となる人物に対して認識可能なマーカーを表示(もしくは提示)する。なお、表示するマーカーは、仮想カメラパラメータに関連する位置に対して出力される。すなわち、仮想カメラパラメータと連動して、マーカーの位置がマーカー出力装置5によって制御される。
The
通信部501は、前述したように、画像処理装置3の装置通信部306とネットワーク等を介して、マーカー座標算出部304およびユーザ端末4とのやり取りを行う。
As described above, the
制御データ生成部502は、仮想視点画像生成部301、マーカー座標算出部304から出力されるデータと仮想カメラパス指示部403、マーカー情報発信部405から出力されるデータを統合し、マーカーの種別や表示更新時間、位置座標などの制御データを生成し、マーカー制御部503に出力する。
The control
マーカー制御部503は、マーカーの表示位置、大きさ、形状、表示内容などの表示パラメータに基づき、表示データ(スクリーン座標系)に変換し、表示データ出力部504に出力する。
The
表示データ出力部504は、プロジェクタなどの表示装置から構成されていて、マーカー制御部503の出力データに基づき、表示データが出力される。
The display
図2(a)は、本実施形態における画像処理システムにおける被写体を囲む現実空間の模式図である。本実施形態における画像処理システムは、被写体を含む所定範囲の実空間を取り囲むように複数のカメラ(撮影装置1)を有する。また、被写体(人間)が認識可能なマーカーを仮想カメラパス情報に基づく位置に表示するために、プロジェクタ(表示データ出力部504)を有する。 FIG. 2A is a schematic diagram of a real space surrounding a subject in the image processing system according to the present embodiment. The image processing system in the present embodiment has a plurality of cameras (shooting device 1) so as to surround a predetermined range of real space including a subject. Further, it has a projector (display data output unit 504) in order to display a marker recognizable by the subject (human) at a position based on virtual camera path information.
図示の画像処理システムは、円形のスタジオにて本構成を実施した場合の一例であり、カメラ21a~21f、プロジェクタ22a~22f、スクリーン23a~23fが被写体24を囲むように配置されている。画像処理装置3は、カメラ21a~21fが取得する複数視点画像から仮想視点画像を生成し、被写体24と仮想視点とを結ぶ延長線上のスクリーン上の座標をマーカー座標として算出する。そして、マーカー出力装置5は、そのマーカー座標を受け取り、該当するスクリーン上にマーカーを表示する。具体的には、マーカーの表示はプロジェクタ22a~22fによってスクリーンに投影され、プロジェクタ22aは、正面のスクリーン領域23eに投影する。同様に、プロジェクタ22bは、スクリーン領域23dに、プロジェクタ22cは、スクリーン領域23fに、プロジェクタ22dは、スクリーン領域23bにマーカーを表示する。また、プロジェクタ22eは、スクリーン領域23aに、プロジェクタ22fは、スクリーン領域23cにマーカーを表示する。なお、プロジェクタ22a~22fは、ネットワークで接続されており、表示データ出力部504が、表示すべきプロジェクタに表示データを送信するよう構成されている。スクリーンは、床面および天面にも構成され、床面スクリーン25には、プロジェクタ22bおよびプロジェクタ22eが投影を行う。また、天面スクリーン26には、プロジェクタ27aおよび27bが投影を行う。
The illustrated image processing system is an example of the case where the present configuration is implemented in a circular studio, and the
図2(b)は、図2(a)に示した本実施形態の円形スタジオの一部断面図である。上述したように、マーカーの表示は、プロジェクタによってスクリーンに投影される構成であり、プロジェクタ22は、スクリーン23および25に投影し、プロジェクタ27は、スクリーン26にユーザが設定した種類のマーカーを投影する。
FIG. 2B is a partial cross-sectional view of the circular studio of the present embodiment shown in FIG. 2A. As described above, the marker display is configured to be projected onto the screen by the projector, the
図3(a)は、図2(a)に示した画像処理システムから、一部の構成を抜き出した図である。仮想視点31は、ある仮想視点画像を生成したときの仮想カメラ位置を示している。また、マーカー32が、プロジェクタ22eによってスクリーン領域23aに投影されている。いま被写体24は、実際には、仮想カメラの位置(仮想視点31)は視認することはできないので、仮想カメラに視線を合わせようとする場合には、投影されているマーカー32を見ることになる。なお、マーカー32の投影位置は、被写体24の顔(目)と仮想視点31を結んだ延長上となるように、マーカー制御部503にて投影位置が制御される。また、被写体の顔から仮想視点31までの距離は、マーカー32bの円の大きさで表現する。このように、スクリーンに投影されたマーカーと被写体の顔との間のどのあたりに仮想視点31があるかは、マーカーの表示形態(ここでは大きさ)によって表現することが可能である。例えば、円を大きくした場合は、被写体に近い位置、円を小さくした場合は、マーカーに近い位置に仮想カメラがあることを被写体にあらかじめ報知しておくことで実現できる。
FIG. 3A is a diagram in which a part of the configuration is extracted from the image processing system shown in FIG. 2A. The
図3(b)~(e)は、被写体と仮想カメラおよびマーカーの位置関係を示す図で、図3(a)を横から見た図である。図3(b)~(e)において、白丸33は、仮想視点を示し、黒丸34は、スクリーンに投影されたマーカーを示している。この図に示したように、被写体の顔と仮想視点およびマーカーが直線上に並ぶように構成される。スクリーンは、床面および天面にも構成されているので、図3(b)~(e)に示すように、仮想カメラが被写体の上または下からのアングルであっても、被写体24は仮想カメラに目線を合わせることができる。
3 (b) to 3 (e) are views showing the positional relationship between the subject, the virtual camera, and the marker, and are views of FIG. 3 (a) viewed from the side. In FIGS. 3B to 3E, the
図4は、マーカー出力装置5の制御データ生成部502の処理を示したフローチャートである。
FIG. 4 is a flowchart showing the processing of the control
S100にて、制御データ生成部502は生成処理を開始する。S101にて、制御データ生成部502は、マーカー情報発信部405から出力されるデータに基づき、マーカー表示用設定ファイルの生成処理が行う。この設定ファイルには、マーカーの種別、マーカーの表示パラメータ(色、形状など)を定義する情報が含まれる。
In S100, the control
S102にて、制御データ生成部502は、仮想視点画像生成部301から出力される仮想視点画像内の被写体の3次元モデルから、被写体数をカウントし、被写体IDを付与する。
In S102, the control
S103にて、制御データ生成部502は、被写体の3次元モデル情報から、世界座標系における被写体の顔の座標を算出する。なお被写体が複数ある場合は、人数分同様の処理を行う。また、被写体の3次元モデルから顔の特定は、モデルの形状や特徴点から一般的な画像処理技術を用いて行うことができる。
In S103, the control
S104にて、制御データ生成部502は、設定ファイル、被写体位置(顔の座標)、仮想カメラ座標に基づいて、表示すべきマーカー座標を算出する。マーカー座標の算出は、世界座標系で実行し、顔座標と仮想カメラ座標との延長線上にスクリーンと交差するマーカー座標を算出する。この結果、投影するスクリーン、投影するプロジェクタが決定される。
In S104, the control
S105には、制御データ生成部502は、設定ファイルから表示パラメータ情報を生成し、マーカー座標とともにマーカー制御部503に出力する。
In S105, the control
この結果、マーカー制御部503が表示データ出力部504を制御し、設定された位置に設定された種類のマーカーを表示する。
As a result, the
なお、表示するマーカーは、被写体にとって仮想視点の存在する方向を示すシンボルであるので、仮想視点カメラを表すアイコン等であっても良い。この場合、アイコンを、被写体と仮想視点との実空間の距離に応じたサイズで表示しても良い。この結果、被写体にとっては、単純に仮想視点の存在する方向だけでなく、仮想視点までの距離を把握できるようになる。 Since the marker to be displayed is a symbol indicating the direction in which the virtual viewpoint exists for the subject, it may be an icon or the like representing the virtual viewpoint camera. In this case, the icon may be displayed in a size corresponding to the distance between the subject and the virtual viewpoint in the real space. As a result, the subject can grasp not only the direction in which the virtual viewpoint exists but also the distance to the virtual viewpoint.
また、被写体が複数ある場合には、被写体ごとにマーカー座標を算出し、それぞれ異なる設定(色および形)で表示することにより、同じ位置に目線を合わせることができる。このとき各被写体にはあらかじめマーカーの設定を報知しておくことで実現できる。また、複数の被写体が常に同じ位置に目線を向けるのであれば、マーカーは一つであってもよい。 Further, when there are a plurality of subjects, the marker coordinates are calculated for each subject and displayed with different settings (color and shape), so that the line of sight can be aligned with the same position. At this time, it can be realized by notifying each subject of the marker setting in advance. Further, if a plurality of subjects always look at the same position, the number of markers may be one.
[第1の実施形態の第1の変形例]
上記実施形態では、画像処理システムが、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5が独立した装置であるものとして説明したが、処理能力が十分にある場合には、これらを1つの情報処理装置とアプリケーションプログラムで実現させても良い。この場合の画像処理システムの構成を図10に示す。画像処理システムは、情報処理装置300、撮影装置1としての複数のカメラ350a、350b、…、表示データ出力部504としての複数のプロジェクタ360a、360b、…で構成される。情報処理装置300は、CPU301、ROM302、RAM303、補助記憶装置304、表示装置305、操作部306、カメラI/F307、プロジェクタI/Fを有する。ここで、カメラI/F307、プロジェクタI//F308をまとめて1つのI/Fで実現しても構わない。なお、補助記憶装置304には、OSを始め、実空間情報が可能されているものとする。また、被写体を囲む撮影、投影に係る構成は図2(a)と同じとする。
[First Modification Example of First Embodiment]
In the above embodiment, the image processing system has been described as an independent device in which the real space information holding device 2, the image processing device 3, the user terminal 4, and the
本装置に電源がONになると、CPU301は、ROM302に格納されたブートプログラムに従って補助記憶装置304に格納されたOSをRAM303にロードし、実行する。この結果、本装置がユーザからの指示に従った処理を行う装置として機能する。更に、CPU301が、画像処理プログラムを補助記憶装置304よりRAM303にロードし実行することで、本装置が、図1における、仮想視点画像生成部301、仮想カメラパス算出部302、仮想カメラ情報保持部303、マーカー座標算出部304、表示画像生成部305、画像表示部402、仮想カメラパス指示部403、ユーザ情報発信部404、マーカー情報発信部405、制御データ生成部502、マーカー制御部503として機能することになる。
When the power of the apparatus is turned on, the
CPU301が画像処理プログラムを実行した際の処理手順を、図11のフローチャートを参照して説明する。なお、説明を単純化するため、マーカーに関する情報は既に設定済みであるものとする。
The processing procedure when the
S401にて、CPU301は、操作部306を介して仮想視点に係る情報を入力する。この情報は、実空間内の仮想視点の座標、並びに、仮想視点からの視線方向、画角が含まれる。
In S401, the
S402にて、CPU301は、カメラI/F307を介して、カメラ350a、350b、…それぞれから撮影画像データを受信する。そして、S403にて、CPU301は、補助記憶装置304に格納されている実空間情報(特にカメラの設置位置や方向等の情報)を参照して、仮想視点画像を生成する。そして、S404にて、CPU301は、生成した仮想視点画像を表示装置305に表示する。
In S402, the
S405にて、CPU301は、実空間内における、被写体の顔の座標と仮想視点の座標とを結ぶ線とスクリーン面との交点位置を、マーカー表示位置として算出する。そして、S406にて、CPU301は、プロジェクタI/F308を介して、算出したマーカー表示位置を投影対象としているプロジェクタに対し、マーカー位置へのマーカー表示を行わせる。
In S405, the
この後、CPU301は、S407にて、ユーザによるアプリケーションの終了指示があったか否かを判定し、否の場合には処理をS401に戻し、上記処理を繰り返すことになる。
After that, the
なお、本変形例では、実空間情報保持装置2、画像処理装置3、ユーザ端末4、マーカー出力装置5が図3の情報処理装置に統合されるものとしたが、その幾つかが独立した装置であっても構わない。
In this modification, the real space information holding device 2, the image processing device 3, the user terminal 4, and the
また、例えば映画等で演者の動きの仮想視点画像を生成する際には、演者にとっても臨場感があった方が演技し易いので、各プロジェクタはマーカーだけでなく、演者を取り囲む周囲景色を表示させても良い。 Also, for example, when generating a virtual viewpoint image of a performer's movement in a movie, it is easier for the performer to perform if there is a sense of presence, so each projector displays not only the marker but also the surrounding scenery surrounding the performer. You may let me.
なお、マーカーの提示位置は、仮想視点によらずに決定してもよい。特に、マーカーの位置は、被写体の目線を向けさせる位置であればよく、例えばユーザが指定してもよい。
[第1の実施形態の第2の変形例]
上記実施形態ではプロジェクタからスクリーンに投影することでマーカーを表示したが、表示データ出力部504の構成はこれに限らない。図12に示すように、スクリーン23、25、26、28の表面に敷き詰めるように液晶ディスプレイを複数設置してもよい。この場合、S104において制御データ生成部502は、世界座標系で算出したマーカー座標に対応するディスプレイ28aを決定し、あらかじめ校正してあるディスプレイ28aの位置と向きに基づいてディスプレイ画面上の表示座標を算出する。ディスプレイの校正にあたっては、ディスプレイ上に表示したマーカーの三次元座標をカメラ21a~21fを用いて三角測量で算出し、マーカーのディスプレイ上の座標と対応付けることで行うことができる。また、S105では、マーカー制御部503が表示データ出力部504を制御し、対応するディスプレイ28a上の表示座標に設定された種類のマーカー32を表示する。ディスプレイ上のマーカー表示座標以外の画面およびマーカーが投影されないその他のディスプレイ上の画面には、目立たないようにスクリーンの色を表示してもよいし、演者を取り囲む周囲景色を表示させてもよい。
The marker presentation position may be determined regardless of the virtual viewpoint. In particular, the position of the marker may be any position as long as it directs the line of sight of the subject, and may be specified by the user, for example.
[Second variant of the first embodiment]
In the above embodiment, the marker is displayed by projecting the marker onto the screen from the projector, but the configuration of the display
[第1の実施形態の第3の変形例]
第1の実施形態では仮想視点の存在する方向を点のマーカーを用いて表示したが、さらに仮想カメラの姿勢を示すために仮想カメラの3次元モデルをスクリーンに投影してもよい。このとき、仮想カメラの3次元モデルはあらかじめ補助記憶装置214に記憶しておき、アプリケーションプログラム実行時にRAM213に展開する。マーカーの種別は仮想カメラ3次元モデルとなる。図13(a)に仮想カメラの3次元モデルを投影する様子を示す。S405にて、CPU301は、仮想カメラの3次元モデルを、実空間内における被写体の顔の座標24fからスクリーン23aに向かって仮想的に投影し、その像32cの三次元座標を算出する。そして像32cの三次元座標をプロジェクタ22dに向かって逆投影することにより、プロジェクタ22dで表示するマーカーの画像を生成する。なお、仮想カメラ3次元モデルは任意の形状、テクスチャ、透過率、でよく、またカメラではなく立体的な矢印のモデルなどでもよい。
[Third variant of the first embodiment]
In the first embodiment, the direction in which the virtual viewpoint exists is displayed by using a point marker, but a three-dimensional model of the virtual camera may be projected on the screen to further indicate the posture of the virtual camera. At this time, the three-dimensional model of the virtual camera is stored in the auxiliary storage device 214 in advance, and is expanded in the
これにより、被写体は仮想視点の存在する方向に加えて、仮想視点の姿勢も認識することができる。 As a result, the subject can recognize the posture of the virtual viewpoint in addition to the direction in which the virtual viewpoint exists.
[第1の実施形態の第4の変形例]
上記実施形態では、仮想視点の存在する方向、姿勢を点または三次元モデルを用いて表示したが、仮想視点の画角を示すために仮想視点画像を表示してもよい。このとき、表示画像生成部305はプロジェクタまたはディスプレイに対して直前に生成した仮想視点画像を送信する。マーカーの種別は仮想視点画像となる。図13(b)に仮想視点画像を投影する様子を示す。S104にて、制御データ生成部502は、スクリーンまたはディスプレイ上のマーカー座標を算出するとともに、マーカー座標が中心かつ被写体から仮想視点画像が正対して見えるように仮想視点画像に対して射影変換を行う。射影変換はアフィン変換またはホモグラフィ変換を用いる。S105では、マーカー制御部503が表示データ出力部504を制御し、対応するスクリーンまたはディスプレイ上の表示座標に射影変換した仮想視点画像32dを投影する。
[Fourth variant of the first embodiment]
In the above embodiment, the direction and posture in which the virtual viewpoint exists are displayed by using a point or a three-dimensional model, but a virtual viewpoint image may be displayed to show the angle of view of the virtual viewpoint. At this time, the display
これにより、被写体は仮想視点の存在する方向と、仮想視点における画角や仮想視点からの写り具合を仮想視点画像を見ることで認識できる。なお、ユーザーは必要に応じてマーカーの表示設定を変更して仮想視点画像を左右反転し、あたかも鏡写しに被写体自身が見えるように仮想視点画像を表示してもよい。 As a result, the subject can recognize the direction in which the virtual viewpoint exists, the angle of view at the virtual viewpoint, and the image quality from the virtual viewpoint by looking at the virtual viewpoint image. If necessary, the user may change the display setting of the marker to flip the virtual viewpoint image left and right, and display the virtual viewpoint image so that the subject itself can be seen in a mirror image.
[第1の実施形態の第5の変形例]
仮想視点の数が10以上など非常に多く、また高速に動く仮想視点が複数存在する場合、そのままマーカーを表示すると被写体から見て煩わしく見えることがある。本変形例では、互いに近距離にある仮想視点をまとめて表示したり、高速に動く仮想視点のマーカーを視認しにくくなるように表示する。
[Fifth variant of the first embodiment]
When the number of virtual viewpoints is very large, such as 10 or more, and there are a plurality of virtual viewpoints moving at high speed, displaying the marker as it is may look annoying to the subject. In this modification, virtual viewpoints that are close to each other are displayed together, and markers of virtual viewpoints that move at high speed are displayed so as to be difficult to see.
仮想カメラ情報保持部303は、同一タイムコードにおける仮想カメラパスを、マーカー座標算出部304に複数送信する。マーカー座標算出部304におけるマーカー表示の変更処理フローを図14に示す。S201にて仮想カメラ情報として座標と速度を複数取得する。S202にて、マーカーの表示設定に記載される距離しきい値(半径2m)と、数量しきい値(=10)を取得し、受信した複数の仮想カメラ同士が2m以内に10個以上存在するか判別する。Noの場合はS204へ進む。Yesの場合はS203において互いに2m以内にある仮想カメラの集合の重心を代表点として決定し、代表点に対してのみマーカーを表示する。この際、代表点であることを示すために色やマーカー種別を変更してもよいし、集合の要素数をテキストで表示してもよい。S204にて、マーカーの表示設定に記載される最低速度しきい値(2m/s)、最大速度しきい値(10m/s)、最大透過量(90%)に基づき、2~10m/sの速度の仮想カメラの透過量を線形に変更して決定する。なお、0~2m/sは透過量0%、10m/s以上は透過量90%とする。透過量の決定方法はこれに限らない。また、透過に限らず、明度、彩度などを変更することで仮想カメラの速度が速いほど視認しにくくなるようにマーカー表示を変更してもよい。
The virtual camera
これにより、被写体は仮想視点の数が多い場合にも、演技に集中することができる。 As a result, the subject can concentrate on acting even when the number of virtual viewpoints is large.
また、本変形例の効果として、被写体の撮影からマーカーの表示までに遅延がある場合に、素早く動く仮想カメラの遅延による位置のずれをマーカーの透過により視認しにくくする。そして素早く動かない仮想カメラは遅延による位置のずれが比較的少なく、透過せずに視認しやすくすることができる。 Further, as an effect of this modification, when there is a delay from the shooting of the subject to the display of the marker, the displacement of the position due to the delay of the virtual camera that moves quickly is made difficult to be visually recognized by the transparency of the marker. A virtual camera that does not move quickly has relatively little displacement due to delay, and can be easily viewed without being transmitted.
[第2の実施形態]
先述した第1の実施形態及びその変形例においては、被写体が視認するマーカーの位置は、仮想カメラパラメータのうち、仮想カメラの位置に対して目線(視線)が合うように構成したものであった。マーカーが表現する内容は、上述したものに限定されるものではない。
[Second Embodiment]
In the first embodiment and its modification described above, the position of the marker visually recognized by the subject is configured so that the line of sight (line of sight) matches the position of the virtual camera among the virtual camera parameters. .. The content expressed by the marker is not limited to the above.
本第2の実施形態においては、表示するマーカーは仮想カメラパラメータに関連するものの、仮想カメラに目線を合わせるのではなく、被写体が目線を合わせたい位置(被写体の目線を向けたい位置)を示す。このような構成にすることによって、被写体がマーカーに向けた視線のシーンを仮想カメラで捉えた映像として生成することが可能となる。 In the second embodiment, although the marker to be displayed is related to the virtual camera parameter, it indicates the position where the subject wants to align the line of sight (the position where the subject's line of sight is desired to be directed) instead of aligning the line of sight with the virtual camera. With such a configuration, it is possible to generate a scene of the line of sight of the subject toward the marker as an image captured by a virtual camera.
図5(a)は、本実施形態を説明するための図である。図中のマーカー51は、先述したように被写体が目線を合わせたい位置(被写体に目線を合わせて欲しい位置)を示している。本実施形態のマーカーの種類は、第1の実施形態とは異なる。このため、マーカーの種類の切り替えは、ユーザ端末4のマーカー情報発信部405が発信するマーカー種別パラメータ情報によって行われる。
FIG. 5A is a diagram for explaining the present embodiment. As described above, the
図中の参照符号52aおよび52bは、仮想カメラで、被写体24は実際には視認できないが、マーカー51に視線を合わせた映像を仮想カメラで捉えた映像が生成できる。
図5(b)は、仮想カメラとマーカーの位置関係を模式的に示した図である。本実施形態における仮想カメラとマーカーの位置関係は、あらかじめ設定ファイルとして、マーカー情報発信部405において定義される。設定ファイルには、例えば、仮想カメラパス55と対応するマーカー53が、それぞれ被写体の顔との延長線とにおいて、なす角度57として定義される。このように、ある目標に視線を向けている被写体の映像を様々なアングルからの映像として、自由視点映像の作成が可能となる。
FIG. 5B is a diagram schematically showing the positional relationship between the virtual camera and the marker. The positional relationship between the virtual camera and the marker in the present embodiment is defined in advance in the marker
[第3の実施形態]
第1の実施形態及び変形例、並びに、第2の実施形態において、マーカーは、プロジェクタでスクリーンに投影することによって、被写体に視認可能な構成としていた。しかしながら、仮設のスタジオや、撮影ロケーション先で自由視点映像を生成する場合には、必ずしもスクリーンを構成できない場合が考えられる。そこで、本実施形態においては、カメラを搭載する取付部材にインジケータを用意して、そのインジケータの表示の仕方で、仮想カメラの位置を被写体に認識させる構成としている。
[Third Embodiment]
In the first embodiment and the modification, and the second embodiment, the marker is configured to be visible to the subject by projecting it on the screen with a projector. However, when generating a free-viewpoint image in a temporary studio or a shooting location, it may not always be possible to configure the screen. Therefore, in the present embodiment, an indicator is prepared on the mounting member on which the camera is mounted, and the position of the virtual camera is recognized by the subject by the display method of the indicator.
図6を用いて、本第3の実施形態について説明する。実空間において被写体を囲むように配置された取付部材62a~62cには、カメラ61a~61cが搭載されている。これら取付部材には、インジケータが設けられており、高さ方向の点灯位置や点滅速度、表示色などが、マーカー制御部503によって制御される。図中の参照符号64は、仮想カメラの位置を示しており、被写体には直接視認ができない。しかし、被写体は、インジケータの表示によって、概略の仮想カメラの位置が認識可能となる。例えば、いまインジケータ63aと63bが点灯している場合、仮想カメラの位置は、実カメラ61aと61bの間にあり、かつ、概略インジケータの高さにあることが認識可能となる。さらには、インジケータ63aが点滅する場合、仮想カメラの位置は、実カメラ61aに近い側にある、ということが、認識可能となる。
The third embodiment will be described with reference to FIG. The
このように、実カメラの取付部材にインジケータを構成することで、概略仮想カメラ位置を被写体が認識可能な構成とすることができる。 In this way, by configuring the indicator on the mounting member of the actual camera, the approximate virtual camera position can be configured so that the subject can recognize it.
本第3の実施形態を採用する場合、図1におけるマーカー出力装置5が、インジケータの表示の制御を行うことになる。
When the third embodiment is adopted, the
[第4の実施形態]
先述した各実施形態(変形例を含む)においては、マーカーの提示は、実空間の中で仮想カメラの位置を2次元的に表示するマーカーで表現していた。本実施形態では、3次元的にすなわち仮想カメラの位置そのものを被写体に視認可能に提示する構成について説明する。
[Fourth Embodiment]
In each of the above-described embodiments (including modified examples), the marker presentation is represented by a marker that displays the position of the virtual camera two-dimensionally in the real space. In this embodiment, a configuration is described in which the position itself of the virtual camera is three-dimensionally presented to the subject so as to be visible.
本第4の実施形態におけるマーカーは、例えば、ドローンなどのホバーリング機能を有する自立飛行可能な飛翔装置を用いる。本実施形態のマーカーは、動力を有し飛行可能でかつ、座標値を制御可能な構成であれば、どのようなものを用いてもよい。すなわち、本実施形態のマーカーは、マーカー制御部503が出力する仮想カメラ位置座標を実空間の世界座標値として、受け取ってその位置に飛行するものである。なお、マーカーは複数あってもよい。
As the marker in the fourth embodiment, for example, a flying device capable of self-sustaining flight having a hovering function such as a drone is used. As the marker of the present embodiment, any marker may be used as long as it has a power, can fly, and has a configuration in which the coordinate values can be controlled. That is, the marker of the present embodiment receives the virtual camera position coordinates output by the
マーカーは、例えば、図7に示したように、飛行物体71が、仮想カメラの視線方向がわかるような目印(図示では矢印表示72や側面のマーキング73)を有する構成となっている。
As shown in FIG. 7, for example, the marker has a configuration in which the flying
このように構成することで、被写体は、仮想カメラの位置を認識可能となる。なお、マーカーが複数あって、自由視点映像を生成する場合に、このマーカーが仮想カメラの画角に入る場合がある。しかし、仮想カメラの位置およびマーカーの形状があらかじめ分かっているので、映像としては、マーカーを消去して自由視点映像を生成することが可能である。このとき、マーカーの座標をカメラ21のそれぞれに投影し、カメラ映像上の投影座標をモデル生成やレンダリング処理から除外することでマーカーの像がモデル生成およびレンダリングに影響を及ぼすことを防ぐ。そのほか、当該位置の対象となる領域を周囲と同様のテクスチャとスムージングして合成処理することによって消去してもよいし、あらかじめ背景と同じ色でマーカーを表示することによって消去してもよい。
[第4の実施形態の変形例]
上述の第4の実施形態ではドローンを用いたが、そのほかの3次元的に表示できるデバイスを用いて仮想カメラの位置や姿勢を表示してもよい。例えばプラズマを励起させることで空気を発光させるエアリアルディスプレイや、アナグリフ、偏光シャッター方式の3Dディスプレイ、AR表示可能なホロレンズなどの眼鏡型あるいはコンタクトレンズ型デバイスなどがある。いずれもマーカーの3次元モデルを仮想空間において被写体の左右それぞれの目の座標に投影し、各デバイスで表示するための映像を生成することで被写体に対して仮想カメラを3次元的に表示することができる。また、仮想カメラが複数ある場合に各デバイスごとに表示するマーカーを制御し、被写体ごとに特定の仮想カメラを認識しやすくしてもよい。
With this configuration, the subject can recognize the position of the virtual camera. When there are a plurality of markers and a free viewpoint image is generated, these markers may be included in the angle of view of the virtual camera. However, since the position of the virtual camera and the shape of the marker are known in advance, it is possible to erase the marker and generate a free viewpoint image as an image. At this time, the coordinates of the marker are projected on each of the cameras 21 and the projected coordinates on the camera image are excluded from the model generation and rendering processing to prevent the image of the marker from affecting the model generation and rendering. In addition, the target area at the position may be erased by smoothing it with the same texture as the surroundings and performing a composite process, or by displaying a marker in the same color as the background in advance.
[Variation example of the fourth embodiment]
Although the drone is used in the above-mentioned fourth embodiment, the position and posture of the virtual camera may be displayed by using another device that can display three-dimensionally. For example, there are aerial displays that emit air by exciting plasma, anaglyphs, polarized shutter type 3D displays, and eyeglass-type or contact lens-type devices such as holo lenses that can display AR. In each case, the virtual camera is displayed three-dimensionally on the subject by projecting a three-dimensional model of the marker on the coordinates of the left and right eyes of the subject in the virtual space and generating an image to be displayed on each device. Can be done. Further, when there are a plurality of virtual cameras, the marker displayed for each device may be controlled to make it easier to recognize a specific virtual camera for each subject.
これにより、被写体はドローンに接触する危険性を回避しながら立体的に仮想カメラの位置や姿勢を視認できる。 As a result, the subject can visually recognize the position and posture of the virtual camera three-dimensionally while avoiding the danger of contacting the drone.
[第5の実施形態]
先述した実施形態においては、マーカーは、被写体の視線に関連した情報を示していた。実空間の中で、被写体が演じる場合には、必ずしも視線が何かに合っている必要が無い場合もある。その場合、実空間上である位置に被写体が立ち、演目を演じるとき、その立ち位置を被写体に認識させたい場合がある。本第5の実施形態においては、マーカーの表示を床面に投影する。被写体は、床面に表示された内容に基づき、仮想カメラに連動した立ち位置を認識可能となる。
[Fifth Embodiment]
In the embodiments described above, the marker indicates information related to the line of sight of the subject. When the subject plays in real space, it may not always be necessary for the line of sight to match something. In that case, when the subject stands at a position in the real space and the performance is performed, the subject may want to recognize the standing position. In the fifth embodiment, the display of the marker is projected on the floor surface. The subject can recognize the standing position linked to the virtual camera based on the content displayed on the floor surface.
本実施形態の構成を図8に示す。プロジェクタ83は、自由雲台84に取付けられており、投影位置はパン角、チルト角、ズーム倍率によって制御が可能な構成となっている。また、表示内容86としては、立ち位置、移動方向などを表示する。また、マーカーの表示位置、表示内容は、マーカー情報発信部405で定義される設定ファイルによって、仮想カメラ位置とマーカー位置が制御されることになる。このように構成することによって、例えば、ある立ち位置から別の立ち位置に移動する様子を仮想カメラで捉えたような自由視点映像を生成することが可能となる。
The configuration of this embodiment is shown in FIG. The
これまで、説明してきた実施形態においては、撮影時に被写体がマーカーの位置を視認する構成であったが、必ずしもその構成に限定はされるわけではない。例えば、上述したような、マーカー位置をアーカイブ映像にも重畳することで、撮影時にだけ使用する構成に限定せず、視聴する側においても、仮想カメラと視線の関係がわかるような表示にしてもよい。 In the embodiments described so far, the subject has been configured to visually recognize the position of the marker at the time of shooting, but the configuration is not necessarily limited. For example, by superimposing the marker position on the archive video as described above, the display is not limited to the configuration used only at the time of shooting, and the viewer can also see the relationship between the virtual camera and the line of sight. good.
上記を実現するためには、仮想視点ごとにストリームを複数用意しておくことで実現できる。さらには、実空間を俯瞰する映像を用意しておき、マーカーの位置をインタラクション可能な構成にしておくことで、ユーザは、カメラ位置を切り替えて、自由視点映像を参照することが可能となる。 In order to realize the above, it can be realized by preparing multiple streams for each virtual viewpoint. Furthermore, by preparing an image that gives a bird's-eye view of the real space and making the position of the marker interactable, the user can switch the camera position and refer to the free viewpoint image.
また、複数のカメラが撮影した画像をアーカイブ映像として保持し、後日操作者が自由視点映像を生成する場合に、被写体の顔位置(視線)を検出し、仮想空間中の当該延長線上の位置にマーカーを表示してもよい。このように構成することによって、自由視点映像の画角を決定する際、操作者の操作性が向上する。 In addition, images taken by multiple cameras are retained as archived images, and when the operator later generates free-viewpoint images, the face position (line of sight) of the subject is detected and the position on the extension line in the virtual space is reached. Markers may be displayed. With such a configuration, the operability of the operator is improved when determining the angle of view of the free viewpoint image.
また、これまで説明してきた実施形態におけるマーカーは、各カメラが撮影する画像に当然映り込むため、生成する自由視点映像においては邪魔になる場合も考えられる。しかしながら、仮想空間上でマーカーの表示位置、色、形状等は既知であるので、当該位置の対象となる領域を周囲と同様のテクスチャとスムージングして合成処理することによって消去可能である。また、あらかじめ背景と同じ色でマーカーを表示することによっても上述のように簡易的に解決可能である。 Further, since the markers in the embodiments described so far are naturally reflected in the images taken by each camera, they may be an obstacle in the generated free-viewpoint image. However, since the display position, color, shape, etc. of the marker are known in the virtual space, it can be erased by smoothing the target area of the marker with the same texture as the surroundings and performing a composite process. Further, it can be easily solved as described above by displaying the marker in the same color as the background in advance.
(その他の実施例)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present disclosure supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。 The invention is not limited to the above embodiment, and various modifications and modifications can be made without departing from the spirit and scope of the invention.
1…多視点映像保持部、2…被写体情報保持部、3…画像処理装置、301…仮想視点画像生成部、302…仮想カメラパス算出部、303…仮想カメラ情報保持部、304…マーカー座標算出部、305…表示画像生成部、306…装置通信部、4…ユーザ端末、401…端末通信部、402…画像表示部、403…仮想カメラパス指示部、404…ユーザ情報発信部、405…マーカー情報発信部、5…マーカー出力装置、501…装置通信部、502…制御データ生成部、503…マーカー制御部、504…表示データ出力部 1 ... Multi-viewpoint image holding unit, 2 ... Subject information holding unit, 3 ... Image processing device, 301 ... Virtual viewpoint image generation unit, 302 ... Virtual camera path calculation unit, 303 ... Virtual camera information holding unit, 304 ... Marker coordinate calculation Unit, 305 ... Display image generation unit, 306 ... Device communication unit, 4 ... User terminal, 401 ... Terminal communication unit, 402 ... Image display unit, 403 ... Virtual camera path indicator unit, 404 ... User information transmission unit, 405 ... Marker Information transmission unit, 5 ... Marker output device, 501 ... Device communication unit, 502 ... Control data generation unit, 503 ... Marker control unit, 504 ... Display data output unit
Claims (19)
被写体を含む空間を撮影する複数の撮影手段と、
前記空間において、前記被写体の向きを決定するための提示を行う提示手段と、を有する処理システム。 It is a processing system for generating a virtual viewpoint image that represents the appearance from a virtual viewpoint.
Multiple shooting methods for shooting the space including the subject,
A processing system comprising a presentation means for presenting to determine the orientation of the subject in the space.
前記提示手段は、前記特定手段により特定された前記仮想視点の位置に基づいて、前記空間において、前記被写体の向きを決定するための提示を行うことを特徴とする請求項1に記載の処理システム。 Specific means for specifying the position of the virtual viewpoint and
The processing system according to claim 1, wherein the presenting means makes a presentation for determining the direction of the subject in the space based on the position of the virtual viewpoint specified by the specific means. ..
前記提示手段は、前記スクリーンに前記被写体の向きを決定するための情報を投影する
ことを特徴とする請求項1又は2に記載の処理システム。 The plurality of photographing means and a screen for projection are arranged so as to surround the subject.
The processing system according to claim 1 or 2, wherein the presentation means projects information for determining the orientation of the subject on the screen.
前記提示手段は、前記被写体の目線を向けさせる位置を点灯する
ことを特徴とする請求項1又は2に記載の処理システム。 The plurality of photographing means are attached to a mounting member having an indicator that lights a position set with respect to a position in the height direction, and are arranged so as to surround the subject.
The processing system according to claim 1 or 2, wherein the presentation means lights a position at which the subject's line of sight is directed.
ことを特徴とする請求項1又は2に記載の処理システム。 The presenting means is a means for controlling the pan and tilt angles of a projector mounted on a mounting member capable of controlling the pan angle and the tilt angle, and the subject is placed on a floor corresponding to a position where the subject's line of sight is directed. The processing system according to claim 1 or 2, wherein the processing system is characterized by projecting information for determining the orientation of the.
前記仮想視点画像を生成すると画像処理装置と、
前記提示手段を有する提示装置と
を有することを特徴とする請求項1乃至14のいずれか1項に記載の処理システム。 A user terminal having a designation means for designating the virtual viewpoint and a display means for displaying the virtual viewpoint image, and
When the virtual viewpoint image is generated, the image processing device and
The processing system according to any one of claims 1 to 14, further comprising a presentation device having the presentation means.
被写体を含む空間を複数の撮影手段により撮影する工程と、前記空間において、前記被写体の向きを決定するための提示を行う提示工程と、
を有することを特徴とする制御方法。 It is a control method of a processing system for generating a virtual viewpoint image that represents the appearance from a virtual viewpoint.
A step of photographing a space including a subject by a plurality of photographing means, a presenting step of presenting for determining the orientation of the subject in the space, and a presentation step.
A control method characterized by having.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/471,200 US11917117B2 (en) | 2020-09-17 | 2021-09-10 | Processing system, processing method and non-transitory computer-readable storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156622 | 2020-09-17 | ||
JP2020156622 | 2020-09-17 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022050305A true JP2022050305A (en) | 2022-03-30 |
JP2022050305A5 JP2022050305A5 (en) | 2024-05-02 |
Family
ID=80854354
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021075358A Pending JP2022050305A (en) | 2020-09-17 | 2021-04-27 | Processing system, control method therefor, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022050305A (en) |
-
2021
- 2021-04-27 JP JP2021075358A patent/JP2022050305A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11301199B2 (en) | Multi-viewpoint switched shooting system and method | |
JP7146662B2 (en) | Image processing device, image processing method, and program | |
CN111447340A (en) | Mixed reality virtual preview shooting system | |
JP5861499B2 (en) | Movie presentation device | |
US20040041822A1 (en) | Image processing apparatus, image processing method, studio apparatus, storage medium, and program | |
CN112330736A (en) | Scene picture shooting method and device, electronic equipment and storage medium | |
KR20140100525A (en) | System for filming a video movie | |
JP7237538B2 (en) | Information processing device, system including the same, information processing method, and program | |
JP7446754B2 (en) | Image processing device, image processing method, and program | |
WO2020050103A1 (en) | Virtual viewpoint control device and method for controlling same | |
CN114953463A (en) | Information processing apparatus, information processing method, and storage medium | |
CN105991972A (en) | Aerial photographing system | |
JP2022050305A (en) | Processing system, control method therefor, and program | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
JP2020102687A (en) | Information processing apparatus, image processing apparatus, image processing method, and program | |
US11917117B2 (en) | Processing system, processing method and non-transitory computer-readable storage medium | |
CN212231547U (en) | Mixed reality virtual preview shooting system | |
JP2002271694A (en) | Image processing method, image processing unit, studio device, storage medium and program | |
JP2022012398A (en) | Information processor, information processing method, and program | |
WO2018235762A1 (en) | Display control device, display control method, and program | |
WO2024070761A1 (en) | Information processing device, information processing method, and program | |
WO2024070762A1 (en) | Information processing device, information processing method, and program | |
JP7494153B2 (en) | Generation device, generation method, and program | |
WO2022220306A1 (en) | Video display system, information processing device, information processing method, and program | |
US11682175B2 (en) | Previsualization devices and systems for the film industry |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240423 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240423 |