JP7616079B2 - 制御装置、撮影システム、および3dモデルデータ生成方法 - Google Patents

制御装置、撮影システム、および3dモデルデータ生成方法 Download PDF

Info

Publication number
JP7616079B2
JP7616079B2 JP2021574621A JP2021574621A JP7616079B2 JP 7616079 B2 JP7616079 B2 JP 7616079B2 JP 2021574621 A JP2021574621 A JP 2021574621A JP 2021574621 A JP2021574621 A JP 2021574621A JP 7616079 B2 JP7616079 B2 JP 7616079B2
Authority
JP
Japan
Prior art keywords
moving image
display
timing
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021574621A
Other languages
English (en)
Other versions
JPWO2021153261A1 (ja
Inventor
徹 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2021153261A1 publication Critical patent/JPWO2021153261A1/ja
Application granted granted Critical
Publication of JP7616079B2 publication Critical patent/JP7616079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本技術は、制御装置、撮影システム、および3Dモデルデータ生成方法に関し、特に、動画像から被写体を適切に抽出することができるようにした制御装置、撮影システム、および3Dモデルデータ生成方法に関する。
多視点で撮影された動画像から被写体の3Dモデルを生成し、任意の視点位置に応じた3Dモデルの仮想視点画像を生成することで自由な視点の画像を提供する技術がある。このような技術は、ボリューメトリックキャプチャ技術などとも呼ばれている。
例えば、特許文献1には、異なる方向から撮影して得られた複数の撮影画像に基づいて被写体の3次元形状の削り出しを行うVisual Hull等の手法を用いて、3Dモデルを生成する技術が記載されている。
国際公開第2018/150933号
3Dモデルの生成では、多視点で撮影されたそれぞれの撮影画像に写る被写体と背景を分離する必要がある。例えば、背景のみを事前に撮影して得られた背景画像と、人物などの被写体が実際に存在する状態で撮影して得られた撮影画像との差分を取ることによって、それぞれの撮影画像に写る被写体と背景が分離される。
ところで、3Dモデルを生成するための撮影において、被写体となる人物が演技の内容を確認するため動画像を表示装置に表示したり、台詞や歌詞をプロンプタに表示したりして参照する状況が考えられる。
しかしながら、人物が存在する状態での本番の撮影時に、背景の撮影時に存在しなかったものが撮影空間にある場合、そのもの自体も被写体として扱われてしまう。例えば、撮影空間に配置された表示装置に動画像が表示される場合、その動画像の表示も、人物とともに被写体として分離され、3Dモデルの生成に用いられてしまう。したがって、本番の撮影時、被写体となる人物が表示装置の表示を参考にして演技の内容を確認したり、プロンプタの表示を参考にして台詞や歌詞を確認したりすることが困難であった。
本技術はこのような状況に鑑みてなされたものであり、動画像から被写体を適切に抽出することができるようにするものである。
本技術の一側面の制御装置は、撮像装置が撮影を行う撮影タイミングと、前記撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させる制御を行う制御部と、第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理を行う画像処理部とを備え、前記第2動画像および前記第3動画像は、前記第2動画像および前記第3動画像で前記表示タイミングが同期された前記第1動画像の少なくとも一部を共に含む制御装置である。
本技術の一側面の撮影システムは、複数台の撮像装置と、少なくとも1台の表示装置と、前記複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置のうちの少なくとも1つの撮像装置の撮影範囲に位置する前記表示装置が第1動画像を表示する表示タイミングとを同期させる制御を行う制御部と、第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理を行う画像処理部とを備え、前記第2動画像および前記第3動画像は、前記第1動画像の少なくとも一部を共に含む撮影システムである。
本技術の一側面の3Dモデルデータ生成方法は、複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置の少なくとも1つの撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させて前記複数台の撮像装置で撮影し、第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理を行うことによって差分データを生成し、前記差分データに基づいて3Dモデルデータを生成する3Dモデルデータ生成方法である。
本技術の一側面の制御装置においては、撮像装置が撮影を行う撮影タイミングと、前記撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させる制御が行われ、第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理が行われる。前記第2動画像および前記第3動画像には、前記第2動画像および前記第3動画像で前記表示タイミングが同期された前記第1動画像の少なくとも一部が共に含まれる。
本技術の一側面の撮影システムにおいては、前記複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置のうちの少なくとも1つの撮像装置の撮影範囲に位置する前記表示装置が第1動画像を表示する表示タイミングとを同期させる制御が行われ、第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理が行われる。前記第2動画像および前記第3動画像には、前記第1動画像の少なくとも一部が共に含まれる。
本技術の一側面の3Dモデルデータの生成方法においては、複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置の少なくとも1つの撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させて前記複数台の撮像装置で撮影が行われ、第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて、前景背景差分処理を行うことによって、差分データが生成され、前記差分データに基づいて3Dモデルデータが生成される。
本技術を適用した撮影システムの構成例を示す図である。 制御装置で実行される3Dモデル生成の概要を示す図である。 N=8とした撮影システムが背景撮影を行う時の状況の例を示す平面図である。 N=8とした撮影システムが本番撮影を行う時の状況の例を示す平面図である。 同期信号に基づく撮影タイミングと表示タイミングの制御の例を示す図である。 前景背景差分処理の例を示す図である。 撮影システムの構成例を示すブロック図である。 制御装置の同期動画像生成処理について説明するフローチャートである。 動画像撮影処理について説明するフローチャートである。 制御装置による被写体の3Dモデルデータ生成処理について説明するフローチャートである。 前景背景差分処理の詳細について説明するフローチャートである。 モニタリング表示を行う場合の撮影システムの構成例を示すブロック図である。 モニタリング表示を行う場合の制御装置の同期動画像生成処理について説明するフローチャートである。 撮影システムの他の構成例を示す図である。 N=8とした図14の撮影システムにおける本番撮影時の状況を示す平面図である。 撮影システムのさらに他の構成例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.撮影システムの概要
2.撮影システムの構成
3.撮影システムの動作
4.モニタリング表示を行う場合の処理について
5.変形例
6.コンピュータの構成例
<1.撮影システムの概要>
図1は、本技術を適用した撮影システム1の構成例を示す図である。
図1の撮影システム1は、制御装置11、N台(N>1)のカメラ12-1乃至12-N、およびモニタ13により構成される。カメラ12-1乃至12-Nとモニタ13は、撮影スタジオなどの同じ空間に配置される。
制御装置11は、例えば、コンピュータやサーバ装置などにより構成され、カメラ12-1乃至12-Nが撮影を行う撮影タイミングと、モニタ13が動画像を表示する表示タイミングとを制御する。
具体的には、制御装置11は、同期信号を生成し、カメラ12-1乃至12-Nとモニタ13のそれぞれに供給する。制御装置11から供給された同期信号に基づいて、カメラ12-1乃至12-Nが撮影を行う撮影タイミングと、モニタ13が動画像を表示する表示タイミングとが制御される。また、制御装置11は、モニタ13に表示される動画像の再生も行う。
さらに、制御装置11は、カメラ12-1乃至12-Nのそれぞれから供給される複数の撮影動画像から、例えば、被写体として写る人物をオブジェクトとする、オブジェクトの3Dモデルを生成する。
オブジェクトの3Dモデルのデータは、例えば、カメラ12-1乃至12-Nにより得られた撮影動画像から生成される、オブジェクトの動画像データと、オブジェクトの3D形状を表した3D形状データとで構成される。3D形状データは、例えば、複数のカメラ12-1乃至12-Nで撮影された撮影動画像に対応するデプス画像や、オブジェクトの3次元位置を点の集合で表したポイントクラウド、頂点(Vertex)と頂点間のつながりで表したポリゴンメッシュなどで表される。
カメラ12-1乃至12-Nは、制御装置11による制御に従って、オブジェクトとして抽出される対象となる被写体と、その背景を撮影する撮像装置である。カメラ12-1乃至12-Nは、撮影によって得られる撮影動画像を制御装置11に供給する。カメラ12-1乃至12-Nは、同じ被写体を撮影するように、例えば被写体を囲むように配置される。カメラ12-1乃至12-Nから供給される撮影動画像は、被写体を撮影する視点が異なる複数の撮影動画像から構成される多視点動画像となる。
以下の説明において、カメラ12-1乃至12-Nのそれぞれを区別する必要がない場合、単にカメラ12と称して説明する。複数設けられる他の構成についても同様とする。
モニタ13は、制御装置11による制御に従って、第1動画像としての参考動画像を表示する表示装置である。参考動画像は、被写体となる人物が本番の撮影時に参考とする動画像である。例えば、本番の撮影時に、被写体である人物の動作の手本となる動画像が、参考動画像として、モニタ13に表示される。
また、モニタ13は、モニタリング画像を参考動画像として表示するモニタリング表示を行うこともできる。モニタリング画像は、カメラ12-1乃至12-Nのうちのいずれかによってリアルタイムに撮影されている撮影動画像である。モニタリング表示では、被写体となる人物は、自身の動きを確認しながら所定の動作をとることができる。
また、モニタ13には、参考動画像として、台詞や歌詞を表す動画像を表示することもできる。台詞や歌詞を表す動画像が表示されることにより、被写体となる人物は、台詞を確認しながら演じたり、歌詞を確認しながら歌ったりすることができる。
なお、モニタ13は、ディスプレイを備えるスマートフォンやタブレット端末(携帯端末)などの装置により構成されるようにしてもよい。
制御装置11とカメラ12-1乃至12-Nとの間の通信、および、制御装置11とモニタ13との間の通信は、ケーブルなどを介して直接行われるようにしてもよいし、LAN(Local Area Network)、インターネットなどの所定のネットワークを介して行われるようにしてもよい。また、通信は、有線通信でもよいし、無線通信でもよい。
次に、図2を参照して、制御装置11で実行される3Dモデル生成の概要を説明する。
図2には、3台のカメラ12を用いて、所定の動作を行っている人物を被写体Ob1として撮影が行われている例が示されている。図2の左側に示すように、被写体Ob1を囲むように配置された3台のカメラ12-1乃至12-3は、被写体Ob1を撮影する。
異なる位置に配置された複数のカメラ12から得られた撮影動画像を用いて、3Dモデリングが制御装置11により行われ、図2の中央に示すように、被写体Ob1の3DモデルMO1が生成される。3DモデルMO1は、例えば、異なる方向から被写体Ob1を撮影して得られた撮影動画像を用いて、3次元形状の切り出しを行うVisual Hullなどの手法により生成される。
以上のようにして生成された被写体の3Dモデルのデータ(3Dモデルデータ)が再生側の装置に伝送され、再生される。すなわち、再生側の装置において、3Dモデルのレンダリングが3Dモデルデータに基づいて行われることにより、視聴デバイスに3D形状映像が表示される。図2においては、視聴者が使用する視聴デバイスとして、ディスプレイD1や、ヘッドマウントディスプレイ(HMD)D2が示されている。
ところで、3Dモデルの生成では、各撮影動画像に写る被写体と背景を分離し、被写体のみのデータを抽出する必要がある。被写体のみのデータを抽出する手法としては、グリーンバック背景を利用したキーイングが知られている。また、背景のみを撮影した動画像である背景動画像と、被写体および背景を撮影した動画像である本番動画像との差分を前景背景差分処理によって求めることで、被写体と背景の分離を行うことができる。
図1の撮影システム1は、背景動画像の撮影である背景撮影と、本番動画像の撮影である本番撮影とを行い、背景動画像と本番動画像との差分を前景背景差分処理によって求めることで、被写体と背景の分離を行う。ここで、本番撮影は、被写体が存在する状況での撮影であるのに対し、背景撮影は、被写体が存在しない状況での撮影である。本番動画像は、所定の第1タイミング(本番撮影のタイミング)でカメラ12により撮影された第2動画像であり、背景動画像は、第1タイミングと異なるタイミングである第2タイミング(背景撮影のタイミング)でカメラ12により撮影された第3動画像である。
図3は、N=8とした撮影システム1が背景撮影を行う時の状況の例を示す平面図である。
図3の例では、部屋のような撮影空間の中央部に向けて、8台のカメラ12-1乃至12-8が略等間隔で環状に配置されている。カメラ12-1とカメラ12-5、カメラ12-2とカメラ12-6、カメラ12-3とカメラ12-7、およびカメラ12-4とカメラ12-8は、それぞれ対向した状態で配置されている。
カメラ12-5とカメラ12-6の間には、モニタ13が正面を中央に向けて配置されている。ここでは、モニタ13は、カメラ12-2の撮影範囲に位置する。吹き出し#1に示すように、モニタ13には、人が踊っている様子が写る動画像が参考動画像として表示されている。
このように、背景撮影は、被写体が存在しない状態で行われる。カメラ12-1乃至12-8のそれぞれによって撮影された背景動画像には、画角内に存在する他のカメラ12、モニタ13、撮影空間の壁、天井、床などが背景として写ることになる。
例えば、吹き出し#2に示すように、カメラ12-2により撮影された背景動画像においては、カメラ12-6が中央近傍に写り、モニタ13がカメラ12-6の左側に写り込む。背景撮影時のモニタ13には参考動画像が表示されているから、カメラ12-2により撮影された背景動画像に写るモニタ13にも、人が踊っている様子が写る参考動画像が表示されることになる。
図4は、N=8とした撮影システム1が本番撮影を行う時の状況の例を示す平面図である。
図4に示すように、本番撮影時におけるカメラ12-1乃至12-8、およびモニタ13の配置は、図3を参照して説明した背景撮影時における配置と同様である。
本番撮影は、被写体Ob11としての人物が撮影空間の中央部に存在する状況で行われる。カメラ12-1乃至12-8のそれぞれによって撮影された本番動画像には、画角内に存在する被写体Ob11と背景が写ることになる。なお、本番撮影時、吹き出し#11に示すように、モニタ13には、背景撮影時に表示されていた動画像と同じ動画像が参考動画像として表示される。
吹き出し#12に示すように、カメラ12-2により撮影された本番動画像においては、被写体Ob11が中央近傍に写り、モニタ13が被写体Ob11の左奥側の位置に写り込む。本番撮影時のモニタ13には参考動画像が表示されているから、カメラ12-2により撮影された本番動画像に写るモニタ13にも、人が踊っている様子が写る参考動画像が表示されることになる。
このように、本番撮影は、被写体を撮影空間の中央部に配置して撮影する以外は、背景撮影と同様に行われる。
前景背景差分処理によって被写体と背景の分離を行う場合、本番撮影時に、背景撮影時に存在しなかったものが撮影空間にある場合、そのもの自体も被写体として扱われてしまう。
例えば、本番撮影時と背景撮影時とで、カメラ12-2により撮影された本番動画像に写り込むモニタ13の参考動画像が、背景撮影時のモニタ13に表示された参考動画像と異なる場合に、本番動画像に写り込むモニタ13の参考動画像も、被写体として抽出されてしまう。
そこで、撮影システム1の制御装置11は、同期信号を生成してカメラ12-1乃至12-8およびモニタ13に供給することにより、カメラ12-1乃至12-8の撮影タイミングとモニタ13の表示タイミングとが同期するように制御する。
図5は、同期信号に基づく撮影タイミングと表示タイミングの制御の例を示す図である。
背景撮影と本番撮影のそれぞれの撮影時には、例えば、図5の上側に示すような同期信号がカメラ12とモニタ13それぞれに供給される。図5に示す同期信号は、所定の周期で0(Low)と1(High)を交互に繰り返すパルス信号であり、図5の例では、時刻t1,t3,t5,t7,・・・で立ち上がり、時刻t2,t4,t6,t8,・・・で立ち下がる。
カメラ12は、同期信号の立ち上がりの時刻である時刻t1,t3,t5,t7のそれぞれのタイミングで、動画像(本番動画像または背景動画像)を構成するフレーム画像を取得するための露光(撮影)を行う。
また、モニタ13は、同期信号の立ち上がりの時刻である時刻t1,t3,t5,t7のそれぞれのタイミングで、参考動画像を構成する1以上のフレーム画像を順に表示する。参考動画像の表示は、上述したように、本番撮影と背景撮影のそれぞれの撮影時に行われる。
なお、制御装置11は、モニタ13に表示されるフレーム画像の更新のタイミング(表示タイミング)に先行して、フレーム画像のデコードを行う。例えば、図5に示すように、時刻t1のタイミングで表示されるフレーム画像は、時刻t1よりも前にデコードされる。時刻t3,t5,t7のそれぞれのタイミングで表示されるフレーム画像についても同様に、それぞれのタイミングよりも前にデコードされる。
本番撮影時と背景撮影時のそれぞれにおいて、制御装置11が同期信号を生成してカメラ12-1乃至12-8およびモニタ13に供給することにより、本番動画像と背景動画像の同じフレーム番号のフレーム画像に、参考動画像の同じフレーム画像の少なくとも一部が写り込むことになる。
本番動画像と背景動画像の同じフレーム番号のフレーム画像には参考動画像の同じフレーム画像が写り込んでいることから、前景背景差分処理によって被写体と背景の分離を行う際に、本番動画像内のモニタ13に表示されている参考動画像の領域を背景として扱うことができる。これにより、本番動画像に写り込むモニタ13の参考動画像が被写体として抽出されることを防止することが可能となる。その結果、撮影システム1では、3Dモデル生成の撮影において、被写体となる人物に対して参考動画像を提供しながら撮影を行うことが可能となる。
なお、上述した例では、同期信号の立ち上がりのタイミングでカメラ12による撮影とモニタ13による参考動画像の表示を行うようにしたが、同期信号の立ち下がりのタイミングで、カメラ12による撮影とモニタ13による参考動画像の表示が行われるようにしてもよい。
図6は、前景背景差分処理の例を示す図である。
図6の左側に示す本番動画像は、図4を参照して説明したカメラ12-2により撮影された本番動画像である。また、図6の中央に示す背景動画像は、図3を参照して説明したカメラ12-2により撮影された背景動画像である。
制御装置11は、本番動画像と背景動画像との差分を求めることで、図6の右側に示すように、被写体Ob11が写る領域のデータを差分データとして抽出する。
具体的には、制御装置11は、本番動画像を構成する画素と、その画素と同じ画素位置の背景動画像の画素との画素値を比較し、画素値の差分が所定の閾値以上となる本番動画像内の画素を、前景の画素として抽出する。本番動画像を構成する全ての画素を対象としてこのような画素値の比較が行われ、前景の画素、すなわち被写体を構成する画素が差分データとして生成される。
画素値の比較は、RGB値を比較することによって行われるようにしてもよいし、RGB値を変換して得られたHSV(Hue,Saturation,Value)値を比較することによって行われるようにしてもよい。HSV値を用いた比較では、影の有無など、色(色相)は変化せずに、明度のみが変化するような画素値の変化を、変化有りとして抽出しないような制御が可能となる。また、比較対象の1画素だけでなく、比較対象の画素の周辺画素も含めて画素値の比較を行うことにより差分データが生成されるようにしてもよい。前景の画素を判断するために用いられる閾値は、撮影環境に応じて適宜設定されるようにすることができる。
以上のような前景背景差分処理が、複数のカメラ12で撮影された本番動画像と背景動画像について行われ、カメラ12ごとに、動画像の差分データが生成される。
以上のように、撮影システム1によれば、参考動画像を表示しているモニタ13が写り込む本番動画像から、被写体を適切に抽出することが可能となる。モニタ13に表示される画像が撮影中に変化したとしても、その影響を受けることなく前景背景差分処理を行うことが可能となる。
<2.撮影システムの構成>
図7は、撮影システム1の構成例を示すブロック図である。
撮影システム1は、制御装置11、N台のカメラ12-n(n=1乃至N)、およびモニタ13を含む。カメラ12-nには、撮影部51が設けられている。また、モニタ13には、表示部52が設けられている。
制御装置11は、操作部31、制御部32、再生部33、同期信号生成部34、記憶制御部35、記憶部36、および画像処理部37により構成される。
操作部31は、タッチパネルモニタ、キーボード、マウス、コントローラ、遠隔操作機器などにより構成される。操作部31は、撮影者や被写体となる人物による操作を検出し、検出された操作の内容を表す情報を制御部32に供給する。
例えば、操作部31は、背景撮影を開始するための操作、本番撮影を開始するための操作、3Dモデルデータを生成するための操作などを検出する。背景撮影時と本番撮影時にモニタ13に表示される参考動画像を指定するための操作が操作部31により検出されるようにしてもよい。
制御部32は、操作部31から供給される情報に基づいて、制御装置11の各構成、およびカメラ12-nを制御する。
例えば、本番撮影または背景撮影を開始するための操作が操作部31により検出された場合、制御部32は、カメラ12-nの撮影部51を制御し、動画像のフレームレートや解像度の設定などの各種の設定を行う。また、制御部32は、所定の参考動画像をモニタ13に表示させるための制御を再生部33に対して行う。さらに、制御部32は、同期信号を生成させるための制御を同期信号生成部34に対して行う。
一方、3Dモデルデータを生成するための操作が操作部31により検出された場合、制御部32は、3Dモデルデータ生成処理を行わせるための制御を画像処理部37に対して行う。
再生部33は、記憶部36に記憶されている参考動画像の中から、制御部32により指定された参考動画像を取得し、再生する。再生部33は、モニタ13の表示タイミングに先行して参考動画像のデコードを行い、デコードを行うことによって得られた参考動画像を表示部52に供給する。参考動画像のデコードは、記憶部36に記憶される際の符号化方式に対応する方式で行われる。なお、参考動画像のフレームレートは、撮影部51が本番撮影または背景撮影を行う際のフレームレートと同一であるとする。
同期信号生成部34は、制御部32による制御に従って、図5を参照して説明した同期信号を生成し、撮影部51と表示部52にそれぞれ供給する。
記憶制御部35は、撮影部51から供給される動画像を、例えば、MPEG2方式やAVC方式などの所定の符号化方式でエンコードし、記憶部36に記憶させる。
記憶部36は、半導体メモリなどの内部または外部のストレージを含む補助記憶装置により構成される。記憶部36は、再生用データ記憶部41と撮影用データ記憶部42を有する。
再生用データ記憶部41には、再生部33により再生される参考動画像が記憶される。
撮影用データ記憶部42には、記憶制御部35から供給される背景動画像および本番動画像が記憶される。撮影用データ記憶部42には、背景動画像および本番動画像とともに、動画像の撮影に用いられるカメラ12-nに関する情報も記憶される。カメラ12-nに関する情報は、例えば、カメラ12-nの内部パラメータおよび外部パラメータを含む。
なお、再生用データ記憶部41と撮影用データ記憶部42は、別々の記憶部として、制御装置11内に設けられるようにしてもよい。
画像処理部37は、制御部32による制御に従って、被写体の3Dモデルデータを生成する。画像処理部37は、前景背景差分処理部43と3Dモデルデータ生成部44を有する。
前景背景差分処理部43は、本番動画像と背景動画像をカメラ12ごとに記憶部36から取得する。前景背景差分処理部43は、本番動画像と背景動画像を用いて前景背景差分処理を行い、差分データを生成する。前景背景差分処理部43により生成された差分データは、3Dモデルデータ生成部44に供給される。
3Dモデルデータ生成部44は、記憶部36から各カメラ12に関する情報を取得する。3Dモデルデータ生成部44は、前景背景差分処理部43から供給されたカメラ12ごとの差分データと各カメラ12に関する情報とに基づいて、Visual Hullなどの手法を用いて、被写体の3Dモデルデータを生成する。3Dモデルデータ生成部44により生成された被写体の3Dモデルデータは、記憶部36に記憶されたり、外部の装置に出力されたりする。
なお、画像処理部37は、制御装置11の一部ではなく、制御装置11とは別の画像処理装置として設けられるようにしてもよい。
カメラ12-nの撮影部51は、同期信号生成部34から供給される同期信号に基づく撮影タイミングで、本番動画像または背景動画像の撮影を行う。本番動画像または背景動画像の撮影により取得される動画像は、制御装置11の記憶制御部35に供給される。
モニタ13の表示部52は、同期信号生成部34から供給される同期信号に基づく表示タイミングで、再生部33から供給される参考動画像を表示する。
<3.撮影システムの動作>
次に、図8乃至図11のフローチャートを参照して、撮影システム1の動作について説明する。
はじめに、図8のフローチャートを参照して、制御装置11の同期動画像生成処理について説明する。
図8の同期動画像生成処理は、背景動画像と本番動画像を撮影するための一連の処理である。この処理は、例えば、背景撮影を開始するための操作が操作部31により検出されたときに開始される。
ステップS1において、制御装置11は、背景動画像撮影処理を行う。背景動画像撮影処理は、後述する図9の動画像撮影処理を、撮影空間に被写体が存在しない状態で行う処理である。背景動画像撮影処理により、背景動画像が生成され、記憶部36に記憶される。
次に、本番撮影を開始するための操作が操作部31により検出されると、ステップS2において、制御装置11は、本番動画像撮影処理を行う。本番動画像撮影処理は、後述する図9の動画像撮影処理を、撮影空間に被写体が存在する状態で行う処理である。本番動画像撮影処理により、本番動画像が生成され、記憶部36に記憶される。記憶部36に、背景動画像と本番動画像が記憶されると、同期動画像生成処理は終了する。
次に、図9のフローチャートを参照して、図8のステップS1またはステップS2の処理として実行される動画像撮影処理について説明する。
ステップS11において、制御部32は、カメラ12とモニタ13の準備を行う。具体的には、制御部32は、撮影部51を制御し、動画像のフレームレートや解像度の設定などの各種の設定を行う。また、制御部32は、参考動画像をモニタ13に表示させるための制御を再生部33に対して行う。再生部33は、制御部32により指定された参考動画像を取得して、参考動画像のデコードを行い、参考動画像のフレーム画像を表示部52に適宜供給する。
ステップS12において、制御部32は、同期信号生成部34に、同期信号の生成を開始させる。同期信号生成部34は、制御部32の制御に従い、同期信号を生成して、各カメラ12の撮影部51と表示部52に供給する。
ステップS13において、各カメラ12の撮影部51は、同期信号生成部34から供給された同期信号に基づいて、背景動画像または本番動画像の撮影を行う。これと同時に、表示部52は、同期信号生成部34から供給された同期信号に基づいて、参考動画像の表示を行う。
ステップS14において、制御部32は、同期信号生成部34に、同期信号の生成を停止させる。例えば、撮影を終了するための操作が操作部31により検出された場合、ステップS14の処理が行われる。同期信号の生成が開始されてから所定の時間が経過した場合、ステップS14の処理が行われるようにしてもよい。
ステップS15において、制御部32は、撮影部51から供給される撮影の終了通知を受け取る。
ステップS16において、記憶制御部35は、各カメラ12で撮影された動画像を記憶部36に保存する。すなわち、記憶制御部35は、ステップS13の処理で撮影部51により撮影されて供給されてくる背景動画像または本番動画像を、例えば、MPEG2方式やAVC方式などの所定の符号化方式でエンコードし、記憶部36に記憶させる。
以上により、図8のステップS1またはステップS2の処理として実行される動画像撮影処理は終了する。図8のステップS1の背景動画像撮影処理と、ステップS2の本番動画像撮影処理との違いは、撮影空間に被写体が存在する状態で行うか否かである。
次に、図10のフローチャートを参照して、制御装置11による被写体の3Dモデルデータ生成処理について説明する。この処理は、例えば、被写体の3Dモデルデータを生成するための操作が操作部31により検出されたときに開始される。
はじめに、ステップS31において、前景背景差分処理部43は、それぞれのカメラ12により撮影された本番動画像ごとに前景背景差分処理を行う。前景背景差分処理により、カメラ12ごとの動画像の差分データが生成される。なお、前景背景差分処理の詳細については、図11のフローチャートを参照して後述する。
ステップS32において、3Dモデルデータ生成部44は、カメラ12ごとの動画像の差分データに基づいて被写体の3Dモデルデータを生成する。
図11のフローチャートを参照して、図10のステップS31において行われる前景背景差分処理の詳細について説明する。
ステップS41において、前景背景差分処理部43は、本番動画像を構成する複数のフレーム画像のうち、所定の1枚のフレーム画像を記憶部36から読み込む。例えば、前景背景差分処理部43は、後述するように繰り返し実行されるステップS41の処理において、本番動画像を構成する複数のフレーム画像を、先頭のフレーム画像から、順番に1フレームずつ読み込む。
ステップS42において、前景背景差分処理部43は、背景動画像を構成する複数のフレーム画像のうち、ステップS41で読み込んだ本番動画像のフレーム画像のフレーム番号と同じフレーム番号となる、背景動画像のフレーム画像を記憶部36から読み込む。
ステップS43において、前景背景差分処理部43は、記憶部36から読み込んだ本番動画像のフレーム画像を構成する複数画素のうちの所定の画素を処理対象画素に設定し、その処理対象画素と、背景動画像のフレーム画像を構成する画素のうちの、処理対象画素に対応する画素との画素値の差分を算出する。そして、前景背景差分処理部43は、算出した画素値の差分が所定の閾値以上であるか否かを判定する。
ステップS43において画素値の差分が所定の閾値以上であると判定された場合、処理はステップS44に進み、前景背景差分処理部43は、処理対象画素を前景の画素に設定する。
一方、ステップS43において画素値の差分が所定の閾値未満であると判定された場合、処理はステップS45に進み、前景背景差分処理部43は、処理対象画素を背景の画素に設定する。
ステップS46において、前景背景差分処理部43は、ステップS41で読み込んだ本番動画像のフレーム画像の各画素のなかで、処理対象画素に設定する次の画素があるか否かを判定する。ステップS46では、ステップS41で読み込んだ本番動画像のフレーム画像の全ての画素を処理対象画素に設定した場合、処理対象画素に設定する次の画素はないと判定され、全ての画素をまだ処理対象画素に設定していない場合、処理対象画素に設定する次の画素があると判定される。
ステップS46において次の画素があると判定された場合、処理はステップS43に戻り、まだ処理対象画素に設定していない画素を処理対象画素に設定して、それ以降の処理が行われる。
一方、ステップS46において次の画素がないと判定された場合、処理はステップS47に進み、前景背景差分処理部43は、前景のみのフレーム画像を生成する。すなわち、ステップS47では、ステップS41で読み込んだ本番動画像のフレーム画像のうち、前景の画素に設定された画素のみを集めたフレーム画像が生成される。背景の画素と設定された画素には、例えば、0などの固定の画素値が格納される。
次に、ステップS48において、前景背景差分処理部43は、次のフレーム画像があるか、すなわち、本番動画像のなかで、前景のみのフレーム画像の生成をまだ行っていないフレーム画像があるか否かを判定する。
ステップS48において次のフレーム画像があると判定された場合、処理はステップS41に戻り、前景のみのフレーム画像の生成をまだ行っていない本番動画像のフレーム画像が、次のフレーム画像として読み込まれて、それ以降の処理が行われる。
一方、ステップS48において次のフレーム画像がないと判定された場合、処理はステップS49に進み、前景背景差分処理部43は、動画像の差分データを生成する。すなわち、前景背景差分処理部43は、繰り返し実行されたステップS47の処理で生成された前景のみのフレーム画像を、本番動画像のフレーム画像と同じ順番に配列することで、動画像の差分データを生成する。
以上で、図11の前景背景差分処理は終了する。図11の前景背景差分処理は、複数のカメラ12により撮影された本番動画像のそれぞれに対して行われる。各カメラ12に対応する本番動画像を1つずつ順番に選択して前景背景差分処理を実行してもよいし、2つ以上または全ての本番動画像を同時に選択して前景背景差分処理を実行してもよい。全てのカメラ12に対応する全ての本番動画像に対して動画像の差分データが生成された後、図10のステップS31に戻り、それ以降の処理が行われる。
以上の撮影システム1によれば、被写体となる人物が本番撮影時にモニタ13に表示された参考動画像を確認しながら、撮影することが可能となり、その際にモニタ13に表示される動画像が被写体として抽出されることを防止することができる。
<4.モニタリング表示を行う場合の処理について>
次に、撮影システム1が、モニタリング表示を行いながら、動画像の撮影を行う場合について説明する。
撮影システム1がモニタリング表示を行う場合、上述したように、カメラ12で撮影されている動画像が、参考動画像としてリアルタイムにモニタ13に表示される。すなわち、本番撮影時には、撮影中の本番動画像が参考動画像としてモニタ13にそのまま表示されることになる。
この場合、背景撮影時には、モニタ13に参考動画像として表示される本番動画像が必要となることから、背景撮影より前に本番撮影が行われ、本番撮影の後に背景撮影が行われる。背景撮影時には、本番撮影時にモニタ13に表示され、制御装置11に記憶されている本番動画像が参考動画像として表示される。
<撮影システム1の構成>
図12は、モニタリング表示を行う場合の撮影システム1の構成例を示すブロック図である。
図12において、図7の撮影システム1の構成と同じ構成には同じ符号を付してあり、重複する説明については適宜省略する。
図12に示す撮影システム1の構成は、カメラ12-mにより得られる本番動画像が表示部52に供給される点で、図7を参照して説明した撮影システム1の構成と異なる。
カメラ12-m(mは1乃至Nのいずれか)は、モニタ13に表示される参考動画像としての本番動画像の撮影を行うカメラである。カメラ12-mに対しては、カメラ12-n(nはmを除いた1乃至N)と同じ同期信号が同期信号生成部34から供給される。
カメラ12-mには、カメラ12-nと同様に、撮影部51-mが設けられている。撮影部51-mは、同期信号生成部34から供給される同期信号に基づく撮影タイミングで本番動画像または背景動画像の撮影を行う。本番撮影時、撮影部51-mにより撮影された本番動画像は、記憶制御部35と表示部52に供給される。背景撮影時、撮影部51-mにより撮影された背景動画像は、表示部52には供給されずに記憶制御部35に供給される。
本番撮影時、表示部52は、同期信号生成部34から供給される同期信号に基づく表示タイミングで、撮影部51-mから供給される本番動画像を参考動画像として表示する。一方、背景撮影時、表示部52は、同期信号生成部34から供給される同期信号に基づく表示タイミングで、再生部33から供給される参考動画像を表示する。再生部33から供給される参考動画像は、本番撮影時に撮影部51-mから供給される本番動画像と同一である。
制御部32は、操作部31から供給される情報に基づいて、カメラ12-mをカメラ12-nと同様に制御する。本番撮影または背景撮影を開始するための操作が操作部31により検出された場合、制御部32は、撮影部51-mおよび撮影部51-nを制御し、動画像のフレームレートや解像度の設定などの各種の設定を行う。
また、制御部32は、本番撮影時には、撮影部51-mで撮影された本番動画像が参考動画像としてモニタ13に表示されるため、再生部33に所定の動画像の再生を行わせない。換言すれば、制御部32は、本番撮影時には、再生部33が所定の動画像の再生を行わないように制御する。一方、制御部32は、背景撮影時には、本番撮影時にモニタ13に表示された本番動画像を参考動画像としてモニタ13に再度表示させるための制御を再生部33に対して行う。
再生部33は、本番撮影時には、制御部32による制御に従って、所定の動画像の再生を行わない。一方、再生部33は、背景撮影時には、記憶部36に記憶されている本番動画像の中から、制御部32により指定された本番動画像(撮影部51-mで撮影された本番動画像)を取得し、再生する。再生部33が、モニタ13の表示タイミングに先行して参考動画像のデコードを行って、参考動画像としての本番動画像を表示部52に供給する点は、図7と同様である。
記憶制御部35は、撮影部51-mおよび撮影部51-nから供給された動画像を所定の符号化方式でエンコードし、記憶部36に記憶させる。
再生用データ記憶部41には、撮影部51-mにより撮影された本番動画像が参考動画像として記憶される。
<制御装置11の動作>
次に、図13のフローチャートを参照して、モニタリング表示を行う場合の制御装置11の同期動画像生成処理について説明する。
図13の同期動画像生成処理は、例えば、本番撮影を開始するための操作が操作部31により検出されたときに開始される。
はじめに、ステップS101において、制御装置11は、本番動画像撮影処理を行う。ステップS101の処理では、カメラ12-mにより撮影されている本番動画像がモニタ13に表示され、撮影空間に被写体が存在する状態で、図9の動画像撮影処理が行われる。本番動画像撮影処理により、各カメラ12で撮影された本番動画像が記憶部36に記憶される。
次に、背景撮影を開始するための操作が操作部31により検出されると、ステップS102において、制御装置11は、背景動画像撮影処理を行う。ステップS102の処理では、ステップS101の処理でモニタ13に表示された本番動画像が参考動画像としてモニタ13に表示され、撮影空間に被写体が存在しない状態で、図9の動画像撮影処理が行われる。背景動画像撮影処理により、各カメラ12で撮影された背景動画像が記憶部36に記憶される。
図13の同期動画像生成処理により生成された本番動画像と背景動画像とを用いて、被写体の3Dモデルデータが生成される。なお、被写体の3Dモデルデータを生成する処理は、図10に示した被写体の3Dモデルデータ生成処理と同様であるため、その説明は省略する。
以上の撮影システム1によれば、被写体となる人物が本番撮影時に自身の動きを確認しながら、3Dモデルデータの生成に必要な動画像を生成することが可能となり、その際にモニタ13に表示される動画像が被写体として抽出されることを防止することができる。
<5.変形例>
<タイムコードが表示される例>
本番撮影と背景撮影のそれぞれの撮影時、制御部32は、モニタ13に、参考動画像とともに、タイムコードを示す情報が表示されるように制御することができる。
この場合、カメラ12により撮影された動画像自体のタイムコードと、カメラ12により撮影された動画像内に写り込んでいるタイムコードとが一致しているかを確認することができる。これにより、カメラ12の撮影タイミングとモニタ13の表示タイミングの同期を確認することが容易に可能となる。
<複数台のモニタ13を配置する例>
被写体として複数人の人物が存在する状態で本番撮影が行われる場合や、被写体となる人物が様々な方向を向いて本番撮影が行われる場合がある。この場合、複数台のモニタ13が撮影空間に配置されることが好ましい。
図14は、撮影システム1の他の構成例であり、複数台のモニタ13を撮影空間に配置するようにした場合の撮影システム1の構成例を示す図である。
図14の撮影システム1は、制御装置11、N台のカメラ12-1乃至12-N、およびN台のモニタ13-1乃至13-Nにより構成される。カメラ12-1乃至12-Nとモニタ13-1乃至13-Nは、同じ撮影空間に配置される。
モニタ13-1乃至13-Nのそれぞれには、異なる参考動画像が表示されるようにしてもよいし、同じ参考動画像が表示されるようにしてもよい。
複数台のモニタ13が設けられる場合においても、制御装置11により生成される同期信号に基づいて、カメラ12-1乃至12-Nの撮影タイミングと、モニタ13-1乃至13-Nの表示タイミングとが同期するように制御される。
図15は、N=8とした図14の撮影システム1における本番撮影時の状況を示す平面図である。
図15の例では、8台のカメラ12-1乃至12-8と8台のモニタ13-1乃至13-8が交互に並ぶようにして環状に配置されている。
モニタ13-1乃至13-8は、正面を中央に向けて、カメラ12-1とカメラ12-2の間、カメラ12-2とカメラ12-3の間、カメラ12-3とカメラ12-4の間、カメラ12-4とカメラ12-5の間、カメラ12-5とカメラ12-6の間、カメラ12-6とカメラ12-7の間、カメラ12-7とカメラ12-8の間、およびカメラ12-8とカメラ12-1の間にそれぞれ配置されている。
なお、図14および図15の例では、カメラ12の台数と同じ台数のモニタ13が撮影システム1に設けられる例を示したが、撮影システム1に設けられるモニタ13の台数はカメラ12の台数と異なっていてもよい。
以上のように、複数台のモニタ13が設けられる場合においても、制御装置11は、本番動画像と背景動画像を用いて前景背景差分処理を行うことによって、被写体として想定している例えば人物のみを前景として本番動画像から分離することが可能となる。この際、同期信号に基づいて、カメラ12-1乃至12-Nの撮影タイミングと、モニタ13-1乃至13-Nの表示タイミングとが同期するように制御されることにより、本番動画像に写り込むモニタ13-1乃至13-Nの参考動画像が被写体として抽出されることを防止することが可能となる。
<同期信号生成装置が設けられる例>
図7の撮影システム1においては、同期信号生成部34が制御装置11内に設けられるものとしたが、同期信号生成部34の機能については、制御装置11の外部の装置において実現されるようにしてもよい。
図16は、撮影システム1のさらに他の構成例であって、同期信号生成部34の機能を別装置とした場合の撮影システム1の構成例を示す図である。
図16に示す撮影システム1は、制御装置11A、カメラ12-1乃至12-N、モニタ13、および同期信号生成装置101がそれぞれ直接またはネットワークを介して接続されることによって構成される。
同期信号生成装置101には、図7の同期信号生成部34の構成が設けられる。すなわち、同期信号生成装置101は、制御装置11による制御に従って、同期信号を生成し、カメラ12-1乃至12-Nとモニタ13にそれぞれ供給する。制御装置11Aは、図7の制御装置11から同期信号生成部34を除いた構成とされる。
このように、制御装置11に設けられる一部の構成が制御装置11の外部に設けられるようにしてもよい。
<フレームレート変換を行う例>
上述した各実施の形態では、カメラ12が本番撮影または背景撮影を行う際のフレームレートと、再生部33が参考動画像を再生する際のフレームレートが同一である前提で説明したが、参考動画像のフレームレートが、カメラ12が撮影を行うフレームレートと異なる場合もあり得る。その場合、制御部32は、再生部33にフレームレートを指定し、再生部33は、制御部32から指定された参考動画像を、指定されたフレームレートに変換して再生し、表示部52に供給することができる。
また、例えば、参考動画像としてモニタ13に表示させたい台詞や歌詞が動画像ではなく、1枚以上の静止画像で構成される場合には、再生部33は、その静止画像を、制御部32から指定されたフレームレートの動画像に変換して、表示部52に供給することができる。
<6.コンピュータの構成例>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図17は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
CPU(Central Processing Unit)301、ROM(Read Only Memory)302、RAM(Random Access Memory)303は、バス304により相互に接続されている。
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、入力部306、出力部307、記憶部308、通信部309、およびドライブ310が接続されている。
入力部306は、キーボード、マウス、マイクロホン、タッチパネル、入力端子などよりなる。出力部307は、ディスプレイ、スピーカ、出力端子などよりなる。記憶部308は、ハードディスク、RAMディスク、不揮発性のメモリなどよりなる。通信部309は、ネットワークインタフェースなどよりなる。ドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体311を駆動する。
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを入出力インタフェース305およびバス304を介してRAM303にロードして実行することにより、上述した一連の処理が行われる。RAM303にはまた、CPU301が各種の処理を実行する上において必要なデータなども適宜記憶される。
コンピュータ(CPU301)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブル記録媒体311に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブル記録媒体311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
なお、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる場合はもちろん、必ずしも時系列的に処理されなくとも、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで実行されてもよい。
なお、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、および、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
<構成の組み合わせ例>
本技術は、以下のような構成をとることもできる。
(1)
撮像装置が撮影を行う撮影タイミングと、前記撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させる制御を行う制御部と、
第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理を行う画像処理部とを備え、
前記第2動画像および前記第3動画像は、前記第2動画像および前記第3動画像で前記表示タイミングが同期された前記第1動画像の少なくとも一部を共に含む
制御装置。
(2)
前記第2動画像は、被写体および背景を含む動画像である本番動画像であり、
前記第3動画像は、前記背景を含む動画像である背景動画像であり、
前記画像処理部は、前記背景動画像と前記本番動画像とを用いて前記前景背景差分処理を行う
前記(1)に記載の制御装置。
(3)
前記第1動画像は、前記本番動画像の撮影時に参考とする参考動画像であり、
前記制御部は、前記参考動画像を前記表示装置に表示させる制御をさらに行う
前記(2)に記載の制御装置。
(4)
前記参考動画像は、所定の記憶部から読み出されて再生された動画像である
前記(3)に記載の制御装置。
(5)
前記所定の記憶部に記憶されている前記参考動画像を再生する再生部をさらに備え、
前記再生部は、前記表示装置の表示タイミングに先行して、前記参考動画像のデコードを行う
前記(4)に記載の制御装置。
(6)
前記参考動画像は、前記本番動画像の撮影において前記撮像装置で撮影された動画像である
前記(3)に記載の制御装置。
(7)
前記制御部は、前記第1タイミングおよび前記第2タイミングにおいて、同一の前記参考動画像を前記表示装置に表示させる
前記(3)乃至(6)のいずれかに記載の制御装置。
(8)
前記制御部は、前記本番動画像および前記背景動画像の撮影を行う際、前記本番動画像および前記背景動画像の同じフレーム番号において、同一の前記参考動画像のフレーム画像を前記表示装置に表示させる
前記(7)に記載の制御装置。
(9)
前記制御部は、同期信号を生成させ、前記同期信号の立ち上がりまたは立ち下がりのタイミングで、前記撮像装置に撮影を行わせるとともに、前記表示装置に前記第1動画像を表示させる
前記(1)乃至(8)のいずれかに記載の制御装置。
(10)
前記制御部は、複数台の前記撮像装置が撮影を行う撮影タイミングと、複数台の前記表示装置が前記第1動画像を表示する表示タイミングとを同期させる制御を行う
前記(1)乃至(9)のいずれかに記載の制御装置。
(11)
前記制御部は、複数台の前記表示装置にそれぞれ異なる前記第1動画像を表示させる
前記(10)に記載の制御装置。
(12)
前記制御部は、タイムコードを示す情報を、前記第1動画像とともに前記表示装置に表示させる制御をさらに行う
前記(1)乃至(11)のいずれかに記載の制御装置。
(13)
前記制御部の制御に基づいて、前記同期信号を生成する同期信号生成部をさらに備える
前記(9)に記載の制御装置。
(14)
前記画像処理部は、前記撮像装置により撮影された前記第2動画像と前記第3動画像との前景背景差分処理を行うことにより差分データを生成し、前記差分データに基づいて3Dモデルデータをさらに生成する
前記(1)乃至(13)のいずれかに記載の制御装置。
(15)
複数台の撮像装置と、
少なくとも1台の表示装置と、
前記複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置のうちの少なくとも1つの撮像装置の撮影範囲に位置する前記表示装置が第1動画像を表示する表示タイミングとを同期させる制御を行う制御部と、
第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理を行う画像処理部と
を備え、
前記第2動画像および前記第3動画像は、前記第1動画像の少なくとも一部を共に含む
撮影システム。
(16)
複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置のうちの少なくとも1つの撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させて前記複数台の撮像装置で撮影し、
第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて、前景背景差分処理を行うことによって差分データを生成し、
前前記差分データに基づいて3Dモデルデータを生成する
3Dモデルデータ生成方法。
11 制御装置, 12-1乃至12-N カメラ, 13 モニタ, 31 操作部, 32 制御部, 33 再生部, 34 同期信号生成部, 35 記憶制御部, 36 記憶部, 37 画像処理部, 41 再生用データ記憶部, 42 撮影用データ記憶部, 43 前景背景差分処理部, 44 3Dモデルデータ生成部, 51 撮影部, 52 表示部,101 同期信号生成装置

Claims (16)

  1. 撮像装置が撮影を行う撮影タイミングと、前記撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させる制御を行う制御部と、
    第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理を行う画像処理部とを備え、
    前記第2動画像および前記第3動画像は、前記第2動画像および前記第3動画像で前記表示タイミングが同期された前記第1動画像の少なくとも一部を共に含む
    制御装置。
  2. 前記第2動画像は、被写体および背景を含む動画像である本番動画像であり、
    前記第3動画像は、前記背景を含む動画像である背景動画像であり、
    前記画像処理部は、前記背景動画像と前記本番動画像とを用いて前記前景背景差分処理を行う
    請求項1に記載の制御装置。
  3. 前記第1動画像は、前記本番動画像の撮影時に参考とする参考動画像であり、
    前記制御部は、前記参考動画像を前記表示装置に表示させる制御をさらに行う
    請求項2に記載の制御装置。
  4. 前記参考動画像は、所定の記憶部から読み出されて再生された動画像である
    請求項3に記載の制御装置。
  5. 前記所定の記憶部に記憶されている前記参考動画像を再生する再生部をさらに備え、
    前記再生部は、前記表示装置の表示タイミングに先行して、前記参考動画像のデコードを行う
    請求項4に記載の制御装置。
  6. 前記参考動画像は、前記本番動画像の撮影において前記撮像装置で撮影された動画像である
    請求項3に記載の制御装置。
  7. 前記制御部は、前記第1タイミングおよび前記第2タイミングにおいて、同一の前記参考動画像を前記表示装置に表示させる
    請求項3に記載の制御装置。
  8. 前記制御部は、前記本番動画像および前記背景動画像の撮影を行う際、前記本番動画像および前記背景動画像の同じフレーム番号において、同一の前記参考動画像のフレーム画像を前記表示装置に表示させる
    請求項7に記載の制御装置。
  9. 前記制御部は、同期信号を生成させ、前記同期信号の立ち上がりまたは立ち下がりのタイミングで、前記撮像装置に撮影を行わせるとともに、前記表示装置に前記第1動画像を表示させる
    請求項1に記載の制御装置。
  10. 前記制御部は、複数台の前記撮像装置が撮影を行う撮影タイミングと、複数台の前記表示装置が前記第1動画像を表示する表示タイミングとを同期させる制御を行う
    請求項1に記載の制御装置。
  11. 前記制御部は、複数台の前記表示装置にそれぞれ異なる前記第1動画像を表示させる
    請求項10に記載の制御装置。
  12. 前記制御部は、タイムコードを示す情報を、前記第1動画像とともに前記表示装置に表示させる制御をさらに行う
    請求項1に記載の制御装置。
  13. 前記制御部の制御に基づいて、前記同期信号を生成する同期信号生成部をさらに備える
    請求項9に記載の制御装置。
  14. 前記画像処理部は、前記撮像装置により撮影された前記第2動画像と前記第3動画像との前景背景差分処理を行うことにより差分データを生成し、前記差分データに基づいて3Dモデルデータをさらに生成する
    請求項1に記載の制御装置。
  15. 複数台の撮像装置と、
    少なくとも1台の表示装置と、
    前記複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置のうちの少なくとも1つの撮像装置の撮影範囲に位置する前記表示装置が第1動画像を表示する表示タイミングとを同期させる制御を行う制御部と、
    第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて前景背景差分処理を行う画像処理部と
    を備え、
    前記第2動画像および前記第3動画像は、前記第1動画像の少なくとも一部を共に含む
    撮影システム。
  16. 複数台の撮像装置が撮影を行う撮影タイミングと、前記複数台の撮像装置のうちの少なくとも1つの撮像装置の撮影範囲に位置する表示装置が第1動画像を表示する表示タイミングとを同期させて前記複数台の撮像装置で撮影し、
    第1タイミングで前記撮像装置により撮影された第2動画像と、前記第1タイミングと異なるタイミングである第2タイミングで前記撮像装置により撮影された第3動画像とに基づいて、前景背景差分処理を行うことによって差分データを生成し、
    前記差分データに基づいて3Dモデルデータを生成する
    3Dモデルデータ生成方法。
JP2021574621A 2020-01-30 2021-01-15 制御装置、撮影システム、および3dモデルデータ生成方法 Active JP7616079B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020013883 2020-01-30
JP2020013883 2020-01-30
PCT/JP2021/001159 WO2021153261A1 (ja) 2020-01-30 2021-01-15 制御装置、撮影システム、および3dモデルデータ生成方法

Publications (2)

Publication Number Publication Date
JPWO2021153261A1 JPWO2021153261A1 (ja) 2021-08-05
JP7616079B2 true JP7616079B2 (ja) 2025-01-17

Family

ID=77078858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021574621A Active JP7616079B2 (ja) 2020-01-30 2021-01-15 制御装置、撮影システム、および3dモデルデータ生成方法

Country Status (4)

Country Link
US (1) US12063452B2 (ja)
JP (1) JP7616079B2 (ja)
CN (1) CN114982220B (ja)
WO (1) WO2021153261A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009074836A (ja) 2007-09-19 2009-04-09 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法及び画像処理プログラム
JP2009159525A (ja) 2007-12-27 2009-07-16 Isp:Kk 撮像装置及び画像合成プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9474968B2 (en) * 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
KR101552475B1 (ko) * 2007-11-22 2015-09-11 가부시키가이샤 한도오따이 에네루기 켄큐쇼 화상 처리 방법, 화상 표시 시스템, 및 컴퓨터 프로그램
JP2009151896A (ja) * 2007-12-21 2009-07-09 Sony Corp 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
JP5340895B2 (ja) * 2009-11-24 2013-11-13 株式会社ソニー・コンピュータエンタテインメント 画像データ作成支援装置および画像データ作成支援方法
JP2011223292A (ja) * 2010-04-09 2011-11-04 Sony Corp 撮像装置、表示制御方法およびプログラム
JP5751270B2 (ja) * 2013-03-21 2015-07-22 カシオ計算機株式会社 撮像装置、撮像制御方法及びプログラム
JP6171651B2 (ja) * 2013-07-16 2017-08-02 ノーリツプレシジョン株式会社 画像処理プログラム及び画像処理装置
JP5804007B2 (ja) * 2013-09-03 2015-11-04 カシオ計算機株式会社 動画生成システム、動画生成方法及びプログラム
JP2017208604A (ja) 2016-05-16 2017-11-24 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、プログラム
CN109891875B (zh) * 2016-11-08 2021-11-16 索尼公司 图像传送设备、方法、系统和存储介质
JP7200678B2 (ja) 2017-02-20 2023-01-10 ソニーグループ株式会社 画像処理装置および画像処理方法
JP2018150933A (ja) * 2017-03-10 2018-09-27 日本電産株式会社 軸流ファン
JP7066476B2 (ja) 2017-03-28 2022-05-13 キヤノンメディカルシステムズ株式会社 医用画像処理装置、医用画像処理方法及びx線診断装置
JP6944272B2 (ja) * 2017-04-25 2021-10-06 キヤノン株式会社 動体検出装置およびその制御方法
JP7119425B2 (ja) * 2018-03-01 2022-08-17 ソニーグループ株式会社 画像処理装置、符号化装置、復号化装置、画像処理方法、プログラム、符号化方法及び復号化方法
JP7250588B2 (ja) * 2019-03-28 2023-04-03 キヤノン株式会社 画像処理装置、送信方法、及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009074836A (ja) 2007-09-19 2009-04-09 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法及び画像処理プログラム
JP2009159525A (ja) 2007-12-27 2009-07-16 Isp:Kk 撮像装置及び画像合成プログラム

Also Published As

Publication number Publication date
JPWO2021153261A1 (ja) 2021-08-05
US20230035765A1 (en) 2023-02-02
CN114982220A (zh) 2022-08-30
US12063452B2 (en) 2024-08-13
WO2021153261A1 (ja) 2021-08-05
CN114982220B (zh) 2025-01-14

Similar Documents

Publication Publication Date Title
US10368011B2 (en) Camera array removing lens distortion
US11557081B2 (en) Image processing apparatus, control method for an image processing apparatus, and medium
US7027659B1 (en) Method and apparatus for generating video images
CN108353157B (zh) 编码设备和编码方法以及解码设备和解码方法
US10694167B1 (en) Camera array including camera modules
US20080158345A1 (en) 3d augmentation of traditional photography
US11108971B2 (en) Camera array removing lens distortion
JP2014502818A (ja) 画像処理のための一次像および二次像画像取込装置およびその方法
US10186301B1 (en) Camera array including camera modules
CN119071463A (zh) 一种虚拟拍摄方法及装置
CN108632538B (zh) 一种cg动画和相机阵列相结合的子弹时间拍摄系统及方法
US10552980B2 (en) Image processing apparatus, image processing method, and storage medium
JP7616079B2 (ja) 制御装置、撮影システム、および3dモデルデータ生成方法
CN107580228B (zh) 一种监控视频处理方法、装置及设备
JP2023167486A (ja) 画像処理装置、画像処理方法およびプログラム
US12439014B2 (en) Image processing system, image processing apparatus, control method of image processing apparatus, and storage medium
CN119011998A (zh) 一种虚拟拍摄方法、视频处理方法及装置
KR102314478B1 (ko) 전방위 멀티카메라를 이용한 동영상 실시간 모니터링 방법 및 장치
CN115941923B (zh) 虚拟现实设备与图像处理方法
JP2008282077A (ja) 撮像装置および画像処理方法並びにそのプログラム
JP2023003096A (ja) 画像処理システム
JP6488570B2 (ja) 撮影装置、撮影方法及びプログラム
WO2024009745A1 (ja) 情報処理装置、情報処理方法、および記録媒体
KR101325129B1 (ko) 멀티미디어 동영상 처리장치와 방법 및 동영상 처리를 위한 컴퓨터 프로그램 저장수단
EP3926949B1 (en) Control apparatus, control method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20241216

R150 Certificate of patent or registration of utility model

Ref document number: 7616079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150