JP2022182835A - Image processing system, and control method and program thereof - Google Patents

Image processing system, and control method and program thereof Download PDF

Info

Publication number
JP2022182835A
JP2022182835A JP2021090583A JP2021090583A JP2022182835A JP 2022182835 A JP2022182835 A JP 2022182835A JP 2021090583 A JP2021090583 A JP 2021090583A JP 2021090583 A JP2021090583 A JP 2021090583A JP 2022182835 A JP2022182835 A JP 2022182835A
Authority
JP
Japan
Prior art keywords
image
background
foreground
image processing
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021090583A
Other languages
Japanese (ja)
Inventor
隆 川井
Takashi Kawai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021090583A priority Critical patent/JP2022182835A/en
Publication of JP2022182835A publication Critical patent/JP2022182835A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

To reduce a load of foreground extraction in producing a virtual viewpoint image.SOLUTION: An image processing system generates a virtual viewpoint image showing a view from a virtual viewpoint according to photographic images obtained by imaging a space including a subject with a plurality of imaging apparatuses. The image processing system includes: a projection part configured to project an image in a prescribed color with brightness different from that of a background, onto the background in a prescribed color different from the subject of a foreground; and a separation part configured to separate the foreground from the photographic image according to a color difference.SELECTED DRAWING: Figure 1

Description

本開示は前景/背景分離処理技術に関するものである。 The present disclosure relates to foreground/background separation processing techniques.

テレビ放送局などの撮影スタジオでは、通常、出演者のセリフや番組残り時間を紙に書いた所謂カンペと称する道具を出演者に提示することで、出演者にセリフや番組進行状況を知らせている。また、近年ではグリーンやブルーなど特定な色を有する背景の前に出演者を配置させ、カメラ撮影画像から背景と出演者との映像領域を画像処理によって分離し、背景画像領域を別の映像に置換し合成映像を作成するクロマキー処理が行なわれる機会も多いが、このような撮影においてもカンペなどの出演者支援道具は、番組進行上、重要な役割を果たしている。 In filming studios such as television broadcasting stations, the performers are usually notified of the lines and the progress of the program by presenting a tool called a so-called kanpe, which is a piece of paper written by the performers and the remaining time of the program. . In recent years, the performer is placed in front of a background with a specific color such as green or blue, and the image area of the background and the performer is separated from the image captured by the camera by image processing, and the background image area is replaced with another image. There are many occasions when chromakey processing is performed to create a composite image by replacement, and performer support tools such as campaigns play an important role in the progress of programs even in such shooting.

一方、出演者の周囲を取り囲む複数台のカメラで出演者を撮影し、当該撮影像から任意の視点(仮想視点)からの映像を生成する仮想視点(自由視点とも言う)映像技術がある(特許文献1)。仮想視点映像技術においても、クロマキー処理を取り入れ組み合わせることで、任意の背景画像を出演者と合成することで、三次元背景空間の中にいる出演者を任意の視点から視聴が可能となる。 On the other hand, there is a virtual viewpoint (also called free viewpoint) video technology that shoots the performer with multiple cameras surrounding the performer and generates video from an arbitrary viewpoint (virtual viewpoint) from the captured image (patent Reference 1). Virtual viewpoint video technology also incorporates chromakey processing and synthesizes an arbitrary background image with the performer, making it possible to view the performer in a three-dimensional background space from an arbitrary viewpoint.

特開2010-020487号公報JP 2010-020487 A

仮想視点映像を制作するための撮影スタジオでは、出演者の周囲を取り囲む複数台のカメラで出演者を撮影する。更に、クロマキー処理などの背景差分法を組み合わせる場合においては、出演者の周囲の閉空間全体がグリーンやブルーの特定色を有する必要がある。そのため、本来、撮影対象ではない撮影スタジオ内のカンペなどは背景差分法による前景領域となってしまい、出演者以外の前景の除去処理等の負担が発生してしまう。 In a shooting studio for producing virtual viewpoint video, a plurality of cameras surrounding the performer are used to shoot the performer. Furthermore, when combining a background subtraction method such as chromakey processing, the entire closed space around the performer must have a specific color of green or blue. As a result, the competition in the photography studio, which is not originally the object of photography, becomes the foreground area by the background subtraction method, and a burden such as processing for removing the foreground other than the performers is generated.

この課題を解決するため、例えば本開示の画像処理システムは以下の構成を備える。すなわち、
被写体を含む空間を複数の撮影装置により撮影することで得られた撮影画像に基づいて、仮想視点からの見えを表す仮想視点画像を生成する画像処理システムであって、
前景となる被写体とは異なる、所定色の背景に、前記背景とは明度が異なり前記所定色の像を投影する投影手段と、
前記撮影画像から、色の差異に基づいて前記前景を分離する分離手段とを有する。
In order to solve this problem, for example, the image processing system of the present disclosure has the following configuration. i.e.
An image processing system that generates a virtual viewpoint image representing a view from a virtual viewpoint based on captured images obtained by capturing a space including a subject with a plurality of capturing devices,
Projecting means for projecting an image of a predetermined color with a brightness different from that of the background onto a background of a predetermined color different from a foreground subject;
separating means for separating the foreground from the captured image based on color differences.

本開示によれば、仮想視点映像を制作において、前景抽出に係る負荷を軽減することが可能になる。 According to the present disclosure, it is possible to reduce the load related to foreground extraction in producing a virtual viewpoint video.

第1実施形態の仮想視点映像の撮影スタジオ構成図。FIG. 2 is a configuration diagram of a shooting studio for virtual viewpoint video according to the first embodiment; 第1実施形態の仮想視点映像の画像処理システム構成図。FIG. 2 is a configuration diagram of an image processing system for virtual viewpoint video according to the first embodiment; 第1実施形態におけるスタジオ壁面を含むカメラ撮影領域を示す図。FIG. 4 is a diagram showing a camera shooting area including a studio wall surface in the first embodiment; 第1実施形態における前景背景分離の色空間図と分離結果を示す図。4A and 4B are diagrams showing a color space diagram and a separation result of foreground/background separation in the first embodiment; FIG. 第1実施形態の処理手順とグレースケールの例を示す図。4A and 4B are diagrams showing a processing procedure and an example of grayscale according to the first embodiment; FIG. 第2実施形態の仮想視点映像の撮影スタジオ構成図。FIG. 11 is a block diagram of a shooting studio for virtual viewpoint video according to the second embodiment; 第2実施形態の仮想視点映像の画像処理システム構成図。FIG. 11 is a configuration diagram of an image processing system for virtual viewpoint video according to the second embodiment; 第3実施形態の仮想視点映像の画像処理システム構成図。FIG. 11 is a configuration diagram of an image processing system for virtual viewpoint video according to the third embodiment; 第3実施形態の仮想視点映像の撮影スタジオ構成図。FIG. 11 is a block diagram of a shooting studio for virtual viewpoint video according to the third embodiment; 実施形態における画像処理装置又はシステム制御装置のハードウェア構成図。2 is a hardware configuration diagram of an image processing apparatus or system control apparatus according to the embodiment; FIG.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the invention according to the scope of claims. Although multiple features are described in the embodiments, not all of these multiple features are essential to the invention, and multiple features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.

[第1の実施形態]
先ず、図1(a),(b)を参照して、第1の実施形態における、仮想視点画像を生成するための画像処理システムのスタジオ構成を説明する。なお、簡便化のため、画像処理システムのスタジオ構成を、単に「スタジオ」と呼ぶ。
[First embodiment]
First, referring to FIGS. 1A and 1B, a studio configuration of an image processing system for generating a virtual viewpoint image according to the first embodiment will be described. For the sake of simplification, the studio configuration of the image processing system is simply referred to as "studio".

図1(a)はスタジオの上面図であり、図1(b)はスタジオの側面図を表す。図示の参照符号100はスタジオ壁面を表し、仮想視点映像撮影は、このスタジオ壁面100を境界とする閉空間内で行われる。 FIG. 1(a) is a top view of the studio, and FIG. 1(b) is a side view of the studio. Reference numeral 100 in the drawing represents a studio wall surface, and virtual viewpoint video shooting is performed within a closed space bounded by this studio wall surface 100 .

本実施形態では、撮影被写体である出演者を前景、スタジオ壁面100を背景とし、前景と背景それぞれの色情報を用いた背景差分法を用いて、前景である撮影出演者を抽出する。背景差分法適用のための背景(スタジオ壁面100)は特定色に塗られており。一般にクロマキー技術で採用されるグリーンやブルーが好ましいが、これに限定するものではない。 In this embodiment, the performer, who is the photographed subject, is the foreground, and the studio wall surface 100 is the background, and the background subtraction method using the color information of the foreground and the background is used to extract the photographed performer who is the foreground. The background (studio wall 100) for applying the background subtraction method is painted in a specific color. Green and blue, which are generally used in chromakey technology, are preferred, but are not limited to these.

また、当該特定色はスタジオ壁面100に直接塗られていることに限らず、撮影番組(プログラム)に応じて色を変更可能なように、スタジオ壁面100にグリーンやブルーなどの所定色のカーテンを懸架し、必要に応じてカーテンを張り替えるなどして色を変更して使用してもよい。なお、説明を単純化するため、本実施形態におけるスタジオ壁面(カーテンを含む)100はグリーンであるとする(グリーンバック)。 In addition, the particular color is not limited to being directly painted on the studio wall surface 100, and a curtain of a predetermined color such as green or blue is placed on the studio wall surface 100 so that the color can be changed according to the filmed program (program). It may be hung and used by changing the color by changing the curtains as necessary. To simplify the explanation, it is assumed that the studio wall surface (including the curtain) 100 in this embodiment is green (green screen).

参照符号101~116は、スタジオ内全域をあらゆる方向から隙間なく撮影可能なように、図1(a)に示すように、スタジオ周囲全体を取り囲むように配置された、仮想視点映像を生成するための複数のカメラである。カメラ101~116は、同図(b)で示すようにスタジオ壁面の上部に配置されている。 Reference numerals 101 to 116 are arranged to surround the entire studio as shown in FIG. are multiple cameras. Cameras 101 to 116 are arranged on the upper part of the wall surface of the studio as shown in FIG.

なお、本実施形態では、全てのカメラが、図1(b)で示すようにスタジオ壁面の上部に配置されているが、一部カメラの高さを下げ、スタジオ壁面の一部を繰り抜き、スタジオ壁面裏側から撮影しても良い。なお以降、カメラ撮影像は、単に撮影画像または撮影像と呼ぶ。 In this embodiment, all the cameras are arranged on the upper part of the studio wall surface as shown in FIG. 1(b). You can shoot from behind the wall of the studio. Hereinafter, the image captured by the camera will simply be referred to as a captured image or a captured image.

カメラ101~116それぞれには、後述する画像処理装置1001~1016が接続されている。なお、本実施形態ではカメラ台数および画像処理装置台数をそれぞれ16台としたが、これに限らずカメラおよび画像処理装置の設置台数はスタジオの大きさや、撮影画像の解像度に対応して増減しても良い。図示はあくまで例示であると理解されたい。 Image processing apparatuses 1001 to 1016, which will be described later, are connected to the cameras 101 to 116, respectively. In this embodiment, the number of cameras and the number of image processing devices are set to 16 respectively, but the number of installed cameras and image processing devices is not limited to 16, and the number of installed cameras and image processing devices can be increased or decreased according to the size of the studio and the resolution of the captured image. Also good. The illustrations should be understood to be exemplary only.

画像処理装置1001~1016は、ネットワークケーブルによって相互にデイジーチェーン状に接続されておりその終端はシステム制御装置120へ接続されている。カメラ101の撮影像は画像処理装置1016に転送される。この画像処理装置1016は、後述の前景背景分離処理によって前景を分離し、分離した前景を表す画像を、デイジーチェーン状のネットワークケーブルを介して、システム制御装置120へ送信する。他のカメラ102~116、画像処理装置1002~1016でも、カメラ101と画像処理装置1001と同様の処理が行われる。 The image processing apparatuses 1001 to 1016 are connected to each other in a daisy chain by network cables, and the end of the chain is connected to the system controller 120 . An image captured by the camera 101 is transferred to the image processing device 1016 . The image processing device 1016 separates the foreground by foreground/background separation processing, which will be described later, and transmits an image representing the separated foreground to the system control device 120 via a daisy chain network cable. Other cameras 102 to 116 and image processing apparatuses 1002 to 1016 also perform the same processing as the camera 101 and the image processing apparatus 1001. FIG.

参照符号130は、スタジオ天井に設置された映像プロジェクタである。図示の点線で囲まれる範囲が、この映像プロジェクタ130の投影範囲を示している。なお、本実施形態においては、便宜的に、図1(a)の上方が「北」の方位を示しているものとする。したがって、図1(a)、(b)の例は、映像プロジェクタ130がスタジオの西側壁面に映像を投影している様子を表している。なお、映像プロジェクタ130は、明度成分のみのモノクロ画像(無彩色画像)を到底する。 Reference numeral 130 is a video projector installed on the ceiling of the studio. The range surrounded by the dotted line in the drawing indicates the projection range of this video projector 130. As shown in FIG. In this embodiment, for the sake of convenience, the upper part of FIG. 1A indicates the azimuth of "north". Accordingly, the examples of FIGS. 1(a) and 1(b) show the image projector 130 projecting an image onto the west wall of the studio. It should be noted that the image projector 130 can produce a monochrome image (achromatic image) with only the lightness component.

参照符号140は、スタジオ内にいる出演者(一名)である。図示では、出演者140がスタジオ西側を向いて、西側壁面に投影された映像プロジェクタ130の投影像を見ている様子を表している。 Reference numeral 140 is the performer (one person) in the studio. The illustration shows a performer 140 facing the west side of the studio and looking at the projected image of the video projector 130 projected on the west side wall.

以上、本実施形態の仮想視点映像撮影のためのスタジオを上面から俯瞰した時の機材および出演者の構成であったが、次に図1(b)を参照して、本実施形態の仮想視点映像撮影のためのスタジオを側面から俯瞰した時の機材および出演者の構成を説明する。 The above is the configuration of the equipment and the performers when the studio for the virtual viewpoint video shooting of the present embodiment is viewed from above. Next, referring to FIG. I will explain the composition of the equipment and performers when looking at the studio for video shooting from the side.

図1(b)は、スタジオの南側に立ち北側に向かって見た側面図であり、スタジオ壁面100の上部にカメラ101~116と、映像プロジェクタ130が配置されている様子を示している。 FIG. 1(b) is a side view of the studio standing on the south side and looking toward the north side.

ここで、カメラ101~116それぞれに接続された画像処理装置1001~1016は、特に図1(b)に図示していないが、カメラ101~116同様にスタジオ壁面100の上部にカメラに隣接して配置しても良いし、また、カメラ101~116の鉛直下方の床面に設置しても良い。 Here, image processing devices 1001 to 1016 connected to cameras 101 to 116, respectively, are not shown in FIG. Alternatively, they may be installed on the floor vertically below the cameras 101-116.

映像プロジェクタ130は、図1(a)の説明と同様に点線で示す範囲でスタジオ西側壁面上に映像を投影する。そして、スタジオ内の出演者140は、映像プロジェクタ130の映像情報を読んでいる。更に詳しくは、図1(a)および図1(b)は、仮想視点映像の撮影中であり、出演者140はスタジオ内で西側を向いて演技を行なっている最中である。出演者140は、図示しない番組スタッフから出された進行指示のプロジェクタ映像を読んでいる状態である。 The image projector 130 projects an image on the west side wall of the studio within the range indicated by the dotted line as in the description of FIG. 1(a). A performer 140 in the studio is reading video information from the video projector 130 . More specifically, FIGS. 1(a) and 1(b) show the virtual viewpoint video being captured, and the performer 140 facing west in the studio during the performance. The performer 140 is in a state of reading the projector image of the progress instruction given by the program staff (not shown).

図3(a)は、スタジオ壁面100の西北付近を表す図であり、映像プロジェクタ130からスタジオ壁面100上に図示しない番組スタッフから出された進行指示の映像2がプロジェクタ投影像302として投影され、出演者140は番組スタッフからの『残り2分。巻いて!』の進行指示を読んでいる状況を示している。 FIG. 3(a) is a diagram showing the vicinity of the northwest of the studio wall surface 100. A video projector 130 projects an image 2 of a progress instruction issued by a program staff member (not shown) onto the studio wall surface 100 as a projected image 302. Performer 140 is from the program staff "2 minutes remaining. Roll it! ] is reading the progress instructions.

参照符号301は、カメラ101の撮影視野範囲を表しており、カメラ101は出演者140とスタジオ壁面100と供にプロジェクタ投影像302も同時に撮影している。 Reference numeral 301 represents the imaging field range of the camera 101, and the camera 101 simultaneously photographs the performer 140, the studio wall surface 100, and the projector projection image 302. FIG.

ここで、図3(a)で示すカメラ101の撮影像の配色について説明する。スタジオ壁面100およびスタジオ床面はグリーンである。スタジオ壁面100を背景とした出演者140はグリーン以外の衣装を着ている。 Here, the color scheme of the captured image of the camera 101 shown in FIG. 3A will be described. The studio wall surface 100 and the studio floor surface are green. The performer 140 with the background of the studio wall 100 is wearing a costume other than green.

プロジェクタ投影像302は、映像プロジェクタ130が白色光を投影することで、スタジオ壁面100上に同色のグリーンで、かつ、明るい映像が表示されている。出演者140はスタジオ壁面上の投影像の明るさの違いを認識し、番組スタッフからの進行指示内容を読み取る。 Projector projection image 302 is the same color green and bright image displayed on studio wall surface 100 by projection of white light by image projector 130 . The performer 140 recognizes the difference in brightness of the projected image on the wall surface of the studio and reads the contents of the progress instruction from the program staff.

画像処理装置1001~1016及びシステム制御装置120は、ハードウェア的にはPC(パーソナルコンピュータ)に代表される情報処理装置の構成を有する。そして、情報処理装置内のCPUが実行するプログラムによって、その情報処理装置が画像処理装置1001~1016の1つ、もしくは、システム制御装置120として機能することになる。 The image processing apparatuses 1001 to 1016 and the system control apparatus 120 have the configuration of an information processing apparatus represented by a PC (personal computer) in terms of hardware. Then, the information processing apparatus functions as one of the image processing apparatuses 1001 to 1016 or as the system control apparatus 120 according to the program executed by the CPU in the information processing apparatus.

図10は、情報処理装置200の基本的なハードウェア構成を示している。情報処理装置1200は、CPU1211、ROM1212、RAM1213、補助記憶装置1214、表示部1215、操作部1216、通信I/F1217、及び、これら構成を互いに接続するバス1218を有する。 FIG. 10 shows the basic hardware configuration of the information processing device 200. As shown in FIG. The information processing apparatus 1200 has a CPU 1211, a ROM 1212, a RAM 1213, an auxiliary storage device 1214, a display section 1215, an operation section 1216, a communication I/F 1217, and a bus 1218 connecting these components to each other.

CPU1211は、ROM1212やRAM1213に格納されているコンピュータプログラムやデータを用いて情報処理装置1200の全体を制御する。このプログラムに依存して、情報処理装置1200は、図1(a),(b)の画像処理装置1001~1016の1つ、或いは、システム制御装置1120として機能することになる。なお、情報処理装置1200は、CPU1211とは異なる1又は複数の専用のハードウェアを有し、CPU1211による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM1212は、変更を必要としないプログラムなどを格納する。RAM1213は、補助記憶装置1214から供給されるプログラムやデータ、及び通信I/F1217を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1214は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。なお、システム制御装置120は、画像処理装置1001と比較して、より多くの情報を処理しなければならない。故に、システム制御装置120は、画像処理装置1001よりも、高いリソース(主にCPUの処理能力)が要求されることになる。 The CPU 1211 controls the entire information processing apparatus 1200 using computer programs and data stored in the ROM 1212 and RAM 1213 . Depending on this program, the information processing device 1200 functions as one of the image processing devices 1001 to 1016 in FIGS. The information processing apparatus 1200 may have one or a plurality of pieces of dedicated hardware different from the CPU 1211, and the dedicated hardware may execute at least part of the processing by the CPU 1211. FIG. Examples of dedicated hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). ROM 1212 stores programs that do not require modification. The RAM 1213 temporarily stores programs and data supplied from the auxiliary storage device 1214 and data externally supplied via the communication I/F 1217 . The auxiliary storage device 1214 is composed of, for example, a hard disk drive, etc., and stores various data such as image data and audio data. Note that the system control device 120 must process more information than the image processing device 1001 does. Therefore, the system control device 120 is required to have higher resources (mainly CPU processing power) than the image processing device 1001 .

図2は、第1実施形態における仮想視点映像の画像処理システムの構成図を表している。前述のように、カメラ101~116それぞれに画像処理装置1001~1016が接続され、各カメラの撮影像は各々接続された画像処理装置に転送される。各画像処理装置は、対応するカメラからのカメラ撮影画像を背景差分方式によって前景領域を抽出し、デイジーチェーンで接続された下流の画像処理装置に転送する。そして、デイジーチェーン終端の画像処理装置1001からシステム制御装置120の前景記録部210に、画像処理装置1001~1016によって抽出された前景画像群が記録保持される。 FIG. 2 shows a configuration diagram of an image processing system for virtual viewpoint video in the first embodiment. As described above, image processing apparatuses 1001 to 1016 are connected to cameras 101 to 116, respectively, and images captured by each camera are transferred to the connected image processing apparatuses. Each image processing device extracts the foreground area from the camera-captured image from the corresponding camera by the background subtraction method, and transfers it to the downstream image processing device connected by the daisy chain. Then, the foreground image group extracted by the image processing devices 1001 to 1016 is recorded and held in the foreground recording unit 210 of the system control device 120 from the image processing device 1001 at the end of the daisy chain.

スタジオを取り囲むカメラ101~116によって全方位からスタジオ内が撮影され、出演者140も、その全方向からの画像領域が前景画像として抽出される。そして抽出された各前景画像は、システム制御装置120の前景記録部210に記録保持される。 The inside of the studio is photographed from all directions by the cameras 101 to 116 surrounding the studio, and the image area of the performer 140 from all directions is also extracted as a foreground image. Each extracted foreground image is recorded and held in foreground recording section 210 of system control device 120 .

三次元形状導出部211は、前景記録部210に記録保持された前景画像群を利用して、前景オブジェクトの3次元モデルを生成する。仮想視点映像生成部212は、設定された仮想視点の位置と向きに応じて、仮想視点に合わせたテクスチャを前景オブジェクトの3次元モデルにマッピングし、レンダリングを行うことにより、仮想視点画像を生成する。 The three-dimensional shape derivation unit 211 uses the foreground image group recorded and held in the foreground recording unit 210 to generate a three-dimensional model of the foreground object. The virtual viewpoint video generation unit 212 generates a virtual viewpoint image by mapping a texture that matches the virtual viewpoint to the three-dimensional model of the foreground object according to the set position and orientation of the virtual viewpoint and performing rendering. .

仮想視点映像出力部213は、仮想視点映像生成部212で作成された仮想視点映像をディスプレイへ表示するための映像信号に変換し出力したり、外部記録装置に書き込むためのデータ形式変換を行ったり、その出力装置に合わせたデータ形式に変換する。 The virtual viewpoint video output unit 213 converts the virtual viewpoint video created by the virtual viewpoint video generation unit 212 into a video signal for display on a display and outputs the video signal, or converts the data format for writing to an external recording device. , converts to a data format suitable for the output device.

仮想視点入力部214は、ユーザの操作に応じた仮想視点の位置と方向を表す仮想視点情報を入力する。入力した仮想視点情報は、仮想視点映像生成部212に供給される。なお、仮想視点入力部214は、システム制御装置120をユーザが操作することで入力しても良いが、ネットワーク上の他の端末を介して入力しても構わない。この場合、仮想視点入力部214は、ネットワーク上の他の端末から仮想視点情報を受信する機能を有することになる。 The virtual viewpoint input unit 214 inputs virtual viewpoint information representing the position and direction of the virtual viewpoint according to the user's operation. The input virtual viewpoint information is supplied to the virtual viewpoint video generation unit 212 . The virtual viewpoint input unit 214 may be input by the user operating the system control device 120, or may be input via another terminal on the network. In this case, the virtual viewpoint input unit 214 has a function of receiving virtual viewpoint information from other terminals on the network.

次に、画像処理装置1001~1016を、図2を参照して説明する。図2ではそのうちの1つの画像処理装置1002の構成を例示しているが、他の画像処理装置も同じ構成であると理解されたい。 Next, the image processing apparatuses 1001-1016 will be described with reference to FIG. Although FIG. 2 illustrates the configuration of one of the image processing apparatuses 1002, it should be understood that the other image processing apparatuses have the same configuration.

背景差分方式は、背景となる映像を予め記憶保持しておき、撮影時に当該予め記憶保持された背景映像と撮影映像を画素ごとに比較し背景映像と差分のある領域が前景映像領域とするものである。そのため、背景映像撮影ではスタジオ内に誰もいない状態でカメラ102を含むカメラ101から116が同時一斉にスタジオ内を撮影する。 In the background subtraction method, a background image is stored in advance, and at the time of shooting, the background image stored in advance and the shot image are compared pixel by pixel, and the area having a difference from the background image is taken as the foreground image area. is. Therefore, in the background video shooting, the cameras 101 to 116 including the camera 102 simultaneously shoot the inside of the studio without anyone in the studio.

カメラ102によって撮影されたスタジオ背景画像は、画像処理装置1002の背景画像記憶部205に記録保持される。 A studio background image captured by the camera 102 is recorded and held in the background image storage unit 205 of the image processing device 1002 .

図3(b)は、前述の図3(a)の同スタジオ内エリアを表し、カメラ撮影視野301でスタジオ壁面100と床面が撮影され、例えばrgbカラー画像として背景画像記憶部206に記録保持される。 FIG. 3(b) shows the same studio area as in FIG. 3(a), where the studio wall surface 100 and the floor surface are photographed in the camera photographing field of view 301, and recorded and held in the background image storage unit 206 as, for example, an rgb color image. be done.

背景画像の記録保持を完了すると、スタジオ内に出演者を入れて仮想視点映像の撮影を開始する。前述のように、映像プロジェクタ130は撮影の進行状況に合わせて図示しない番組スタッフから出された進行指示がスタジオ壁面100に投影され、出演者140は図3(a)の投影像302として投影された進行指示を確認し演技を継続する。 Once the recording of the background image is completed, the performers are put into the studio and the virtual viewpoint video is started to be shot. As described above, the video projector 130 projects progress instructions from the program staff (not shown) on the studio wall surface 100 according to the progress of filming, and the performers 140 are projected as projection images 302 in FIG. 3(a). Confirm the progress instructions and continue the performance.

ここで、カメラ102によって撮影された撮影像から前景領域である出演者140と、背景領域であるスタジオ壁面100と、背景領域上に投影された投影像領域であるスタジオ壁面100に投影されたプロジェクタ投影像302の各領域を分離する処理を、領域分離処理という。この領域分離処理は、画像処理装置1002の前景背景分離部204によって行われる。 Here, from the photographed image photographed by the camera 102, the performer 140 which is the foreground area, the studio wall surface 100 which is the background area, and the projector projected onto the studio wall surface 100 which is the projected image area projected on the background area Processing for separating each region of the projection image 302 is called region separation processing. This area separation processing is performed by the foreground/background separation unit 204 of the image processing device 1002 .

先ず、出演者140とプロジェクタ投影像302およびスタジオ壁面100から前景である出演者140のみを分離抽出する前景背景分離部204について説明する。 First, the foreground/background separation unit 204 that separates and extracts only the performer 140, the projected image 302 from the projector, and the performer 140, which is the foreground, from the studio wall surface 100 will be described.

画像処理装置1002の色空間変換部201は、入力された撮影像を、明るさ信号と色信号とからなる信号形態に変換する。本実施形態に於いては、カメラ出力信号を赤、緑、青から成るRGB信号から、明度(L)、彩度(C)、色相(H)からなる色空間のLCH信号に変換する。明度(L)、彩度(C)、色相(H)は、明度(L)、彩度(S)、色相(H)などとも呼ばれることもあるが、明度、彩度、色相を表すことに変わりなく、その変換式は、例えば次の通りである。
If MIN = B then H = 60(G-R)/(MAX-MIN)+60
If MIN = R then H = 60(B-G)/(MAX-MIN)+180
If MIN = G then H = 60(R-B)/(MAX-MIN)+300
If MIN = MAX then H = undefined
L = (MAX + MIN)/2
C = (MAX - MIN)/(1-| MAX + MIN -1|)
なお、上式は一例であり、これに限定されるものではない。
The color space conversion unit 201 of the image processing device 1002 converts the input photographed image into a signal form consisting of a brightness signal and a color signal. In this embodiment, the camera output signal is converted from an RGB signal consisting of red, green and blue to an LCH signal in a color space consisting of lightness (L), saturation (C) and hue (H). Lightness (L), saturation (C), and hue (H) are also called lightness (L), saturation (S), and hue (H). Without change, the conversion formula is, for example:
If MIN = B then H = 60(GR)/(MAX-MIN)+60
If MIN = R then H = 60(BG)/(MAX-MIN)+180
If MIN = G then H = 60(RB)/(MAX-MIN)+300
If MIN = MAX then H = undefined
L = (MAX + MIN)/2
C = (MAX - MIN)/(1-|MAX + MIN -1|)
In addition, the above formula is an example, and is not limited to this.

色空間変換部201は、LCH信号に変換された撮影像を、前景である演者120の領域を抽出するために前景背景分離部204に供給する。 The color space conversion unit 201 supplies the captured image converted into the LCH signal to the foreground/background separation unit 204 in order to extract the area of the performer 120, which is the foreground.

一方、背景画像記憶部205に記録保持された背景画像も、色空間変換部201と同様の処理を行う色空間変換部202によって、明度(l)、彩度(c)、色相(h)からなるlch信号に変換される。なお、図2では、色空間変換部201と色空間変換部202を独立して示しているが、共通であっても構わない。 On the other hand, the background image recorded and held in the background image storage unit 205 is also converted from lightness (l), saturation (c), and hue (h) to is converted to the lch signal. Although the color space conversion unit 201 and the color space conversion unit 202 are shown independently in FIG. 2, they may be common.

色空間変換部202によって変換されたlch信号は、閾値生成部203に入力される。閾値生成部203は、後述の新たな閾値l2を生成し、lchおよび l2信号を前景背景分離部204に供給する。 The lch signal converted by the color space converter 202 is input to the threshold generator 203 . The threshold generation unit 203 generates a new threshold l 2 , which will be described later, and supplies the lch and l 2 signals to the foreground/background separation unit 204 .

前景背景分離部204は、撮影画像(LCH)、背景画像(lch)、及び、閾値l2を用いて背景分離処理を行う。以下、図4(a)~(f)を参照して、前景背景分離の様子を説明する。 A foreground/background separation unit 204 performs background separation processing using the captured image (LCH), the background image (lch), and the threshold l2 . The state of foreground/background separation will be described below with reference to FIGS.

図4(a)は、明度(L)、彩度(C)、色相(H)からなる色空間を表す。極座標系であるLCH色空間は縦軸に明度(L)、明度軸と直交した軸に明度軸からの距離を彩度(C)、彩度軸からの角度に色相(H)を取る色空間であり、スタジオ背景であるグリーンの色度座標(lch)は図4(a)の参照符号401に位置するものとする。 FIG. 4(a) represents a color space consisting of lightness (L), saturation (C), and hue (H). The LCH color space, which is a polar coordinate system, is a color space that takes lightness (L) on the vertical axis, saturation (C) on the axis orthogonal to the lightness axis, and hue (H) on the angle from the saturation axis. , and the chromaticity coordinates (lch) of green, which is the studio background, are located at reference numeral 401 in FIG. 4(a).

前景背景分離部204は、撮影画像である図4(b)の画像(図3(a)の参照符号301で表す画像でもある)の各画素について、撮影画像と背景画像の一致度を判定する。すなわち、撮影画像信号(LCH)と背景信号(lch)とが予め決められた許容誤差範囲内に於いて一致する場合、撮影画像信号(LCH)の該当画素は「背景」であると判定する。この時、前景背景分離部204は、明度(L)、彩度(C)、色相(H)に対する許容誤差をdl,dc,dhとし、システム制御装置120のUI部208を通して外部変数設定部209によって決定し前景背景分離部204へと入力される。 The foreground/background separation unit 204 determines the degree of matching between the captured image and the background image for each pixel of the captured image shown in FIG. . That is, when the captured image signal (LCH) and the background signal (lch) match within a predetermined allowable error range, the corresponding pixel of the captured image signal (LCH) is determined to be "background". At this time, the foreground/background separation unit 204 sets the permissible errors for lightness (L), saturation (C), and hue (H) to dl, dc, and dh, and sets them to the external variable setting unit 209 through the UI unit 208 of the system control device 120. and input to the foreground/background separation unit 204 .

ここで、撮影画像である図4(b)から出演者140とプロジェクタ投影像302の領域を除く、背景領域の分離抽出について説明する。背景映像(図3 (b)の参照符号301)の各画素の色度座標(lch)が図4(a)の参照符号401に位置した場合、前景背景分離部204は図4(b)の撮影画像の同位置にある画素の色度座標(LCH)と大きさを比較する。 Here, the separation extraction of the background area excluding the area of the performer 140 and the projector projection image 302 from the photographed image of FIG. 4B will be described. When the chromaticity coordinates (lch) of each pixel of the background image (reference numeral 301 in FIG. 3(b)) are positioned at reference numeral 401 in FIG. Compare the chromaticity coordinates (LCH) and size of pixels at the same position in the captured image.

座標(L,C,H)と(l,c,h)の各信号の差分絶対値が許容誤差(dl,dc,dh)未満であるとき、前景背景分離部204は、撮影画像(図4(b))の対象位置にある画素は背景であると判断する。
If (|L-l| < dl and |C-c| < dc and |H-h| < dh) then 着目画素=背景画素
When the absolute difference between the signals at the coordinates (L, C, H) and (l, c, h) is less than the permissible error (dl, dc, dh), the foreground/background separator 204 separates the captured image (Fig. 4 The pixel at the target position of (b)) is judged to be the background.
If (|Ll| < dl and |Cc| < dc and |Hh| < dh) then target pixel = background pixel

図4(c)の黒塗潰し部分は、図4(a)の撮影画像の「背景」領域である。演者104とプロジェクタ投影像302は背景色と異なるため「背景」領域でない。以上のように、撮影画像図4(a)から背景領域を抽出する。 The black-painted portion in FIG. 4(c) is the "background" area of the captured image in FIG. 4(a). Actor 104 and projector projection image 302 are not "background" regions because they are different from the background color. As described above, the background area is extracted from the photographed image of FIG. 4(a).

次に、図4(b)の撮影画像からプロジェクタ投影像302領域を分離抽出する方法について説明する。 Next, a method for separating and extracting the projector projection image 302 area from the photographed image of FIG. 4B will be described.

前述のようにプロジェクタ130は一定の明るさの白色光をスタジオ背景上に投影する。このときスタジオ壁面上に投影されたプロジェクタ投影像302は、白色光の投影によりスタジオ壁面の色については影響を受けず、プロジェクタ投影光の強度に応じて明るくなる。すなわち、背景(l,c,h)上に描画されたプロジェクタ投影像302の(L,C,H)はLCH色空間に於いて明るさ(L)のみが異なり(背景より明るくL > l)、彩度(C = c)、色相(H = h)は背景色(グリーン)と同色となり、その明るさ増分はプロジェクタ130の発光輝度に依存し、その増分をδLとする。 As previously mentioned, projector 130 projects white light of constant brightness onto the studio background. At this time, the projector projection image 302 projected onto the studio wall surface is not affected by the color of the studio wall surface due to the projection of the white light, and becomes brighter according to the intensity of the projector projection light. That is, (L, C, H) of the projector projection image 302 drawn on the background (l, c, h) differs only in brightness (L) in the LCH color space (brighter than the background L > l). , saturation (C=c), and hue (H=h) are the same as the background color (green).

映像プロジェクタ130の発光強度による背景投影像の明るさ増分δLは、映像プロジェクタ130の描画像信号レベル(通常は0~255階調)との関係を予め測定しておき、映像プロジェクタ130の描画像信号レベルに応じて本システムから外部入力する。 The relationship between the brightness increment ΔL of the background projected image due to the light emission intensity of the video projector 130 and the drawing image signal level (usually 0 to 255 gradations) of the video projector 130 is measured in advance. Externally input from this system according to the signal level.

プロジェクタ投影像302は、背景の明るさ「l」より増分δLだけ明るい部分があるので、プロジェクタ投影像302の明るい部分は「l + δL」となる。故に、閾値生成部203は、カンペ領域分離用の閾値を生成する。 Since the projector projection image 302 has a portion that is brighter than the background brightness "l" by the increment ΔL, the bright portion of the projector projection image 302 is "l + ΔL". Therefore, the threshold generation unit 203 generates a threshold for Campe region separation.

背景信号(lch)が、閾値生成部203に入力すると、背景の明るさ(l)に対しプロジェクタ描画による明るさ増分δLが加算され、閾値生成部203は、プロジェクタ投影像分離用閾値l2を以下の式に従って生成する。
l2 = l + δL
図4(a)の参照符号402は、LCH色空間でのプロジェクタ投影像の色度座標を示す。前述のように、背景画像の各画素の色座標(l,c,h)を参照符号401で示すと、背景上に投影されたプロジェクタ投影像は、背景画像の色座標401から明度lをδLだけ明るく、彩度(C)と色相(H)は背景と同じであるところの参照符号402で示す座標(l + δL,c,h)に位置する。
When the background signal (lch) is input to the threshold generation unit 203, the brightness increment δL due to the projector drawing is added to the background brightness (l), and the threshold generation unit 203 determines the threshold l2 for separating the projector projection image. It is generated according to the following formula.
l2 = l + δL
Reference numeral 402 in FIG. 4A indicates the chromaticity coordinates of the projected image of the projector in the LCH color space. As described above, if the color coordinates (l, c, h) of each pixel of the background image are indicated by reference numeral 401, the projector projection image projected on the background is obtained by changing the brightness l from the color coordinates 401 of the background image to ΔL It is located at coordinates (l + δL,c,h) indicated by reference numeral 402 where it is only bright and the saturation (C) and hue (H) are the same as the background.

したがって、(L,C,H)と(l2,c,h)の各信号の差分絶対値が許容誤差(dl,dc,dh)未満であるとき、撮影画像図4(b)の対象位置にある画素はプロジェクタ投影像であると判断する。 Therefore, when the absolute difference between the signals (L, C, H) and (l 2 , c, h) is less than the allowable error (dl, dc, dh), the target position in the photographed image FIG. It is determined that the pixel at is the projected image of the projector.

If (|L-l2 | < dl and |C-c|< dc and |H-h|< dh) then 着目画素はプロジェクタ投影像領域に属する If (|Ll 2 | < dl and |Cc| < dc and |Hh|< dh) then the pixel of interest belongs to the projector projection image area

図4(d)はこのように分離抽出されたプロジェクタ投影像領域である。 FIG. 4(d) shows the projector projection image area separated and extracted in this way.

上記のように、背景領域図48c)とプロジェクタ投影像領域図4(d)のORを取ることで図4(e)の黒領域で表される背景領域およびプロジェクタ投影像領が抽出される。前景背景分離部204は、上記処理を一括して行う。
(|L-l|< dl and |C-c|< dc and |H-h|< dh )OR(|L-l2|< dl2 and |C-c|< dc and |H-h|< dh)then 撮影画像の着目画素は、背景領域またはプロジェクタ投影像領に属する
As described above, by ORing the background area (FIG. 48c) and the projector projection image area (FIG. 4D), the background area and the projector projection image area represented by the black area in FIG. 4E are extracted. The foreground/background separation unit 204 collectively performs the above processes.
(|Ll|< dl and |Cc|< dc and |Hh|< dh) OR (|Ll 2 |< dl 2 and |Cc|< dc and |Hh|< dh) then belong to a region or projector projection image region

すなわち、前景背景分離部204は、前景である出演者140を抽出するため、背景領域及びプロジェクタ投影像領域を除外した領域を、前景画像領域として、以下のようにして抽出する。
NOT((|L-l|< dl or |L-l2|< dl2) and |C-c|< dc and |H-h|< dh)then 撮影画像画素の着目画素は前景画像に属する
図4(f)の画像は、このように抽出分離された出演者104である前景領域を表している。
That is, in order to extract the performer 140 which is the foreground, the foreground/background separation unit 204 extracts the area excluding the background area and the projector projection image area as the foreground image area as follows.
NOT ((|Ll|<dl or | Ll2 |< dl2 ) and |Cc|<dc and |Hh|<dh) then The pixel of interest in the captured image belongs to the foreground image. , represents the foreground region that is the performer 104 thus extracted and separated.

以下、図5(a)乃至(d)を参照して、処理フローを説明する。 The processing flow will be described below with reference to FIGS.

図5(a)は、背景差分法における背景画像取得のフロー図である。背景画像を取得する時は、まずスタジオ内の設置物や人物を撤去しスタジオ内を空の状態にする(S5a01)。次に映像プロジェクタ103を投影せずに、本実施形態では図示していないスタジオ照明を撮影時と同じ条件で点灯する(S5a02)。この状態でカメラ101からカメラ116が同時にスタジオ内を撮影する(S5a03)。撮影されたスタジオ背景画像は画像処理装置1001から1016に転送され、それぞれの画像処理装置内の背景画像記憶部206に記録される(S5a04)。 FIG. 5(a) is a flowchart of background image acquisition in the background subtraction method. When acquiring a background image, first remove the installed objects and people in the studio to make the studio empty (S5a01). Next, without projecting the video projector 103, the studio lighting (not shown in the present embodiment) is turned on under the same conditions as at the time of shooting (S5a02). In this state, cameras 101 to 116 simultaneously photograph the inside of the studio (S5a03). The photographed studio background image is transferred to the image processing apparatuses 1001 to 1016 and recorded in the background image storage section 206 in each image processing apparatus (S5a04).

図5(b)は、映像プロジェクタ130の発光による背景投影像の明るさ増分δLを、映像プロジェクタ130の描画像信号レベル毎(本実施形態では8ビット0~255階調とする)に決定するためのフロー図である。測定者は予めプロジェクタに投影するためのグレースケールチャートを作成しておく。 In FIG. 5(b), the brightness increment δL of the background projection image due to the light emission of the video projector 130 is determined for each drawing image signal level of the video projector 130 (8-bit gradation 0 to 255 in this embodiment). 1 is a flow diagram for FIG. The measurer prepares in advance a gray scale chart for projection on the projector.

図5(c)はグレースケールチャート5C01の一例であり、描画像信号レベル(0~255階調)のストライプが作成されている。プロジェクタは、図示しないPCからスタジオ壁面100に投影する(S5b01)。カメラはスタジオ壁面に投影されたグレースケールを撮影する(S5b502)。スタジオ壁面に投影されたグレースケール撮影像はLCH色空間における画像信号(LCH)に変換される(S5b502)。一方、図5(a)のフローで記録保持された背景画像が、背景画像記憶部206から読みだされ(S5b504)、同様にLCH色空間における画像信号(lch)に変換される(S5b505)。夫々の信号(LCH,lch)は、その明るさの差分が算出され(S5b505)、プロジェクタ130の発光レベルに応じた明るさ差分(差異)が算出される(S5b506)。
δL = L - l (δL , L, l,はグレースケールチャートの明るさ毎に異なるL値を有し、δLは、算出されるた256階調分の明るさ増分である)
FIG. 5(c) is an example of a grayscale chart 5C01, in which stripes of drawing image signal levels (0 to 255 gradations) are created. The projector projects from a PC (not shown) onto the studio wall surface 100 (S5b01). The camera captures the grayscale projected on the studio wall (S5b502). The grayscale photographed image projected on the studio wall is converted into an image signal (LCH) in the LCH color space (S5b502). On the other hand, the background image recorded and held in the flow of FIG. 5(a) is read from the background image storage unit 206 (S5b504) and similarly converted into an image signal (lch) in the LCH color space (S5b505). For each signal (LCH, lch), the brightness difference is calculated (S5b505), and the brightness difference (difference) corresponding to the light emission level of projector 130 is calculated (S5b506).
δL = L - l (δL, L, l, have different L values for each brightness of the grayscale chart, and δL is the calculated brightness increment for 256 shades)

図5(d)は、カメラ撮影画像から出演者である前景とプロジェクタ130で投影されたカンペ部分を含む領域と背景とを認識するフローである。 FIG. 5(d) is a flow for recognizing the foreground, which is the performer, and the area including the competition portion projected by the projector 130 and the background from the image captured by the camera.

S5d01でカメラ撮影が開始すると、必要に応じてプロジェクタ130からカンペ像が投影される(S5d02)。図3(b)で示すようなカンペを含む撮影像301は、RGB画像信号をLCH信号に変換される(S5d03)。一方、背景画像記憶部で記録保持されたrgb背景画像が読みだされ、lch信号に変換される。背景lch信号はプロジェクタ投影時の明るさ増分δLが加算され、プロジェクタ130で投影されたカンペ部分の明るさ閾値L2が算出される。
L2 = l + δL
When camera shooting starts in S5d01, a campe image is projected from projector 130 as needed (S5d02). A photographed image 301 including a competition as shown in FIG. 3(b) is converted from an RGB image signal to an LCH signal (S5d03). On the other hand, the rgb background image recorded and held in the background image storage unit is read out and converted into an lch signal. The brightness increment ΔL at the time of projector projection is added to the background lch signal, and the brightness threshold value L2 of the rough portion projected by the projector 130 is calculated.
L2 = l + δL

前景背景分離部204は、撮影画像LCHと、背景画像とカンペ部分の閾値l,c,h,L2を用いて前景背景分離処理が行なわれる(S5d04)。 The foreground/background separation unit 204 performs foreground/background separation processing using the captured image LCH and the thresholds l, c, h, and L2 of the background image and the rough portion (S5d04).

以上のようにカメラ撮影画像から出演者である前景と、背景と、プロジェクタ投影像の分離後は、前景領域画像のみが伝送送信部207へ転送される。他の画像処理装置1001,1003-1016も同様の方法で前景領域のみを伝送送信部を介して伝送する。そして、最終的にシステム制御装置120の前景記録部210は、各カメラの前景画像群を記録保持することになる。 After the foreground, the background, and the projected image of the performer are separated from the image captured by the camera as described above, only the foreground area image is transferred to the transmission unit 207 . The other image processing apparatuses 1001, 1003-1016 also transmit only the foreground area via transmission units in a similar manner. Ultimately, the foreground recording unit 210 of the system control device 120 records and holds the foreground image group of each camera.

三次元形状導出部211は、前景記録部210に記録保持された前景画像群から、前景オブジェクトの3次元モデルを生成する。仮想視点映像生成部212は、仮想視点に合わせたテクスチャを、生成されや前景オブジェクトの3次元モデルにマッピングし、レンダリングを行うことにより、仮想視点画像を生成する。 The three-dimensional shape derivation unit 211 generates a three-dimensional model of the foreground object from the foreground image group recorded and held in the foreground recording unit 210. FIG. The virtual viewpoint video generation unit 212 maps a texture that matches the virtual viewpoint to the three-dimensional model of the generated foreground object, and performs rendering to generate a virtual viewpoint image.

仮想視点映像出力部213は、仮想視点映像生成部212で作成された仮想視点映像をディスプレイへ表示するための映像信号に変換し出力したり、外部記録装置に書き込むためのデータ形式変換を行ったり、その出力装置に合わせたデータ形式に変換する
[第1の実施形態の応用例1]
図6(a)は、第1の実施形態の他の応用における、仮想視点映像スタジオの構成図である。スタジオ内には複数台数のプロジェクタ(図示では、参照130,601,602,603の4台)がスタジオ内の東西南北どの方向壁面にも投影可能なように配置されており、出演者は演技に応じて向いた姿勢の前面に番組スタッフから出された進行指示のプロジェクタ映像が表示されることで、演技に支障なく進行指示を確認することが可能となる。
The virtual viewpoint video output unit 213 converts the virtual viewpoint video created by the virtual viewpoint video generation unit 212 into a video signal for display on a display and outputs the video signal, or converts the data format for writing to an external recording device. , converted to a data format suitable for the output device
[Application example 1 of the first embodiment]
FIG. 6A is a configuration diagram of a virtual viewpoint video studio in another application of the first embodiment. In the studio, there are multiple projectors (four units 130, 601, 602, and 603 in the illustration) are arranged so that they can project onto the walls in any direction in the east, west, south, or north, and the performers face each other according to the performance. By displaying a projected image of the progress instruction issued by the program staff in front, it is possible to confirm the progress instruction without hindrance to the performance.

[第1の実施形態の応用例2]
上記応用例1においては、図6(a)に示す複数台数のプロジェクタ(130,601,602,603)に、番組スタッフから出された進行指示のプロジェクタ映像を投影し、出演者は演技に応じて向いた姿勢で進行指示を確認する応用例をしめしたが、プロジェクタ投映像を番組スタッフから出された進行指示ではなく、番組最終映像作成で合成される背景映像を事前に作成しておき、複数台数のプロジェクタ(130,601,602,603)を用いてスタジオ内の東西南北壁面に投影することで、出演者はあたかも最終映像の中に没入している感覚で演技することが可能となる。
[Application example 2 of the first embodiment]
In the above application example 1, a plurality of projectors (130, 601, 602, 603) shown in FIG. An application example for confirming instructions was shown, but the background images to be synthesized in the production of the final image of the program were created in advance instead of the instructions given by the program staff to project the images projected by the projectors, and multiple projectors (130, 601, 602, 603 ) is used to project onto the north, south, east, and west walls of the studio, allowing the performers to act as if they were immersed in the final image.

[第2の実施形態]
第1の実施形態では、プロジェクタ投映像を前景背景分離部204で分離するために、閾値生成部203が、背景画像記録部205に記録されたスタジオ背景画像からプロジェクタ投映像分離用の閾値l2を生成した。
[Second embodiment]
In the first embodiment, in order to separate the projector projected image by the foreground/background separation unit 204, the threshold generation unit 203 generates the threshold l 2 for separating the projector projected image from the studio background image recorded in the background image recording unit 205. generated.

図7は、第2の実施形態における仮想視点映像の画像処理システムの構成図を示している。本第2の実施形態では、プロジェクタ投映像分離用の閾値l2を計算によって生成する代わりに、別途プロジェクタ投映像分離用の映像を撮影し、前景背景分離部204が利用する。 FIG. 7 shows a configuration diagram of an image processing system for virtual viewpoint video in the second embodiment. In the second embodiment, instead of calculating the threshold value l2 for separating the projected image from the projector, an image for separating the projected image from the projector is captured separately and used by the foreground/background separating unit 204 .

すなわち、第1の実施形態のスタジオ背景画像記録撮影用にプロジェクタ消灯しスタジオ背景画像を撮影し、背景画像記録部205に記録保持したのち、次にプロジェクタを点灯しの第二の背景画像であるスタジオ背景画像2を撮影し、背景画像記録部705に記録保持しプロジェクタ投影像領域の認識処理を行う。 That is, this is the second background image in which the projector is turned off for the recording of the studio background image in the first embodiment, the studio background image is photographed, the recording is held in the background image recording unit 205, and then the projector is turned on. A studio background image 2 is photographed, recorded and held in the background image recording unit 705, and recognition processing of the projector projection image area is performed.

各カメラに接続された画像処理装置それぞれが第二の背景画像を有することで、プロジェクタ投影画像領域認識用の閾値l2 = l + δLを計算する必要がない。
本実施形態においては、第1の実施形態で説明の背景差分法における背景画像取得のフロー図5(a)に加えて、図6(b)に示すプロジェクタ投影時の背景画像取得フローが追加する。
Since each image processing device connected to each camera has a second background image, there is no need to calculate the threshold l 2 =l + ΔL for projector projection image area recognition.
In this embodiment, in addition to the flow of background image acquisition in the background subtraction method described in the first embodiment, the background image acquisition flow during projection shown in FIG. 6B is added. .

図6(b)のプロジェクタ投影時の背景画像取得フローにおけるステップS5a01からステップS5a04までは、図5(a)と同じである。本第2の実施形態では、ステップS5a04を終了後、図示しないスタジオ照明とプロジェクタが全台点灯させ(図6(a)および図6(b)S6b01)、その状態でカメラ撮影が行なわれ(S6b02)、撮影画像はスタジオ背景画像用規則装置2に記録される。 Steps S5a01 to S5a04 in the background image acquisition flow during projector projection in FIG. 6(b) are the same as in FIG. 5(a). In the second embodiment, after step S5a04 is finished, studio lighting and projectors (not shown) are turned on (Fig. 6(a) and Fig. 6(b) S6b01), and camera shooting is performed in this state (S6b02 ), the photographed image is recorded in the ruler 2 for the studio background image.

ステップS5a01からステップS5a04によって記録された背景画像は、図7のスタジオ背景画像記録部1に記録される。また、ステップS6b01からステップS6b03によって記録された背景画像は、図7のスタジオ背景画像記録部2に記録される。 The background image recorded in steps S5a01 to S5a04 is recorded in the studio background image recording section 1 in FIG. Also, the background image recorded in steps S6b01 to S6b03 is recorded in the studio background image recording section 2 in FIG.

2つの背景画像は色空間変換部によってrgb画像からlch信号とl2ch信号が生成され前景背景分離部へ入力される。 For the two background images, an lch signal and an l2ch signal are generated from the rgb image by the color space conversion section and input to the foreground/background separation section.

また、UI部からはdl、dl2、dc、dhが前景背景分離部へ入力され、判別式
NOT(|L-l| < dl or |L-l2| < dl2) and |C-c| < dc and |H-h| < dh)then 撮影画像の着目画素は前景画像に属する。
In addition, dl, dl 2 , dc, and dh are input from the UI unit to the foreground/background separation unit, and the discriminant
NOT (|Ll|<dl or | Ll2 |< dl2 ) and |Cc|<dc and |Hh|<dh) then the pixel of interest in the captured image belongs to the foreground image.

[第3の実施形態]
図8は第3の実施形態における仮想視点映像の画像処理システムの構成図を表す。本第3の実施形態は、図6(a)で示したような複数のプロジェクタ(130,601,602,603)をスタジオ内に設置し、任意のプロジェクタから映像を投影する場合において、プロジェクタ投影像領域を撮影するカメラのみをプロジェクタ投影像領域の認識処理を行うようにした仮想視点映像の画像処理システムの実施形態である。
[Third embodiment]
FIG. 8 shows a configuration diagram of an image processing system for virtual viewpoint video in the third embodiment. In the third embodiment, a plurality of projectors (130, 601, 602, 603) as shown in FIG. This is an embodiment of an image processing system for virtual viewpoint video in which recognition processing of a projector projected image area is performed only on the projected image.

図6において、プロジェクタはスタジオ北壁面と西壁面の2面にプロジェクタ投影像を投影するものとする。図9は、4台のプロジェクタのうち、スタジオ北壁面に投影するプロジェクタ601と、スタジオ西壁面に投影するプロジェクタ130が点線で示す領域にプロジェクタ投影像を投影し、プロジェクタ602とプロジェクタ603は消灯している様子を表している。この時、カメラ101からカメラ126のうち、カメラ112からカメラ116はプロジェクタ601によるスタジオ北壁面のプロジェクタ投影像を含む映像を撮影し、カメラ101からカメラ103はプロジェクタ130によるスタジオ西壁面のプロジェクタ投影像を含む映像を撮影する。この他のカメラ104からカメラ111はプロジェクタ投影像のないスタジオ壁面と演者を撮影する。 In FIG. 6, it is assumed that the projector projects a projected image onto two walls, the north wall and the west wall of the studio. In FIG. 9, of the four projectors, the projector 601 that projects on the north wall of the studio and the projector 130 that projects on the west wall of the studio project the projected images in the area indicated by the dotted line, and the projectors 602 and 603 are turned off. It shows how it is. At this time, among the cameras 101 to 126, the cameras 112 to 116 capture images including the projector projected image on the north wall of the studio by the projector 601, and the cameras 101 to 103 capture the projector projected images on the west wall of the studio by the projector 130. Shoot a video that contains Other cameras 104 to 111 photograph the studio walls and performers without the projected image of the projector.

このような撮影環境において、図8のシステム制御装置120は、そのUI部から図示しない本システム利用者の操作によってプロジェクタ(130,601)に対し、プロジェクタ投影像が送信される。一般にはUI部に映像出力先のプロジェクタ選択メニューなどがあり、システム利用者はメニューからプロジェクタを指定し映像を出力するという、PCなどに共通な操作が好ましい。 In such a shooting environment, the system control device 120 of FIG. 8 transmits a projected image of the projector to the projector (130, 601) through the user's operation of the system (not shown) from its UI unit. In general, the UI section has a menu for selecting a projector for image output, and the system user designates a projector from the menu and outputs an image.

システム利用者によって投影プロジェクタが指定されると、システム制御装置120はプロジェクタ投影像を撮影範囲とするカメラに対し、カメラ撮影像にプロジェクタ投影像が含まれている事を示す信号を各カメラに接続された画像処理装置に送信する。例えばカメラ撮影像にプロジェクタ投影像が含まれる場合を1、プロジェクタ投影像が含まれない場合を0、とする1bitの信号で充分である。1bitのプロジェクタ投影像有無信号は各カメラに接続された画像処理装置の前景背景分離部に入力される。カメラ撮影像にプロジェクタ投影像が含まれる場合は、該当する画像処理装置は、前景、背景、プロジェクタ投影像の3種類を認識する。また、カメラ撮影像にプロジェクタ投影像が含まれない場合における該当する画像処理装置は、前景像、背景像の2種類を認識する。 When a system user designates a projection projector, the system control device 120 connects to each camera a signal indicating that the image captured by the camera includes the projected image of the projector. sent to the specified image processing device. For example, a 1-bit signal, which is 1 when the projected image of the projector is included in the image captured by the camera and 0 when the projected image of the projector is not included, is sufficient. A 1-bit projector projection image presence/absence signal is input to the foreground/background separator of the image processing device connected to each camera. When a camera-captured image includes a projector-projected image, the corresponding image processing device recognizes three types of foreground, background, and projector-projected images. Also, the corresponding image processing device when the image captured by the camera does not include the projected image of the projector recognizes two types of images: the foreground image and the background image.

このように、前景背景分離処理においてプロジェクタ投影像の有無を予め知り、プロジェクタ投影像が含まれない場合は前景背景分離処理にプロジェクタ投影像認識処理を実行しないことで前景背景分離処理負荷を軽減すると供に、誤判定を回避する効果を得る。 In this way, the presence or absence of a projector projected image is known in advance in the foreground/background separation process, and if the projector projected image is not included, the foreground/background separation process load can be reduced by not executing the projector projected image recognition process in the foreground/background separation process. In addition, an effect of avoiding erroneous determination is obtained.

なお、上記実施形態では、画像処理装置及びシステム制御装置120がデイジーチェーン接続されるものとして説明したが、通信接続形態はハブを介在したスター型でも良いし、高速な通信速度が確保できるのでれば、無線LANによる通信でも構わない。 In the above embodiment, the image processing device and the system control device 120 are daisy chain connected, but the communication connection may be a star type with a hub intervening, as long as a high communication speed can be secured. For example, wireless LAN communication may be used.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the embodiments described above, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.

101-116…カメラ、120…システム制御装置、130…プロジェクタ、1001-1016…画像処理装置 101-116... Camera, 120... System control device, 130... Projector, 1001-1016... Image processing device

Claims (9)

被写体を含む空間を複数の撮影装置により撮影することで得られた撮影画像に基づいて、仮想視点からの見えを表す仮想視点画像を生成する画像処理システムであって、
前景となる被写体とは異なる、所定色の背景に、前記背景とは明度が異なり前記所定色の像を投影する投影手段と、
前記撮影画像から、色の差異に基づいて前記前景を分離する分離手段と、
を有することを特徴とする画像処理システム。
An image processing system that generates a virtual viewpoint image representing a view from a virtual viewpoint based on captured images obtained by capturing a space including a subject with a plurality of capturing devices,
Projecting means for projecting an image of a predetermined color with a brightness different from that of the background onto a background of a predetermined color different from a foreground subject;
a separation means for separating the foreground from the captured image based on color difference;
An image processing system comprising:
前記分離手段は、所定の色空間における、前記所定色の座標と、前記投影手段による投影像における前記明度を加算した色で表される座標とに基づき、前景と背景とを分離することを特徴とする請求項1に記載の画像処理システム。 The separating means separates the foreground and the background based on the coordinates of the predetermined color in a predetermined color space and the coordinates represented by the color obtained by adding the lightness in the image projected by the projecting means. The image processing system according to claim 1, wherein: 更に、前記分離手段で分離した前景から、設定された仮想視点に基づく仮想視点画像を生成する生成手段を備えることを特徴とする請求項2に記載の画像処理システム。 3. The image processing system according to claim 2, further comprising generating means for generating a virtual viewpoint image based on a set virtual viewpoint from the foreground separated by said separating means. 前記投影手段は、前記背景の複数の位置に投影するための複数のプロジェクタを含む
ことを特徴とする請求項3に記載の画像処理システム。
4. The image processing system according to claim 3, wherein said projection means includes a plurality of projectors for projecting onto a plurality of positions of said background.
前記分離手段は、
所定の色空間における、前記背景の色を表す座標から予め設定された許容誤差だけ離れた範囲内の色を持つ画素を、前記背景に属する画素として判定する第1の判定手段と、
前記所定の色空間における、前記背景の色を表す座標から前記投影手段で投影した像の明度の増分だけ離れた座標までの範囲の色を持つ画素を、前記投影手段による投影像に属する画素として判定する第2の判定手段とを有し、
前記第1、第2の判定手段で判定した色の画素を除外した画素を、前記前景に属する画素として分離する
ことを特徴とする請求項4に記載の画像処理システム。
The separating means is
a first determination means for determining, as a pixel belonging to the background, a pixel having a color within a range separated from the coordinates representing the color of the background by a preset allowable error in a predetermined color space;
A pixel having a color in a range from the coordinate representing the color of the background in the predetermined color space to the coordinate spaced apart by the lightness increment of the image projected by the projection means is defined as a pixel belonging to the image projected by the projection means. and a second determination means for determining,
5. The image processing system according to claim 4, wherein pixels excluding pixels of colors determined by said first and second determining means are separated as pixels belonging to said foreground.
前記生成手段を有する生成装置と、
前記撮影装置それぞれに接続され、前記分離手段、及び、分離した前景画像を前記生成装置に伝送する伝送手段を有する複数の画像処理装置と
を有することを特徴とする請求項5に記載の画像処理システム。
a generation device having the generation means;
6. The image processing according to claim 5, further comprising a plurality of image processing devices connected to each of said photographing devices and having said separation means and transmission means for transmitting the separated foreground images to said generation device. system.
前記複数のプロジェクタのいずれで投影するかを選択する選択手段と、
該選択手段で選択したプロジェクタが投影する範囲を撮影範囲として持つ撮影装置に接続されている画像処理装置には、撮影画像から背景像、投影像とを分離して、前景画像を生成するように設定し、
前記選択で選択したプロジェクタが投影する範囲を撮影範囲外とする撮影装置に接続された画像処理装置には、背景像を分離して、前景画像を生成するように設定する設定手段と、
を有することを特徴とする請求項6に記載の画像処理システム。
selecting means for selecting which one of the plurality of projectors is used for projection;
The image processing device connected to the photographing device having the range projected by the projector selected by the selecting means as the photographing range is configured to separate the background image and the projected image from the photographed image and generate a foreground image. Set,
setting means for setting an image processing device connected to an imaging device whose projection range of the projector selected by the selection is outside the imaging range to separate a background image and generate a foreground image;
7. The image processing system according to claim 6, comprising:
被写体を含む空間を複数の撮影装置により撮影することで得られた撮影画像に基づいて、仮想視点からの見えを表す仮想視点画像を生成する画像処理システムの制御方法であって、
前景となる被写体とは異なる、所定色の背景に、前記背景とは明度が異なり前記所定色の像を投影する投影工程と、
前記撮影画像から、色の差異に基づいて前記前景を分離する分離工程と、
を有することを特徴とする画像処理システムの制御方法。
A control method for an image processing system for generating a virtual viewpoint image representing a view from a virtual viewpoint based on captured images obtained by capturing a space including a subject with a plurality of capturing devices, comprising:
a projecting step of projecting an image of a predetermined color with a brightness different from that of the background onto a background of a predetermined color different from the foreground subject;
a separation step of separating the foreground from the captured image based on color differences;
A control method for an image processing system, comprising:
コンピュータが読み込み実行することで、前記コンピュータに、請求項8に記載の制御方法の各工程を実行させるためのプログラム。 A program that is read and executed by a computer to cause the computer to execute each step of the control method according to claim 8.
JP2021090583A 2021-05-28 2021-05-28 Image processing system, and control method and program thereof Pending JP2022182835A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021090583A JP2022182835A (en) 2021-05-28 2021-05-28 Image processing system, and control method and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021090583A JP2022182835A (en) 2021-05-28 2021-05-28 Image processing system, and control method and program thereof

Publications (1)

Publication Number Publication Date
JP2022182835A true JP2022182835A (en) 2022-12-08

Family

ID=84329041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021090583A Pending JP2022182835A (en) 2021-05-28 2021-05-28 Image processing system, and control method and program thereof

Country Status (1)

Country Link
JP (1) JP2022182835A (en)

Similar Documents

Publication Publication Date Title
TWI508555B (en) Image processing apparatus and image processing method for performing image synthesis
CN108717691B (en) Image fusion method and device, electronic equipment and medium
JPWO2006059573A1 (en) Color adjustment apparatus and method
US20200128219A1 (en) Image processing device and method
CN110248242B (en) Image processing and live broadcasting method, device, equipment and storage medium
WO2019019870A1 (en) Image white balance processing method and apparatus, and terminal device
JP2014007530A (en) Image processing apparatus and control method therefor
JP2018511088A (en) Image processing method and apparatus used for LED display
CN111627076A (en) Face changing method and device and electronic equipment
US11736670B2 (en) System and method for generating video content with hue-preservation in virtual production
KR101548236B1 (en) Color compansation method for 3D Image
CN109348207B (en) Color temperature adjusting method, image processing method and device, medium and electronic equipment
CN109729259B (en) Image processing apparatus, method thereof, system thereof, and computer readable medium
JP2013162287A (en) Image processing apparatus, image processing method, and program
KR101310216B1 (en) Apparatus and method for converting color of images cinematograph
JP2016015017A (en) Imaging system, light projector and image processing method, beam light control method and program
KR101733125B1 (en) Method of chroma key image synthesis without background screen
JP2022182835A (en) Image processing system, and control method and program thereof
KR102619830B1 (en) Method and apparatus for correcting image
KR20110023694A (en) System for converting color of images cinematograph and controlling method thereof
US20110187869A1 (en) Tracking-frame initial-position setting apparatus and method of controlling operation of same
TWI387321B (en) Moving object detection method for different exposure image sequences
JP2005129017A (en) Image processing device, image processing method and its program
JPWO2019111921A1 (en) Imaging equipment, electronics and saturation suppression programs
WO2021192096A1 (en) Image processing device, image processing method, and image processing program