JP7271115B2 - Image processing device, background image generation method and program - Google Patents

Image processing device, background image generation method and program Download PDF

Info

Publication number
JP7271115B2
JP7271115B2 JP2018172690A JP2018172690A JP7271115B2 JP 7271115 B2 JP7271115 B2 JP 7271115B2 JP 2018172690 A JP2018172690 A JP 2018172690A JP 2018172690 A JP2018172690 A JP 2018172690A JP 7271115 B2 JP7271115 B2 JP 7271115B2
Authority
JP
Japan
Prior art keywords
image
area
difference
captured
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018172690A
Other languages
Japanese (ja)
Other versions
JP2020046744A (en
Inventor
明弘 松下
究 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018172690A priority Critical patent/JP7271115B2/en
Publication of JP2020046744A publication Critical patent/JP2020046744A/en
Application granted granted Critical
Publication of JP7271115B2 publication Critical patent/JP7271115B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、撮像装置が撮像した画像から背景画像を生成する技術に関する。 The present invention relates to a technique for generating a background image from an image captured by an imaging device.

撮像装置が撮像した画像から背景画像を生成する方法として、撮像した画像の前景領域を除いた領域から背景画像を生成する方法がある。特許文献1には、所定の区域を撮像した画像の画素のうち、ある時間内における画素値の変化が所定の閾値以下の状態が続いた画素は、背景を示す画素であるものとして背景画像を生成する技術が記載されている。 As a method of generating a background image from an image captured by an imaging device, there is a method of generating a background image from an area excluding the foreground area of the captured image. In Japanese Patent Laid-Open No. 2004-100001, among the pixels of an image obtained by imaging a predetermined area, pixels whose pixel value changes are less than or equal to a predetermined threshold for a certain period of time are treated as pixels representing the background, and are regarded as background images. A technique for generating is described.

特開2001―43458号公報JP-A-2001-43458

撮像装置が撮像した画像には、背景ではないにも係わらず背景の画素値との差が小さい画素値の領域が存在する。例えば、撮像装置が撮像した画像に存在するオブジェクト(被写体)の影のうち、日照または照明の条件によって生じる薄い影の画素値は、その薄い影の領域に存在する本来の背景の画素値との差が小さい画素値である。このため、所定の区域を撮像した撮像画像と、同じ区域を撮像した画像から生成されている背景画像との画素値を比較して差分を求めると、撮像画像に存在する薄い影の領域と背景画像との画素値の差分は、所定の閾値を超えないことがある。差分が閾値以下である領域は背景として処理されるため、前景領域として処理されるべき薄い影の領域が背景画像に含まれるように処理される虞がある。 An image captured by an imaging device includes an area of pixel values having a small difference from the pixel value of the background even though it is not the background. For example, among the shadows of an object (subject) present in an image captured by an imaging device, the pixel values of the light shadows caused by sunlight or lighting conditions differ from the pixel values of the original background existing in the light shadow area. It is a pixel value with a small difference. For this reason, if the difference is obtained by comparing the pixel values of a captured image obtained by capturing a predetermined area and a background image generated from an image captured by capturing the same area, the light shadow area present in the captured image and the background The pixel value difference from the image may not exceed a predetermined threshold. Since an area where the difference is equal to or less than the threshold is processed as the background, there is a risk that the background image will include a light shadow area that should be processed as the foreground area.

本開示に係る画像処理装置は、撮像装置によって撮像された撮像画像を取得する取得手段と、前記取得手段により取得された撮像画像の各画素の画素値と、前記撮像画像が撮像される以前に前記撮像装置によって撮像された画像に基づいて得られた比較対象画像の各画素の画素値と、の差分が所定の値より大きい画素により構成される領域を差分領域として検出する検出手段と、前記検出手段により検出された差分領域に基づいて、前記撮像画像内のオブジェクトの影に相当する領域を少なくとも含む前記差分領域よりも広い第一の領域を設定する設定手段と、前記撮像画像のうち、前記設定手段により設定された前記第一の領域とは異なる領域である第二の領域を構成する画素を用いて背景画像を生成する生成手段と、を有することを特徴とする。 The image processing apparatus according to the present disclosure includes acquisition means for acquiring a captured image captured by an imaging device, a pixel value of each pixel of the captured image acquired by the acquisition means, and before the captured image is captured, detection means for detecting, as a difference area, an area composed of pixels having a difference greater than a predetermined value from a pixel value of each pixel of a comparison target image obtained based on the image captured by the imaging device; setting means for setting a first area wider than the difference area including at least an area corresponding to a shadow of an object in the captured image based on the difference area detected by the detection means; and generating means for generating a background image using pixels forming a second area that is different from the first area set by the setting means.

本発明によれば、好適な背景画像を生成することができる。 According to the present invention, a suitable background image can be generated.

仮想視点システムを示す図である。1 illustrates a virtual viewpoint system; FIG. 画像処理装置のハードウエア構成を示すブロック図である。2 is a block diagram showing the hardware configuration of the image processing apparatus; FIG. 画像処理装置の機能構成を示すブロック図である。2 is a block diagram showing the functional configuration of the image processing device; FIG. 撮像画像から背景画像を更新する処理を示す図である。It is a figure which shows the process which updates a background image from a captured image. 膨張処理の説明をする図である。It is a figure explaining expansion processing. 膨張処理を示すフローチャートである。6 is a flowchart showing dilation processing; 膨張画素数の算出方法を説明する図である。It is a figure explaining the calculation method of the expansion pixel number. 膨張処理を示すフローチャートである。6 is a flowchart showing dilation processing;

以下、添付の図面を参照して、本発明を実施形態例のいくつかに基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。 The present invention will now be described in detail on the basis of some exemplary embodiments with reference to the accompanying drawings. Note that the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
本実施形態は、カメラ等の撮像装置が撮像した撮像画像に基づき背景画像を生成する処理において、背景との画素値の差が小さい前景を、背景として取り扱わないように処理をする画像処理装置に関わる形態である。
<Embodiment 1>
The present embodiment is directed to an image processing apparatus that performs processing such that a foreground having a small pixel value difference from the background is not treated as a background in processing for generating a background image based on an image captured by an imaging device such as a camera. It is a related form.

図1は、本実施形態のシステムの概略構成を示したものである。競技場101の周囲に複数のカメラ102が並べて配置されており、複数の方向から競技場のフィールド104を撮像できるようになっている。各カメラ102は、原則として、姿勢および位置が固定されているため、各カメラは時間方向において同じ撮像区域を撮像する。各カメラ102はデータ伝送のための入出力ハードウエア(不図示)を備えている。カメラ102同士は例えばネットワークケーブル等のネットワークを使ってリング型の接続がされており、ネットワークを介して隣のカメラへ画像(動画または静止画)を示す画像データを順次伝送するようになっている。カメラ102のうちの一つは画像処理装置200(図2参照)に接続されており、各カメラ102が撮像した画像の画像データは画像処理装置200まで伝送される。 FIG. 1 shows a schematic configuration of the system of this embodiment. A plurality of cameras 102 are arranged side by side around the stadium 101 so that the field 104 of the stadium can be imaged from a plurality of directions. Since each camera 102 has a fixed attitude and position in principle, each camera images the same imaging area in the time direction. Each camera 102 has input/output hardware (not shown) for data transmission. The cameras 102 are connected to each other in a ring configuration using a network such as a network cable, and image data representing images (moving images or still images) are sequentially transmitted to adjacent cameras via the network. . One of the cameras 102 is connected to an image processing device 200 (see FIG. 2), and image data of images captured by each camera 102 is transmitted to the image processing device 200 .

以下、本実施形態は、図1に示すような、競技場の周囲に複数のカメラが配置され仮想視点画像を生成するシステムに係わる画像処理装置200を例に説明する。ここで仮想視点画像とは、エンドユーザまたは選任のオペレータ等が自由に仮想視点に対応するカメラ(仮想カメラ)の位置および姿勢を操作することによって生成される画像である。仮想視点画像は、動画であっても、静止画であってもよい。 In this embodiment, an image processing apparatus 200 relating to a system in which a plurality of cameras are arranged around a stadium as shown in FIG. 1 to generate a virtual viewpoint image will be described below as an example. Here, a virtual viewpoint image is an image generated by an end user or a designated operator or the like by freely manipulating the position and orientation of a camera (virtual camera) corresponding to a virtual viewpoint. A virtual viewpoint image may be a moving image or a still image.

競技場101のフィールド104では例えばサッカーなどの競技が行われており、フィールド104の中にオブジェクトとして人物103が存在しているものとする。各カメラ102によって撮像された画像の画像データはネットワークを介して画像処理装置200に送信される。オブジェクトとは、例えば選手、監督、または審判等の特定の人物である。または、オブジェクトは、ボール、またはゴール等、画像パターンが予め定められている物体であってもよい。また、オブジェクトは動体であってもよいし、静止体であってもよい。 It is assumed that a game such as soccer is being played on the field 104 of the stadium 101 and that a person 103 exists as an object in the field 104 . Image data of images captured by each camera 102 is transmitted to the image processing apparatus 200 via the network. An object is a specific person, such as a player, coach, or referee. Alternatively, the object may be an object with a predetermined image pattern, such as a ball or goal. Also, the object may be a moving body or a stationary body.

図2は、画像処理装置200のハードウエア構成の一例を示す図である。画像処理装置200は、CPU201、RAM202、ROM203、HDD204、入出力I/F205で構成される。そして、画像処理装置200を構成する各部は、システムバス206によって相互に接続されている。また、画像処理装置200は、入出力I/F205を介して、カメラ102、表示操作部210、に接続されている。 FIG. 2 is a diagram showing an example of the hardware configuration of the image processing apparatus 200. As shown in FIG. The image processing apparatus 200 is composed of a CPU 201 , a RAM 202 , a ROM 203 , an HDD 204 and an input/output I/F 205 . Each unit constituting the image processing apparatus 200 is interconnected by a system bus 206 . Also, the image processing apparatus 200 is connected to the camera 102 and the display operation unit 210 via the input/output I/F 205 .

CPU201は、RAM202をワークメモリとして、ROM203に格納されたプログラムを実行し、システムバス206を介して画像処理装置200の各部を統括的に制御する。これにより、後述する様々な処理が実現される。HDD204は、画像処理装置200で取り扱う種々のデータを記憶する大容量記憶装置であり、例えばSSDなどでもよい。CPU201は、システムバス206を介してHDD204へのデータの書き込み及びHDD204に記憶されたデータの読出しを行うことができる。 The CPU 201 executes a program stored in the ROM 203 using the RAM 202 as a work memory, and controls each unit of the image processing apparatus 200 through the system bus 206 . As a result, various processes to be described later are realized. The HDD 204 is a large-capacity storage device that stores various data handled by the image processing apparatus 200, and may be an SSD, for example. The CPU 201 can write data to the HDD 204 and read data stored in the HDD 204 via the system bus 206 .

入出力I/F205は、例えばUSBまたはIEEE1394等のシリアルバスI/Fであり、外部装置と画像処理装置200との間の各種データ・命令等の入力または出力が、この入出力I/F205を介して行われる。表示操作部210は、例えばタッチパネル機能を有する液晶ディスプレイなどで構成され、ユーザに対する必要な情報の表示、またはUI画面を介してユーザからの指示を取得する。なお、画像処理装置200の構成要素は上記以外にも存在し得るが説明を省略する。 The input/output I/F 205 is, for example, a serial bus I/F such as USB or IEEE1394. done through The display operation unit 210 is configured by, for example, a liquid crystal display having a touch panel function, and displays necessary information to the user or acquires instructions from the user via the UI screen. Although there may be components of the image processing apparatus 200 other than those described above, the description thereof is omitted.

図3は、画像処理装置200の機能構成を示すブロック図である。画像処理装置200は、画像取得部301、差分領域検出部302、背景画像保存部303、差分領域設定部304、背景画像作成部305、背景差分処理部306、前景テクスチャ生成部307および仮想視点画像生成部308を有する。なお、差分領域は、複数の画素で構成されるが、複数の画素はすべてつながっている必要なく、2つ以上に分離されていてもよい。また、差分領域を構成する複数の画素は、互いに離れていてもよい。また、差分が所定の閾値未満となる画素が1つの場合であっても本実施形態を適用することができる。 FIG. 3 is a block diagram showing the functional configuration of the image processing apparatus 200. As shown in FIG. The image processing apparatus 200 includes an image acquisition unit 301, a difference area detection unit 302, a background image storage unit 303, a difference area setting unit 304, a background image generation unit 305, a background difference processing unit 306, a foreground texture generation unit 307, and a virtual viewpoint image. It has a generator 308 . Note that the difference area is composed of a plurality of pixels, but the plurality of pixels need not be connected and may be separated into two or more. Also, the plurality of pixels forming the difference area may be separated from each other. Also, the present embodiment can be applied even when the number of pixels whose difference is less than the predetermined threshold is one.

画像取得部301は、カメラ102が撮像した撮像画像の画像データを取得する。撮像画像は静止画または動画のフレーム画像などの画像である。差分領域検出部302は、撮像画像と比較対象画像との画素値の差分が所定の値より大きい領域である差分領域を検出する。本実施形態では、比較対象画像として背景画像保存部303に記憶されている背景画像を使用する。詳細は後述する。背景画像保存部303は、撮像画像が撮像される以前に生成された背景画像を記憶している。背景画像保存部303は、画像処理装置200のROM203またはHDD204により実現される。 The image acquisition unit 301 acquires image data of an image captured by the camera 102 . A captured image is an image such as a still image or a frame image of a moving image. The difference area detection unit 302 detects a difference area, which is an area in which the difference in pixel values between the captured image and the comparison target image is larger than a predetermined value. In this embodiment, the background image stored in the background image storage unit 303 is used as the comparison target image. Details will be described later. A background image storage unit 303 stores a background image generated before the captured image is captured. Background image storage unit 303 is realized by ROM 203 or HDD 204 of image processing apparatus 200 .

なお、本実施形態では、背景画像保存部303は画像処理装置200の構成に含まれることにしているが、画像処理装置200と異なる装置におけるROMまたはHDD等によって実現されてもよい。その場合、画像処理装置200は、ネットワーク等を介して背景画像保存部を有する装置と接続されることにより背景画像を取得する。 Although the background image storage unit 303 is included in the configuration of the image processing apparatus 200 in this embodiment, it may be implemented by a ROM, HDD, or the like in a device different from the image processing apparatus 200 . In that case, the image processing apparatus 200 acquires the background image by being connected via a network or the like to an apparatus having a background image storage unit.

差分領域設定部304は、差分領域検出部302により検出された差分領域に基づいて、差分領域を広げて差分領域よりも広い領域を設定する処理をする。本実施形態では、差分領域を広げるための処理として膨張処理をする。膨張処理の説明は後述する。
背景画像作成部305は、撮像画像と差分領域設定部304によって膨張処理された差分領域を示す画像とに基づき背景画像を生成する。本実施形態は後述するように、撮像画像と、差分領域設定部304によって膨張処理された差分領域を示す画像と、に基づき背景画像保存部303に保存されている背景画像が更新されることにより背景画像が生成される形態である。他にも、背景画像作成部305は撮像画像のうち差分領域設定部304によって膨張処理された差分領域以外の領域の画像を背景画像として生成する形態でもよい。
A difference area setting unit 304 expands the difference area based on the difference area detected by the difference area detection unit 302 to set an area wider than the difference area. In this embodiment, dilation processing is performed as processing for widening the difference region. A description of the expansion process will be given later.
The background image generation unit 305 generates a background image based on the captured image and the image representing the difference area expanded by the difference area setting unit 304 . In this embodiment, as will be described later, the background image stored in the background image storage unit 303 is updated based on the captured image and the image showing the difference area expanded by the difference area setting unit 304. This is the form in which the background image is generated. Alternatively, the background image creation unit 305 may generate an image of an area other than the difference area expanded by the difference area setting unit 304 in the captured image as the background image.

背景差分処理部306は、更新された背景画像と撮像画像とを比較し、差分が存在する領域から前景の領域であることを示す前景マスクを生成する。前景テクスチャ生成部307は、撮像画像および前景マスクに基づいて前景テクスチャを切り取る処理をして前景テクスチャを生成する。仮想視点画像生成部308は前景マスク、前景テクスチャおよび背景画像から仮想視点画像を生成する。 A background difference processing unit 306 compares the updated background image and the captured image, and generates a foreground mask indicating a foreground area from the area where the difference exists. A foreground texture generation unit 307 generates a foreground texture by cutting out the foreground texture based on the captured image and the foreground mask. A virtual viewpoint image generator 308 generates a virtual viewpoint image from the foreground mask, the foreground texture, and the background image.

なお、背景差分処理部306、前景テクスチャ生成部307および仮想視点画像生成部308は、画像処理装置200とは別の装置の構成として実現されている形態でもよい。その場合、背景差分処理部306を有する装置は、ネットワーク等を介して画像処理装置200から撮像画像および更新された背景画像を取得する。 Note that the background difference processing unit 306, the foreground texture generation unit 307, and the virtual viewpoint image generation unit 308 may be implemented as a configuration of a device separate from the image processing device 200. FIG. In that case, the device having the background difference processing unit 306 acquires the captured image and the updated background image from the image processing device 200 via a network or the like.

また、図3の各モジュールの機能はCPU201がROM203に記憶されているプログラムコードをRAM202に展開して実行することにより実現される。他にも例えば、画像処理装置200はASIC(application specific integrated circuit)やFPGA(field programmable gate array)を有する形態でもよい。その場合、図3に示した各モジュールがハードウエアとしてASICやFPGAの内部に実装される。 The functions of each module in FIG. 3 are implemented by the CPU 201 developing program codes stored in the ROM 203 in the RAM 202 and executing them. In addition, for example, the image processing apparatus 200 may have a form having an ASIC (application specific integrated circuit) or an FPGA (field programmable gate array). In that case, each module shown in FIG. 3 is mounted inside an ASIC or FPGA as hardware.

[背景画像の更新処理の説明]
図4は、比較例として、カメラ等の撮像装置が撮像した撮像画像から、膨張処理をしない場合における背景画像の更新処理を説明する図である。図4(a)は、カメラ102が撮像した撮像画像の例であり、背景であるフィールド401と、フィールドの内部に人物がオブジェクト402として映っている。また、フィールドの内部には、オブジェクトの影(人物の影)403が映っている。撮像画像は静止画または動画のフレーム画像などの画像である。図4(b)は、図4(a)の撮像画像と同じ撮像区域の背景として背景画像保存部303に記憶されている背景画像である。
[Description of background image update process]
FIG. 4 is a diagram illustrating, as a comparative example, update processing of a background image in a case where an image captured by an imaging device such as a camera is not subjected to expansion processing. FIG. 4A is an example of a captured image captured by the camera 102, in which a background field 401 and a person appearing as an object 402 inside the field. A shadow of an object (a shadow of a person) 403 appears inside the field. A captured image is an image such as a still image or a frame image of a moving image. FIG. 4(b) is a background image stored in the background image storage unit 303 as the background of the same imaging area as the imaged image of FIG. 4(a).

図4(c)は、撮像画像の領域と背景画像との対応する領域の画素値の差分が、所定の値を超えた領域を示す図である。撮像画像と背景画像との画素値の差分が所定の値を超えた領域である「差分領域」を示す画像は、例えば図4(c)のように各画素が黒色の領域と白色の領域の2値の画像で表された画像である。図4(c)において、黒色の領域は、差分が所定の値を超えた差分領域404を示しており、前景と判定された領域であることを示している。一方、白色の領域は差分が所定の値以下の領域であることを示している。差分領域以外の領域を非差分領域405とよぶ。非差分領域405は背景と判定された領域であることを示している。 FIG. 4(c) is a diagram showing an area where the difference in pixel value between the area of the captured image and the corresponding area of the background image exceeds a predetermined value. An image showing a "difference area", which is an area where the difference in pixel value between the captured image and the background image exceeds a predetermined value, is an image in which each pixel is divided into a black area and a white area, as shown in FIG. It is an image represented by a binary image. In FIG. 4C, a black area indicates a difference area 404 in which the difference exceeds a predetermined value, and indicates that the area is determined to be the foreground. On the other hand, white areas indicate areas where the difference is equal to or less than a predetermined value. A region other than the difference region is called a non-difference region 405 . A non-difference area 405 indicates an area determined to be the background.

図4(d)は、図4(a)の撮像画像に基づき、保存されている背景画像が更新された後の背景画像の例である。図4(c)の非差分領域405を示した画像と、図4(a)の撮像画像とを重ね合わせたときに、非差分領域405の領域に応じた撮像画像の画素を、保存されている背景画像の非差分領域405に応じた画素に上書して背景画像を更新する。このとき、オブジェクトの影403およびオブジェクトの輪郭部分に発生するボケ領域407(オブジェクトと背景の境界部分において画素値が混合した領域)の画素値は、背景画像の画素値との差分が小さい。このため、オブジェクトの影403およびボケ領域407は、差分が所定の値より大きい領域である差分領域404には含まれないことがある。この場合、オブジェクトの影403およびボケ領域407は図4(c)の非差分領域405に含まれることになる。非差分領域405は前述のとおり背景として処理されるため、図4(d)の画像のようにオブジェクトの影403およびボケ領域407は背景として取り込まれて背景画像が更新されることがある。 FIG. 4(d) is an example of the background image after the stored background image is updated based on the captured image of FIG. 4(a). When the image showing the non-difference region 405 in FIG. 4C is superimposed on the captured image in FIG. The background image is updated by overwriting the pixels corresponding to the non-difference area 405 of the background image. At this time, the difference between the pixel values of the shadow 403 of the object and the blurred area 407 (area where the pixel values are mixed at the boundary between the object and the background) generated in the outline of the object is small from the pixel value of the background image. Therefore, the shadow 403 of the object and the blurred area 407 may not be included in the difference area 404, which is an area where the difference is larger than a predetermined value. In this case, the shadow 403 of the object and the blurred area 407 are included in the non-difference area 405 of FIG. 4(c). Since the non-difference area 405 is processed as the background as described above, the shadow 403 of the object and the blurred area 407 may be captured as the background and the background image may be updated as in the image of FIG. 4(d).

影の領域またはボケ領域が背景画像の一部として取り込まれることになると、更新された背景画像を基準にして行われる処理において不都合を生じさせる虞がある。例えば、背景差分処理部306は更新された背景画像と同じ区域を撮像した撮像画像とを比較し、差分が存在する領域を分離することでオブジェクトである前景の領域を示す前景マスクを生成する処理がある。このとき図4(d)のように更新された背景画像にオブジェクトの影が含まれると、撮像画像にあるオブジェクトの影は背景画像との差分であると判定されない。このため、オブジェクトの影が前景領域として処理されない虞がある。 If the shadow area or the blurred area is captured as part of the background image, it may cause inconvenience in the processing performed based on the updated background image. For example, the background difference processing unit 306 compares the updated background image with a captured image of the same area, and separates the area where the difference exists to generate a foreground mask indicating the foreground area that is the object. There is At this time, if the updated background image includes the shadow of the object as shown in FIG. 4D, the shadow of the object in the captured image is not determined to be the difference from the background image. Therefore, the shadow of the object may not be processed as the foreground area.

図5は、本実施形態に係わる技術を使用してカメラ等の撮像装置が撮像した撮像画像から背景画像を更新する処理を説明する図である。図5(a)、図5(b)および図5(c)はそれぞれ図4(a)、図4(b)および図4(c)と同じ図である。図5(d)は、差分領域設定部304によって差分領域404(黒色の領域)に対して膨張処理を行った後の図である。 FIG. 5 is a diagram illustrating processing for updating a background image from a captured image captured by an imaging device such as a camera using the technology according to the present embodiment. FIGS. 5(a), 5(b) and 5(c) are the same views as FIGS. 4(a), 4(b) and 4(c) respectively. FIG. 5D is a diagram after dilation processing is performed on the difference area 404 (black area) by the difference area setting unit 304 .

ここで、「膨張処理」とは、図5(c)の差分領域404を膨張処理する場合、差分領域404の各画素において、各画素の周辺の画素も差分領域として扱うようにして差分領域を広げる処理をすることである。例えば、差分領域の各画素を注目画素とし、注目画素の周囲を1画素で囲んだ単位領域ごとに膨張処理は行われる。具体的には、その注目画素が黒色であればその単位領域の全ての画素(8画素)を注目画素と同じ黒色にするような処理をする。そのとき膨張処理をするための画素数(上記の例でいう1画素)を「膨張画素数」とよぶ。なお、膨張処理の方法は限定しない。例えば、ある注目画素において、その注目画素の周辺に黒色の画素が存在する場合は、その注目画素の画素値を黒色の画素値にさせるような処理でもよい。 Here, the "expansion process" means that when dilating the difference area 404 in FIG. It is to process to spread. For example, each pixel in the difference area is set as a target pixel, and the dilation process is performed for each unit area in which the target pixel is surrounded by one pixel. Specifically, if the pixel of interest is black, all the pixels (eight pixels) in the unit area are processed to have the same black color as the pixel of interest. The number of pixels (one pixel in the above example) for dilation processing at that time is called the "dilation pixel number". Note that the expansion processing method is not limited. For example, when a target pixel has black pixels around the target pixel, the pixel value of the target pixel may be changed to a black pixel value.

膨張処理の結果の例を図5(d)に示す。このように、図5(c)の差分領域404が膨張処理されて、オブジェクトの影403およびオブジェクトの輪郭部分に発生するボケ領域407は膨張処理された後の差分領域501の中に含まれることになる。 An example of the result of dilation processing is shown in FIG. 5(d). In this way, the difference area 404 in FIG. 5(c) is expanded, and the shadow 403 of the object and the blurred area 407 generated in the outline portion of the object are included in the difference area 501 after the expansion process. become.

図5(e)の画像は、保存されていた背景画像が撮像画像である図5(a)の画像に基づいて更新された後の背景画像を示す画像である。差分領域設定部304は、膨張された後の差分領域501を含む図5(d)の画像と、図5(a)の撮像画像とを重ね合わせる。その時に、膨張された差分領域以外の領域である非差分領域502(白色の領域)に応じた撮像画像の画素が、保存されている図5(b)の背景画像の同じ領域の画素に上書され背景画像が更新される。差分領域501は、オブジェクトの影403およびオブジェクトの輪郭部分に発生するボケ領域407が含まれるように膨張されている。このため、背景を示す非差分領域502にはオブジェクトの影403およびオブジェクトの輪郭部分に発生するボケ領域407が含まれない。よって、図4(d)の背景画像とは異なり、本実施形態によって更新された図5(d)の背景画像には影403およびボケ領域407の領域が取り込まれない。 The image of FIG. 5(e) is an image showing the background image after being updated based on the image of FIG. 5(a) in which the saved background image is the captured image. The difference region setting unit 304 superimposes the image of FIG. 5(d) including the dilated difference region 501 and the captured image of FIG. 5(a). At that time, the pixels of the captured image corresponding to the non-difference region 502 (white region), which is the region other than the dilated difference region, are superimposed on the pixels of the same region of the saved background image of FIG. background image is updated. The difference area 501 is expanded to include the shadow 403 of the object and the blurred area 407 occurring at the outline of the object. Therefore, the non-difference area 502 indicating the background does not include the shadow 403 of the object and the blurred area 407 generated in the outline portion of the object. Therefore, unlike the background image of FIG. 4(d), the background image of FIG. 5(d) updated according to the present embodiment does not include the shadow 403 and the blurred area 407. FIG.

このため、例えば、背景差分処理部306は、オブジェクトの影403が取り込まれていない背景画像と撮像画像とを比較して差分処理を行ことができる。よって、背景差分処理部306はオブジェクトの影403を差分として認識できるため、前景マスク生成に際して、オブジェクトの影も前景領域として処理することができる。 Therefore, for example, the background difference processing unit 306 can perform difference processing by comparing a background image in which the shadow 403 of the object is not captured and the captured image. Therefore, since the background difference processing unit 306 can recognize the shadow 403 of the object as a difference, the shadow of the object can also be processed as a foreground area when generating the foreground mask.

[フローチャート]
図6は、本実施形態における画像処理装置200が背景画像を更新する際の一連の処理を示すフローチャートである。図6のフローチャートで示される一連の処理は、CPU201がROM203に記憶されているプログラムコードをRAM202に展開し実行することにより行われる。または、図6におけるステップの一部または全部の機能をASIC、FPGA、あるいは電子回路等のハードウエアで実現してもよい。なお、各処理の説明における記号「S」は、当該フローチャートにおけるステップであることを意味する。
[flowchart]
FIG. 6 is a flow chart showing a series of processes when the image processing apparatus 200 in this embodiment updates the background image. A series of processes shown in the flowchart of FIG. 6 are performed by the CPU 201 expanding the program code stored in the ROM 203 into the RAM 202 and executing the program code. Alternatively, some or all of the functions of the steps in FIG. 6 may be realized by hardware such as ASIC, FPGA, or electronic circuits. Note that the symbol "S" in the description of each process means a step in the flowchart.

S601において、画像取得部301は、ネットワークを介して各カメラ102から送られる撮像画像を示す画像データを取得する。 In S601, the image acquisition unit 301 acquires image data representing a captured image sent from each camera 102 via the network.

S602において、画像取得部301は、撮像画像を示す画像データに対して、画像の振動の補正、レンズ歪みなどの画像の歪みの補正、色およびガンマ調整などの前処理を行う。 In step S<b>602 , the image acquisition unit 301 performs preprocessing such as image vibration correction, image distortion correction such as lens distortion, and color and gamma adjustment on the image data representing the captured image.

S603において、差分領域検出部302は、前処理が行われた撮像画像を示す画像データを取得する。また、差分領域検出部302は、背景画像保存部303に保存された背景画像を示す画像データを比較対象画像として取得する。差分領域検出部302は、取得した背景画像の領域と撮像画像の対応する領域とにある各画素の画素値の差分を算出し、差分が所定の値より大きいかを判定する。差分が所定の値より大きい場合、差分領域検出部302は当該画素を差分領域の画素であると判定する。 In S603, the difference area detection unit 302 acquires image data representing the preprocessed captured image. Further, the difference area detection unit 302 acquires image data representing the background image stored in the background image storage unit 303 as a comparison target image. The difference area detection unit 302 calculates the difference between the pixel values of each pixel in the acquired area of the background image and the corresponding area of the captured image, and determines whether the difference is greater than a predetermined value. If the difference is greater than a predetermined value, the difference area detection unit 302 determines that the pixel is a pixel in the difference area.

ここで、所定の値は、撮像画像の背景の領域に含まれる微小なノイズによって画素値が変動した場合であっても、撮像画像の背景の領域が差分領域と判定されないように定められた値である。よって、所定の値はノイズの変動に基づき定められる。所定の値は、例えば背景画像の画素値に対して数%の値のように予め定められた値である。または、画像処理装置200に撮像画像のノイズレベルをモニターする機能を設け、差分領域検出部302は撮像画像のノイズレベルに応じて所定の値を随時変更する形態であってもよい。画像処理装置200の表示操作部210を介してユーザが所定の値を変更する指示を行い、差分領域検出部302が当該指示を取得し、ユーザが定めた所定の値に基づき差分領域を判定する形態でもよい。 Here, the predetermined value is a value determined so that the background area of the captured image is not determined to be the difference area even when the pixel value fluctuates due to minute noise included in the background area of the captured image. is. Thus, the predetermined value is determined based on noise variations. The predetermined value is, for example, a predetermined value such as a value that is several percent of the pixel value of the background image. Alternatively, the image processing apparatus 200 may be provided with a function of monitoring the noise level of the captured image, and the difference area detection unit 302 may change the predetermined value as needed according to the noise level of the captured image. The user gives an instruction to change a predetermined value via the display operation unit 210 of the image processing apparatus 200, the difference area detection unit 302 acquires the instruction, and determines the difference area based on the predetermined value determined by the user. It can be in any form.

S604において差分領域設定部304は、膨張画素数を決定するための基礎となる特徴量の算出を行う。本実施形態では、特徴量としてオブジェクトごとの差分領域の画素数(面積)を使用する。差分領域設定部304は、オブジェクトごとの差分領域の画素を数えて差分領域の画素数を算出する。 In S<b>604 , the difference area setting unit 304 calculates a feature amount that serves as a basis for determining the number of dilated pixels. In this embodiment, the number of pixels (area) of the difference area for each object is used as the feature amount. The difference area setting unit 304 counts the pixels in the difference area for each object to calculate the number of pixels in the difference area.

S605において、差分領域設定部304は、オブジェクトごとの差分領域の画素数に所定の係数を乗算し、差分領域を膨張処理するための膨張画素数を決定する。 In S605, the difference area setting unit 304 multiplies the number of pixels in the difference area for each object by a predetermined coefficient to determine the number of dilation pixels for dilating the difference area.

S606において、差分領域設定部304は、オブジェクトごとの差分領域に対してS605の処理によって決定された膨張画素数に基づき膨張処理を行う。 In S<b>606 , the difference area setting unit 304 performs expansion processing on the difference area for each object based on the expansion pixel number determined by the processing in S<b>605 .

S607において、背景画像作成部305は、画像取得部301が取得した撮像画像、背景画像保存部303に保存されている背景画像、および差分領域設定部304において膨張処理された差分領域と非差分領域とを示す画像を取得する。背景画像作成部305は、膨張処理された後の非差分領域502に対応する撮像画像の各画素を、背景画像保存部303に保存されている背景画像の非差分領域に対応する各画素に、撮像画像の各画素を置換するように上書きして背景画像を生成する。即ち、上書きする撮像画像の各画素の画素値によって、上書きされる背景画像の各画素の画素値が置換されるようにして背景画像が更新される。更新後の背景画像は背景画像保存部303に保存される。 In step S<b>607 , the background image generation unit 305 generates the imaged image acquired by the image acquisition unit 301 , the background image stored in the background image storage unit 303 , and the difference area and non-difference area expanded by the difference area setting unit 304 . Get an image showing The background image creation unit 305 converts each pixel of the captured image corresponding to the non-differential region 502 after expansion processing to each pixel corresponding to the non-differential region of the background image stored in the background image storage unit 303, A background image is generated by overwriting so as to replace each pixel of the captured image. That is, the background image is updated such that the pixel value of each pixel of the overwritten background image is replaced with the pixel value of each pixel of the captured image to be overwritten. The updated background image is stored in the background image storage unit 303 .

画像取得部301は取得した撮像画像を示す画像データを一定期間毎に差分領域検出部302に送信し、その都度、差分領域検出部302は撮像画像を示す画像データを取得する。よって、記載は省略するがS601からS607の処理は繰り返し行われる。背景画像保存部303には、撮像画像が撮像される直前に更新された背景画像が記憶されている。よって、次にS601の処理が行われる際は、更新後の背景画像と新たな撮像画像を比較してS603の差分領域を判定する処理が行われる。このようにして背景画像を随時更新することができる。 The image acquisition unit 301 transmits image data representing the acquired captured image to the difference area detection unit 302 at regular intervals, and each time, the difference area detection unit 302 acquires image data representing the captured image. Therefore, although the description is omitted, the processing from S601 to S607 is repeatedly performed. The background image storage unit 303 stores the background image updated immediately before the captured image is captured. Therefore, when the process of S601 is performed next, the process of determining the difference area of S603 is performed by comparing the updated background image and the new captured image. In this manner, the background image can be updated at any time.

以上の処理により撮像画像から背景画像を更新する処理は終了する。仮想視点画像を生成する処理としてはこの後に前景画像を生成するための処理が行われる。 With the above processing, the processing for updating the background image from the captured image ends. As the processing for generating the virtual viewpoint image, the processing for generating the foreground image is performed after this.

仮想視点画像を生成する際には、主な被写体(オブジェクト)である前景を背景部分から切り離してモデル化した上でレンダリングする処理が行われる。前景をモデル化する際には、複数のカメラから見たときの前景のシルエットに相当する前景マスクの情報と前景のテクスチャの情報(例えば前景の各画素のR、G、Bの色情報)とが必要となる。 When generating a virtual viewpoint image, processing is performed in which the foreground, which is the main subject (object), is modeled separately from the background portion, and then rendered. When modeling the foreground, foreground mask information corresponding to the silhouette of the foreground viewed from a plurality of cameras and foreground texture information (for example, R, G, and B color information for each pixel of the foreground) and Is required.

前景を背景部分から切り離す処理は、前景背景分離処理と呼ばれる。前景背景分離処理は、前景領域の推定を行う処理であり、一般的に背景差分法によって行われる。背景差分法とは、背景画像と、前景を含む入力画像との差分を求め、差分値が所定の閾値以上と判定された画素の集まりである領域を前景領域とする、というものである。つまり、前景を求めるために、背景画像が必要となる。 The process of separating the foreground from the background portion is called foreground-background separation. The foreground/background separation process is a process for estimating a foreground region, and is generally performed by a background subtraction method. In the background subtraction method, a difference between a background image and an input image including the foreground is obtained, and an area that is a group of pixels determined to have a difference value equal to or greater than a predetermined threshold value is regarded as the foreground area. In other words, a background image is required to obtain the foreground.

背景差分処理部306は、背景画像作成部305から、更新された背景画像を取得する。また背景差分処理部306は、画像取得部301から撮像画像を取得する。背景差分処理部306は、撮像画像と更新された背景画像とを比較する背景差分法を行い、差分のある領域から前景領域を示す前景マスクを作成する。 The background difference processing unit 306 acquires the updated background image from the background image creation unit 305 . Also, the background difference processing unit 306 acquires the captured image from the image acquisition unit 301 . A background subtraction processing unit 306 performs a background subtraction method that compares the captured image with the updated background image, and creates a foreground mask indicating the foreground area from the area with the difference.

前景マスクの作成において使用される背景画像は、上記の背景画像作成部305が更新した背景画像であり、例えば、図5(e)に示すようにオブジェクトの影が取り込まれていない背景画像である。このため本実施形態によれば背景差分処理部306は、オブジェクトの影が取り込まれていない背景画像と撮像画像とを比較して差分処理を行ことができる。よって、背景差分処理部306はオブジェクトの影の領域を差分として認識できるため、前景マスク生成に際して、オブジェクトの影に対しても前景領域として判定することができる。 The background image used in creating the foreground mask is the background image updated by the background image creating unit 305. For example, as shown in FIG. . Therefore, according to the present embodiment, the background difference processing unit 306 can perform difference processing by comparing the background image in which the shadow of the object is not captured and the captured image. Therefore, since the background difference processing unit 306 can recognize the shadow area of the object as a difference, the shadow of the object can also be determined as the foreground area when generating the foreground mask.

次に、前景テクスチャ生成部307は、画像取得部301から撮像画像を取得し、背景差分処理部306から前景マスクを取得する。前景テクスチャ生成部307は、撮像画像および前景マスクに基づいて前景テクスチャを切り取る処理をして前景テクスチャを生成する。 Next, the foreground texture generation unit 307 acquires the captured image from the image acquisition unit 301 and acquires the foreground mask from the background difference processing unit 306 . A foreground texture generation unit 307 generates a foreground texture by cutting out the foreground texture based on the captured image and the foreground mask.

次に、上記の背景画像、前景マスク、前景テクスチャを用いて仮想視点画像を生成する処理の説明をする。仮想視点画像生成部308は、他の複数視点のカメラによって撮像された複数視点画像によって生成された背景画像、前景マスク、前景テクスチャを取得する。仮想視点画像生成部308は、取得した複数視点の前景マスクおよび前景テクスチャを用いて、撮像シーン内に存在する各オブジェクトの3次元形状推定処理を実行する。推定手法としては、オブジェクトの輪郭情報を用いるVisual-hull手法、または三角測量を用いたMulti-view stereo手法など公知の手法を適用すればよい。これにより、オブジェクトの3次元形状を表すデータ(例えば、ポリゴンデータまたはボクセルデータ)が生成される。そして、生成される仮想視点画像についての画質レベルが設定される。 Next, processing for generating a virtual viewpoint image using the background image, foreground mask, and foreground texture will be described. A virtual viewpoint image generation unit 308 acquires a background image, a foreground mask, and a foreground texture generated by multi-viewpoint images captured by other multi-viewpoint cameras. The virtual viewpoint image generation unit 308 uses the acquired foreground masks and foreground textures of multiple viewpoints to perform a three-dimensional shape estimation process for each object present in the captured scene. As an estimation method, a known method such as a visual-hull method using contour information of an object or a multi-view stereo method using triangulation may be applied. As a result, data representing the three-dimensional shape of the object (for example, polygon data or voxel data) is generated. Then, the image quality level of the generated virtual viewpoint image is set.

また、仮想視点画像の対象タイムフレームにおける仮想カメラの位置・姿勢(仮想カメラパス)および注視する点(仮想注視点パス)といったパラメータが、表示操作部210を介したユーザ入力に基づき設定される。仮想視点画像生成部308は、前述の仮想カメラのパラメータに従って、仮想視点画像を生成する。仮想視点画像は、形状推定処理で得られたオブジェクトの3D形状データを用いて、設定された仮想カメラから見た映像をコンピュータグラフィックスの技術を用いることで生成することができる。この生成処理には公知の技術を適宜適用すればよく、本実施形態の主眼ではないので説明は省略する。 Parameters such as the position/orientation of the virtual camera (virtual camera path) and the gaze point (virtual gaze point path) in the target time frame of the virtual viewpoint image are set based on user input via the display operation unit 210 . A virtual viewpoint image generation unit 308 generates a virtual viewpoint image according to the parameters of the virtual camera described above. A virtual viewpoint image can be generated by using computer graphics technology, using 3D shape data of an object obtained by shape estimation processing, and an image viewed from a set virtual camera. A well-known technique may be appropriately applied to this generation process, and the explanation is omitted because it is not the main focus of the present embodiment.

以上説明したように本実施形態によれば、背景と画素値の差が小さい前景領域を背景として処理することなく背景画像を生成することができる。 As described above, according to the present embodiment, a background image can be generated without processing a foreground area having a small difference in pixel value from the background as the background.

[変形例]
本実施形態の説明において、差分領域をより広い領域とするような設定処理の1つとして膨張処理による実施形態の説明をした。差分領域をより広い領域とするような設定処理は膨張処理に限られない。例えば、ユーザが表示操作部210を介して差分領域を広げる領域を指示し、差分領域設定部304は当該指示に基づき差分領域を広げるような形態でもよい。
[Modification]
In the description of the present embodiment, an embodiment using dilation processing has been described as one of the setting processing for widening the difference region. Setting processing for widening the difference region is not limited to dilation processing. For example, the user may instruct the area to expand the difference area via the display operation unit 210, and the difference area setting unit 304 may expand the difference area based on the instruction.

本実施形態では、膨張画素数を決定する基である特徴量として画素数(面積)が用いられている。変形例として、オブジェクトの形状の目安となる差分領域の高さ、または差分領域の幅の情報が特徴量して用いられてもよい。またはオブジェクトの動きによる輪郭ボケの程度の目安となる過去のフレーム画像との比較によるオブジェクトの移動量が特徴量として用いられてもよい。 In the present embodiment, the number of pixels (area) is used as a feature quantity that is the basis for determining the number of dilated pixels. As a modification, information on the height of the difference area or the width of the difference area, which is a measure of the shape of the object, may be used as a feature amount. Alternatively, the amount of movement of the object compared with the past frame image, which serves as a measure of the degree of outline blur due to the movement of the object, may be used as the feature amount.

特徴量から膨張画素数を決定する方法として本実施形態では特徴量に対して一定の係数を乗算する形態としている。他にも画像処理装置200が特徴量に対応した膨張画素数をテーブル形式で管理し、当該テーブルに応じて膨張画素数が決定される形態でもよい。 As a method for determining the number of dilated pixels from the feature amount, the feature amount is multiplied by a constant coefficient in this embodiment. Alternatively, the image processing apparatus 200 may manage the number of expanded pixels corresponding to the feature amount in a table format, and the number of expanded pixels may be determined according to the table.

本実施形態では、特徴量に応じて膨張画素数が決定される形態としたが、処理を軽減するために膨張画素数を一定値として決めておく形態でもよい。または、ユーザが表示操作部210を介して膨張画素数を指示し、差分領域設定部304がユーザの指示した膨張画素数を取得し、差分領域設定部304がユーザの指示に応じて膨張画素数を変更するような形態でもよい。 In this embodiment, the number of dilated pixels is determined according to the feature amount, but the number of dilated pixels may be determined as a constant value in order to reduce the processing. Alternatively, the user instructs the expansion pixel number via the display operation unit 210, the difference area setting unit 304 acquires the expansion pixel number instructed by the user, and the difference area setting unit 304 acquires the expansion pixel number according to the user instruction. may be changed.

また、オブジェクトの影が差分領域に含まれるように、差分領域設定部304は差分領域の輪郭の下方を更に膨張する形態でもよい。はじめに、差分領域設定部304はオブジェクトのボケ領域が含まれる程度に差分領域を膨張処理する。次に、差分領域設定部304は差分領域の下方の領域を更に広げるように膨張処理することでオブジェクトの影の領域に対しても差分領域に含まれるように膨張処理をする。このように差分領域設定部304がオブジェクトのボケ領域と影の領域とを差分領域に含めるための膨張画素数をそれぞれ違う値で複数回膨張処理をする形態でもよい。または、差分領域の下方の領域をさらに広げるように膨張画素数を設定し、1回の膨張処理で差分領域の輪郭の下方を更に膨張する形態でもよい。ボケ領域より影の領域の方がオブジェクトの輪郭からの広がりが大きい。このため、ボケ領域および影の領域を差分領域に含めるために差分領域を均一に膨張処理させるよりも、全体として差分領域を膨張処理させる領域を少なくすることができる。このため、差分領域の場所によって異なる膨張画素数が用いられることによって、更新する背景の領域を広くすることができる。 Further, the difference area setting unit 304 may further expand the lower part of the outline of the difference area so that the shadow of the object is included in the difference area. First, the difference area setting unit 304 expands the difference area so that the blurred area of the object is included. Next, the difference area setting unit 304 expands the area below the difference area so that the shadow area of the object is also included in the difference area. In this manner, the difference area setting unit 304 may perform the expansion process a plurality of times with different values for the number of pixels to be expanded for including the blurred area and the shadow area of the object in the difference area. Alternatively, the number of expansion pixels may be set so as to further expand the area below the difference area, and the area below the outline of the difference area may be further expanded in one expansion process. Areas of shadow extend more from the outline of the object than areas of blur. For this reason, it is possible to reduce the area to be subjected to the expansion process of the difference area as a whole, rather than uniformly performing the expansion process on the difference area in order to include the blur area and the shadow area in the difference area. Therefore, the number of dilated pixels that differs depending on the location of the difference area is used, so that the area of the background to be updated can be widened.

<実施形態2>
本実施形態は、閾値を2つ設け、それぞれの閾値に達した画素の位置の関係から、オブジェクトの影の領域またはボケ領域を推定して膨張画素数を決定する形態である。影の領域またはボケ領域を推定することで差分領域を膨張処理によって広げる領域を適切な領域にすることができる。この結果、例えば、膨張処理によって広げる領域を少なくすることができ、更新する背景の領域を広くすることができる。
<Embodiment 2>
In this embodiment, two thresholds are provided, and the number of dilated pixels is determined by estimating a shadow area or a blurred area of an object based on the relationship between the positions of pixels that reach the respective thresholds. By estimating the shadow area or the blur area, the area in which the difference area is expanded by expansion processing can be made an appropriate area. As a result, for example, it is possible to reduce the area to be expanded by the dilation process, and to widen the area of the background to be updated.

本実施形態については、実施形態1からの差分を中心に説明する。特に明記しない部分については実施形態1と同じ構成および処理である。画像処理装置200の構成は実施形態1と同様であるので説明は省略する。 This embodiment will be described with a focus on differences from the first embodiment. Parts not specified are the same in configuration and processing as in the first embodiment. Since the configuration of the image processing apparatus 200 is the same as that of the first embodiment, description thereof is omitted.

[膨張画素数の決定方法の説明]
図7は、本実施形態における2つの閾値から膨張画素数を決定する処理を説明するための図である。図7(b)のグラフの横軸は、図7(a)の撮像画像のaからa´までの横方向(x方向)のライン上の位置を表している。図7(b)グラフの縦軸は、撮像画像上のaからa´のライン上の画素と、比較対象画像上における同じ位置の画素と、の画素値の差分を表している。図7(b)のグラフ上の曲線は、aからa´のライン上の位置と、当該位置における撮像画像と比較対象画像との画素値の差分と、を示す座標をプロットした点を繋いだものである。なお、本実施形態についても比較対象画像は保存されている背景画像を用いる形態であるものとして説明をする。
[Description of how to determine the number of dilated pixels]
FIG. 7 is a diagram for explaining processing for determining the number of dilated pixels from two thresholds in this embodiment. The horizontal axis of the graph in FIG. 7(b) represents the position on the line in the horizontal direction (x direction) from a to a' of the captured image in FIG. 7(a). The vertical axis of the graph in FIG. 7B represents the difference in pixel value between the pixels on the line from a to a' on the captured image and the pixels at the same position on the comparison target image. The curve on the graph in FIG. 7(b) connects points obtained by plotting the coordinates indicating the position on the line from a to a′ and the difference in pixel value between the captured image and the comparison target image at the position. It is a thing. Note that the present embodiment will also be described assuming that the stored background image is used as the image to be compared.

第1の閾値は、撮像画像の差分領域と非差分領域の境界を示す所定の値(実施形態1参照)であり図7(b)のグラフではth1で示している。即ち図7(b)におけるグラフの差分がth1より大きい横軸xの領域は差分領域であることを示している。第2の閾値は第1の閾値より小さい値として設けられた閾値であり図7(b)のグラフではth2として示している。第2の閾値は、例えば、第1の閾値の半分の値として設定される。 The first threshold is a predetermined value (see Embodiment 1) that indicates the boundary between the difference area and the non-difference area of the captured image, and is indicated by th1 in the graph of FIG. 7B. That is, the area of the horizontal axis x in which the difference in the graph in FIG. 7B is larger than th1 is the difference area. The second threshold is set as a value smaller than the first threshold, and is shown as th2 in the graph of FIG. 7(b). The second threshold is set, for example, as half the value of the first threshold.

グラフ上の曲線が、グラフの縦軸である差分における第1の閾値(th1)に達したときの横軸xの値をx1とする。同様にグラフ上の曲線が縦軸である差分における第2の閾値(th2)に達したときの横軸xの値をx2とする。このとき、座標(x1,th1)と座標(x2,th2)とを結ぶ直線の延長線が横軸xと交わる座標を(x0,0)とする。図7(b)より、x0は次式で算出される。
x0=(th1×x2-th2×x1)/(th1-th2) (1)
Let x1 be the value of the horizontal axis x when the curve on the graph reaches the first threshold value (th1) in the difference, which is the vertical axis of the graph. Similarly, let x2 be the value of the horizontal axis x when the curve on the graph reaches the second threshold value (th2) in the difference on the vertical axis. At this time, let (x0, 0) be the coordinates where the extension of the straight line connecting the coordinates (x1, th1) and (x2, th2) intersects the horizontal axis x. From FIG. 7B, x0 is calculated by the following equation.
x0=(th1×x2−th2×x1)/(th1−th2) (1)

このx0をa-a’ライン上におけるオブジェクトの影の領域またはボケ領域と背景との境界であると推定して膨張画素数を決定する。例えば、実施形態1で説明したように、差分領域検出部302は、所定の値より差分が大きい領域を差分領域とする。本実施形態における所定の値は第一の閾値である。よって、差分領域検出部302はグラフの横軸xがx1より小さい領域は差分領域と判定しない。一方、差分領域設定部304は、オブジェクトの影の領域またはボケ領域が差分領域に含まれるように差分領域を膨張するため、膨張画素数は、次式に基づき決定される。
x1-x0 (2)
The number of expansion pixels is determined by estimating this x0 to be the boundary between the shadow area of the object or the blurred area and the background on the aa' line. For example, as described in the first embodiment, the difference area detection unit 302 determines an area having a difference larger than a predetermined value as a difference area. The predetermined value in this embodiment is the first threshold. Therefore, the difference area detection unit 302 does not determine that an area in which the horizontal axis x of the graph is smaller than x1 is a difference area. On the other hand, the difference area setting unit 304 dilates the difference area so that the shadow area or blur area of the object is included in the difference area.
x1-x0 (2)

式(2)から膨張画素数を求める場合、画素数は自然数であることから式(2)によって得られたx1-x0の小数点切り上げた値が膨張画素数として用いられる。こうして差分領域設定部304は膨張処理によって影の領域またはボケ領域が差分領域に含まれる膨張画素数を決定する。 When the number of dilated pixels is obtained from equation (2), since the number of pixels is a natural number, the value obtained by rounding up the decimal point of x1-x0 obtained by equation (2) is used as the number of dilated pixels. In this way, the difference area setting unit 304 determines the number of dilated pixels in which the shadow area or the blurred area is included in the difference area by dilation processing.

[フローチャート]
図8は、2つの閾値から膨張画素数を決定して膨張処理を示すフローチャートである。S801~802は、図6のS601~602と同じ処理であるので、説明を省略する。
[flowchart]
FIG. 8 is a flowchart showing dilation processing by determining the number of dilated pixels from two thresholds. S801 to S802 are the same processing as S601 to S602 in FIG. 6, so description thereof will be omitted.

S803において、差分領域検出部302は、取得した撮像画像のオブジェクト上に特定のラインを設け、当該ライン上の撮像画像と背景画像との各画素に対して画素値の差分を算出し、差分が第1の閾値より大きいかを判定する。差分領域検出部302は、差分が第1の閾値(th1)に達したときのライン上の座標をx1として記憶する。 In S803, the difference area detection unit 302 provides a specific line on the object of the acquired captured image, calculates the pixel value difference for each pixel on the line between the captured image and the background image, and calculates the difference. It is determined whether it is larger than the first threshold. The difference area detection unit 302 stores the coordinate on the line when the difference reaches the first threshold (th1) as x1.

S804において、同様に、差分領域検出部302は、当該ライン上の撮像画像と背景画像との各画素の画素値の差分が第2の閾値より大きいかを判定する。差分領域検出部302は、差分が第2の閾値(th2)に達したときのライン上の座標をx2として記憶する。 In S804, similarly, the difference area detection unit 302 determines whether the difference in pixel value of each pixel between the captured image and the background image on the line is greater than the second threshold. The difference area detection unit 302 stores the coordinate on the line when the difference reaches the second threshold (th2) as x2.

S805において、差分領域設定部304は、2つの閾値によって得られた境界の座標値(x1,th1)と(x2,th2)とに基づき、(x0,0)の座標を求める。差分領域設定部304は、x1-x0を算出し、算出した値の小終点を切り上げた値を膨張画素数として取得する。 In S805, the difference region setting unit 304 obtains the coordinates (x0, 0) based on the coordinate values (x1, th1) and (x2, th2) of the boundary obtained by the two thresholds. The difference area setting unit 304 calculates x1-x0, and acquires a value obtained by rounding up the small end point of the calculated value as the number of dilated pixels.

S806において、差分領域設定部304は、S805において算出された膨張画素数を使用して差分領域に対して膨張処理をおこなう。 In S806, the difference area setting unit 304 performs expansion processing on the difference area using the expansion pixel number calculated in S805.

S807の処理は、図6のS607と同じ処理であるため説明は省略する。また、以降の処理についても実施形態1と同様であるので説明は省略する。 Since the processing of S807 is the same as that of S607 in FIG. 6, the description thereof is omitted. Further, since the subsequent processing is also the same as that of the first embodiment, the explanation is omitted.

以上説明したように本実施形態は、閾値を2つ設けることで、影の領域およびボケ領域を推定して膨張画素数を決定する形態である。影の領域またはボケ領域を推定することで差分領域を広げる領域を適切な領域とすることができ、その結果として、例えば、更新する背景の領域を広くすることができる。 As described above, in this embodiment, two thresholds are provided to estimate a shadow area and a blurred area and determine the number of dilated pixels. By estimating the shadow area or the blur area, the area for widening the difference area can be set as an appropriate area, and as a result, for example, the background area to be updated can be widened.

[変形例]
上記の実施形態は、特定のラインから差分領域全体に適用する膨張画素数を決定する形態であるが、複数のラインから膨張画素数を決定してもよい。例えば、差分領域設定部304は、オブジェクト全体が覆われるように図7(a)のa-a’のようなラインを複数設定する。次に差分領域設定部304は、各ラインのx1とx0とを求め、それぞれの各ラインに個別に膨張画素数を算出し、各ラインに異なる膨張画素数を適用し、ラインごとに膨張処理をしてもよい。その場合、実施形態2の説明では、オブジェクトの左側の領域に対してx0を決定する説明をしたが、差分領域設定部304はオブジェクトの右側の領域においても同様にx1とx0とを求め、左側の境界および右側の境界それぞれの膨張画素数を決定する。
[Modification]
In the above embodiment, the number of dilated pixels to be applied to the entire difference area is determined from a specific line, but the number of dilated pixels may be determined from a plurality of lines. For example, the difference area setting unit 304 sets a plurality of lines such as aa' in FIG. 7A so that the entire object is covered. Next, the difference area setting unit 304 obtains x1 and x0 of each line, calculates the number of dilated pixels for each line individually, applies a different number of dilated pixels to each line, and performs dilation processing for each line. You may In that case, in the description of the second embodiment, x0 is determined for the area on the left side of the object. Determine the number of dilated pixels for each of the border of and the right border.

図7(a)のa-a’のようなラインは横方向のラインだけでなく縦方向にラインを引いて、差分領域設定部304が縦方向のラインに基づき膨張画素数を決定する形態でもよい。通常、オブジェクトの影は縦方向の下方に生じることから縦方向にもラインを設けることで、差分領域設定部304は影の領域に応じた膨張画素数を決定することができる。また差分領域設定部304が縦方向と横方向にラインを設けて、それぞれのラインから膨張画素数を決定する形態でもよい。 Lines such as aa' in FIG. 7(a) can be drawn not only in the horizontal direction but also in the vertical direction, and the difference area setting unit 304 can determine the number of expanded pixels based on the vertical line. good. Since the shadow of an object usually appears vertically downward, the difference area setting unit 304 can determine the number of dilated pixels according to the shadow area by providing lines in the vertical direction as well. Alternatively, the difference area setting unit 304 may provide lines in the vertical direction and the horizontal direction, and determine the number of expanded pixels from each line.

その他にも、複数のラインから算出した膨張画素数の平均値を算出し、当該平均値を差分領域全体の膨張画素数としてもよい。 Alternatively, an average value of the numbers of expanded pixels calculated from a plurality of lines may be calculated, and the average value may be used as the number of expanded pixels of the entire difference area.

<その他の実施形態>
前述した実施形態では、競技場の周囲に複数のカメラを配置して仮想視点画像を生成するシステムを例に説明した。しかしながら、単一カメラによって撮像された画像データから背景画像の更新をする形態であればよく、複数カメラ間の相対的な幾何学的設置条件に縛られるものではない。従って、例えば、画像処理装置200が構内、屋外または遠隔地に設置された監視カメラから画像データを取得して背景画像を更新するようなシステムでも実現可能である。
<Other embodiments>
In the above-described embodiment, a system that generates a virtual viewpoint image by arranging a plurality of cameras around a stadium has been described as an example. However, any mode may be used as long as the background image is updated from image data captured by a single camera, and is not bound by the relative geometrical installation conditions between a plurality of cameras. Therefore, for example, a system in which the image processing apparatus 200 acquires image data from a monitoring camera installed in a premises, outdoors, or at a remote location and updates the background image can also be implemented.

前述した実施形態では、比較対象画像は背景画像保存部303に保存されている背景画像であり、背景画像が、比較画像である撮像画像と比較されて差分領域が決定される。比較対象画像は他にも、比較画像の撮像画像と同じ区域が撮像された画像であって、撮像画像が撮像される以前に撮像された画像でもよい。比較対象画像は1つに限らず複数でもよい。その場合、比較画像の撮像画像と、いずれかの比較対象画像とに差分があった領域は差分領域として判定される。 In the above-described embodiment, the comparison target image is the background image stored in the background image storage unit 303, and the background image is compared with the captured image, which is the comparison image, to determine the difference area. The image to be compared may also be an image in which the same area as the captured image of the comparison image is captured, and which is captured before the captured image is captured. The number of images to be compared is not limited to one, and may be plural. In this case, an area in which there is a difference between the captured image of the comparison image and any of the images to be compared is determined as a difference area.

前述した実施形態は、一つの画像処理装置200が複数のカメラの画像データを取得して各カメラにおける背景画像、前景マスクおよび前景テクスチャの生成をする形態である。前述した実施形態に限らず、各カメラのハードウエア(不図示)が、画像処理装置200の仮想視点画像生成部の機能を除く機能を有する形態でもよい。例えば、各カメラのハードウエアにおいて、各カメラが撮像した撮像画像から背景画像、前景マスクおよび前景テクスチャを生成し、仮想視点画像を生成する別の装置に生成された背景画像、前景マスクまたは前景テクスチャを送信する形態でもよい。 In the above-described embodiment, one image processing apparatus 200 acquires image data from a plurality of cameras and generates a background image, a foreground mask, and a foreground texture for each camera. The hardware (not shown) of each camera may have a function other than the function of the virtual viewpoint image generation unit of the image processing device 200, without being limited to the above-described embodiment. For example, in the hardware of each camera, a background image, a foreground mask and a foreground texture are generated from the images captured by each camera, and the background image, the foreground mask and the foreground texture generated in another device that generates a virtual viewpoint image. may be sent.

システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。 Embodiments such as systems, devices, methods, programs, or recording media (storage media) are possible. Specifically, it may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.

301 画像取得部
302 差分領域検出部
303 背景画像保存部
304 差分領域設定部
305 背景画像作成部
301 image acquisition unit 302 difference area detection unit 303 background image storage unit 304 difference area setting unit 305 background image creation unit

Claims (22)

撮像装置によって撮像された撮像画像を取得する取得手段と、
前記取得手段により取得された撮像画像の各画素の画素値と、前記撮像画像が撮像される以前に前記撮像装置によって撮像された画像に基づいて得られた比較対象画像の各画素の画素値と、の差分が所定の値より大きい画素により構成される領域を差分領域として検出する検出手段と、
前記検出手段により検出された差分領域に基づいて、前記撮像画像内のオブジェクトの影に相当する領域を少なくとも含む前記差分領域よりも広い第一の領域を設定する設定手段と、
前記撮像画像のうち、前記設定手段により設定された前記第一の領域とは異なる領域である第二の領域を構成する画素を用いて背景画像を生成する生成手段と、
を有することを特徴とする画像処理装置。
Acquisition means for acquiring a captured image captured by an imaging device;
A pixel value of each pixel of the captured image acquired by the acquisition means, and a pixel value of each pixel of the comparison target image obtained based on the image captured by the imaging device before the captured image is captured. , detecting means for detecting, as a difference area, an area composed of pixels having a difference greater than a predetermined value;
setting means for setting, based on the difference area detected by the detection means, a first area wider than the difference area including at least an area corresponding to a shadow of an object in the captured image ;
generating means for generating a background image using pixels constituting a second area, which is different from the first area set by the setting means, in the captured image;
An image processing device comprising:
前記設定手段は、前記撮像画像内のオブジェクトの動きによる輪郭ボケに相当する領域を含む前記差分領域よりも広い領域に、前記撮像画像内のオブジェクトの影に相当する領域を加えた領域を、前記第一の領域として設定する、ことを特徴とする請求項1に記載の画像処理装置。The setting means sets a region obtained by adding a region corresponding to the shadow of the object in the captured image to a region wider than the difference region including the region corresponding to the outline blur due to the motion of the object in the captured image. 2. The image processing apparatus according to claim 1, wherein the area is set as the first area. 前記生成手段は、前記撮像画像のうち前記第二の領域を構成する各画素によって、以前に生成されている背景画像のうち前記第二の領域に対応する領域を構成する各画素を更新することにより、前記背景画像を生成することを特徴とする請求項1又は2に記載の画像処理装置。 The generating means updates each pixel constituting an area corresponding to the second area in the previously generated background image with each pixel constituting the second area in the captured image. 3. The image processing apparatus according to claim 1 , wherein the background image is generated by: 前記生成手段は、以前に生成されている背景画像のうち前記第二の領域に対応する領域を構成する各画素の画素値を、前記撮像画像のうち前記第二の領域を構成する各画素の画素値に置換することにより、以前に生成されている背景画像を更新することを特徴とする請求項に記載の画像処理装置。 The generating means converts the pixel values of the pixels forming the region corresponding to the second region in the previously generated background image to the pixel values of the pixels forming the second region in the captured image. 4. The image processing apparatus according to claim 3 , wherein a previously generated background image is updated by substituting pixel values. 前記比較対象画像は、以前に生成されている背景画像であることを特徴とする請求項3または4に記載の画像処理装置。 5. The image processing apparatus according to claim 3, wherein the image to be compared is a previously generated background image. 前記比較対象画像は、前記撮像画像が撮像される以前において前記撮像装置によって撮像された画像である
ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
The image processing apparatus according to any one of claims 1 to 4 , wherein the comparison target image is an image captured by the imaging device before the captured image is captured.
前記設定手段は、所定の膨張画素数に基づき前記設定をすることを特徴とする請求項1からのいずれか1項に記載の画像処理装置。 7. The image processing apparatus according to claim 1, wherein said setting means performs said setting based on a predetermined number of dilated pixels. 前記設定手段は、前記差分領域の面積に応じた値を前記膨張画素数として前記設定をすることを特徴とする請求項に記載の画像処理装置。 8. The image processing apparatus according to claim 7 , wherein said setting means sets a value corresponding to the area of said difference area as said number of dilated pixels. 前記設定手段は、ユーザによって指示された値を取得し、ユーザによって指示された前記値を前記膨張画素数として用いて前記設定をすることを特徴とする請求項に記載の画像処理装置。 8. The image processing apparatus according to claim 7 , wherein said setting means obtains a value specified by a user, and performs said setting using said value specified by said user as said number of expanded pixels. 前記設定手段は、オブジェクトの移動量を決定し、前記移動量に応じた値を前記膨張画素数として用いて前記設定をすることを特徴とする請求項に記載の画像処理装置。 8. The image processing apparatus according to claim 7 , wherein said setting means determines an amount of movement of an object, and performs said setting using a value corresponding to said amount of movement as said number of expanded pixels. 撮像装置によって撮像された撮像画像を取得する取得手段と、
前記取得手段により取得された撮像画像の各画素の画素値と、前記撮像画像が撮像される以前に前記撮像装置によって撮像された画像に基づいて得られた比較対象画像の各画素の画素値と、の差分が所定の値より大きい画素により構成される領域を差分領域として検出する検出手段と、
前記検出手段により検出された差分領域よりも広い領域である第一の領域を、所定の膨張画素数に基づいて設定する設定手段と、
前記撮像画像のうち、前記設定手段により設定された前記第一の領域とは異なる領域である第二の領域を構成する画素を用いて背景画像を生成する生成手段と、
を有し、
前記検出手段は、前記撮像画像のライン上の各画素の画素値と、前記比較対象画像の前記ラインに対応するライン上の各画素の画素値と、の差分を決定し、前記差分が前記所定の値である第一の位置と、前記差分が前記所定の値より小さい第二の値である第二の位置と、を決定し、
前記設定手段は、前記第一の位置と、前記第二の位置と、の関係から前記所定の膨張画素数を決定する
ことを特徴とする画像処理装置。
Acquisition means for acquiring a captured image captured by the imaging device;
A pixel value of each pixel of the captured image acquired by the acquisition means, and a pixel value of each pixel of the comparison target image obtained based on the image captured by the imaging device before the captured image is captured. , detecting means for detecting, as a difference area, an area composed of pixels having a difference greater than a predetermined value;
setting means for setting a first area, which is a wider area than the difference area detected by the detection means, based on a predetermined number of dilated pixels;
generating means for generating a background image using pixels constituting a second area, which is different from the first area set by the setting means, in the captured image;
has
The detection means determines a difference between a pixel value of each pixel on a line of the captured image and a pixel value of each pixel on a line corresponding to the line of the comparison target image, and the difference is the predetermined value. determining a first position that is a value of and a second position that is a second value where the difference is less than the predetermined value;
The image processing apparatus, wherein the setting means determines the predetermined number of dilated pixels based on the relationship between the first position and the second position.
前記設定手段は、前記撮像画像の前記ライン上の各位置に対応する前記差分を示すグラフにおいて、前記第一の位置を示す座標と、前記第二の位置を示す座標と、を結ぶ直線の延長線にある前記差分が0になる座標から第三の位置を決定し、前記第一の位置と前記第三の位置とに基づき前記膨張画素数を決定することを特徴とする請求項11に記載の画像処理装置。 The setting means extends a straight line connecting the coordinates indicating the first position and the coordinates indicating the second position in the graph indicating the difference corresponding to each position on the line of the captured image. 12. The method according to claim 11 , wherein a third position is determined from the coordinates on the line at which the difference is 0, and the number of dilated pixels is determined based on the first position and the third position. image processing device. 前記検出手段は、前記撮像画像上の複数の前記ラインにおいて、前記ラインごとに前記第一の位置と前記第二の位置とを決定し、
前記設定手段は、前記ラインごとに前記膨張画素数を決定する
ことを特徴とする請求項11または12に記載の画像処理装置。
The detection means determines the first position and the second position for each of the plurality of lines on the captured image,
13. The image processing apparatus according to claim 11 , wherein the setting unit determines the number of expanded pixels for each line.
前記設定手段は、前記差分領域において、特定の領域を他の領域よりもさらに広げるように前記設定をすることを特徴とする請求項1から13のいずれか1項に記載の画像処理装置。 14. The image processing apparatus according to any one of claims 1 to 13 , wherein the setting means performs the setting so that a specific area in the difference area is wider than other areas. 前記検出手段は、前記撮像画像に含まれるノイズに応じて前記所定の値を更新することを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。 15. The image processing apparatus according to claim 1, wherein said detection means updates said predetermined value according to noise contained in said captured image. 前記撮像画像は、所定の区域を撮像した画像であり、
前記比較対象画像も前記所定の区域に対応する画像である
ことを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。
The captured image is an image obtained by capturing a predetermined area,
The image processing apparatus according to any one of claims 1 to 15, wherein the comparison target image is also an image corresponding to the predetermined area.
前記生成手段により生成された前記背景画像と、前記撮像画像と、に基づき前景画像を生成することを特徴とする請求項1から16のいずれか1項に記載の画像処理装置。 17. The image processing apparatus according to any one of claims 1 to 16 , wherein a foreground image is generated based on the background image generated by the generation means and the captured image. 前記画像処理装置は、複数のカメラで撮像した複数視点画像と、前記生成手段により生成された前記背景画像と、を用いて仮想視点画像を生成することを特徴とする請求項1から17のいずれか1項に記載の画像処理装置。 18. The image processing device according to any one of claims 1 to 17 , wherein the image processing device generates the virtual viewpoint image using the multi-viewpoint images captured by a plurality of cameras and the background image generated by the generating means. 1. The image processing apparatus according to claim 1. 前記生成手段により生成された前記背景画像に基づいて、前記取得手段により取得された前記撮像画像における前景と背景とを分離する分離手段をさらに備えることを特徴とする請求項1から18のいずれか一項に記載の画像処理装置。 19. The apparatus according to any one of claims 1 to 18 , further comprising separating means for separating a foreground and a background in said captured image obtained by said obtaining means based on said background image generated by said generating means. 1. The image processing device according to item 1. 前記分離手段は、前記生成手段により生成された前記背景画像と前記取得手段により取得された前記撮像画像との差分が所定の閾値以上の画素の領域を前記前景の領域として決定することを特徴する請求項19に記載の画像処理装置。 The separating means determines, as the foreground area, a pixel area in which a difference between the background image generated by the generating means and the captured image obtained by the obtaining means is equal to or greater than a predetermined threshold. The image processing apparatus according to claim 19 . 撮像装置によって撮像された撮像画像を取得する取得ステップと、
前記取得ステップにより取得された撮像画像の各画素の画素値と、前記撮像画像が撮像される以前に前記撮像装置によって撮像された画像に基づいて得られた比較対象画像の各画素の画素値と、の差分が所定の値より大きい画素により構成される領域を差分領域として検出する検出ステップと、
前記検出ステップにより検出された差分領域に基づいて、前記撮像画像内のオブジェクトの影に相当する領域を少なくとも含む前記差分領域よりも広い第一の領域を設定する設定ステップと、
前記撮像画像のうち、前記設定ステップにより設定された前記第一の領域とは異なる領域である第二の領域を構成する画素を用いて背景画像を生成する生成ステップと、
を備えることを特徴とする背景画像の生成方法。
an acquisition step of acquiring a captured image captured by an imaging device;
A pixel value of each pixel of the captured image acquired in the acquiring step, and a pixel value of each pixel of a comparison target image obtained based on the image captured by the imaging device before the captured image is captured. a detection step of detecting, as a difference area, an area composed of pixels whose difference between , is greater than a predetermined value;
a setting step of setting a first area wider than the difference area including at least an area corresponding to a shadow of an object in the captured image based on the difference area detected by the detection step;
a generation step of generating a background image using pixels constituting a second region, which is a region different from the first region set in the setting step, in the captured image;
A method for generating a background image, comprising:
コンピュータを、請求項1から20のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 20 .
JP2018172690A 2018-09-14 2018-09-14 Image processing device, background image generation method and program Active JP7271115B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018172690A JP7271115B2 (en) 2018-09-14 2018-09-14 Image processing device, background image generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018172690A JP7271115B2 (en) 2018-09-14 2018-09-14 Image processing device, background image generation method and program

Publications (2)

Publication Number Publication Date
JP2020046744A JP2020046744A (en) 2020-03-26
JP7271115B2 true JP7271115B2 (en) 2023-05-11

Family

ID=69899598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018172690A Active JP7271115B2 (en) 2018-09-14 2018-09-14 Image processing device, background image generation method and program

Country Status (1)

Country Link
JP (1) JP7271115B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7390265B2 (en) 2020-08-07 2023-12-01 Kddi株式会社 Virtual viewpoint video rendering device, method and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217243A (en) 2007-03-01 2008-09-18 Mitsubishi Electric Corp Image creation device
JP2015028753A (en) 2013-06-28 2015-02-12 株式会社Jvcケンウッド Image processing apparatus and image processing method
JP2018133042A (en) 2017-02-17 2018-08-23 セコム株式会社 Left object detector

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008217243A (en) 2007-03-01 2008-09-18 Mitsubishi Electric Corp Image creation device
JP2015028753A (en) 2013-06-28 2015-02-12 株式会社Jvcケンウッド Image processing apparatus and image processing method
JP2018133042A (en) 2017-02-17 2018-08-23 セコム株式会社 Left object detector

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
今 栄一郎、外2名,全方位カメラを用いた人物追跡,映像情報メディア学会技術報告,2007年,第31巻,第59号,p.47-52
橋本 守、外1名,多地点接続遠隔会議システム「サイバーサークル」における背景分離処理,電子情報通信学会技術研究報告 パターン認識・メディア理解,1999年,第99巻,第305号,p.39-46

Also Published As

Publication number Publication date
JP2020046744A (en) 2020-03-26

Similar Documents

Publication Publication Date Title
CN109561296B (en) Image processing apparatus, image processing method, image processing system, and storage medium
KR100914845B1 (en) Method and apparatus for 3d reconstructing of object by using multi-view image information
CN109660783B (en) Virtual reality parallax correction
US11200690B2 (en) Image processing apparatus, three-dimensional shape data generation method, and non-transitory computer readable storage medium
WO2020039166A1 (en) Method and system for reconstructing colour and depth information of a scene
JP6914734B2 (en) Silhouette extractor, method and program
JP2019106145A (en) Generation device, generation method and program of three-dimensional model
JP7271115B2 (en) Image processing device, background image generation method and program
EP3723365A1 (en) Image processing apparatus, system that generates virtual viewpoint video image, control method of image processing apparatus and storage medium
JP7233873B2 (en) Image processing device, image processing method, and program
US11528465B2 (en) Image processing apparatus, image processing method, and storage medium
JP2015197374A (en) Three-dimensional shape estimation device and three-dimensional shape estimation method
JP6351364B2 (en) Information processing apparatus, information processing method, and program
CN113763545A (en) Image determination method, image determination device, electronic equipment and computer-readable storage medium
CN112565623A (en) Dynamic image display system
JP6811679B2 (en) Silhouette extractor, method and program
JP2020102124A (en) Image generator, method for generating image, and program
JP2019032742A (en) Image processing device, image processing method, and program
JP2020035218A (en) Image processing device, method, and program
JP2020004219A (en) Apparatus, method, and program for generating three-dimensional shape data
JP7086761B2 (en) Image processing equipment, information processing methods and programs
JP7012457B2 (en) Image processing device, image processing method
JP2022096217A (en) Image processing apparatus, image processing system, image processing method, and program
JP2023084843A (en) Image processing apparatus, image processing method, and program
JP2022131197A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R151 Written notification of patent or utility model registration

Ref document number: 7271115

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151