JP2024041435A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2024041435A
JP2024041435A JP2022146257A JP2022146257A JP2024041435A JP 2024041435 A JP2024041435 A JP 2024041435A JP 2022146257 A JP2022146257 A JP 2022146257A JP 2022146257 A JP2022146257 A JP 2022146257A JP 2024041435 A JP2024041435 A JP 2024041435A
Authority
JP
Japan
Prior art keywords
foreground
image
area
image processing
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022146257A
Other languages
Japanese (ja)
Inventor
翔平 山内
Shohei Yamauchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022146257A priority Critical patent/JP2024041435A/en
Publication of JP2024041435A publication Critical patent/JP2024041435A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the accuracy of a three-dimensional model that represents the shape of a subject estimated based on a picked-up image.
SOLUTION: An image processing apparatus acquires information indicating one or more foreground areas extracted from a picked-up image. The image processing apparatus selects, from the one or more foreground areas, at least partial foreground area based at least on whether the foreground area overlaps the boundary of a predetermined area in the image. The image processing apparatus outputs the selected at least partial foreground area in order to generate information indicating a three-dimensional shape of a subject.
SELECTED DRAWING: Figure 4
COPYRIGHT: (C)2024,JPO&INPIT

Description

本開示は画像処理装置、画像処理方法、及びプログラムに関し、特に画像から前景領域を抽出する技術に関する。 The present disclosure relates to an image processing device, an image processing method, and a program, and particularly relates to a technique for extracting a foreground region from an image.

任意の仮想視点からの被写体の画像(仮想視点画像)を生成する技術が知られている。このような技術においては、異なる位置に設置された複数のカメラによる同期撮影が行われる。また、このような撮影により得られた複数の視点からの撮像画像を用いて、仮想視点画像が生成される。具体的には、撮像画像から、背景差分法又は機械学習手法等を用いて被写体の領域を示す前景シルエット画像が生成される。そして、複数の撮像画像から得られた前景シルエット画像を用いて、視体積交差法等を用いて被写体の三次元モデルが生成される。そして、任意の視点からの三次元モデルの画像と背景画像とを合成することにより、仮想視点画像が生成される。こうして、三次元背景空間の中にいる被写体を任意の視点から見ることが可能となる。 A technique for generating an image of a subject from an arbitrary virtual viewpoint (virtual viewpoint image) is known. In such technology, synchronized photographing is performed using a plurality of cameras installed at different positions. Furthermore, a virtual viewpoint image is generated using images captured from a plurality of viewpoints obtained through such photography. Specifically, a foreground silhouette image showing the subject area is generated from the captured image using a background subtraction method, a machine learning method, or the like. Then, a three-dimensional model of the subject is generated using the foreground silhouette images obtained from the plurality of captured images using a visual volume intersection method or the like. Then, a virtual viewpoint image is generated by combining an image of the three-dimensional model from an arbitrary viewpoint and a background image. In this way, it becomes possible to view the subject in the three-dimensional background space from any desired viewpoint.

ここで、前景シルエット画像に不要な前景シルエットが含まれていると、得られる三次元モデルの精度が劣化する。このため、不要な前景シルエットを前景シルエット画像から取り除くことが望まれる。例えば、特許文献1は、前景シルエット画像(マスク画像)の補正技術を提案している。特許文献1の手法によれば、三次元モデル(ボクセルデータ)の投影に基づく前景シルエット画像の欠損充填、及び所定の画素数以下の前景シルエットの削除により、前景シルエット画像が補正される。 Here, if the foreground silhouette image includes an unnecessary foreground silhouette, the accuracy of the obtained three-dimensional model will deteriorate. Therefore, it is desirable to remove unnecessary foreground silhouettes from the foreground silhouette image. For example, Patent Document 1 proposes a technique for correcting a foreground silhouette image (mask image). According to the method disclosed in Patent Document 1, the foreground silhouette image is corrected by filling in defects in the foreground silhouette image based on projection of a three-dimensional model (voxel data) and deleting foreground silhouettes having a predetermined number of pixels or less.

特開2011-043879号公報Japanese Patent Application Publication No. 2011-043879 特開2020-141375号公報Japanese Patent Application Publication No. 2020-141375

本願発明者は、特許文献1の手法を用いて前景シルエットの補正を行った場合、特に被写体がカメラの視野の端に存在する場合に、三次元モデルの精度が劣化し、又は三次元モデルの欠損が生じやすいことを見出した。 The inventors of the present application have found that when foreground silhouette correction is performed using the method of Patent Document 1, the accuracy of the 3D model is degraded, or parts of the 3D model are likely to be lost, especially when the subject is at the edge of the camera's field of view.

本開示の技術は、撮像画像に基づいて推定される被写体の形状を表す三次元モデルの精度を向上させることを目的とする。 The technology of the present disclosure aims to improve the accuracy of a three-dimensional model representing the shape of a subject estimated based on a captured image.

一実施形態に係る画像処理装置は以下の構成を備える。すなわち、
撮像画像から抽出された1以上の前景領域を示す情報を取得する取得手段と、
前記1以上の前景領域の中から、少なくとも一部の前景領域を、前記画像において予め定められた領域の境界に前記前景領域がかかっているか否かに少なくとも基づいて選択する選択手段と、
選択された前記少なくとも一部の前景領域を、被写体の三次元形状を示す情報を生成する形状生成手段に出力する出力手段と、
を備える。
An image processing device according to an embodiment has the following configuration. That is,
acquisition means for acquiring information indicating one or more foreground regions extracted from the captured image;
selection means for selecting at least some foreground regions from the one or more foreground regions based at least on whether the foreground region overlaps a boundary of a predetermined region in the image;
output means for outputting the selected at least part of the foreground region to a shape generation means for generating information indicating a three-dimensional shape of the subject;
Equipped with.

撮像画像に基づいて推定される被写体の形状を表す三次元モデルの精度を向上させることができる。 The accuracy of the three-dimensional model representing the shape of the subject estimated based on the captured image can be improved.

仮想視点映像を生成するための撮影方法について説明する図。FIG. 3 is a diagram illustrating a photographing method for generating a virtual viewpoint video. 一実施形態に係る画像処理装置の機能構成例を示すブロック図。FIG. 1 is a block diagram showing an example of a functional configuration of an image processing device according to an embodiment. 一実施形態に係る画像処理方法のフローチャート。1 is a flowchart of an image processing method according to an embodiment. 前景シルエットの除去例を示す図。The figure which shows the example of removal of the foreground silhouette. 前景シルエットの除去例を示す図。The figure which shows the example of removal of the foreground silhouette. 一実施形態に係る画像処理装置のハードウェア構成例を示すブロック図。FIG. 1 is a block diagram illustrating an example of a hardware configuration of an image processing device according to an embodiment. 歪み補正の例を示す図。The figure which shows the example of distortion correction.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the scope of the claims. Although a plurality of features are described in the embodiment, not all of these features are essential, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

特許文献1に記載の手法によれば、所定の画素数以下の前景シルエットが除去される。このため、画像端に被写体がかかっている場合、面積の小さい、被写体の一部を示す前景シルエットが除去されることがあった。この結果、得られる三次元モデルにおいて、被写体の該当箇所が欠けてしまうことがあった。一方で、本開示の一実施形態によれば、画像端にかかる前景シルエットが保護されるため、三次元モデルにおいて被写体の一部が欠けてしまう現象を抑制することができる。 According to the method described in Patent Document 1, foreground silhouettes having a predetermined number of pixels or less are removed. For this reason, when a subject is located at the edge of the image, a small foreground silhouette showing a part of the subject may be removed. As a result, in the three-dimensional model obtained, the corresponding part of the subject may be missing. On the other hand, according to an embodiment of the present disclosure, the foreground silhouette at the edge of the image is protected, so it is possible to suppress a phenomenon in which a part of the subject is missing in the three-dimensional model.

図1は、一実施形態に係る画像処理装置の使用場面を示す。撮影領域100の周囲には撮像装置110、120、130、及び140が設置されている。これらの撮像装置110~140は、撮影領域100に位置する被写体101及び102を同期撮影する。一実施形態に係る画像処理装置は、撮像装置110~140から同期撮影により得られた撮像画像を取得する。後述するように、画像処理装置は、これらの撮像画像に基づいて前景シルエット画像111、121、131、及び141を生成する。さらに、画像処理装置は、これらの前景シルエット画像から、例えば視体積交差法に基づいて被写体101及び102の3次元モデルを生成する。さらに、画像処理装置は、任意の視点からの三次元形状と背景画像とを合成することにより、仮想視点画像が生成される。このようにして、画像処理装置は、被写体101及び102の仮想視点画像を生成することができる。 FIG. 1 shows a usage scene of an image processing apparatus according to an embodiment. Imaging devices 110, 120, 130, and 140 are installed around the imaging area 100. These imaging devices 110 to 140 synchronously photograph subjects 101 and 102 located in the photographing area 100. The image processing device according to one embodiment acquires captured images obtained by synchronous shooting from the imaging devices 110 to 140. As described later, the image processing device generates foreground silhouette images 111, 121, 131, and 141 based on these captured images. Further, the image processing device generates three-dimensional models of the subjects 101 and 102 from these foreground silhouette images based on, for example, a visual volume intersection method. Further, the image processing device generates a virtual viewpoint image by combining a three-dimensional shape from an arbitrary viewpoint and a background image. In this way, the image processing device can generate virtual viewpoint images of the subjects 101 and 102.

一実施形態に係る画像処理装置は、プロセッサとメモリとを備えるコンピュータにより実現することができる。コンピュータとしては例えば、汎用のデスクトップコンピュータ、ラップトップコンピュータ、タブレットPC、又はスマートフォンなどが挙げられる。以下に、一実施形態に係る画像処理装置200のハードウェア構成例について、図6を参照して説明する。画像処理装置200は、CPU611、ROM612、RAM613、補助記憶装置614、表示部615、操作部616、通信I/F617、及びバス618を有する。 An image processing device according to an embodiment can be realized by a computer including a processor and a memory. Examples of the computer include a general-purpose desktop computer, laptop computer, tablet PC, or smartphone. An example of the hardware configuration of the image processing apparatus 200 according to one embodiment will be described below with reference to FIG. 6. The image processing device 200 includes a CPU 611 , a ROM 612 , a RAM 613 , an auxiliary storage device 614 , a display section 615 , an operation section 616 , a communication I/F 617 , and a bus 618 .

CPU611は、ROM612又はRAM613に格納されているコンピュータプログラムやデータを用いて画像処理装置200の全体を制御する。こうして、CPU611は、図2に示す画像処理装置200の各機能を実現する。ROM612は、変更を必要としないプログラムなどを格納する。RAM613は、補助記憶装置614から供給されるプログラム若しくはデータ、又は通信I/F617を介して外部から供給されるデータなどを一時記憶する。補助記憶装置614は、画像データ又は音声データなどの種々のデータを記憶する。補助記憶装置614は、例えばハードディスクドライブ等である。 The CPU 611 controls the entire image processing apparatus 200 using computer programs and data stored in the ROM 612 or RAM 613. In this way, the CPU 611 realizes each function of the image processing apparatus 200 shown in FIG. 2. The ROM 612 stores programs that do not require modification. The RAM 613 temporarily stores programs or data supplied from the auxiliary storage device 614, or data supplied from the outside via the communication I/F 617. Auxiliary storage device 614 stores various data such as image data or audio data. The auxiliary storage device 614 is, for example, a hard disk drive.

表示部615は、ユーザが画像処理装置200を操作するためのGUI(Graphical User Interface)などの情報を表示することができる。表示部615は、例えば液晶ディスプレイ又はLED等である。操作部616は、ユーザによる操作に基づいて各種の指示をCPU611に入力する。操作部616は、例えばキーボード、マウス、ジョイスティック、又はタッチパネル等である。CPU611は、表示部615を制御する表示制御部、及び操作部616を制御する操作制御部として動作する。図6の例では表示部615及び操作部616は画像処理装置200の内部に存在する。しかしながら、表示部615と操作部616との少なくとも一方は、画像処理装置200の外部に存在する別の装置が有していてもよい。 The display unit 615 can display information such as a GUI (Graphical User Interface) for a user to operate the image processing apparatus 200. The display unit 615 is, for example, a liquid crystal display or an LED. The operation unit 616 inputs various instructions to the CPU 611 based on user operations. The operation unit 616 is, for example, a keyboard, a mouse, a joystick, a touch panel, or the like. The CPU 611 operates as a display control unit that controls the display unit 615 and an operation control unit that controls the operation unit 616. In the example of FIG. 6, the display unit 615 and the operation unit 616 are located inside the image processing device 200. However, at least one of the display unit 615 and the operation unit 616 may be included in another device that exists outside the image processing device 200.

通信I/F617は、画像処理装置200の外部の装置との通信に用いられる。例えば、画像処理装置200が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F617に接続される。画像処理装置200が外部の装置と無線通信する機能を有する場合には、通信I/F617はアンテナを備える。バス618は、画像処理装置200の各部をつないで情報を伝達する。 The communication I/F 617 is used for communication with an external device of the image processing device 200. For example, when the image processing device 200 is connected to an external device by wire, a communication cable is connected to the communication I/F 617. When the image processing device 200 has a function of wirelessly communicating with an external device, the communication I/F 617 includes an antenna. A bus 618 connects each part of the image processing device 200 and transmits information.

このように、CPU611のようなプロセッサが、ROM612、RAM613、又は補助記憶装置614のようなメモリに格納されたプログラムを実行することにより、後述する図2等に示される各部の機能を実現することができる。なお、画像処理装置200がCPU611とは異なる1又は複数の専用のハードウェアを有していてもよい。この専用のハードウェアは、CPU611による処理の少なくとも一部を実行することができる。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)などがある。また、一実施形態に係る画像処理装置は、例えばネットワークを介して接続された複数の情報処理装置によって構成されていてもよい。 In this way, a processor such as the CPU 611 executes a program stored in a memory such as the ROM 612, the RAM 613, or the auxiliary storage device 614, thereby realizing the functions of each part shown in FIG. 2, etc., which will be described later. I can do it. Note that the image processing device 200 may include one or more dedicated hardware different from the CPU 611. This dedicated hardware can execute at least part of the processing by the CPU 611. Examples of specialized hardware include ASICs (Application Specific Integrated Circuits), FPGAs (Field Programmable Gate Arrays), and DSPs (Digital Signal Processors). Further, the image processing device according to one embodiment may be configured by, for example, a plurality of information processing devices connected via a network.

図2は、一実施形態に係る画像処理装置200の構成の一例を示すブロック図である。画像処理装置200は、画像取得部201、抽出部202、保護判定部203、除去部204、形状生成部205、及び画像生成部206を備える。 FIG. 2 is a block diagram illustrating an example of the configuration of an image processing apparatus 200 according to an embodiment. The image processing device 200 includes an image acquisition section 201, an extraction section 202, a protection determination section 203, a removal section 204, a shape generation section 205, and an image generation section 206.

画像取得部201は、画像を取得する。例えば、画像取得部201は、被写体を含む画像を取得することができる。本実施形態において、画像取得部201は、撮像装置110~140により撮影された画像(以下、「入力画像」と呼ぶ。)を取得することができるね。画像取得部201は、カメラなどの撮像装置から、SDIケーブル等のケーブルを介して画像を取得してもよい。また、画像取得部201は、USBやPCIeなどのインターフェース経由で画像データを取得してもよい。 The image acquisition unit 201 acquires an image. For example, the image acquisition unit 201 can acquire an image including a subject. In this embodiment, the image acquisition unit 201 can acquire images captured by the imaging devices 110 to 140 (hereinafter referred to as "input images"). The image acquisition unit 201 may acquire an image from an imaging device such as a camera via a cable such as an SDI cable. Further, the image acquisition unit 201 may acquire image data via an interface such as USB or PCIe.

抽出部202は、画像から抽出された1以上の前景領域を示す情報を取得する。本実施形態において、抽出部202は、入力画像から1以上の前景領域を抽出する。抽出部202は、入力画像から、前景として扱う被写体の領域を抽出することができる。前景抽出手法としては背景差分法を用いることができる。この場合、抽出部202は、画像取得部201が取得した入力画像と、背景画像とに基づいて、前景領域を表す前景シルエット画像を生成する。前景シルエット画像は、複数の前景領域を示すことができる。以下では、前景シルエット画像が示すそれぞれの前景領域のことを、前景シルエットと呼ぶ。 The extraction unit 202 acquires information indicating one or more foreground regions extracted from the image. In this embodiment, the extraction unit 202 extracts one or more foreground regions from the input image. The extraction unit 202 can extract a subject area to be treated as the foreground from the input image. A background subtraction method can be used as a foreground extraction method. In this case, the extraction unit 202 generates a foreground silhouette image representing the foreground region based on the input image acquired by the image acquisition unit 201 and the background image. A foreground silhouette image can show multiple foreground regions. Hereinafter, each foreground region shown by a foreground silhouette image will be referred to as a foreground silhouette.

抽出部202は、背景画像を、画像取得部201が取得した入力画像から生成することができる。背景画像の生成方法としては、例えば、複数枚の入力画像の間で変化しない背景領域を判定する方法が挙げられる。画像取得部201は、このように判定された入力画像中の背景領域を用いて背景画像を生成することができる。なお、抽出部202による前景抽出手法は背景差分法に限定されない。抽出部202は、機械学習又はクロマキー処理による手法を用いてもよい。 The extraction unit 202 can generate a background image from the input image acquired by the image acquisition unit 201. As a method of generating a background image, for example, a method of determining a background area that does not change among a plurality of input images can be cited. The image acquisition unit 201 can generate a background image using the background region in the input image determined in this way. Note that the foreground extraction method used by the extraction unit 202 is not limited to the background subtraction method. The extraction unit 202 may use a method based on machine learning or chromakey processing.

保護判定部203は、抽出部202が抽出した前景領域に対する保護を行う。ここで、保護判定部203は、入力画像において予め定められた領域の境界に前景領域がかかっているか否かに少なくとも基づいて、保護される前景領域を選択することができる。保護された前景領域は、除去部204による除去から保護される。 The protection determination unit 203 protects the foreground area extracted by the extraction unit 202. Here, the protection determining unit 203 can select the foreground area to be protected based at least on whether the foreground area overlaps the boundary of a predetermined area in the input image. The protected foreground region is protected from removal by the remover 204.

一実施形態において、この予め定められた領域は、入力画像の全体である。以下の例において、保護判定部203は、前景シルエット画像に含まれる前景シルエットを分離する。具体的には、保護判定部203は、それぞれの前景シルエットの外接矩形領域を判定する。そして、保護判定部203は、判定された外接矩形に基づいて、それぞれの前景シルエットが、入力画像の画像端にかかっているか否かを判定する。保護判定部203は、画像端にかかっているその前景シルエットを保護することができる。具体例は後述する。なお、本明細書において、画像又は領域の端とは、画像と画像外との間、又は領域と領域外との間の境界線又はエッジを意味する。 In one embodiment, this predetermined region is the entire input image. In the following example, the protection determining unit 203 separates the foreground silhouette included in the foreground silhouette image. Specifically, the protection determination unit 203 determines the circumscribed rectangular area of each foreground silhouette. Then, the protection determining unit 203 determines whether each foreground silhouette overlaps the image edge of the input image based on the determined circumscribed rectangle. The protection determination unit 203 can protect the foreground silhouette extending over the edge of the image. A specific example will be described later. Note that in this specification, the edge of an image or region means a boundary line or edge between the image and the outside of the image, or between the region and the outside of the region.

除去部204は、抽出部202が抽出した1以上の前景領域の中から、少なくとも一部の前景領域を選択する。除去部204が選択した前景領域は、形状生成部205が形状データを生成するために用いることができる。ここで、除去部204は、前景領域が保護されているか否かに少なくとも基づいて、すなわち入力画像において予め定められた領域の境界に前景領域がかかっているか否かに少なくとも基づいて、前景領域を選択することができる。本実施形態において、除去部204が選択しなかった前景領域は、形状生成部205が形状データを生成するためには用いられない。言い換えれば、除去部204は、抽出部202が抽出した1以上の前景領域の中から、前景領域が保護されているか否かに少なくとも基づいて、一部の前景領域を除去することができる。 The removal unit 204 selects at least a portion of the foreground areas from among the one or more foreground areas extracted by the extraction unit 202. The foreground region selected by the removal unit 204 can be used by the shape generation unit 205 to generate shape data. Here, the removal unit 204 removes the foreground area based at least on whether the foreground area is protected, that is, based on at least whether the foreground area overlaps the boundary of a predetermined area in the input image. You can choose. In this embodiment, the foreground region not selected by the removal unit 204 is not used by the shape generation unit 205 to generate shape data. In other words, the removal unit 204 can remove some of the foreground areas from among the one or more foreground areas extracted by the extraction unit 202, based at least on whether the foreground areas are protected.

また、除去部204は、前景領域の面積にさらに基づいて、1以上の前景領域の中から少なくとも一部の前景領域を選択することができる。一実施形態において、除去部204は、前景シルエット画像から、保護判定部203で保護すると判断された前景シルエット以外の不要な前景シルエットを除去する。除去部204は、前景シルエットが不要か否かを所定の条件に従って判定することができる。本実施形態において、除去部204は、前景シルエットの面積に従ってこのような判定を行う。一例として、除去部204は、前景シルエットの面積が閾値未満の場合に、この前景シルエットを除去することができる。このような閾値は、予め設定されていてもよいし、不図示の制御UIを介してユーザによって指定されていてもよい。一方で、保護判定部203で保護すると判断された前景シルエットは、除去部204によって除去されない。言い換えれば、除去部204は、所定の条件を満たし、かつ保護されていない前景シルエットを除去することができる。一方で、除去部204は、保護されている前景シルエット、及び保護されていないが所定の条件も満たさない前景シルエットを選択することができる。この場合、所定の条件を満たしているが、保護されている前景シルエットは、除去されない。 Further, the removal unit 204 can select at least some foreground regions from one or more foreground regions further based on the area of the foreground regions. In one embodiment, the removing unit 204 removes unnecessary foreground silhouettes other than the foreground silhouettes determined to be protected by the protection determining unit 203 from the foreground silhouette image. The removal unit 204 can determine whether the foreground silhouette is unnecessary according to predetermined conditions. In this embodiment, the removal unit 204 makes such a determination according to the area of the foreground silhouette. As an example, the removal unit 204 can remove a foreground silhouette if the area of the foreground silhouette is less than a threshold. Such a threshold value may be set in advance, or may be designated by the user via a control UI (not shown). On the other hand, the foreground silhouette determined to be protected by the protection determining unit 203 is not removed by the removing unit 204. In other words, the removal unit 204 can remove foreground silhouettes that meet predetermined conditions and are not protected. On the other hand, the removing unit 204 can select protected foreground silhouettes and foreground silhouettes that are not protected but do not satisfy a predetermined condition. In this case, foreground silhouettes that meet the predetermined conditions but are protected are not removed.

このように、一実施形態において、保護判定部203によって保護された前景領域は、除去部204によって除去されない。言い換えれば、保護判定部203によって保護された前景領域が存在する場合、除去部204は、少なくとも保護判定部203によって保護されている前景領域が選択されるように、前景領域を選択することができる。 Thus, in one embodiment, the foreground region protected by the protection determiner 203 is not removed by the remover 204. In other words, if there is a foreground area protected by the protection determining unit 203, the removing unit 204 can select the foreground area so that at least the foreground area protected by the protection determining unit 203 is selected. .

一方で、前景領域が保護判定部203によって保護されたかどうかに応じて、除去部204が前景領域を選択する方法は、このような方法に限られない。例えば、除去部204は、保護されていない前景シルエットについては、第1の条件に従って選択するか否かを判定することができる。一方で、除去部204は、保護されている前景シルエットについては、第1の条件とは異なる第2の条件に従って選択するか否かを判定することができる。一例として、第1の条件は、前景シルエットの大きさが第1の閾値未満であることであってもよい。この場合、第2の条件は、前景シルエットの大きさが第1の閾値よりも小さい第2の閾値未満であることであってもよい。このような手法によっても、画像端にかかる前景シルエットの削除を抑制することができる。 On the other hand, the method by which the removal unit 204 selects a foreground area depending on whether the foreground area is protected by the protection determination unit 203 is not limited to this method. For example, the removal unit 204 can determine whether to select an unprotected foreground silhouette according to a first condition. On the other hand, the removal unit 204 can determine whether to select a protected foreground silhouette according to a second condition different from the first condition. As an example, the first condition may be that the size of the foreground silhouette is less than a first threshold. In this case, the second condition may be that the size of the foreground silhouette is less than a second threshold, which is smaller than the first threshold. Such a method also makes it possible to suppress the deletion of foreground silhouettes at the edges of the image.

形状生成部205は、抽出部202が抽出した前景領域のうち、除去部204によって選択された前景領域を示す情報に基づいて、被写体の三次元形状を示す情報を生成する。例えば、形状生成部205は、除去部204によって除去されなかった複数の前景シルエットに基づいて、被写体を示すオブジェクトの三次元形状を表す形状データを生成することができる。このような三次元形状データの生成手法としては、オブジェクトのシルエット情報を用いるVisual-hull法、又は三角測量を用いるMulti-view stereo法などを用いることができる。このような三次元形状データは、例えばポリゴンデータ又はボクセルデータでありうる。 The shape generation unit 205 generates information indicating the three-dimensional shape of the subject based on information indicating the foreground area selected by the removal unit 204 from among the foreground areas extracted by the extraction unit 202. For example, the shape generation unit 205 can generate shape data representing the three-dimensional shape of the object representing the subject based on the plurality of foreground silhouettes that were not removed by the removal unit 204. As a method for generating such three-dimensional shape data, a visual-hull method using object silhouette information, a multi-view stereo method using triangulation, or the like can be used. Such three-dimensional shape data can be, for example, polygon data or voxel data.

画像生成部206は、被写体の三次元形状を示す情報に基づいて、被写体の仮想視点画像を生成する。例えば、画像生成部206は、形状生成部205から得られた三次元形状データ及びテクスチャ情報を用いて、ユーザにより指定された仮想カメラのパラメータに対応する仮想視点画像を生成することができる。なお、三次元形状データが示すオブジェクトの特定の位置についてのテクスチャ情報は、画像取得部201が取得した、被写体の対応する位置を撮影することにより得られた入力画像に基づいて生成することができる。具体的な仮想視点画像の生成方法としては、例えば、特許文献2に記載の方法を用いることができる。また、画像生成部206は、ディスプレイのような表示装置210に対して、表示のために生成した仮想視点画像を送ることができる。 The image generation unit 206 generates a virtual viewpoint image of the subject based on information indicating the three-dimensional shape of the subject. For example, the image generation unit 206 can use the three-dimensional shape data and texture information obtained from the shape generation unit 205 to generate a virtual viewpoint image corresponding to the parameters of the virtual camera specified by the user. Note that texture information regarding a specific position of the object indicated by the three-dimensional shape data can be generated based on an input image obtained by photographing the corresponding position of the subject, which is obtained by the image acquisition unit 201. . As a specific method for generating a virtual viewpoint image, for example, the method described in Patent Document 2 can be used. Further, the image generation unit 206 can send the generated virtual viewpoint image for display to a display device 210 such as a display.

なお、前景シルエット画像を生成する処理は別の装置によって行われてもよい。例えば、一実施形態において、撮像装置110~140が撮像画像に基づいて前景シルエット画像を生成してもよい。この場合、撮像装置は、画像取得部201、抽出部202、保護判定部203、及び除去部204の機能を有していてもよい。このような構成において、撮像装置は、画像からの前景領域の抽出及び選択を行うことができる。また、撮像装置の除去部204は、選択された前景領域を示す情報を画像処理装置200に出力することができる。この場合、画像処理装置200の形状生成部205は、撮像装置から取得した前景領域を示す情報に基づいて被写体の三次元形状を示す情報を生成することができる。なお、このような処理を行う撮像装置は、例えば、図6に示すハードウェア及びプログラムを用いて実現できる。 Note that the process of generating the foreground silhouette image may be performed by another device. For example, in one embodiment, the imaging devices 110-140 may generate foreground silhouette images based on captured images. In this case, the imaging device may have the functions of an image acquisition unit 201, an extraction unit 202, a protection determination unit 203, and a removal unit 204. In such a configuration, the imaging device can extract and select a foreground region from an image. Further, the removal unit 204 of the imaging device can output information indicating the selected foreground region to the image processing device 200. In this case, the shape generation unit 205 of the image processing device 200 can generate information indicating the three-dimensional shape of the subject based on information indicating the foreground region acquired from the imaging device. Note that an imaging device that performs such processing can be realized using, for example, the hardware and program shown in FIG.

また、別の実施形態において、撮像装置は、画像取得部201及び抽出部202の機能を有していてもよい。このような構成において、撮像装置は、画像から前景領域を抽出することができる。また、撮像装置は、抽出された前景領域を示す情報を画像処理装置200に出力することができる。この場合、画像処理装置200の保護判定部203及び除去部204は、撮像装置から取得した前景領域の選択を行うことができる。そして、除去部204は、選択された前景領域を示す情報を出力することができる。また、画像処理装置200又は他の画像処理装置が有する形状生成部205は、除去部204が出力した、選択された前景領域を示す情報を取得することができる。そして、形状生成部205は、取得した前景領域を示す情報に基づいて、被写体の三次元形状を示す情報を生成することができる。 Furthermore, in another embodiment, the imaging device may have the functions of an image acquisition unit 201 and an extraction unit 202. In such a configuration, the imaging device can extract the foreground region from the image. Further, the imaging device can output information indicating the extracted foreground region to the image processing device 200. In this case, the protection determining unit 203 and the removing unit 204 of the image processing device 200 can select the foreground region acquired from the imaging device. The removal unit 204 can then output information indicating the selected foreground region. Further, the shape generation unit 205 included in the image processing device 200 or another image processing device can acquire information indicating the selected foreground region output by the removal unit 204. The shape generation unit 205 can then generate information indicating the three-dimensional shape of the subject based on the acquired information indicating the foreground region.

以下に、前景シルエットのうち、画像端にかかる前景シルエットを保護しながら、不要な前景シルエットを除去する手法について、図4(A)~(B)を参照して説明する。図4(A)~(B)の例では、画像端にかかる前景シルエットが保護される一方で、閾値未満の面積を有し保護されていない前景シルエットが除去される。 Below, a method for removing unnecessary foreground silhouettes while protecting the foreground silhouettes that extend to the edges of the image will be described with reference to FIGS. 4(A) to 4(B). In the example of FIGS. 4A and 4B, foreground silhouettes that extend to the edges of the image are protected, while unprotected foreground silhouettes that have an area less than the threshold are removed.

抽出部202が生成した前景シルエット画像400は、図4(A)に示すように、前景シルエット401~405を含んでいる。図4(A)には、前景シルエットの外接矩形が破線で示されているが、このような矩形は実際の前景シルエット画像には含まれていない。前景シルエット401~403は、撮影時のゴマ塩ノイズが原因で抽出された前景シルエットである。前景シルエット402及び403は画像端にかかっている。前景シルエット404は被写体101に対応する。また、前景シルエット405は被写体102に対応する。前景シルエット405は画像端にかかっている。 The foreground silhouette image 400 generated by the extraction unit 202 includes foreground silhouettes 401 to 405, as shown in FIG. 4(A). Although the circumscribed rectangle of the foreground silhouette is shown by a broken line in FIG. 4A, such a rectangle is not included in the actual foreground silhouette image. Foreground silhouettes 401 to 403 are foreground silhouettes extracted due to salt-and-pepper noise during photographing. Foreground silhouettes 402 and 403 span the edges of the image. Foreground silhouette 404 corresponds to subject 101. Further, a foreground silhouette 405 corresponds to the subject 102. The foreground silhouette 405 hangs over the edges of the image.

図4(B)は、除去部204において不要な前景シルエットを削除する処理が行われた後の前景シルエット画像410を示す。図4(B)に示すように、前景シルエット画像410は前景シルエット412~415を含んでいる。前景シルエット401は、画像端にかかっていないため保護されていない。そして、前景シルエット401は閾値未満の面積を有するため、除去部204によって除去された。前景シルエット402、403、及び405は、閾値面積未満の面積を有するが、画像端にかかっている。このため、前景シルエット402、403、及び405は、保護判定部203によって保護され、除去部204によって除去されなかった。前景シルエット404は、画像端にかかっていないため保護されていない。しかしながら、前景シルエット404は閾値以上の面積を有するため、除去部204によって除去されなかった。 FIG. 4B shows a foreground silhouette image 410 after the removing unit 204 has performed a process of removing unnecessary foreground silhouettes. As shown in FIG. 4(B), foreground silhouette image 410 includes foreground silhouettes 412 to 415. The foreground silhouette 401 is not protected because it does not cover the edge of the image. Since the foreground silhouette 401 has an area less than the threshold value, it is removed by the removal unit 204. Foreground silhouettes 402, 403, and 405 have areas less than the threshold area, but span the edges of the image. Therefore, the foreground silhouettes 402, 403, and 405 were protected by the protection determination unit 203 and were not removed by the removal unit 204. Foreground silhouette 404 is not protected because it does not span the edges of the image. However, since the foreground silhouette 404 has an area larger than the threshold value, it was not removed by the removal unit 204.

図3は、本実施形態に係る画像処理方法の流れを示すフローチャートである。なお、記号「S」はステップを意味する。S301において、画像取得部201は、上述のように入力画像を取得する。S302において、抽出部202は、入力画像中の1以上の前景シルエットを抽出する。上述のように、抽出部202は、入力画像及び背景画像に基づいて前景シルエット画像400を生成することができる。 FIG. 3 is a flowchart showing the flow of the image processing method according to this embodiment. Note that the symbol "S" means a step. In S301, the image acquisition unit 201 acquires an input image as described above. In S302, the extraction unit 202 extracts one or more foreground silhouettes from the input image. As mentioned above, the extraction unit 202 can generate the foreground silhouette image 400 based on the input image and the background image.

S303で、保護判定部203は前景シルエットを互いに分離する。例えば、保護判定部203は、S302で取得された前景シルエット画像に含まれる前景シルエットを分離する。例えば、保護判定部203は、前景シルエット画像400に破線で示されるように、外接矩形の領域ごとに前景シルエットを分割することができる。別の手法として、保護判定部203は、連続している前景シルエットを示す画素群を、1つの前景シルエットとして他の前景シルエットから分離してもよい。 In S303, the protection determination unit 203 separates the foreground silhouettes from each other. For example, the protection determination unit 203 separates the foreground silhouette included in the foreground silhouette image acquired in S302. For example, the protection determination unit 203 can divide the foreground silhouette into each circumscribed rectangular area, as indicated by broken lines in the foreground silhouette image 400. As another method, the protection determining unit 203 may separate a group of pixels indicating a continuous foreground silhouette from other foreground silhouettes as one foreground silhouette.

S304~S306の処理は、S303で互いに分離された前景シルエットのそれぞれについて行われる。S304で、保護判定部203は、前景シルエットの位置情報を取得する。位置情報は、例えば、領域の左上頂点の座標(x,y)、領域の幅(w)、及び領域の高さ(h)を含んでいてもよい。 The processes of S304 to S306 are performed for each of the foreground silhouettes separated from each other in S303. In S304, the protection determining unit 203 acquires position information of the foreground silhouette. The position information may include, for example, the coordinates (x, y) of the upper left vertex of the area, the width (w) of the area, and the height (h) of the area.

S305で、保護判定部203は、前景シルエットが画像端にかかっているか否かを判定する。例えば、保護判定部203は、S304で得られた前景シルエットの外接矩形の位置情報に基づいて、前景シルエットが画像端にかかっているかどうかを判断することができる。前景シルエットが画像端にかかっているかどうかは、例えば式(1)に従って判定することができる。edge_flagは、前景シルエットが画像端にかかっているか否かを示すフラグである。このフラグが1であることは、前景シルエットが画像端にかかっていることを示す。また、このフラグが0であることは、前景シルエットが画像端にかかっていないことを示す。x及びyは、それぞれ前景シルエットの外接矩形の左上頂点のx座標及びy座標を表す。また、w及びhは、前景シルエットの外接矩形の幅及び高さを表す。WIDTH及びHEIGHTは、前景シルエット画像の幅及び高さ(この例では入力画像の幅及び高さに相当する)を表す。前景シルエットが画像端にかかっていると判定された場合、処理はS306に進む。また、前景シルエットが画像端にかかっていないと判定された場合、次の前景シルエットについてS304~S306の処理が行われる。なお、上記のような判定手法は一例にすぎず、前景シルエットから取得できる情報を用いて他の手法で前景シルエットが画像端にかかっているかどうかを判定してもよい。

Figure 2024041435000002
In S305, the protection determining unit 203 determines whether the foreground silhouette covers the edge of the image. For example, the protection determining unit 203 can determine whether the foreground silhouette covers the edge of the image based on the position information of the circumscribed rectangle of the foreground silhouette obtained in S304. Whether or not the foreground silhouette extends over the edge of the image can be determined, for example, according to equation (1). edge_flag is a flag indicating whether or not the foreground silhouette covers the edge of the image. When this flag is 1, it indicates that the foreground silhouette covers the edge of the image. Further, when this flag is 0, it indicates that the foreground silhouette does not cover the edge of the image. x and y represent the x and y coordinates of the upper left vertex of the circumscribed rectangle of the foreground silhouette, respectively. Furthermore, w and h represent the width and height of the circumscribed rectangle of the foreground silhouette. WIDTH and HEIGHT represent the width and height of the foreground silhouette image (corresponding to the width and height of the input image in this example). If it is determined that the foreground silhouette covers the edge of the image, the process advances to S306. Further, if it is determined that the foreground silhouette does not overlap the edge of the image, the processes of S304 to S306 are performed for the next foreground silhouette. Note that the above-mentioned determination method is only an example, and it may be determined whether the foreground silhouette overlaps the edge of the image using other methods using information that can be obtained from the foreground silhouette.
Figure 2024041435000002

S306で、保護判定部203は、S305で画像端にかかっていると判定された前景シルエットを保護する。例えば、保護判定部203は、前景シルエットに対して保護されていることを示す保護フラグを設定することができる。この保護フラグを参照することにより、後の処理において前景シルエットが保護されているか否かを判別することができる。 In S306, the protection determining unit 203 protects the foreground silhouette determined to extend over the edge of the image in S305. For example, the protection determination unit 203 can set a protection flag indicating that the foreground silhouette is protected. By referring to this protection flag, it can be determined in subsequent processing whether or not the foreground silhouette is protected.

S307~S309の処理も、S303で互いに分離された前景シルエットのそれぞれについて行われる。S307で、除去部204は、前景シルエットの面積を取得する。前景シルエットの面積は、前景シルエットの画素数に応じて定めることができる。一方で、前景シルエットの面積は、上述の矩形領域の幅及び高さに応じて定められてもよい。 The processes of S307 to S309 are also performed for each of the foreground silhouettes separated from each other in S303. In S307, the removal unit 204 obtains the area of the foreground silhouette. The area of the foreground silhouette can be determined according to the number of pixels of the foreground silhouette. On the other hand, the area of the foreground silhouette may be determined according to the width and height of the rectangular area described above.

S308において、除去部204は、S307で取得された前景シルエットが閾値未満の面積を有するかどうかを判定する。前景シルエットの面積が閾値未満である場合、処理はS309に進む。また、前景シルエットが閾値以上の面積を有すると判定された場合、次の前景シルエットについてS307~S309の処理が行われる。 In S308, the removal unit 204 determines whether the foreground silhouette acquired in S307 has an area less than a threshold value. If the area of the foreground silhouette is less than the threshold, the process advances to S309. Further, if it is determined that the foreground silhouette has an area equal to or larger than the threshold value, the processes of S307 to S309 are performed for the next foreground silhouette.

S309において、除去部204は、S307で閾値未満の面積を有すると判定され、保護されていない前景シルエットを除去する。ただし、除去部204は、S305で保護された前景シルエットは削除しない。 In S309, the removal unit 204 removes the unprotected foreground silhouette that was determined to have an area less than the threshold in S307. However, the removal unit 204 does not delete the foreground silhouette protected in S305.

上記のような実施形態によれば、画像端にかかる前景シルエットの削除が防止され、又は抑制される。このため、画像端に被写体の一部が写っている場合に、三次元形状においてこの被写体の一部が欠けてしまうことが抑制される。なお、本実施形態によれば、画像端にかかっている、ノイズなどが原因で生じた不要な前景シルエットが残るかもしれない。しかしながら、面積の小さい前景シルエットが画像端にかかる可能性はそれほど高くない。また、除去部104によって除去できない場合でも、このような面積の小さい不要な前景シルエットが被写体の三次元形状の推定に与える影響は小さい。一方で、被写体が撮像範囲外から範囲内に入ってきた場合のように、被写体の一部が画像端にかかるケースは多い。また、一定の面積を有するという条件のみにしたがってこのような被写体に対応する前景シルエットを除去部104によって除去することは、被写体の三次元形状の推定に大きな影響を与える。このような理由により、本実施形態の構成をとることにより、三次元形状を示すデータの品質を全体的に向上させることができる。 According to the embodiments described above, deletion of the foreground silhouette at the edge of the image is prevented or suppressed. For this reason, when a part of the subject is captured at the edge of the image, it is suppressed that part of the subject is missing in the three-dimensional shape. Note that according to this embodiment, unnecessary foreground silhouettes caused by noise or the like may remain at the edges of the image. However, the possibility that a foreground silhouette with a small area will overlap the edge of the image is not very high. Furthermore, even if the removal unit 104 cannot remove the unnecessary foreground silhouette with a small area, the influence of such unnecessary foreground silhouettes on the estimation of the three-dimensional shape of the subject is small. On the other hand, there are many cases in which a part of the subject covers the edge of the image, such as when the subject enters the imaging range from outside the imaging range. Furthermore, removing the foreground silhouette corresponding to such an object by the removing unit 104 only on the condition that the object has a certain area has a large influence on the estimation of the three-dimensional shape of the object. For these reasons, by adopting the configuration of this embodiment, it is possible to improve the overall quality of data representing a three-dimensional shape.

<変形例>
上述のように、保護判定部203は、前景領域が予め定められた領域の端に存在するか否かに基づいて、保護される前景領域を選択することができる。図3に示す処理において、保護判定部203は、入力画像の端に位置する前景領域を保護した。このように、保護判定部203は、入力画像の全画像領域の端に位置する前景領域を保護することができる。一方で、保護判定部203は、別の領域の端に位置する前景領域を保護してもよい。例えば、予め定められた領域は、画像における前景領域の抽出対象領域(以下、前景抽出領域と呼ぶ)であってもよい。この場合、例えば、保護判定部203は、指定された前景抽出領域の端に位置する前景領域を保護することができる。
<Modified example>
As described above, the protection determination unit 203 can select the foreground area to be protected based on whether the foreground area exists at the edge of a predetermined area. In the process shown in FIG. 3, the protection determination unit 203 protected the foreground area located at the edge of the input image. In this way, the protection determining unit 203 can protect the foreground area located at the edge of the entire image area of the input image. On the other hand, the protection determining unit 203 may protect a foreground area located at the edge of another area. For example, the predetermined area may be a foreground extraction target area (hereinafter referred to as a foreground extraction area) in the image. In this case, for example, the protection determination unit 203 can protect the foreground area located at the edge of the designated foreground extraction area.

入力画像は、三次元形状の生成に関連しない領域を含んでいることがある。例えば、特定の位置に設置された撮像装置によって得られた撮像画像は、被写体が写る可能性のある領域に加えて、観客席のような被写体以外の動体が存在する領域を含んでいるかもしれない。このような領域から前景領域を抽出すると、目的の被写体以外の三次元形状が生成されるかもしれない。また、撮像画像は、背景しか写らない領域を含んでいるかもしれない。そこで、一実施形態においては、このような領域は三次元形状の生成に関連しない領域として扱われる。すなわち、抽出部202では、三次元形状の生成に関連しない領域からは前景領域を抽出しなくてもよい。一実施形態において、抽出部202は、画像における前景領域の抽出対象領域から1以上の前景領域を抽出する。このような抽出対象領域は、予め定めておくことができる。このような処理により、不要な前景領域が抽出されることが抑制され、三次元形状を示す情報の精度が向上することが期待される。 The input image may include regions that are not relevant to three-dimensional shape generation. For example, a captured image obtained by an imaging device installed at a specific location may include an area where a moving object other than the subject exists, such as an audience seat, in addition to an area where the subject may be captured. do not have. When a foreground region is extracted from such a region, a three-dimensional shape other than the target object may be generated. Furthermore, the captured image may include an area where only the background is visible. Therefore, in one embodiment, such a region is treated as a region unrelated to the generation of a three-dimensional shape. That is, the extraction unit 202 does not need to extract foreground regions from regions that are not related to three-dimensional shape generation. In one embodiment, the extraction unit 202 extracts one or more foreground regions from the foreground region extraction target region in the image. Such an extraction target area can be determined in advance. It is expected that such processing will suppress the extraction of unnecessary foreground regions and improve the accuracy of information indicating three-dimensional shapes.

このような処理を実現するために、前景抽出領域と非前景抽出領域とを、例えばマスク画像(以下、前景抽出領域マスクと呼ぶ)で指定することができる。しかしながら、面積の少ない前景シルエットを削除する場合、被写体の一部が前景抽出領域と非前景抽出領域の境界部にかかっていると、入力画像の端にかかる場合と同様に、被写体の一部を示す前景シルエットが除去されることがあった。そこで、この変形例において保護判定部203は、前景シルエットが入力画像の端にかかっているか否かに加えて、前景抽出領域と非前景抽出領域との境界にかかっているか否かを判断する。 In order to realize such processing, the foreground extraction area and the non-foreground extraction area can be specified using, for example, a mask image (hereinafter referred to as a foreground extraction area mask). However, when deleting a foreground silhouette with a small area, if part of the subject falls on the boundary between the foreground extraction area and the non-foreground extraction area, part of the subject will be Foreground silhouettes shown were sometimes removed. Therefore, in this modification, the protection determination unit 203 determines whether the foreground silhouette extends over the edge of the input image, as well as the boundary between the foreground extraction area and the non-foreground extraction area.

このような変形例について、図5(A)~(C)を参照して説明する。図5(A)~(C)の例では、画像端、又は前景抽出領域と非前景抽出領域との境界にかかる前景シルエットが保護される。この例において、抽出部202は、図5(C)に示す前景抽出領域マスク520を用いて、入力画像から前景シルエット画像500を生成する。前景抽出領域マスク520は非前景抽出領域521及び前景抽出領域522を示す。抽出部202は、入力画像のうち、前景抽出領域522によって示される領域から前景シルエットを抽出する。図5(A)において、前景シルエット画像500は、前景シルエット403~406を含んでいる。前景シルエット403~405は図4(A)と同様である。また、前景シルエット406は、撮影時のゴマ塩ノイズが原因で抽出された前景シルエットである。さらに、前景シルエット407は、被写体に対応するシルエットである。 Such a modification will be explained with reference to FIGS. 5(A) to 5(C). In the examples shown in FIGS. 5A to 5C, the foreground silhouette at the edge of the image or at the boundary between the foreground extraction area and the non-foreground extraction area is protected. In this example, the extraction unit 202 generates a foreground silhouette image 500 from the input image using a foreground extraction region mask 520 shown in FIG. 5C. The foreground extraction region mask 520 shows a non-foreground extraction region 521 and a foreground extraction region 522. The extraction unit 202 extracts a foreground silhouette from the area indicated by the foreground extraction area 522 in the input image. In FIG. 5A, a foreground silhouette image 500 includes foreground silhouettes 403 to 406. Foreground silhouettes 403 to 405 are similar to those in FIG. 4(A). Further, a foreground silhouette 406 is a foreground silhouette extracted due to salt-and-pepper noise during photographing. Further, a foreground silhouette 407 is a silhouette corresponding to the subject.

図5(B)は、除去部204において不要な前景シルエットを削除する処理が行われた後の前景シルエット画像510を示す。前景シルエット406は、画像端にも、前景抽出領域522の境界にもかかっておらず、閾値未満の面積を有するため、除去部204によって除去された。前景シルエット407は、閾値面積未満の面積を有するが、前景抽出領域522との境界にかかっている。このため、前景シルエット407は、保護判定部203によって保護され、除去部204によって除去されなかった。この結果、前景シルエット画像510は前景シルエット417を含んでいる。 FIG. 5B shows a foreground silhouette image 510 after the removal unit 204 has performed a process of removing unnecessary foreground silhouettes. The foreground silhouette 406 does not extend to the edge of the image or the boundary of the foreground extraction region 522 and has an area less than the threshold, so it was removed by the removal unit 204. Foreground silhouette 407 has an area less than the threshold area, but spans the boundary with foreground extraction region 522. Therefore, the foreground silhouette 407 was protected by the protection determination unit 203 and was not removed by the removal unit 204. As a result, foreground silhouette image 510 includes foreground silhouette 417.

保護判定部203は、例えば、前景シルエットの外接矩形領域に、非前景抽出領域521と前景抽出領域522の双方が含まれている場合に、前景シルエットが非前景抽出領域521と前景抽出領域522との境界にあると判定することができる。この判定手法は一例にすぎず、前景シルエットから取得できる情報を用いて他の手法で前景シルエットが前景抽出領域の端にかかっているかどうかを判定してもよい。 For example, when the circumscribed rectangular area of the foreground silhouette includes both the non-foreground extraction area 521 and the foreground extraction area 522, the protection determination unit 203 determines whether the foreground silhouette is the non-foreground extraction area 521 and the foreground extraction area 522. It can be determined that it is within the boundary of . This determination method is merely an example, and other methods may be used to determine whether the foreground silhouette extends over the edge of the foreground extraction area using information that can be obtained from the foreground silhouette.

このような構成によれば、前景抽出領域と非前景抽出領域との境界にかかる前景シルエットの削除が防止され、又は抑制される。このため、前景抽出領域の境界に被写体の一部が写っている場合に、三次元形状においてこの被写体の一部が欠けてしまうことが抑制される。 According to such a configuration, deletion of the foreground silhouette on the boundary between the foreground extraction area and the non-foreground extraction area is prevented or suppressed. For this reason, when a part of the subject is captured at the boundary of the foreground extraction area, it is suppressed that part of the subject is missing in the three-dimensional shape.

別の例として、予め定められた領域は、撮像により得られた像が写る有効領域であってもよい。この場合、保護判定部203は、入力画像中の有効領域の端に位置する前景領域を保護することができる。例えば、入力画像が、撮像装置によって撮像された撮像画像に対して画像補正を行うことにより得られることがある。画像補正としては、例えば撮像装置のレンズ歪みを考慮したレンズ歪み補正処理のような、変形処理が挙げられる。このような変形処理を行うと、画像端の位置が変わる。このため、補正後の入力画像中の、撮像画像の端に対応する部分が、補正後の入力画像の端より内側に入り込む場合がある。この場合、入力画像には変形された撮像画像が含まれる。そして、入力画像における、変形された撮像画像が占める領域を有効領域と呼ぶことができる。この有効領域は、撮像画像の端に対応する部分より内側の領域である。このような場合に、保護判定部203は、前景シルエットが補正前の撮像画像の端に存在するか否かに基づいて、前景シルエットを保護することができる。 As another example, the predetermined area may be an effective area where an image obtained by imaging is captured. In this case, the protection determining unit 203 can protect the foreground area located at the edge of the effective area in the input image. For example, the input image may be obtained by performing image correction on a captured image captured by an imaging device. Examples of image correction include deformation processing such as lens distortion correction processing that takes into account lens distortion of an imaging device. When such transformation processing is performed, the position of the image edge changes. Therefore, a portion of the corrected input image that corresponds to the edge of the captured image may be located inside the edge of the corrected input image. In this case, the input image includes a transformed captured image. The area occupied by the deformed captured image in the input image can be called an effective area. This effective area is an area inside the portion corresponding to the edge of the captured image. In such a case, the protection determining unit 203 can protect the foreground silhouette based on whether the foreground silhouette exists at the edge of the captured image before correction.

このような歪み補正処理は、画像処理装置200が有する歪み補正部(不図示)が行ってもよいし、撮像装置が行ってもよい。例えば、歪み補正部は、画像取得部201が撮像装置から取得した画像に対して、あらかじめ設定しておいたパラメータを用いて、又は不図示の制御UIを介してユーザによって設定されたパラメータを用いて、歪み補正処理を行うことができる。 Such distortion correction processing may be performed by a distortion correction unit (not shown) included in the image processing device 200, or may be performed by the imaging device. For example, the distortion correction unit applies parameters set in advance to the image acquired by the image acquisition unit 201 from the imaging device, or parameters set by the user via a control UI (not shown). Then, distortion correction processing can be performed.

このような変形例について、図7(A)~(E)を参照して説明する。図7(A)に示す撮像画像800には、被写体の像801及び被写体の像802が写っている。図7(B)には、撮像画像800に対して歪み補正処理を適用することにより得られた入力画像810が示されている。入力画像810には、それぞれの被写体は像811及び812として写っている。図7(B)に示されるように、歪み補正処理により画像端の位置は変わっている。すなわち、入力画像810の中央領域は撮像画像800に対応する有効領域である。一方で、入力画像810の周辺領域は、撮像画像800に対応しない無効領域である。ここで、有効領域の境界は、レンズ歪み補正処理により変形した後の撮像画像800の端と一致するように定められる。本実施形態において、歪み補正処理を行う歪み補正部(不図示)又は撮像装置は、図7(C)に示すような、有効領域821と無効領域822とを示す有効領域マスク820を生成する。 Such a modification will be explained with reference to FIGS. 7(A) to (E). A captured image 800 shown in FIG. 7A includes a subject image 801 and a subject image 802. FIG. 7B shows an input image 810 obtained by applying distortion correction processing to the captured image 800. In the input image 810, the respective subjects appear as images 811 and 812. As shown in FIG. 7(B), the position of the image edge has changed due to the distortion correction process. That is, the central area of input image 810 is an effective area corresponding to captured image 800. On the other hand, the peripheral area of the input image 810 is an invalid area that does not correspond to the captured image 800. Here, the boundary of the effective area is determined to coincide with the edge of the captured image 800 after being transformed by the lens distortion correction process. In this embodiment, a distortion correction unit (not shown) or an imaging device that performs distortion correction processing generates a valid area mask 820 that indicates a valid area 821 and an invalid area 822, as shown in FIG. 7(C).

図7(D)は、抽出部202が生成した前景シルエット画像830を示す。前景シルエット画像830は、前景シルエット831~834を含んでいる。前景シルエット831及び832はそれぞれ別の被写体に対応する前景シルエットである。また、前景シルエット832は有効領域の端にかかっている。前景シルエット833~834は撮影時のゴマ塩ノイズが原因で抽出された前景シルエットである。これらの前景シルエットのうち、前景シルエット834は有効領域の端にかかっている。図7(D)においては、前景シルエットの外接矩形が破線で、有効領域と無効領域との境界が実線で示されているが、これらの線は実際の前景シルエット画像830には含まれていない。 FIG. 7(D) shows a foreground silhouette image 830 generated by the extraction unit 202. Foreground silhouette image 830 includes foreground silhouettes 831-834. Foreground silhouettes 831 and 832 are foreground silhouettes corresponding to different subjects, respectively. Also, the foreground silhouette 832 spans the edge of the effective area. Foreground silhouettes 833 to 834 are foreground silhouettes extracted due to salt-and-pepper noise during photographing. Among these foreground silhouettes, foreground silhouette 834 spans the edge of the effective area. In FIG. 7D, the circumscribed rectangle of the foreground silhouette is shown by a broken line, and the boundary between the valid area and the invalid area is shown by a solid line, but these lines are not included in the actual foreground silhouette image 830. .

ここで、保護判定部203は、有効領域マスク820を参照して、前景シルエットが有効領域の端に存在するか否かを判定することができる。そして、保護判定部203は、有効領域の端に存在する前景シルエットを保護することができる。具体例として、S305において保護判定部203は、S304で取得した前景シルエットの外接矩形領域の位置に基づいて、前景シルエットが画像端、又は有効領域と無効領域との境界にかかっているか否かを判定することができる。そして、S306において、保護判定部203は、画像端又は有効領域の端にかかる前景シルエットを保護することができる。前景シルエットが有効領域と無効領域との境界にかかっているか否かの判定は、既に説明した、前景シルエットが前景抽出領域と非前景抽出領域との境界にかかっているか否かの判定と同様に行うことができる。なお、このような判定手法は一例にすぎず、前景シルエットから取得できる情報と、有効領域又は無効領域を示す情報とを用いて、他の手法で前景シルエットが有効領域の端にかかっているかどうかを判定してもよい。 Here, the protection determination unit 203 can refer to the effective area mask 820 and determine whether the foreground silhouette exists at the edge of the effective area. Then, the protection determining unit 203 can protect the foreground silhouette existing at the edge of the effective area. As a specific example, in S305, the protection determination unit 203 determines whether the foreground silhouette overlaps the edge of the image or the boundary between the valid area and the invalid area, based on the position of the circumscribed rectangular area of the foreground silhouette acquired in S304. can be determined. Then, in S306, the protection determining unit 203 can protect the foreground silhouette at the edge of the image or the edge of the effective area. The determination of whether the foreground silhouette crosses the boundary between the valid region and the invalid region is the same as the determination of whether the foreground silhouette crosses the boundary between the foreground extraction region and the non-foreground extraction region, which has already been described. It can be carried out. Note that such a determination method is only an example, and other methods can be used to determine whether the foreground silhouette extends over the edge of the effective region, using information that can be obtained from the foreground silhouette and information indicating a valid region or an invalid region. may be determined.

このような例においても、除去部204は、閾値未満の面積を有し、かつ保護されていない前景シルエットを除去することができる。例えば、図7(E)に示すように、前景シルエット833は、有効領域の境界にかかっておらず、閾値未満の面積を有するため、除去部204によって除去された。一方で、前景シルエット832及び834は、閾値面積未満の面積を有するが、有効領域の端にかかっている。このため、前景シルエット832及び834は、保護判定部203によって保護され、除去部204によって除去されなかった。この結果、除去部204により不要な前景シルエットが削除され後の前景シルエット画像840は、前景シルエット841、842、及び844を含んでいる。 Even in such an example, the removal unit 204 can remove unprotected foreground silhouettes that have an area less than the threshold. For example, as shown in FIG. 7E, the foreground silhouette 833 is removed by the removal unit 204 because it does not extend over the boundary of the effective area and has an area less than the threshold value. On the other hand, foreground silhouettes 832 and 834 have areas less than the threshold area, but span the edges of the effective area. Therefore, the foreground silhouettes 832 and 834 were protected by the protection determination unit 203 and were not removed by the removal unit 204. As a result, the foreground silhouette image 840 after unnecessary foreground silhouettes are deleted by the removal unit 204 includes foreground silhouettes 841, 842, and 844.

このような構成によれば、有効領域の境界にかかる前景シルエットの削除が防止され、又は抑制される。このため、変形処理前の画像端に被写体の一部がかかっている場合であっても、三次元形状においてこの被写体の一部が欠けてしまうことが抑制される。 According to such a configuration, deletion of the foreground silhouette on the boundary of the effective area is prevented or suppressed. Therefore, even if a part of the subject overlaps the edge of the image before the deformation process, part of the subject is prevented from being missing in the three-dimensional shape.

ここまで、前景シルエットが入力画像の端にかかっているか否か、前景抽出領域の境界にかかっているか否か、又は有効領域の境界にかかっているか否か、に基づいて、前景シルエットを保護する方法について説明した。しかしながら、これらの判断は組み合わせられてもよい。例えば、前景シルエットが、入力画像の境界、前景抽出領域の境界、又は有効領域の境界のうちのいずれかにかかっている場合、保護判定部203は前景シルエットを保護してもよい。 Up to this point, we have protected the foreground silhouette based on whether it spans the edge of the input image, the boundary of the foreground extraction area, or the boundary of the effective area. The method was explained. However, these determinations may be combined. For example, if the foreground silhouette overlaps any one of the boundary of the input image, the boundary of the foreground extraction area, or the boundary of the effective area, the protection determining unit 203 may protect the foreground silhouette.

上記の例で、除去部204は、前景領域の面積に基づいて前景領域を選択した。しかしながら、除去部204が前景領域を選択する方法はこの方法に限られない。例えば、除去部204は、前景領域の特徴量に基づいて、1以上の前景領域の中から少なくとも一部の前景領域を選択してもよい。具体例として、除去部204は、前景シルエット又は入力画像中の前景シルエットに対応する部分から特徴量を抽出し、特徴量の解析結果に基づいて前景シルエットを選択してもよい。また、除去部204は、前景領域が表す被写体の種類に基づいて、前景領域を選択してもよい。除去部204は、上記のような特徴量の解析結果に基づいて、前景領域が表す被写体を判定することができる。例えば、除去部204は、人物、ボール、サッカーのゴール、又はラグビーのゴールポストのような、特定の種類の被写体を表す前景シルエットを選択することができる。一方で、除去部204は、その他の種類の前景シルエットを除去することができる。いずれの方法を用いる場合であっても、除去部204は、保護されている前景シルエットの除去を防止又は抑制することができる。すなわち、除去部204は、予め定められた領域の境界に前景領域がかかっているか否かの判断に加えて、さらにこれらの判断に基づいて、前景シルエットを選択することができる。このような構成によれば、領域の境界にかかっている被写体の前景領域が小さいために、特徴量の解析を正しく行えない場合であっても、この前景領域の除去を防止又は抑制することができる。 In the above example, the removal unit 204 selected the foreground region based on the area of the foreground region. However, the method by which the removal unit 204 selects the foreground region is not limited to this method. For example, the removing unit 204 may select at least some foreground regions from one or more foreground regions based on the feature amount of the foreground regions. As a specific example, the removal unit 204 may extract a feature amount from the foreground silhouette or a portion corresponding to the foreground silhouette in the input image, and select the foreground silhouette based on the analysis result of the feature amount. Further, the removal unit 204 may select the foreground region based on the type of subject represented by the foreground region. The removal unit 204 can determine the subject represented by the foreground region based on the analysis results of the feature amounts as described above. For example, the remover 204 may select foreground silhouettes that represent a particular type of object, such as a person, a ball, a soccer goal, or a rugby goal post. On the other hand, the removal unit 204 can remove other types of foreground silhouettes. Regardless of which method is used, the removal unit 204 can prevent or suppress removal of the protected foreground silhouette. That is, in addition to determining whether the foreground region overlaps the boundary of a predetermined region, the removal unit 204 can select a foreground silhouette based on these determinations. According to such a configuration, even if the foreground region of the subject that spans the boundary of the region is small and the feature amount cannot be analyzed correctly, it is possible to prevent or suppress the removal of this foreground region. can.

(その他の実施例)
上記の技術は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The above technology supplies a program that implements one or more functions of the above embodiments to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device reads the program. This can also be achieved by executing a process. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本明細書の開示は、以下の撮像装置、撮像システム、方法及びプログラムを含む。 The disclosure of this specification includes the following imaging device, imaging system, method, and program.

(項目1)
撮像画像から抽出された1以上の前景領域を示す情報を取得する取得手段と、
前記1以上の前景領域の中から、少なくとも一部の前景領域を、前記画像において予め定められた領域の境界に前記前景領域がかかっているか否かに少なくとも基づいて選択する選択手段と、
選択された前記少なくとも一部の前景領域を、被写体の三次元形状を示す情報を生成する形状生成手段に出力する出力手段と、
を備えることを特徴とする画像処理装置。
(Item 1)
acquisition means for acquiring information indicating one or more foreground regions extracted from the captured image;
selection means for selecting at least some foreground regions from the one or more foreground regions based at least on whether the foreground region overlaps a boundary of a predetermined region in the image;
output means for outputting the selected at least part of the foreground region to a shape generation means for generating information indicating a three-dimensional shape of the subject;
An image processing device comprising:

(項目2)
前記取得手段は、前記画像から前記1以上の前景領域を抽出することを特徴とする、項目1に記載の画像処理装置。
(Item 2)
The image processing device according to item 1, wherein the acquisition means extracts the one or more foreground regions from the image.

(項目3)
前記画像は前記被写体を含む画像であり、
前記選択手段が選択した前景領域を示す情報に基づいて、前記被写体の三次元形状を示す情報を生成する形状生成手段と、
前記被写体の三次元形状を示す情報に基づいて、前記被写体の仮想視点画像を生成する画像生成手段と、
をさらに備えることを特徴とする、項目1又は2に記載の画像処理装置。
(Item 3)
The image is an image including the subject,
shape generating means for generating information indicating a three-dimensional shape of the subject based on information indicating the foreground region selected by the selecting means;
image generation means for generating a virtual viewpoint image of the subject based on information indicating a three-dimensional shape of the subject;
The image processing device according to item 1 or 2, further comprising:

(項目4)
前記予め定められた領域は、前記画像の全体であることを特徴とする、項目1から3のいずれか1項目に記載の画像処理装置。
(Item 4)
The image processing device according to any one of items 1 to 3, wherein the predetermined area is the entire image.

(項目5)
前記予め定められた領域は、前記画像における前景領域の抽出対象領域であることを特徴とする、項目1から3のいずれか1項目に記載の画像処理装置。
(Item 5)
The image processing device according to any one of items 1 to 3, wherein the predetermined area is an extraction target area of a foreground area in the image.

(項目6)
前記取得手段は、前記画像における前景領域の抽出対象領域から前記1以上の前景領域を抽出し、
前記予め定められた領域は、前記画像における前景領域の抽出対象領域であることを特徴とする、項目2に記載の画像処理装置。
(Item 6)
The acquisition means extracts the one or more foreground regions from a foreground region extraction target region in the image,
The image processing device according to item 2, wherein the predetermined area is an extraction target area of a foreground area in the image.

(項目7)
前記予め定められた領域は、撮像により得られた像が写る有効領域であることを特徴とする、項目1から3のいずれか1項目に記載の画像処理装置。
(Item 7)
The image processing device according to any one of items 1 to 3, wherein the predetermined area is an effective area in which an image obtained by imaging is captured.

(項目8)
前記画像には変形された撮像画像が含まれ、前記予め定められた領域は、前記画像における、前記変形された撮像画像が占める領域であることを特徴とする、項目1から3のいずれか1項目に記載の画像処理装置。
(Item 8)
Any one of items 1 to 3, wherein the image includes a transformed captured image, and the predetermined area is an area occupied by the transformed captured image in the image. Image processing device described in the item.

(項目9)
前記画像はレンズ歪み補正処理を受けており、
前記予め定められた領域の境界は、前記レンズ歪み補正処理により変形した後の撮像画像の端と一致するように定められることを特徴とする、項目1から3のいずれか1項目に記載の画像処理装置。
(Item 9)
The image has been subjected to lens distortion correction processing,
The image according to any one of items 1 to 3, wherein the boundary of the predetermined area is determined to coincide with an edge of the captured image after being transformed by the lens distortion correction process. Processing equipment.

(項目10)
前記選択手段は、前記前景領域の面積にさらに基づいて、前記1以上の前景領域の中から前記少なくとも一部の前景領域を選択することを特徴とする、項目1から9のいずれか1項目に記載の画像処理装置。
(Item 10)
According to any one of items 1 to 9, the selection means selects at least some of the foreground regions from the one or more foreground regions further based on the area of the foreground region. The image processing device described.

(項目11)
前記選択手段は、閾値以上の面積を有する前景領域、及び前記予め定められた領域の境界にかかる前景領域を選択し、前記閾値未満の面積を有しながら前記予め定められた領域の境界にかからない前景領域を選択しないことを特徴とする、項目1から10のいずれか1項目に記載の画像処理装置。
(Item 11)
The selection means selects a foreground region having an area equal to or larger than a threshold value and a foreground region that lies on the boundary of the predetermined region, and selects a foreground region that has an area less than the threshold value but does not cross the boundary of the predetermined region. The image processing device according to any one of items 1 to 10, characterized in that the foreground region is not selected.

(項目12)
前記選択手段は、前記予め定められた領域の境界にかからない前景領域からの選択を第1の条件に従って行い、前記予め定められた領域の境界にかかる前景領域からの選択を第2の条件に従って行うことを特徴とする、項目1から11のいずれか1項目に記載の画像処理装置。
(Item 12)
The selection means selects from a foreground area that does not fall on the boundary of the predetermined area according to a first condition, and selects from a foreground area that falls on the boundary of the predetermined area according to a second condition. The image processing device according to any one of items 1 to 11, characterized in that:

(項目13)
撮像画像から抽出された前記1以上の前景領域のうち、前記予め定められた領域の境界にかかる前景領域を除去から保護する保護手段をさらに備え、
前記選択手段は、撮像画像から抽出された前記1以上の前景領域の中から、前記少なくとも一部の前景領域を、前記前景領域が保護されているか否かに少なくとも基づいて除去することを特徴とする、項目1から12のいずれか1項目に記載の画像処理装置。
(Item 13)
Further comprising a protection means for protecting a foreground region on a boundary of the predetermined region from removal among the one or more foreground regions extracted from the captured image,
The selection means may remove at least some of the foreground regions from among the one or more foreground regions extracted from the captured image based at least on whether the foreground region is protected. The image processing device according to any one of items 1 to 12.

(項目14)
前記選択手段は、保護されていない前景領域のうち、閾値以上の面積を有する前景領域を選択し、閾値未満の面積を有する前景領域を選択せず除去することを特徴とする、項目13に記載の画像処理装置。
(Item 14)
Item 13, wherein the selection means selects a foreground area having an area equal to or greater than a threshold value from among unprotected foreground areas, and removes a foreground area having an area less than the threshold value without selecting it. image processing device.

(項目15)
前記選択手段は、前記前景領域の特徴量にさらに基づいて、前記1以上の前景領域の中から前記少なくとも一部の前景領域を選択することを特徴とする、項目1から14のいずれか1項目に記載の画像処理装置。
(Item 15)
Any one of items 1 to 14, wherein the selection means selects at least some of the foreground regions from the one or more foreground regions further based on the feature amount of the foreground region. The image processing device described in .

(項目16)
前記選択手段は、前記前景領域が表す被写体の種類にさらに基づいて、前記1以上の前景領域の中から前記少なくとも一部の前景領域を選択することを特徴とする、項目1から15のいずれか1項目に記載の画像処理装置。
(Item 16)
Any one of items 1 to 15, wherein the selection means selects at least some of the foreground regions from the one or more foreground regions, further based on the type of subject represented by the foreground regions. The image processing device described in item 1.

(項目17)
画像処理装置が行う画像処理方法であって、
撮像画像から抽出された1以上の前景領域を示す情報を取得する工程と、
前記1以上の前景領域の中から、少なくとも一部の前景領域を、前記画像において予め定められた領域の境界に前記前景領域がかかっているか否かに少なくとも基づいて選択する工程と、
選択された前記少なくとも一部の前景領域を、被写体の三次元形状を示す情報を生成するために出力する工程と、
を含むことを特徴とする画像処理方法。
(Item 17)
An image processing method performed by an image processing device, the method comprising:
acquiring information indicating one or more foreground regions extracted from the captured image;
selecting at least some foreground regions from the one or more foreground regions based at least on whether the foreground region overlaps a boundary of a predetermined region in the image;
outputting the at least some of the selected foreground regions to generate information indicating a three-dimensional shape of the subject;
An image processing method characterized by comprising:

(項目18)
コンピュータを、項目1から16のいずれか1項目に記載の画像処理装置として機能させるためのプログラム。
(Item 18)
A program for causing a computer to function as the image processing device according to any one of items 1 to 16.

本願に係る技術は上記実施形態に制限されるものではなく、その精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、その範囲を公にするために請求項を添付する。 The technology according to the present application is not limited to the above embodiments, and various changes and modifications can be made without departing from the spirit and scope thereof. Accordingly, the claims are appended hereto to disclose their scope.

200:画像処理装置、201:画像取得部、202:抽出部、203:保護判定部、204:除去部、205:形状生成部、206:画像生成部 200: Image processing device, 201: Image acquisition unit, 202: Extraction unit, 203: Protection determination unit, 204: Removal unit, 205: Shape generation unit, 206: Image generation unit

Claims (18)

撮像画像から抽出された1以上の前景領域を示す情報を取得する取得手段と、
前記1以上の前景領域の中から、少なくとも一部の前景領域を、前記画像において予め定められた領域の境界に前記前景領域がかかっているか否かに少なくとも基づいて選択する選択手段と、
選択された前記少なくとも一部の前景領域を、被写体の三次元形状を示す情報を生成する形状生成手段に出力する出力手段と、
を備えることを特徴とする画像処理装置。
acquisition means for acquiring information indicating one or more foreground regions extracted from the captured image;
selection means for selecting at least some foreground regions from the one or more foreground regions based at least on whether the foreground region overlaps a boundary of a predetermined region in the image;
output means for outputting the selected at least part of the foreground region to a shape generation means for generating information indicating a three-dimensional shape of the subject;
An image processing device comprising:
前記取得手段は、前記画像から前記1以上の前景領域を抽出することを特徴とする、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the acquisition means extracts the one or more foreground regions from the image. 前記画像は前記被写体を含む画像であり、
前記選択手段が選択した前景領域を示す情報に基づいて、前記被写体の三次元形状を示す情報を生成する形状生成手段と、
前記被写体の三次元形状を示す情報に基づいて、前記被写体の仮想視点画像を生成する画像生成手段と、
をさらに備えることを特徴とする、請求項1に記載の画像処理装置。
The image is an image including the subject,
shape generating means for generating information indicating a three-dimensional shape of the subject based on information indicating the foreground region selected by the selecting means;
image generation means for generating a virtual viewpoint image of the subject based on information indicating a three-dimensional shape of the subject;
The image processing device according to claim 1, further comprising:
前記予め定められた領域は、前記画像の全体であることを特徴とする、請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the predetermined area is the entire image. 前記予め定められた領域は、前記画像における前景領域の抽出対象領域であることを特徴とする、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the predetermined area is an extraction target area of a foreground area in the image. 前記取得手段は、前記画像における前景領域の抽出対象領域から前記1以上の前景領域を抽出し、
前記予め定められた領域は、前記画像における前景領域の抽出対象領域であることを特徴とする、請求項2に記載の画像処理装置。
The acquisition means extracts the one or more foreground regions from a foreground region extraction target region in the image,
The image processing apparatus according to claim 2, wherein the predetermined area is an extraction target area of a foreground area in the image.
前記予め定められた領域は、撮像により得られた像が写る有効領域であることを特徴とする、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the predetermined area is an effective area in which an image obtained by imaging is captured. 前記画像には変形された撮像画像が含まれ、前記予め定められた領域は、前記画像における、前記変形された撮像画像が占める領域であることを特徴とする、請求項1に記載の画像処理装置。 The image processing according to claim 1, wherein the image includes a transformed captured image, and the predetermined area is an area occupied by the transformed captured image in the image. Device. 前記画像はレンズ歪み補正処理を受けており、
前記予め定められた領域の境界は、前記レンズ歪み補正処理により変形した後の撮像画像の端と一致するように定められることを特徴とする、請求項1に記載の画像処理装置。
The image has been subjected to lens distortion correction processing,
The image processing device according to claim 1, wherein the boundary of the predetermined area is determined to coincide with an edge of the captured image after being transformed by the lens distortion correction process.
前記選択手段は、前記前景領域の面積にさらに基づいて、前記1以上の前景領域の中から前記少なくとも一部の前景領域を選択することを特徴とする、請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1, wherein the selection means selects the at least some of the foreground regions from the one or more foreground regions further based on the area of the foreground region. 前記選択手段は、閾値以上の面積を有する前景領域、及び前記予め定められた領域の境界にかかる前景領域を選択し、前記閾値未満の面積を有しながら前記予め定められた領域の境界にかからない前景領域を選択しないことを特徴とする、請求項1に記載の画像処理装置。 The selection means selects a foreground region having an area equal to or larger than a threshold value and a foreground region that lies on the boundary of the predetermined region, and selects a foreground region that has an area less than the threshold value but does not cross the boundary of the predetermined region. The image processing device according to claim 1, characterized in that no foreground region is selected. 前記選択手段は、前記予め定められた領域の境界にかからない前景領域からの選択を第1の条件に従って行い、前記予め定められた領域の境界にかかる前景領域からの選択を第2の条件に従って行うことを特徴とする、請求項1に記載の画像処理装置。 The selection means selects from a foreground area that does not fall on the boundary of the predetermined area according to a first condition, and selects from a foreground area that falls on the boundary of the predetermined area according to a second condition. The image processing device according to claim 1, characterized in that: 撮像画像から抽出された前記1以上の前景領域のうち、前記予め定められた領域の境界にかかる前景領域を除去から保護する保護手段をさらに備え、
前記選択手段は、撮像画像から抽出された前記1以上の前景領域の中から、前記少なくとも一部の前景領域を、前記前景領域が保護されているか否かに少なくとも基づいて除去することを特徴とする、請求項1に記載の画像処理装置。
Further comprising a protection means for protecting a foreground region on a boundary of the predetermined region from removal among the one or more foreground regions extracted from the captured image,
The selection means removes at least some of the foreground regions from among the one or more foreground regions extracted from the captured image based at least on whether the foreground region is protected. The image processing device according to claim 1.
前記選択手段は、保護されていない前景領域のうち、閾値以上の面積を有する前景領域を選択し、閾値未満の面積を有する前景領域を選択せず除去することを特徴とする、請求項13に記載の画像処理装置。 14. The selecting means selects a foreground region having an area equal to or more than a threshold value from unprotected foreground regions, and removes the foreground region having an area less than the threshold value without selecting it. The image processing device described. 前記選択手段は、前記前景領域の特徴量にさらに基づいて、前記1以上の前景領域の中から前記少なくとも一部の前景領域を選択することを特徴とする、請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the selection means selects the at least some of the foreground regions from the one or more foreground regions further based on the feature amount of the foreground region. . 前記選択手段は、前記前景領域が表す被写体の種類にさらに基づいて、前記1以上の前景領域の中から前記少なくとも一部の前景領域を選択することを特徴とする、請求項1に記載の画像処理装置。 The image according to claim 1, wherein the selection means selects the at least some of the foreground regions from the one or more foreground regions further based on the type of subject represented by the foreground region. Processing equipment. 画像処理装置が行う画像処理方法であって、
撮像画像から抽出された1以上の前景領域を示す情報を取得する工程と、
前記1以上の前景領域の中から、少なくとも一部の前景領域を、前記画像において予め定められた領域の境界に前記前景領域がかかっているか否かに少なくとも基づいて選択する工程と、
選択された前記少なくとも一部の前景領域を、被写体の三次元形状を示す情報を生成するために出力する工程と、
を含むことを特徴とする画像処理方法。
An image processing method performed by an image processing device, the method comprising:
acquiring information indicating one or more foreground regions extracted from the captured image;
selecting at least some foreground regions from the one or more foreground regions based at least on whether the foreground region overlaps a boundary of a predetermined region in the image;
outputting the at least some of the selected foreground regions to generate information indicating a three-dimensional shape of the subject;
An image processing method characterized by comprising:
コンピュータを、請求項1から16のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing device according to any one of claims 1 to 16.
JP2022146257A 2022-09-14 2022-09-14 Image processing apparatus, image processing method, and program Pending JP2024041435A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022146257A JP2024041435A (en) 2022-09-14 2022-09-14 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022146257A JP2024041435A (en) 2022-09-14 2022-09-14 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2024041435A true JP2024041435A (en) 2024-03-27

Family

ID=90417171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022146257A Pending JP2024041435A (en) 2022-09-14 2022-09-14 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2024041435A (en)

Similar Documents

Publication Publication Date Title
CN109561296B (en) Image processing apparatus, image processing method, image processing system, and storage medium
US20180300937A1 (en) System and a method of restoring an occluded background region
JP6970283B2 (en) Image stitching method and device, storage medium
US9412153B2 (en) Using depth for recovering missing information in an image
EP3486872A1 (en) Image processing apparatus, image processing method, and program
JP6882868B2 (en) Image processing equipment, image processing method, system
JP7023696B2 (en) Information processing equipment, information processing methods and programs
JP2019083402A (en) Image processing apparatus, image processing system, image processing method, and program
US11074742B2 (en) Image processing apparatus, image processing method, and storage medium
JP7027049B2 (en) Image processing equipment, image processing methods and programs
JP2017091298A (en) Image processing device, image processing method and image processing program
US7477761B2 (en) Image processing apparatus and method, and image-capturing apparatus
JP7265316B2 (en) Image processing device and image processing method
JP5295044B2 (en) Method and program for extracting mask image and method and program for constructing voxel data
KR101566459B1 (en) Concave surface modeling in image-based visual hull
JP2024041435A (en) Image processing apparatus, image processing method, and program
JP7143419B2 (en) Image processing device, image processing method, and program
KR102233606B1 (en) Image processing method and apparatus therefor
JP7271115B2 (en) Image processing device, background image generation method and program
JP6811679B2 (en) Silhouette extractor, method and program
JP2018063635A (en) Image processing device, image processing method, and program
JP2021149513A (en) Image processing apparatus, image processing method, and program
CN112565623A (en) Dynamic image display system
JP6818485B2 (en) Image processing equipment, image processing methods, and programs
US20240169552A1 (en) Image processing apparatus, image processing method, and storage medium