JP7004460B2 - Image processing device, image processing method and image processing program - Google Patents

Image processing device, image processing method and image processing program Download PDF

Info

Publication number
JP7004460B2
JP7004460B2 JP2019011260A JP2019011260A JP7004460B2 JP 7004460 B2 JP7004460 B2 JP 7004460B2 JP 2019011260 A JP2019011260 A JP 2019011260A JP 2019011260 A JP2019011260 A JP 2019011260A JP 7004460 B2 JP7004460 B2 JP 7004460B2
Authority
JP
Japan
Prior art keywords
image
foreground
edge
background
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019011260A
Other languages
Japanese (ja)
Other versions
JP2020119372A (en
Inventor
史記 長澤
士人 新井
亮史 服部
誠司 奥村
尭理 中尾
紘和 阿部
光義 山足
裕彦 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Original Assignee
Mitsubishi Electric Corp
Mitsubishi Electric Information Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Mitsubishi Electric Information Systems Corp filed Critical Mitsubishi Electric Corp
Priority to JP2019011260A priority Critical patent/JP7004460B2/en
Priority to PCT/JP2019/037228 priority patent/WO2020152908A1/en
Publication of JP2020119372A publication Critical patent/JP2020119372A/en
Application granted granted Critical
Publication of JP7004460B2 publication Critical patent/JP7004460B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理技術に関する。 The present invention relates to an image processing technique.

事前に用意した背景画像と参照画像とを比較して、背景画像に存在しない物体の画像領域(前景)を抽出する前景抽出技術が知られている。前景を抽出する技術としては、輝度を元に画素ごとの差分をとり、差分が大きい箇所を前景として抽出する方法がある。また、前景を抽出する技術として、画像の局所領域ごとに輝度分布の類似度を算出し、類似度が低い箇所を前景として抽出する方法がある。 A foreground extraction technique for extracting an image area (foreground) of an object that does not exist in the background image by comparing a background image prepared in advance with a reference image is known. As a technique for extracting the foreground, there is a method of taking a difference for each pixel based on the brightness and extracting a portion having a large difference as the foreground. Further, as a technique for extracting the foreground, there is a method of calculating the similarity of the luminance distribution for each local region of the image and extracting the portion having a low similarity as the foreground.

これら前景抽出技術を屋外で撮影された画像に対して使用する際には、日差しや影などの日照条件の変化によって背景の輝度値が変化するため、本来前景とするべきでない領域を前景として抽出してしまう誤抽出が発生する。
特に、背景に建物などの構造物が含まれる環境では、構造物のエッジや金属などの光沢を持つ素材や滑らかな素材の表面など、背景の構造物の特定部分が日光を強く反射することにより前景の存在しない背景領域においても局所的な輝度分布パターンが変化する。このような背景の部分的な変化は前景と同様に輝度変化として抽出されるため、従来手法では反射が示される領域と前景の領域とを区別することができず、本来前景ではない領域を誤って前景としてしまう場合がある。
When using these foreground extraction technologies for images taken outdoors, the brightness value of the background changes due to changes in sunshine conditions such as sunlight and shadows, so areas that should not be the foreground are extracted as the foreground. Mis-extraction occurs.
In particular, in an environment where a structure such as a building is included in the background, a specific part of the background structure, such as the edge of the structure or the surface of a glossy material such as metal or a smooth material, strongly reflects sunlight. The local brightness distribution pattern changes even in the background area where the foreground does not exist. Since such a partial change in the background is extracted as a change in brightness as in the foreground, it is not possible to distinguish between the area where reflection is shown and the area in the foreground by the conventional method, and the area that is not originally the foreground is mistaken. It may be the foreground.

本発明に関連する技術として、特許文献1に開示の技術と特許文献2に開示の技術がある。 As a technique related to the present invention, there are a technique disclosed in Patent Document 1 and a technique disclosed in Patent Document 2.

特開2015-46811号公報JP-A-2015-46811 特開2001-209808号公報Japanese Unexamined Patent Publication No. 2001-209808

特許文献1に開示されている技術では、構造物の形状に由来する影が誤抽出された領域では背景画像と撮影画像のテクスチャが類似している性質に着目し、テクスチャの類似度が高い部分を除外することで誤抽出を低減する。
しかし、このためには誤抽出された領域の撮影画像と背景画像からテクスチャが十分に抽出できることが前提であり、画像の白飛びや黒潰れが発生している場合では十分にテクスチャを抽出できず、前景を誤抽出してしまう。
In the technique disclosed in Patent Document 1, attention is paid to the property that the textures of the background image and the photographed image are similar in the region where the shadow derived from the shape of the structure is erroneously extracted, and the portion having a high degree of texture similarity. By excluding the above, erroneous extraction is reduced.
However, for this purpose, it is premised that the texture can be sufficiently extracted from the captured image and the background image of the erroneously extracted area, and if the image has overexposure or underexposure, the texture cannot be sufficiently extracted. , The foreground is erroneously extracted.

特許文献2に開示されている技術では、物体の影が前景として誤抽出されてしまう問題に対し、撮影画像にエッジ検出を行って前景物体の輪郭を抽出し、誤抽出された影領域と撮影画像のエッジを比較し、撮影画像のエッジと離れた前景領域を除去することにより誤抽出を抑制する。
しかし、構造物のエッジ等が光を反射することによる前景の誤抽出は、背景画像及び撮影画像に映る物体の輪郭上に発生するため、輪郭から外れた誤抽出を除去するこの手法では、前景領域の中に存在する前景と構造物の反射を区別できず、誤抽出を抑制できない。
In the technique disclosed in Patent Document 2, for the problem that the shadow of an object is erroneously extracted as the foreground, edge detection is performed on the captured image to extract the outline of the foreground object, and the erroneously extracted shadow area and the photograph are taken. By comparing the edges of the images and removing the foreground region away from the edges of the captured image, erroneous extraction is suppressed.
However, erroneous extraction of the foreground due to the reflection of light by the edges of the structure occurs on the contour of the object reflected in the background image and the captured image. It is not possible to distinguish between the foreground existing in the area and the reflection of the structure, and it is not possible to suppress erroneous extraction.

本発明は、このような課題を解決することを主な目的とする。より具体的には、本発明は、前景物が背景物の一部に重なって示される元画像において、反射領域と前景物の領域とを正確に分離することを主な目的とする。 An object of the present invention is to solve such a problem. More specifically, it is a main object of the present invention to accurately separate the reflection region and the foreground region in the original image in which the foreground object is shown overlapping a part of the background object.

本発明に係る画像処理装置は、
前景となる前景物が背景となる背景物の一部に重なって示される元画像から、前記前景物の領域の候補である前景候補が示される前景候補画像を生成する前景候補画像生成部と、
前記背景物のエッジが示される背景エッジ画像を取得し、前記前景候補画像と前記背景エッジ画像とを用いて、前記前景候補画像に含まれる、前記背景物に光が反射している状態が示される反射領域と、前記前景物の領域とを分離する領域分離部とを有する。
The image processing apparatus according to the present invention is
A foreground candidate image generation unit that generates a foreground candidate image showing a foreground candidate that is a candidate for the area of the foreground object from an original image in which the foreground object as the foreground overlaps with a part of the background object as the background.
A background edge image showing the edge of the background object is acquired, and the foreground candidate image and the background edge image are used to show a state in which light is reflected on the background object included in the foreground candidate image. It has a region separating portion that separates the reflection region and the region of the foreground object.

本発明によれば、反射領域と前景物の領域とを正確に分離することができる。 According to the present invention, the reflection region and the foreground region can be accurately separated.

実施の形態1に係る画像処理装置の機能構成例を示す図。The figure which shows the functional structure example of the image processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る画像処理装置のハードウェア構成例を示す図。The figure which shows the hardware configuration example of the image processing apparatus which concerns on Embodiment 1. FIG. 実施の形態1に係る画像処理装置の動作例を示すフローチャート。The flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 1. 実施の形態1に係る抽出分離処理の詳細を示すフローチャート。The flowchart which shows the detail of the extraction separation process which concerns on Embodiment 1. 実施の形態1に係る重複エッジ画像生成処理の詳細を示すフローチャート。The flowchart which shows the detail of the overlap edge image generation processing which concerns on Embodiment 1. 実施の形態1に係る領域抽出処理の詳細を示すフローチャート。The flowchart which shows the detail of the area extraction processing which concerns on Embodiment 1. 実施の形態1に係る元画像の例を示す図。The figure which shows the example of the original image which concerns on Embodiment 1. 実施の形態1に係る背景物の例を示す図。The figure which shows the example of the background object which concerns on Embodiment 1. FIG. 実施の形態1に係る前景候補画像の例を示す図。The figure which shows the example of the foreground candidate image which concerns on Embodiment 1. 実施の形態1に係る背景エッジ画像の例を示す図。The figure which shows the example of the background edge image which concerns on Embodiment 1. FIG. 実施の形態1に係る重複エッジ画像の例を示す図。The figure which shows the example of the overlap edge image which concerns on Embodiment 1. FIG. 実施の形態1に係る反射領域画像の例を示す図。The figure which shows the example of the reflection area image which concerns on Embodiment 1. FIG. 実施の形態1に係る前景抽出画像の例を示す図。The figure which shows the example of the foreground extraction image which concerns on Embodiment 1. 実施の形態2に係る画像処理装置の機能構成例を示す図。The figure which shows the functional configuration example of the image processing apparatus which concerns on Embodiment 2. 実施の形態2に係る画像処理装置の動作例を示すフローチャート。The flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 2. 実施の形態2に係る第2の重複エッジ画像生成処理の詳細を示すフローチャート。The flowchart which shows the detail of the 2nd overlap edge image generation processing which concerns on Embodiment 2. 実施の形態2に係る全体エッジ画像の例を示す図。The figure which shows the example of the whole edge image which concerns on Embodiment 2. 実施の形態2に係る第1の重複エッジ画像の例を示す図。The figure which shows the example of the 1st overlap edge image which concerns on Embodiment 2. 実施の形態3に係る画像処理装置の動作例を示すフローチャート。The flowchart which shows the operation example of the image processing apparatus which concerns on Embodiment 3. 実施の形態3に係る第2の重複エッジ画像生成処理の詳細を示すフローチャート。The flowchart which shows the detail of the 2nd overlap edge image generation processing which concerns on Embodiment 3.

以下、本発明の実施の形態について、図を用いて説明する。以下の実施の形態の説明及び図面において、同一の符号を付したものは、同一の部分又は相当する部分を示す。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description and drawings of the embodiments, those having the same reference numerals indicate the same parts or corresponding parts.

実施の形態1.
本実施の形態及び以降の実施の形態では、屋外などの局所的な日照により構造物のエッジ部分で反射が発生している環境下においても前景を精度よく抽出するために、抽出された前景のなかで構造物のエッジ部分の反射部分と正しい前景部分を区別する画像処理装置を説明する。
本実施の形態及び以降の実施の形態に係る画像処理装置は、構造物のエッジ部分の反射が前景として誤抽出されている場合に、その領域が構造物の輪郭に沿った形状を有している性質に着目し、背景画像から抽出したエッジ情報を利用して、抽出された前景の各領域のうち、構造物のエッジに沿っている部分を判別することにより、抽出された前景領域のうち構造物のエッジ部分の反射に由来する成分を判定する。
Embodiment 1.
In this embodiment and subsequent embodiments, the foreground is extracted in order to accurately extract the foreground even in an environment where reflection is generated at the edge of the structure due to local sunshine such as outdoors. Among them, an image processing device that distinguishes between a reflective portion at an edge portion of a structure and a correct foreground portion will be described.
In the image processing apparatus according to the present embodiment and subsequent embodiments, when the reflection of the edge portion of the structure is erroneously extracted as the foreground, the region has a shape along the contour of the structure. Of the foreground areas extracted by focusing on the existing properties and using the edge information extracted from the background image to determine the part of each area of the extracted foreground that is along the edge of the structure. Determine the component derived from the reflection of the edge portion of the structure.

***構成の説明***
図1は、実施の形態1に係る画像処理装置20の機能構成例を示す。画像処理装置20は、映像を撮影・配信するカメラ10と接続されている。
なお、画像処理装置20が行う動作は、画像処理方法及び画像処理プログラムに相当する。
*** Explanation of configuration ***
FIG. 1 shows an example of a functional configuration of the image processing apparatus 20 according to the first embodiment. The image processing device 20 is connected to a camera 10 that captures and distributes an image.
The operation performed by the image processing device 20 corresponds to an image processing method and an image processing program.

映像受信復号部201は、カメラ10から配信される圧縮映像ストリームを復号して映像フレームに変換する。映像フレームは、元画像に相当する。
映像フレームでは、前景となる前景物が背景となる背景物の一部に重なって示されているものとする。
The video reception / decoding unit 201 decodes the compressed video stream delivered from the camera 10 and converts it into a video frame. The video frame corresponds to the original image.
In the video frame, it is assumed that the foreground object, which is the foreground, is shown overlapping with a part of the background object, which is the background.

前景候補画像生成部202は、映像フレームから、前景候補画像を生成する。
前景候補画像は、前景候補が示される画像である。前景候補は、前景物の領域の候補である。前景候補には、前景物の領域とともに背景物内の反射領域が含まれる可能性がある。反射領域は、背景物に光が反射している状態が示される領域である。
The foreground candidate image generation unit 202 generates a foreground candidate image from the video frame.
The foreground candidate image is an image showing the foreground candidate. Foreground candidates are candidates for the foreground area. Foreground candidates may include reflection areas within the background as well as areas of the foreground. The reflection area is an area showing a state in which light is reflected on the background object.

領域分離部203は、前景候補画像生成部202から前景候補画像を取得し、記憶部204から背景エッジ画像を取得する。そして、領域分離部203は、前景候補画像と背景エッジ画像とを用いて、前景候補画像に含まれる反射領域と前景物の領域とを分離する。
より具体的には、領域分離部203は、前景候補画像と背景エッジ画像との輝度勾配比較を行って、背景エッジ画像の背景物のエッジのうち前景候補と重複しているエッジ部分が示される重複エッジ画像を生成する。そして、領域分離部203は、重複エッジ画像と前景候補画像との論理積演算を行って、前景候補画像から反射領域を抽出する。また、領域分離部203は、前景候補画像から重複エッジ画像を減算して、前景物の領域を抽出する。
更に、領域分離部203は、反射領域が示される反射領域画像と、前景物の領域が示される前景抽出画像を出力部205に出力する。
The area separation unit 203 acquires a foreground candidate image from the foreground candidate image generation unit 202 and acquires a background edge image from the storage unit 204. Then, the region separation unit 203 separates the reflection region and the foreground object region included in the foreground candidate image by using the foreground candidate image and the background edge image.
More specifically, the region separation unit 203 performs a luminance gradient comparison between the foreground candidate image and the background edge image, and shows an edge portion of the background object of the background edge image that overlaps with the foreground candidate. Generate duplicate edge images. Then, the area separation unit 203 performs a logical product operation of the overlapping edge image and the foreground candidate image, and extracts the reflection area from the foreground candidate image. Further, the area separation unit 203 subtracts the overlapping edge image from the foreground candidate image to extract the area of the foreground object.
Further, the region separation unit 203 outputs a reflection region image in which the reflection region is shown and a foreground extraction image in which the foreground object region is shown to the output unit 205.

記憶部204は、解析パラメータと背景エッジ画像を記憶する。 The storage unit 204 stores analysis parameters and a background edge image.

出力部205は、反射領域画像と前景抽出画像を外部に出力する。例えば、出力部205は、反射領域画像と前景抽出画像を、画像処理装置20に接続されている表示装置に出力する。 The output unit 205 outputs the reflection region image and the foreground extraction image to the outside. For example, the output unit 205 outputs the reflection region image and the foreground extraction image to a display device connected to the image processing device 20.

図2は、本実施の形態に係る画像処理装置20のハードウェア構成例を示す。 FIG. 2 shows a hardware configuration example of the image processing apparatus 20 according to the present embodiment.

本実施の形態に係る画像処理装置20は、コンピュータである。
画像処理装置20は、ハードウェアとして、プロセッサ6101、メモリ6102、ネットワークインタフェース6103及び記憶装置6104を備える。
記憶装置6104には、映像受信復号部201、前景候補画像生成部202、領域分離部203及び出力部205の機能を実現するプログラムが記憶されている。
これらプログラムは、記憶装置6104からメモリ6102にロードされる。そして、プロセッサ6101がこれらプログラムを実行して、映像受信復号部201、前景候補画像生成部202、領域分離部203及び出力部205の動作を行う。
図2では、プロセッサ6101が映像受信復号部201、前景候補画像生成部202、領域分離部203及び出力部205の機能を実現するプログラムを実行している状態を模式的に表している。
ネットワークインタフェース6103は、ネットワークから映像ストリームを受信する。
The image processing device 20 according to the present embodiment is a computer.
The image processing device 20 includes a processor 6101, a memory 6102, a network interface 6103, and a storage device 6104 as hardware.
The storage device 6104 stores a program that realizes the functions of the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, and the output unit 205.
These programs are loaded from the storage device 6104 into the memory 6102. Then, the processor 6101 executes these programs to operate the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, and the output unit 205.
FIG. 2 schematically shows a state in which the processor 6101 is executing a program that realizes the functions of the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, and the output unit 205.
Network interface 6103 receives a video stream from the network.

***動作の説明***
次に、図3のフローチャートを参照して、本実施の形態に係る画像処理装置20の動作例を説明する。
*** Explanation of operation ***
Next, an operation example of the image processing apparatus 20 according to the present embodiment will be described with reference to the flowchart of FIG.

先ず、解析パラメータ読み込み処理(ステップST01)において、前景候補画像生成部202が記憶部204から解析パラメータを取得する。
解析パラメータは、前景候補画像生成部202が映像フレームから前景候補画像を生成するために用いられるパラメータである。解析パラメータには、前景候補の抽出に用いられる閾値等のパラメータが含まれる。
First, in the analysis parameter reading process (step ST01), the foreground candidate image generation unit 202 acquires the analysis parameter from the storage unit 204.
The analysis parameter is a parameter used by the foreground candidate image generation unit 202 to generate the foreground candidate image from the video frame. The analysis parameters include parameters such as a threshold value used for extracting the foreground candidate.

映像ストリーム受信処理(ステップST02)では、映像受信復号部201がネットワークインタフェース6103を介してカメラ10からの圧縮映像ストリームを受信する。そして、映像受信復号部201は、圧縮映像ストリームから映像フレームを復号する。 In the video stream reception process (step ST02), the video reception decoding unit 201 receives the compressed video stream from the camera 10 via the network interface 6103. Then, the video reception / decoding unit 201 decodes the video frame from the compressed video stream.

抽出分離処理(ステップST03)では、前景候補画像生成部202が映像フレームから前景候補画像を生成し、また、領域分離部203が反射領域と前景物の領域とを分離し、反射領域画像及び前景抽出画像を生成する。
抽出分離処理(ステップST03)の詳細は後述する。
In the extraction separation process (step ST03), the foreground candidate image generation unit 202 generates a foreground candidate image from the video frame, and the area separation unit 203 separates the reflection region and the foreground object region, and the reflection region image and the foreground. Generate an extracted image.
The details of the extraction / separation process (step ST03) will be described later.

出力処理(ステップST04)では、出力部205が、反射領域画像及び前景抽出画像を出力する。 In the output process (step ST04), the output unit 205 outputs the reflection region image and the foreground extraction image.

なお、カメラ10から圧縮映像ストリームが送信されている間は、ステップST02~ST04が繰り返される。 While the compressed video stream is being transmitted from the camera 10, steps ST02 to ST04 are repeated.

次に、抽出分離処理(ステップST03)の詳細を、図4を参照して説明する。 Next, the details of the extraction / separation process (step ST03) will be described with reference to FIG.

前景候補画像生成処理(ステップST11)では、前景候補画像生成部202が、解析パラメータを用いて、映像フレームから前景候補画像を生成する。
前景候補画像生成部202は、映像フレームの背景物の領域(以下、背景領域という)と属性が異なる領域を前景候補として抽出する。
例えば、前景候補画像生成部202は、背景領域の輝度と映像フレーム内の他の領域の輝度との差分を取る。そして、前景候補画像生成部202は、差分が閾値以上となる画素を前景候補とする。また、前景候補画像生成部202は、背景領域内の注目画素近傍の輝度分布パターンと異なる輝度分布パターンの映像フレーム内の他の領域を前景候補としてもよい。また、前景候補画像生成部202は、映像フレームごとに前景候補を生成するとともに、映像フレームごとに生成した前景候補を数フレーム分蓄積し、数フレーム分の前景候補の中から前景候補を選択してもよい。
In the foreground candidate image generation process (step ST11), the foreground candidate image generation unit 202 generates a foreground candidate image from the video frame using the analysis parameters.
The foreground candidate image generation unit 202 extracts as a foreground candidate an area having different attributes from the area of the background object (hereinafter referred to as the background area) of the video frame.
For example, the foreground candidate image generation unit 202 takes the difference between the brightness of the background region and the brightness of other regions in the video frame. Then, the foreground candidate image generation unit 202 sets the pixel whose difference is equal to or greater than the threshold value as the foreground candidate. Further, the foreground candidate image generation unit 202 may use another region in the video frame having a luminance distribution pattern different from the luminance distribution pattern in the vicinity of the pixel of interest in the background region as the foreground candidate. Further, the foreground candidate image generation unit 202 generates a foreground candidate for each video frame, accumulates the foreground candidates generated for each video frame for several frames, and selects a foreground candidate from the foreground candidates for several frames. You may.

本実施の形態では、図7に示す元画像が映像フレームとして得られたとする。
図7の元画像では、前景物51と背景物52が示されている。前景物51は背景物52の一部に重なっている。また、背景物52には反射領域520が存在する。反射領域520は、背景物52に日光等が反射している状態を表している。
なお、背景物52は、前景物51との重なりを除けば、図8に示す形状をしている。
In the present embodiment, it is assumed that the original image shown in FIG. 7 is obtained as a video frame.
In the original image of FIG. 7, the foreground object 51 and the background object 52 are shown. The foreground object 51 overlaps a part of the background object 52. Further, the background object 52 has a reflection region 520. The reflection region 520 represents a state in which sunlight or the like is reflected on the background object 52.
The background object 52 has the shape shown in FIG. 8 except for the overlap with the foreground object 51.

前景候補画像生成部202は、図7の元画像から図9に示す前景候補画像を生成する。図9に示す前景候補画像では、真の前景物の領域501だけでなく、図7の反射領域520も反射領域502として前景候補に含まれている。
領域分離部203は、前景候補画像(図9)に含まれている真の前景物の領域501と反射領域502とを分離する。
The foreground candidate image generation unit 202 generates the foreground candidate image shown in FIG. 9 from the original image of FIG. 7. In the foreground candidate image shown in FIG. 9, not only the region 501 of the true foreground object but also the reflection region 520 of FIG. 7 is included in the foreground candidate as the reflection region 502.
The region separation unit 203 separates the region 501 of the true foreground object and the reflection region 502 included in the foreground candidate image (FIG. 9).

図4に戻り、重複エッジ画像生成処理(ステップST12)では、領域分離部203が、前景候補画像生成部202から前景候補画像を取得し、記憶部204から背景エッジ画像を取得し、前景候補画像と背景エッジ画像との輝度勾配比較を行い、重複エッジ画像を生成する。重複エッジ画像は、背景エッジ画像の背景物のエッジのうち前景候補と重複しているエッジ部分が示される画像である。
領域分離部203は、例えば、前景候補画像と背景エッジ画像との間でエッジの形状や方向が一致している場合に、重複していると判定する。
Returning to FIG. 4, in the overlapping edge image generation process (step ST12), the area separation unit 203 acquires the foreground candidate image from the foreground candidate image generation unit 202, acquires the background edge image from the storage unit 204, and obtains the foreground candidate image. And the background edge image are compared with each other to generate an overlapping edge image. The overlapping edge image is an image showing an edge portion of the background object of the background edge image that overlaps with the foreground candidate.
For example, when the foreground candidate image and the background edge image have the same edge shape and direction, the region separation unit 203 determines that they overlap.

図5を参照して重複エッジ画像生成処理(ステップST12)の詳細を説明する。
また、以下では、領域分離部203は、図8の背景物に対して、図10に例示する背景エッジ画像を記憶部204から取得するものとする。
なお、事前に背景物の画像(例えば、図8)からエッジ情報を抽出しておき、ステップST12の時点では、記憶部204で背景エッジ画像(図10)が記憶されているものとする。エッジ情報の抽出には、具体的には、CannyフィルタやLaplacianフィルタ、Sobelフィルタなどの一般的なエッジ検出アルゴリズムが用いられる。
The details of the overlapping edge image generation process (step ST12) will be described with reference to FIG.
Further, in the following, it is assumed that the area separation unit 203 acquires the background edge image illustrated in FIG. 10 from the storage unit 204 with respect to the background object of FIG.
It is assumed that the edge information is extracted from the background image (for example, FIG. 8) in advance, and the background edge image (FIG. 10) is stored in the storage unit 204 at the time of step ST12. Specifically, a general edge detection algorithm such as a Canny filter, a Laplacian filter, or a Sobel filter is used for extracting the edge information.

領域分離部203は、前景候補画像(図9)と背景エッジ画像(図10)に対して、特定方向にsobelフィルタを適用して輝度勾配を計算し(ステップST22)、輝度勾配が両者ともに0でない領域を輝度勾配一致領域とする(ステップST23)。また、領域分離部203は、予め設定した全ての方向で輝度勾配比較を実施するまで、sobelフィルタを適用する方向を0°(水平)、90°(垂直)、45°等の様々な方向に変化させながらステップST22及びステップST23を実施する(ステップST21)。
全ての方向での輝度勾配比較が完了した後(ステップST21でNO)、領域分離部203は、それぞれの方向で抽出した輝度勾配一致領域を積算し、類似度分布画像を生成する(ステップST24)。この類似度分布画像の各画素値をそれぞれの類似度とする。
そして、領域分離部203は、類似度分布画像を任意の閾値で二値化処理する。
領域分離部203は、類似度分布画像の画素値が非0となった領域を重複領域とし、類似度分布画像を膨張させて重複エッジ画像(図11)とする。
前景候補画像(図9)及び背景エッジ画像(図10)に対して図5の処理を行った結果、図11に示す重複エッジ画像が得られる。
The region separation unit 203 calculates the luminance gradient by applying a sobel filter in a specific direction to the foreground candidate image (FIG. 9) and the background edge image (FIG. 10) (step ST22), and the luminance gradient is 0 for both. The region other than the above is set as the luminance gradient matching region (step ST23). Further, the region separation unit 203 sets the direction in which the sobel filter is applied in various directions such as 0 ° (horizontal), 90 ° (vertical), and 45 ° until the luminance gradient comparison is performed in all the preset directions. Step ST22 and step ST23 are carried out while changing (step ST21).
After the luminance gradient comparison in all directions is completed (NO in step ST21), the region separation unit 203 integrates the luminance gradient matching regions extracted in each direction to generate a similarity distribution image (step ST24). .. Each pixel value of this similarity distribution image is defined as the respective similarity.
Then, the region separation unit 203 binarizes the similarity distribution image at an arbitrary threshold value.
The region separation unit 203 uses a region where the pixel value of the similarity distribution image is non-zero as an overlapping region, and expands the similarity distribution image to obtain an overlapping edge image (FIG. 11).
As a result of performing the processing of FIG. 5 on the foreground candidate image (FIG. 9) and the background edge image (FIG. 10), the overlapping edge image shown in FIG. 11 is obtained.

図4に戻り、領域抽出処理(ステップST13)では、領域分離部203が、前景候補画像(図9)から、反射領域502と真の前景物の領域501とを分離する。 Returning to FIG. 4, in the region extraction process (step ST13), the region separation unit 203 separates the reflection region 502 and the true foreground region 501 from the foreground candidate image (FIG. 9).

図6を参照して、領域抽出処理(ステップST13)の詳細を説明する。 The details of the region extraction process (step ST13) will be described with reference to FIG.

領域分離部203は、前景候補画像(図9)と重複エッジ画像(図11)との論理積演算を行って反射領域画像を生成する(ステップST31)。
例えば、領域分離部203は、図9の前景候補画像と図11の重複エッジ画像との論理積演算を行って、図12の反射領域画像を生成する。図12の反射領域画像では、図9の前景候補画像の反射領域502のみが示されている。
The region separation unit 203 generates a reflection region image by performing a logical product operation between the foreground candidate image (FIG. 9) and the overlapping edge image (FIG. 11) (step ST31).
For example, the region separation unit 203 performs a logical product operation of the foreground candidate image of FIG. 9 and the overlapping edge image of FIG. 11 to generate the reflection region image of FIG. In the reflection area image of FIG. 12, only the reflection area 502 of the foreground candidate image of FIG. 9 is shown.

次に、領域分離部203は、前景候補画像(図9)から重複エッジ画像(図11)を減算して前景抽出画像を生成する(ステップST32)。
例えば、領域分離部203は、図9の前景候補画像から図11の重複エッジ画像を減算して、図13の前景抽出画像を生成する。図13の前景抽出画像では、図9の前景候補画像の真の前景物の領域501のみが示されている。
Next, the region separation unit 203 subtracts the overlapping edge image (FIG. 11) from the foreground candidate image (FIG. 9) to generate a foreground extraction image (step ST32).
For example, the region separation unit 203 subtracts the overlapping edge image of FIG. 11 from the foreground candidate image of FIG. 9 to generate the foreground extraction image of FIG. In the foreground extraction image of FIG. 13, only the region 501 of the true foreground object of the foreground candidate image of FIG. 9 is shown.

領域分離部203は、前景抽出画像(図13)の画素値が非0となった領域を前景領域として抽出することができる。また、領域分離部203は、反射領域画像(図12)の画素値が非0となった領域を反射領域として分離することができる。 The region separation unit 203 can extract a region in which the pixel value of the foreground extraction image (FIG. 13) is non-zero as a foreground region. Further, the region separation unit 203 can separate the region where the pixel value of the reflection region image (FIG. 12) is non-zero as the reflection region.

図3に戻り、最後に、出力処理(ST04)において、出力部205が、反射領域画像(図12)と前景抽出画像(図13)とを外部に出力する。 Returning to FIG. 3, finally, in the output process (ST04), the output unit 205 outputs the reflection region image (FIG. 12) and the foreground extraction image (FIG. 13) to the outside.

***実施の形態の効果の説明***
以上、本実施の形態によれば、反射領域と前景物の領域とを正確に分離することができる。
つまり、本実施の形態によれば、背景画像と撮影画像の異なる領域を抽出する前景抽出技術において、金属や滑らかな表面などが光を反射することにより生じる背景の変化が存在する環境下においても背景に存在しない物体である前景の領域と、光の反射などの背景が変化した領域を精度よく分離・抽出することができる。
*** Explanation of the effect of the embodiment ***
As described above, according to the present embodiment, the reflection region and the foreground object region can be accurately separated.
That is, according to the present embodiment, in the foreground extraction technique for extracting different regions of the background image and the captured image, even in an environment where there is a change in the background caused by reflection of light by a metal or a smooth surface. It is possible to accurately separate and extract the foreground region, which is an object that does not exist in the background, and the region where the background has changed, such as light reflection.

また、本実施の形態に係る画像処理装置20は、二枚の画像を比較し、差異を検出するシステムに使用できる。特に日照条件が変化する環境において高い効果を発揮する。具体的な適用方法は、例えば屋外環境における忘れ物や放置物などといった置き去り物の検知などが挙げられる。 Further, the image processing device 20 according to the present embodiment can be used in a system for comparing two images and detecting a difference. It is especially effective in an environment where the sunshine conditions change. Specific application methods include, for example, detection of left-behind objects such as leftover objects and left-behind objects in an outdoor environment.

実施の形態2.
本実施の形態では、主に実施の形態1との差異を説明する。
以下で説明していない事項は、実施の形態1と同様である。
なお、実施の形態1と同様の構成には同一の符号を付し、その説明を省略する場合がある。
Embodiment 2.
In this embodiment, the difference from the first embodiment will be mainly described.
The matters not described below are the same as those in the first embodiment.
The same reference numerals may be given to the same configurations as those in the first embodiment, and the description thereof may be omitted.

実施の形態1では、抽出分離処理(ST03)について、背景物のエッジ付近に前景物が出現し、前景物によって周辺のエッジが変化しても前景候補の見かけの形状が変化しない場合には実施の形態1では前景物の領域を反射領域として誤判定するなど、反射領域の判定精度が低下する場合がある。
本実施の形態では、背景物のエッジ周辺に前景物が現れた場合でも真の前景物の領域と反射領域とを精度よく分離する例を説明する。
In the first embodiment, the extraction / separation process (ST03) is performed when a foreground object appears near the edge of the background object and the apparent shape of the foreground candidate does not change even if the peripheral edge changes due to the foreground object. In the first form, the determination accuracy of the reflection region may be lowered, for example, the region of the foreground object may be erroneously determined as the reflection region.
In the present embodiment, an example of accurately separating the true foreground object region and the reflection region even when the foreground object appears around the edge of the background object will be described.

***構成の説明***
図14は、本実施の形態に係る画像処理装置20の機能構成例を示す。
図14では、図1に示す構成に全体エッジ画像生成部206が追加されている。
*** Explanation of configuration ***
FIG. 14 shows an example of a functional configuration of the image processing apparatus 20 according to the present embodiment.
In FIG. 14, the whole edge image generation unit 206 is added to the configuration shown in FIG.

全体エッジ画像生成部206は、元画像である映像フレームに対してエッジ検出処理を行い、前景物のエッジと背景物のエッジとが示される全体エッジ画像を生成する。
例えば、全体エッジ画像生成部206は、図7の元画像に対してエッジ検出処理を行い、図17に例示する全体エッジ画像を生成する。
図17の全体エッジ画像では、前景物のエッジと背景物のエッジとが示される。
The whole edge image generation unit 206 performs edge detection processing on the video frame which is the original image, and generates a whole edge image showing the edge of the foreground object and the edge of the background object.
For example, the whole edge image generation unit 206 performs edge detection processing on the original image of FIG. 7 and generates the whole edge image illustrated in FIG. 17.
In the whole edge image of FIG. 17, the edge of the foreground object and the edge of the background object are shown.

本実施の形態では、領域分離部203は、前景候補画像、背景エッジ画像に加えて、全体エッジ画像も用いて、反射領域と前景物の領域とを分離する。
より具体的には、領域分離部203は、全体エッジ画像生成部206から全体エッジ画像(図17)を取得する。また、領域分離部203は、前景候補画像(図9)と全体エッジ画像(図17)との論理積演算を行って、全体エッジ画像の前景物のエッジと背景物のエッジのうち前景候補と重複しているエッジ部分が示される第1の重複エッジ画像を生成する。図18は、第1の重複エッジ画像の例を示す。
また、領域分離部203は、背景エッジ画像(図10)と第1の重複エッジ画像(図18)との輝度勾配比較を行って、背景エッジ画像の背景物のエッジのうち第1の重複エッジ画像のエッジと重複しているエッジ部分が示される第2の重複エッジ画像を生成する。第2の重複エッジ画像は、実施の形態1で示した重複エッジ画像と同じであり、図11に示す画像である。本実施の形態では、第1の重複エッジ画像と区別するため、図11に示す画像を第2の重複エッジ画像という。
更に、領域分離部203は、第2の重複エッジ画像(図11)と前景候補画像(図9)との論理積演算を行って、前景候補画像から反射領域を抽出する。また、領域分離部203は、前景候補画像(図9)から第2の重複エッジ画像(図11)を減算して、前景物の領域を抽出する。
In the present embodiment, the region separation unit 203 separates the reflection region and the foreground object region by using the entire edge image in addition to the foreground candidate image and the background edge image.
More specifically, the region separation unit 203 acquires the entire edge image (FIG. 17) from the entire edge image generation unit 206. Further, the area separation unit 203 performs a logical product operation of the foreground candidate image (FIG. 9) and the whole edge image (FIG. 17), and sets the foreground candidate among the foreground object edge and the background object edge of the whole edge image. Generates a first overlapping edge image showing overlapping edge portions. FIG. 18 shows an example of a first overlapping edge image.
Further, the region separation unit 203 performs a luminance gradient comparison between the background edge image (FIG. 10) and the first overlapping edge image (FIG. 18), and the first overlapping edge among the edges of the background object of the background edge image. Generates a second overlapping edge image that shows the edges that overlap the edges of the image. The second overlapping edge image is the same as the overlapping edge image shown in the first embodiment, and is the image shown in FIG. In the present embodiment, the image shown in FIG. 11 is referred to as a second overlapping edge image in order to distinguish it from the first overlapping edge image.
Further, the region separation unit 203 performs a logical product operation of the second overlapping edge image (FIG. 11) and the foreground candidate image (FIG. 9) to extract a reflection region from the foreground candidate image. Further, the region separation unit 203 subtracts the second overlapping edge image (FIG. 11) from the foreground candidate image (FIG. 9) to extract the region of the foreground object.

***動作の説明***
本実施の形態に係る画像処理装置20の動作例を図15及び図16を用いて説明する。
図15は、実施の形態1の図4に相当する。図16は、実施の形態1の図5に相当する。
*** Explanation of operation ***
An operation example of the image processing apparatus 20 according to the present embodiment will be described with reference to FIGS. 15 and 16.
FIG. 15 corresponds to FIG. 4 of the first embodiment. FIG. 16 corresponds to FIG. 5 of the first embodiment.

図15において、前景候補画像生成処理(ステップS11)は実施の形態1で説明したものと同じであるため、説明を省略する。 In FIG. 15, the foreground candidate image generation process (step S11) is the same as that described in the first embodiment, and therefore the description thereof will be omitted.

全体エッジ画像生成処理(ステップST14)では、全体エッジ画像生成部206が映像フレームから全体エッジ画像を生成する。映像フレームから前景物のエッジ及び背景物のエッジを抽出する方法は、実施の形態1で説明した背景物のエッジの抽出方法と同じでもよいし、他の方法でもよい。 In the whole edge image generation process (step ST14), the whole edge image generation unit 206 generates the whole edge image from the video frame. The method of extracting the edge of the foreground object and the edge of the background object from the video frame may be the same as the method of extracting the edge of the background object described in the first embodiment, or may be another method.

第1の重複エッジ画像生成処理(ステップST15)では、領域分離部203は、前景候補画像(図9)と全体エッジ画像(図17)との論理積演算を行って、第1の重複エッジ画像(図18)を生成する。 In the first overlapping edge image generation process (step ST15), the region separation unit 203 performs a logical product operation between the foreground candidate image (FIG. 9) and the entire edge image (FIG. 17), and the first overlapping edge image. (FIG. 18) is generated.

第2の重複エッジ生成処理(ステップST16)では、領域分離部203は、背景エッジ画像(図10)と第1の重複エッジ画像(図18)との輝度勾配比較を行って、第2の重複エッジ画像(図11)を生成する。 In the second overlapping edge generation process (step ST16), the region separation unit 203 performs a luminance gradient comparison between the background edge image (FIG. 10) and the first overlapping edge image (FIG. 18), and the second overlap occurs. An edge image (FIG. 11) is generated.

領域抽出処理(ステップST13)では、実施の形態1と同様に、領域分離部203が、前景候補画像から、反射領域と前景物の領域とを分離する。 In the region extraction process (step ST13), the region separation unit 203 separates the reflection region and the foreground object region from the foreground candidate image, as in the first embodiment.

次に、図16を参照して第2の重複エッジ画像生成処理(ステップST16)の詳細を説明する。 Next, the details of the second overlapping edge image generation process (step ST16) will be described with reference to FIG.

本実施の形態では、図5のステップST22がステップST25に変更されている。
つまり、図5のステップST22では、領域分離部203は、背景エッジ画像(図10)と前景候補画像(図9)との輝度勾配を計算していたが、図16のステップST25では、領域分離部203は、背景エッジ画像(図10)と第1の重複エッジ画像(図18)(前景候補画像(図9)と全体エッジ画像(図17)との論理積演算により得られる画像)との輝度勾配を計算する。
ステップST21、ステップST23及びステップST24は、図5に示したものと同じであるため、説明を省略する。
In this embodiment, step ST22 in FIG. 5 is changed to step ST25.
That is, in step ST22 of FIG. 5, the area separation unit 203 calculated the brightness gradient between the background edge image (FIG. 10) and the foreground candidate image (FIG. 9), but in step ST25 of FIG. 16, the area separation is performed. Part 203 includes a background edge image (FIG. 10) and a first overlapping edge image (FIG. 18) (an image obtained by a logical product calculation of a foreground candidate image (FIG. 9) and an overall edge image (FIG. 17)). Calculate the brightness gradient.
Since step ST21, step ST23 and step ST24 are the same as those shown in FIG. 5, the description thereof will be omitted.

***実施の形態の効果の説明***
本実施の形態によれば、前景候補の見かけの形状が変化しない場合でも、前景候補内のエッジの変化が重複エッジ画像上の変化として現れるため、実施の形態1と比較して、構造物のエッジ周辺に存在する前景の領域と反射領域とを精度よく分離することができる。
*** Explanation of the effect of the embodiment ***
According to the present embodiment, even if the apparent shape of the foreground candidate does not change, the change in the edge in the foreground candidate appears as a change on the overlapping edge image. It is possible to accurately separate the foreground region and the reflection region existing around the edge.

実施の形態3.
本実施の形態では、主に実施の形態1との差異を説明する。
以下で説明していない事項は、実施の形態1と同様である。
なお、実施の形態1と同様の構成には同一の符号を付し、その説明を省略する場合がある。
Embodiment 3.
In this embodiment, the difference from the first embodiment will be mainly described.
The matters not described below are the same as those in the first embodiment.
The same reference numerals may be given to the same configurations as those in the first embodiment, and the description thereof may be omitted.

実施の形態1では、重複エッジ画像生成処理(ステップST12)を一度に映像フレーム全体に対して実施し、輝度勾配が一致したエッジの周辺を反射領域として判定している。この時、画素ごとに輝度勾配比較を行って重複エッジ画像を生成している。撮影環境の影響によって映像フレームの一部が欠損している場合は、前景候補画像(図9)も一部が欠損した状態になる。前景候補画像(図9)の一部が欠損している場合は、反射領域と判定するべき領域を部分的に前景の領域と誤って判定する可能性がある。
本実施の形態では、このような誤判定を防止するために、領域分離部203は、前景候補画像(図9)の前景領域の候補を複数のブロックに分割し、ブロックごとに輝度勾配比較を行う。
In the first embodiment, the overlapping edge image generation process (step ST12) is performed on the entire video frame at once, and the periphery of the edge having the same luminance gradient is determined as the reflection region. At this time, the luminance gradient is compared for each pixel to generate an overlapping edge image. If a part of the video frame is missing due to the influence of the shooting environment, the foreground candidate image (FIG. 9) is also partially missing. When a part of the foreground candidate image (FIG. 9) is missing, the region to be determined as the reflection region may be partially erroneously determined as the foreground region.
In the present embodiment, in order to prevent such an erroneous determination, the region separation unit 203 divides the foreground region candidate of the foreground candidate image (FIG. 9) into a plurality of blocks, and compares the luminance gradient for each block. conduct.

***動作の説明***
本実施の形態に係る画像処理装置20の動作例を図19及び図20を用いて説明する。
図19は、実施の形態1の図4に相当する。図20は、実施の形態1の図5に相当する。
*** Explanation of operation ***
An operation example of the image processing apparatus 20 according to the present embodiment will be described with reference to FIGS. 19 and 20.
FIG. 19 corresponds to FIG. 4 of the first embodiment. FIG. 20 corresponds to FIG. 5 of the first embodiment.

前景画像候補抽出処理(ステップST11)は、実施の形態1で説明したものと同じであるため、説明を省略する。 Since the foreground image candidate extraction process (step ST11) is the same as that described in the first embodiment, the description thereof will be omitted.

前景候補分割処理(ステップST17)において、領域分離部203は、前景候補画像の前景候補を複数のブロックに分割する。
図9の前景候補画像では、領域分離部203は、例えば、真の前景物の領域501と反射領域502とに分割する。
In the foreground candidate division process (step ST17), the area separation unit 203 divides the foreground candidate of the foreground candidate image into a plurality of blocks.
In the foreground candidate image of FIG. 9, the region separation unit 203 is divided into, for example, a region 501 of a true foreground object and a reflection region 502.

そして、重複エッジ生成処理(ステップST12a)において、領域分離部203は、ブロックごとに、背景エッジ画像(図10)との輝度勾配比較を行う。 Then, in the overlapping edge generation process (step ST12a), the region separation unit 203 performs a luminance gradient comparison with the background edge image (FIG. 10) for each block.

図20を参照して重複エッジ画像生成処理(ステップST12a)の詳細を説明する。 The details of the overlapping edge image generation process (step ST12a) will be described with reference to FIG. 20.

図20において、ステップST21~ST24は、実施の形態1に示したものと同様であるが、領域分離部203は、前景候補画像のブロック単位でステップST21~ST24を行う。
また、本実施の形態では、領域分離部203は、前景候補画像のブロック内の背景エッジ画像の画素数に対する輝度勾配一致エッジの画素数の比を利用する。領域分離部203は、背景エッジ画像の画素数に対する輝度勾配一致エッジの画素数の比が閾値以上となるときに、対象のブロックを前景候補画像と背景エッジ画像との重複領域と判定する(ステップST26)。
In FIG. 20, steps ST21 to ST24 are the same as those shown in the first embodiment, but the region separation unit 203 performs steps ST21 to ST24 in block units of the foreground candidate image.
Further, in the present embodiment, the region separation unit 203 utilizes the ratio of the number of pixels of the luminance gradient matching edge to the number of pixels of the background edge image in the block of the foreground candidate image. The region separation unit 203 determines that the target block is an overlapping region between the foreground candidate image and the background edge image when the ratio of the number of pixels of the luminance gradient matching edge to the number of pixels of the background edge image is equal to or greater than the threshold value (step). ST26).

***実施の形態の効果の説明***
本実施の形態によれば、映像フレームのエッジが部分的に欠損している場合でも、前景候補内の同じブロックに存在する他のエッジを用いて反射領域か前景の領域であるかを判定できるため、エッジの検出精度が低下した場合でも反射領域の判定精度が低下することを防ぐことができる。
*** Explanation of the effect of the embodiment ***
According to the present embodiment, even if the edge of the video frame is partially missing, it is possible to determine whether it is a reflection region or a foreground region by using other edges existing in the same block in the foreground candidate. Therefore, even if the edge detection accuracy is lowered, it is possible to prevent the determination accuracy of the reflection region from being lowered.

なお、本実施の形態では、分割により得られたブロックに実施の形態1の処理手順を適用する例を説明したが、分割により得られたブロックに実施の形態2の処理手順を適用してもよい。 In the present embodiment, an example in which the processing procedure of the first embodiment is applied to the blocks obtained by the division has been described, but the processing procedure of the second embodiment may be applied to the blocks obtained by the division. good.

以上、本発明の実施の形態について説明したが、これらの実施の形態のうち、2つ以上を組み合わせて実施しても構わない。
あるいは、これらの実施の形態のうち、1つを部分的に実施しても構わない。
あるいは、これらの実施の形態のうち、2つ以上を部分的に組み合わせて実施しても構わない。
なお、本発明は、これらの実施の形態に限定されるものではなく、必要に応じて種々の変更が可能である。
Although the embodiments of the present invention have been described above, two or more of these embodiments may be combined and implemented.
Alternatively, one of these embodiments may be partially implemented.
Alternatively, two or more of these embodiments may be partially combined and carried out.
The present invention is not limited to these embodiments, and various modifications can be made as needed.

***ハードウェア構成の説明***
最後に、画像処理装置20のハードウェア構成の補足説明を行う。
図2に示すプロセッサ6101は、プロセッシングを行うIC(Integrated Circuit)である。
プロセッサ6101は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等である。
図2に示すメモリ6102は、RAM(Random Access Memory)である。
図2に示す記憶装置6104は、ROM(Read Only Memory)、フラッシュメモリ、HDD(Hard Disk Drive)等である。
図2に示すネットワークインタフェース6103は、データの通信処理を実行する電子回路である。
ネットワークインタフェース6103は、例えば、通信チップ又はNIC(Network Interface Card)である。
*** Explanation of hardware configuration ***
Finally, a supplementary explanation of the hardware configuration of the image processing apparatus 20 will be given.
The processor 6101 shown in FIG. 2 is an IC (Integrated Circuit) that performs processing.
The processor 6101 is a CPU (Central Processing Unit), a DSP (Digital Signal Processor), a GPU (Graphics Processing Unit), or the like.
The memory 6102 shown in FIG. 2 is a RAM (Random Access Memory).
The storage device 6104 shown in FIG. 2 is a ROM (Read Only Memory), a flash memory, an HDD (Hard Disk Drive), or the like.
The network interface 6103 shown in FIG. 2 is an electronic circuit that executes data communication processing.
The network interface 6103 is, for example, a communication chip or a NIC (Network Interface Card).

また、記憶装置6104には、OS(Operating System)も記憶されている。
そして、OSの少なくとも一部がプロセッサ6101により実行される。
プロセッサ6101はOSの少なくとも一部を実行しながら、映像受信復号部201、前景候補画像生成部202、領域分離部203、出力部205及び全体エッジ画像生成部206の機能を実現するプログラムを実行する。
プロセッサ6101がOSを実行することで、タスク管理、メモリ管理、ファイル管理、通信制御等が行われる。
また、映像受信復号部201、前景候補画像生成部202、領域分離部203、出力部205及び全体エッジ画像生成部206の処理の結果を示す情報、データ、信号値及び変数値の少なくともいずれかが、メモリ6102、記憶装置6104、プロセッサ6101内のレジスタ及びキャッシュメモリの少なくともいずれかに記憶される。
また、映像受信復号部201、前景候補画像生成部202、領域分離部203、出力部205及び全体エッジ画像生成部206の機能を実現するプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVD等の可搬記録媒体に格納されていてもよい。そして、映像受信復号部201、前景候補画像生成部202、領域分離部203、出力部205及び全体エッジ画像生成部206の機能を実現するプログラムが格納された可搬記録媒体を商業的に流通させてもよい。
An OS (Operating System) is also stored in the storage device 6104.
Then, at least a part of the OS is executed by the processor 6101.
The processor 6101 executes a program that realizes the functions of the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, the output unit 205, and the overall edge image generation unit 206 while executing at least a part of the OS. ..
When the processor 6101 executes the OS, task management, memory management, file management, communication control, and the like are performed.
Further, at least one of the information, data, signal value, and variable value indicating the processing result of the video reception decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, the output unit 205, and the overall edge image generation unit 206 , Memory 6102, storage device 6104, register in processor 6101 and cache memory.
The programs that realize the functions of the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, the output unit 205, and the overall edge image generation unit 206 are magnetic disks, flexible disks, optical disks, compact disks, and Blu-rays. (Registered trademark) It may be stored in a portable recording medium such as a disc or a DVD. Then, a portable recording medium containing a program that realizes the functions of the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, the output unit 205, and the overall edge image generation unit 206 is commercially distributed. You may.

また、映像受信復号部201、前景候補画像生成部202、領域分離部203、出力部205及び全体エッジ画像生成部206の「部」を、「回路」又は「工程」又は「手順」又は「処理」に読み替えてもよい。
また、画像処理装置20は、処理回路により実現されてもよい。処理回路は、例えば、ロジックIC(Integrated Circuit)、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)である。
この場合は、映像受信復号部201、前景候補画像生成部202、領域分離部203、出力部205及び全体エッジ画像生成部206は、それぞれ処理回路の一部として実現される。
Further, the "section" of the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, the output unit 205, and the overall edge image generation unit 206 is a "circuit" or "process" or "procedure" or "process". May be read as ".
Further, the image processing device 20 may be realized by a processing circuit. The processing circuit is, for example, a logic IC (Integrated Circuit), a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array).
In this case, the video reception / decoding unit 201, the foreground candidate image generation unit 202, the area separation unit 203, the output unit 205, and the overall edge image generation unit 206 are each realized as a part of the processing circuit.

20 画像処理装置、51 前景物、523 背景物、201 映像受信復号部、202 前景候補画像生成部、203 領域分離部、204 記憶部、205 出力部、206 全体エッジ画像生成部、501 前景物の領域、502 反射領域、520 反射領域、6101 プロセッサ、6102 メモリ、6103 ネットワークインタフェース、6104 記憶装置。 20 image processor, 51 foreground object, 523 background object, 201 video reception / decoding unit, 202 foreground candidate image generation unit, 203 area separation unit, 204 storage unit, 205 output unit, 206 overall edge image generation unit, 501 foreground object Region, 502 Reflection Region, 520 Reflection Region, 6101 Processor, 6102 Memory, 6103 Network Interface, 6104 Storage Device.

Claims (7)

前景となる前景物が背景となる背景物の一部に重なって示される元画像から、前記前景物の領域の候補である前景候補が示される前景候補画像を生成する前景候補画像生成部と、
前記背景物のエッジが示される背景エッジ画像を取得し、前記前景候補画像と前記背景エッジ画像とを用いて、前記前景候補画像に含まれる、前記背景物に光が反射している状態が示される反射領域と、前記前景物の領域とを分離する領域分離部とを有する画像処理装置。
A foreground candidate image generation unit that generates a foreground candidate image showing a foreground candidate that is a candidate for the area of the foreground object from an original image in which the foreground object as the foreground overlaps with a part of the background object as the background.
A background edge image showing the edge of the background object is acquired, and the foreground candidate image and the background edge image are used to show a state in which light is reflected on the background object included in the foreground candidate image. An image processing apparatus having a region separating portion for separating a reflection region and a region of the foreground object.
前記領域分離部は、
前記前景候補画像と前記背景エッジ画像との輝度勾配比較を行って、前記背景エッジ画像の前記背景物のエッジのうち前記前景候補と重複しているエッジ部分が示される重複エッジ画像を生成し、
前記重複エッジ画像と前記前景候補画像との論理積演算を行って、前記前景候補画像から前記反射領域を抽出し、
前記前景候補画像から前記重複エッジ画像を減算して、前記前景物の領域を抽出する請求項1に記載の画像処理装置。
The area separation part
A luminance gradient comparison between the foreground candidate image and the background edge image is performed to generate an overlapping edge image showing an edge portion of the background object of the background edge image that overlaps with the foreground candidate.
A logical product calculation of the overlapping edge image and the foreground candidate image is performed to extract the reflection region from the foreground candidate image.
The image processing apparatus according to claim 1, wherein the overlapping edge image is subtracted from the foreground candidate image to extract a region of the foreground object.
前記領域分離部は、
前記前景物のエッジと前記背景物のエッジとが示される全体エッジ画像を取得し、前記前景候補画像と前記全体エッジ画像との論理積演算を行って、前記全体エッジ画像の前記前景物のエッジと前記背景物のエッジとのうち前記前景候補と重複しているエッジ部分が示される第1の重複エッジ画像を生成し、
前記背景エッジ画像と前記第1の重複エッジ画像との輝度勾配比較を行って、前記背景エッジ画像の前記背景物のエッジのうち第1の重複エッジ画のエッジと重複しているエッジ部分が示される第2の重複エッジ画像を生成し、
前記第2の重複エッジ画像と前記前景候補画像との論理積演算を行って、前記前景候補画像から前記反射領域を抽出し、
前記前景候補画像から前記第2の重複エッジ画像を減算して、前記前景物の領域を抽出する請求項1に記載の画像処理装置。
The area separation part
An overall edge image showing the edge of the foreground object and the edge of the background object is acquired, and the logical product calculation of the foreground candidate image and the overall edge image is performed to obtain the edge of the foreground object of the overall edge image. And the edge of the background object, the first overlapping edge image showing the edge portion overlapping with the foreground candidate is generated.
A luminance gradient comparison between the background edge image and the first overlapping edge image is performed to show an edge portion of the background object of the background edge image that overlaps with the edge of the first overlapping edge image. Generates a second overlapping edge image that is
A logical product calculation of the second overlapping edge image and the foreground candidate image is performed to extract the reflection region from the foreground candidate image.
The image processing apparatus according to claim 1, wherein the second overlapping edge image is subtracted from the foreground candidate image to extract a region of the foreground object.
前記領域分離部は、
前記前景候補画像の前記前景物の領域の候補を複数のブロックに分割し、
ブロックごとに、前記背景エッジ画像との輝度勾配比較を行う請求項2に記載の画像処理装置。
The area separation part
The candidate for the foreground object area of the foreground candidate image is divided into a plurality of blocks.
The image processing apparatus according to claim 2, wherein the luminance gradient is compared with the background edge image for each block.
前記領域分離部は、
前記前景候補画像の前記前景物の領域の候補を複数のブロックに分割し、
ブロックごとに、前記全体エッジ画像との輝度勾配比較を行う請求項3に記載の画像処理装置。
The area separation part
The candidate for the foreground object area of the foreground candidate image is divided into a plurality of blocks.
The image processing apparatus according to claim 3, wherein the luminance gradient is compared with the entire edge image for each block.
コンピュータが、前景となる前景物が背景となる背景物の一部に重なって示される元画像から、前記前景物の領域の候補である前景候補が示される前景候補画像を生成し、
前記コンピュータが、前記背景物のエッジが示される背景エッジ画像を取得し、前記前景候補画像と前記背景エッジ画像とを用いて、前記前景候補画像に含まれる、前記背景物に光が反射している状態が示される反射領域と、前記前景物の領域とを分離する画像処理方法。
A computer generates a foreground candidate image showing a foreground candidate that is a candidate for the area of the foreground object from an original image in which the foreground object as the foreground overlaps with a part of the background object as the background.
The computer acquires a background edge image showing the edge of the background object, and uses the foreground candidate image and the background edge image to reflect light on the background object included in the foreground candidate image. An image processing method for separating a reflection region showing a state of being present and a region of the foreground object.
前景となる前景物が背景となる背景物の一部に重なって示される元画像から、前記前景物の領域の候補である前景候補が示される前景候補画像を生成する前景候補画像生成処理と、
前記背景物のエッジが示される背景エッジ画像を取得し、前記前景候補画像と前記背景エッジ画像とを用いて、前記前景候補画像に含まれる、前記背景物に光が反射している状態が示される反射領域と、前記前景物の領域とを分離する領域分離処理とをコンピュータに実行させる画像処理プログラム。
Foreground candidate image generation processing that generates a foreground candidate image showing a foreground candidate that is a candidate for the area of the foreground object from an original image in which the foreground object that becomes the foreground overlaps a part of the background object that is the background.
A background edge image showing the edge of the background object is acquired, and the foreground candidate image and the background edge image are used to show a state in which light is reflected on the background object included in the foreground candidate image. An image processing program that causes a computer to perform an area separation process for separating a reflected area and an area of the foreground object.
JP2019011260A 2019-01-25 2019-01-25 Image processing device, image processing method and image processing program Active JP7004460B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019011260A JP7004460B2 (en) 2019-01-25 2019-01-25 Image processing device, image processing method and image processing program
PCT/JP2019/037228 WO2020152908A1 (en) 2019-01-25 2019-09-24 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019011260A JP7004460B2 (en) 2019-01-25 2019-01-25 Image processing device, image processing method and image processing program

Publications (2)

Publication Number Publication Date
JP2020119372A JP2020119372A (en) 2020-08-06
JP7004460B2 true JP7004460B2 (en) 2022-01-21

Family

ID=71736367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019011260A Active JP7004460B2 (en) 2019-01-25 2019-01-25 Image processing device, image processing method and image processing program

Country Status (2)

Country Link
JP (1) JP7004460B2 (en)
WO (1) WO2020152908A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251079A (en) 1999-03-03 2000-09-14 Nippon Hoso Kyokai <Nhk> Dynamic picture object extracting device
JP2014157453A (en) 2013-02-15 2014-08-28 Omron Corp Image processing apparatus, image processing method, and image processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000251079A (en) 1999-03-03 2000-09-14 Nippon Hoso Kyokai <Nhk> Dynamic picture object extracting device
JP2014157453A (en) 2013-02-15 2014-08-28 Omron Corp Image processing apparatus, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2020119372A (en) 2020-08-06
WO2020152908A1 (en) 2020-07-30

Similar Documents

Publication Publication Date Title
US11302315B2 (en) Digital video fingerprinting using motion segmentation
US20200293809A1 (en) Image processing apparatus, image processing method, and storage medium
JP4664432B2 (en) SHOT SIZE IDENTIFICATION DEVICE AND METHOD, ELECTRONIC DEVICE, AND COMPUTER PROGRAM
EP3021575B1 (en) Image processing device and image processing method
US8718324B2 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
US9773322B2 (en) Image processing apparatus and image processing method which learn dictionary
US9542735B2 (en) Method and device to compose an image by eliminating one or more moving objects
JP6075190B2 (en) Image processing method and apparatus
JP2008518331A (en) Understanding video content through real-time video motion analysis
JP2012038318A (en) Target detection method and device
CN106469455B (en) Image processing method, image processing apparatus, and recording medium
KR20130072073A (en) Apparatus and method for extracting edge in image
CN111723713B (en) Video key frame extraction method and system based on optical flow method
KR101195978B1 (en) Method and apparatus of processing object included in video
JP7004460B2 (en) Image processing device, image processing method and image processing program
Abdusalomov et al. Review on various widely used shadow detection methods to identify a shadow from images
KR100566629B1 (en) System for detecting moving objects and method thereof
Abdusalomov et al. Robust shadow removal technique for improving image enhancement based on segmentation method
JP6998922B2 (en) Notification judgment device, notification judgment method and notification judgment program
Agrafiotis et al. HDR Imaging for Enchancing People Detection and Tracking in Indoor Environments.
Malavika et al. Moving object detection and velocity estimation using MATLAB
CN111079797A (en) Image classification method and device and storage medium
JP6945517B2 (en) Leftovers detection device, leftovers detection method and leftovers detection program
Rabha Background modelling by codebook technique for automated video surveillance with shadow removal
JP7042736B2 (en) Foreground extraction device, foreground extraction method, and foreground extraction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211229

R150 Certificate of patent or registration of utility model

Ref document number: 7004460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150