JP2015069412A - Moving region detection device - Google Patents

Moving region detection device Download PDF

Info

Publication number
JP2015069412A
JP2015069412A JP2013203132A JP2013203132A JP2015069412A JP 2015069412 A JP2015069412 A JP 2015069412A JP 2013203132 A JP2013203132 A JP 2013203132A JP 2013203132 A JP2013203132 A JP 2013203132A JP 2015069412 A JP2015069412 A JP 2015069412A
Authority
JP
Japan
Prior art keywords
skeleton
frame
distance
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013203132A
Other languages
Japanese (ja)
Other versions
JP6028701B2 (en
Inventor
佐藤 真樹
Maki Sato
真樹 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2013203132A priority Critical patent/JP6028701B2/en
Publication of JP2015069412A publication Critical patent/JP2015069412A/en
Application granted granted Critical
Publication of JP6028701B2 publication Critical patent/JP6028701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving region detection device capable of properly detecting a region of a moving object even when the region of the moving object has uniform pixel values.SOLUTION: A binarization part 20 converts a target frame, a previous frame, and a subsequent frame into binary data of a label 1 and a label 0. A distance conversion part 30 converts a pixel inside a region of the label 1 into a distance value indicating a shortest distance to a region of the label 0. A skeleton detection part 40 detects a pixel having a maximum value of the distance value as a skeleton point inside the region converted into the distance value. An arithmetic part 60 calculates a difference between the target frame and the previous frame, and a difference between the target frame and the subsequent frame, and calculates AND of difference images of two sides. A moving region restoration part 70 restores a region of a moving object of the target frame on the basis of a skeleton of an AND image.

Description

本発明は、画像に含まれる動物体の領域を検出する動領域検出装置に関する。   The present invention relates to a moving region detection device that detects a region of a moving object included in an image.

複数枚の画像から多くの誤差情報を得て、高画質な高解像度画像を生成する複数枚超解像処理と称される画質改善方法がある。複数枚超解像処理以外でも、複数枚画像を重ね合わせることにより、ランダムなノイズ成分の低減処理や、ダイナミックレンジの拡大処理等が知られている。   There is an image quality improvement method called multi-sheet super-resolution processing that obtains a lot of error information from a plurality of images and generates a high-resolution high-resolution image. In addition to the multi-image super-resolution processing, random noise component reduction processing, dynamic range expansion processing, and the like are known by superimposing a plurality of images.

複数枚の画像を得るためには、互いの位置がわずかにずれた複数の撮影系を用いて同時に複数枚の画像を撮影する方法と、1つの撮影系を用い、位置を順次ずらしながら複数枚の画像を時系列で撮影する方法とがある。前者の方法は撮影系の規模が大きくなるので、撮影系の規模が小さい後者の方法が比較的多く用いられる。   In order to obtain a plurality of images, a method of photographing a plurality of images at the same time using a plurality of photographing systems whose positions are slightly shifted from each other, and a plurality of images while sequentially shifting the positions using one photographing system. There is a method of shooting the images in time series. Since the scale of the photographing system is large in the former method, the latter method with a small scale of the photographing system is used relatively frequently.

国際公開第2010/084902号International Publication No. 2010/084902

撮影系の位置を順次ずらしながら時系列で複数枚の画像を撮影する場合に問題となるのは、画像列中に存在する動物体である。動物体を含む画像列に対して超解像処理を施す場合、生成された高解像度画像上で動物体が多重化しないようにするためには、画像列中の動物体を抽出する必要がある。   A problem that arises when shooting a plurality of images in time series while sequentially shifting the position of the shooting system is the moving object existing in the image sequence. When super-resolution processing is performed on an image sequence including a moving object, it is necessary to extract the moving object in the image sequence in order to prevent the moving object from being multiplexed on the generated high-resolution image. .

画像列中の動物体を抽出する一般的な方法は、画像間で画素単位の差分を取り、差分値が大きい領域を動物体が存在する動領域として抽出する方法である。この抽出方法は、各種の画像処理においてよく用いられている。   A general method for extracting a moving object in an image sequence is a method of taking a difference in units of pixels between images and extracting a region having a large difference value as a moving region in which the moving object exists. This extraction method is often used in various types of image processing.

しかしながら、上記の抽出方法は以下のような問題点を有する。モノトーン画像や色彩が単調なアニメーション画像では、一様な画素値を有する画素によって動物体の領域が形成されることがある。動物体の移動量が少なく画像列間で動物体が重なると、重なった部分の差分値は小さいため、動領域として抽出することができない場合がある。   However, the above extraction method has the following problems. In a monotone image or an animation image with a monotonous color, an area of a moving object may be formed by pixels having uniform pixel values. If the moving amount of the moving object is small and the moving object overlaps between the image sequences, the difference value of the overlapped portion may be small and may not be extracted as a moving region.

このように、従来の動領域検出装置においては、動物体の領域を的確に検出することができないことがある。   As described above, the conventional moving region detection apparatus may not be able to accurately detect the region of the moving object.

本発明はこのような問題点に鑑み、動物体の領域が一様な画素値を有する場合でも、動物体の領域を的確に検出することができる動領域検出装置を提供することを目的とする。   The present invention has been made in view of such problems, and an object thereof is to provide a moving region detection device that can accurately detect a region of a moving object even when the region of the moving object has a uniform pixel value. .

本発明は、上述した従来の技術の課題を解決するため、画像信号における動物体の領域を検出する対象となっている対象フレームと、前記対象フレームより前の前フレームと、前記対象フレームより後の後フレームとのそれぞれを、前記画像信号の最低輝度から最高輝度までのそれぞれの輝度値を基準値とし、基準値である輝度値を有する領域をラベル1、基準値以外の輝度値を有する領域をラベル0として2値データに変換する2値化部と、前記対象フレームと前記前フレームと前記後フレームとのそれぞれで、ラベル1の領域内の画素を、ラベル0の領域までの最短距離を示す距離値に変換する距離変換部と、前記対象フレームと前記前フレームと前記後フレームとのそれぞれで、距離値に変換した領域内で、距離値の極大値を有する画素をスケルトン点として検出するスケルトン検出部と、前記対象フレームにおけるスケルトン点の集合よりなるスケルトンと、前記前フレームにおけるスケルトン点の集合よりなるスケルトンとの差分を演算して第1の差分画像を生成する第1の差分演算部と、前記対象フレームにおけるスケルトンと、前記後フレームにおけるスケルトン点の集合よりなるスケルトンとの差分を演算して第2の差分画像を生成する第2の差分演算部と、前記第1の差分画像と前記第2の差分画像との論理積を演算して論理積画像を生成する論理積演算部と、前記論理積画像の個々のスケルトン点に対して前記距離変換部で変換された距離値を半径とする円を配置することにより、前記対象フレームにおける動物体の領域を復元する動領域復元部とを備えることを特徴とする動領域検出装置を提供する。   In order to solve the above-described problems of the related art, the present invention provides a target frame that is a target for detecting an area of a moving object in an image signal, a previous frame before the target frame, and a rear frame after the target frame. For each of the subsequent frames, each luminance value from the lowest luminance to the highest luminance of the image signal is set as a reference value, an area having a luminance value as a reference value is labeled 1, and an area having a luminance value other than the reference value Is converted to binary data with label 0 as the label 0, and the pixel in the area of label 1 is set to the shortest distance to the area of label 0 in each of the target frame, the previous frame, and the rear frame. An image having a maximum value of the distance value in the area converted into the distance value in each of the target frame, the previous frame, and the rear frame. A first difference image is generated by calculating a difference between a skeleton detection unit that detects skeleton points as a skeleton point, a skeleton that is a set of skeleton points in the target frame, and a skeleton that is a set of skeleton points in the previous frame. A first difference calculation unit, a second difference calculation unit that generates a second difference image by calculating a difference between a skeleton in the target frame and a skeleton formed by a set of skeleton points in the subsequent frame, A logical product calculation unit that calculates a logical product of the first difference image and the second difference image to generate a logical product image, and the distance conversion unit converts each skeleton point of the logical product image A moving region restoring unit that restores the region of the moving object in the target frame by arranging a circle having a radius of the distance value thus determined. Providing motion area detection apparatus according to claim.

本発明の動領域検出装置によれば、動物体の領域が一様な画素値を有する場合でも、動物体の領域を的確に検出することができる。   According to the moving region detection apparatus of the present invention, it is possible to accurately detect a moving object region even when the moving object region has a uniform pixel value.

一実施形態の動領域検出装置を示すブロック図である。It is a block diagram which shows the moving region detection apparatus of one Embodiment. 図1に示す動領域検出装置に入力される画像信号Sinにおける1フレームの画像の例を示す図である。It is a figure which shows the example of the image of 1 frame in the image signal Sin input into the moving region detection apparatus shown in FIG. 図1中の2値化部20による2値化の動作を説明するための図である。It is a figure for demonstrating the operation | movement of the binarization by the binarization part 20 in FIG. 図1中の距離変換部30による距離変換の概略を説明するための図である。It is a figure for demonstrating the outline of the distance conversion by the distance conversion part 30 in FIG. 図1中の距離変換部30によって距離変換した距離変換画像を示す図である。It is a figure which shows the distance conversion image which carried out distance conversion by the distance conversion part 30 in FIG. 図1中のスケルトン検出部40によって検出したスケルトンを示す図である。It is a figure which shows the skeleton detected by the skeleton detection part 40 in FIG. 一実施形態の動領域検出装置による動領域検出動作を説明するための図である。It is a figure for demonstrating the movement area detection operation | movement by the movement area detection apparatus of one Embodiment. 一実施形態の動領域検出装置による動領域検出動作を説明するための図である。It is a figure for demonstrating the movement area detection operation | movement by the movement area detection apparatus of one Embodiment. 一実施形態の動領域検出装置による動領域検出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the moving region detection operation | movement by the moving region detection apparatus of one Embodiment. 一実施形態の動領域検出装置による動領域検出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the moving region detection operation | movement by the moving region detection apparatus of one Embodiment. 一実施形態の動領域検出装置による動領域検出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the moving region detection operation | movement by the moving region detection apparatus of one Embodiment. 比較例による動領域検出動作を示す図である。It is a figure which shows the moving region detection operation | movement by a comparative example.

以下、一実施形態の動領域検出装置について、添付図面を参照して説明する。図1において、記憶部10には、動画像信号である画像信号Sinが入力される。画像信号Sinは、例えば8ビットのデジタルデータである。記憶部10は、少なくとも3フレーム分の画像を記憶する。   Hereinafter, a moving region detection apparatus according to an embodiment will be described with reference to the accompanying drawings. In FIG. 1, an image signal Sin that is a moving image signal is input to the storage unit 10. The image signal Sin is, for example, 8-bit digital data. The storage unit 10 stores images for at least three frames.

図2は、記憶部10に記憶された画像信号Sinにおける所定の1フレームFの画像を示している。フレームFの画像は物体OBを含む。便宜上、物体OBと物体OB以外の背景BGはそれぞれ一様な輝度値を有するものとする。物体OBの輝度値をLob、背景BGの輝度値をLbgとする。   FIG. 2 shows a predetermined one-frame F image in the image signal Sin stored in the storage unit 10. The image of the frame F includes the object OB. For convenience, it is assumed that the object OB and the background BG other than the object OB have uniform luminance values. Let the luminance value of the object OB be Lob and the luminance value of the background BG be Lbg.

2値化部20は、記憶部10に記憶されたそれぞれのフレームの画像を次のように2値化する。2値化部20における2値化の動作を図2に示す画像の場合を例にして説明する。   The binarization unit 20 binarizes each frame image stored in the storage unit 10 as follows. The binarization operation in the binarization unit 20 will be described taking the case of the image shown in FIG. 2 as an example.

2値化部20は、輝度値0(最低輝度)から輝度値255(最高輝度)までのそれぞれの輝度値を基準値としてフレームFの画像を2値データに変換する。基準値とする輝度値をLとすると、2値化部20は、輝度値Lの画素をラベル1、輝度値L以外の画素をラベル0とする。   The binarization unit 20 converts the image of the frame F into binary data using each luminance value from the luminance value 0 (lowest luminance) to the luminance value 255 (maximum luminance) as a reference value. If the luminance value as the reference value is L, the binarization unit 20 sets the pixel having the luminance value L as label 1 and the pixels other than the luminance value L as label 0.

物体OBの輝度値Lobを例えば100、背景BGの輝度値Lbgを例えば200とする。基準値としての輝度値Lが0〜99,101〜199,201〜255のとき、フレームFの全体がラベル0の2値データに変換される。   The luminance value Lob of the object OB is set to 100, for example, and the luminance value Lbg of the background BG is set to 200, for example. When the luminance value L as the reference value is 0 to 99, 101 to 199, 201 to 255, the entire frame F is converted into binary data of label 0.

輝度値Lが100のとき、図3の(a)に示すように、フレームFは、物体OBの部分がラベル1の領域R1、背景BGの部分がラベル0の領域R0の2値データに変換される。輝度値Lが200のとき、図3の(b)に示すように、フレームFは、物体OBの部分がラベル0の領域R0、背景BGの部分がラベル1の領域R1の2値データに変換される。図3の(a),(b)では、便宜上、ラベル1を黒、ラベル0を白で示している。   When the luminance value L is 100, as shown in FIG. 3A, the frame F is converted into binary data in the region R1 where the object OB is a label 1 and the region R0 where the background BG is a label 0. Is done. When the luminance value L is 200, as shown in FIG. 3B, the frame F is converted into binary data in the region R0 where the object OB is the label 0 and the region BG where the background BG is the label 1 Is done. In FIGS. 3A and 3B, for convenience, label 1 is shown in black and label 0 is shown in white.

2値化部20は、輝度値0から輝度値255までの256の輝度値Lをそれぞれ基準値としてフレームFの画像を2値データに変換するから、2値化部20からは256個の2値データが出力される。256個の2値データは、距離変換部30に入力される。   The binarization unit 20 converts the image of the frame F into binary data using 256 luminance values L from the luminance value 0 to the luminance value 255 as reference values, respectively. Value data is output. 256 pieces of binary data are input to the distance converter 30.

距離変換部30は、256個の2値データそれぞれにおけるラベル1の領域R1を距離変換する。距離変換部30で用いる距離とは、ユークリッド距離ではなく、例えば4近傍距離である。上記のように、図3の(a),(b)に示す2値データ以外はラベル1の領域R1を有さないので、図2の画像の場合には、図3の(a),(b)のそれぞれの領域R1のみが距離変換される。   The distance conversion unit 30 performs distance conversion on the region R1 of the label 1 in each of 256 binary data. The distance used in the distance conversion unit 30 is not the Euclidean distance, but is, for example, a 4-neighbor distance. As described above, the binary data other than the binary data shown in FIGS. 3A and 3B does not have the region 1 of the label 1, so that in the case of the image of FIG. Only the respective areas R1 of b) are distance-converted.

距離変換部30は、図3の(a),(b)におけるラベル1の領域R1を、4近傍距離を用いて距離変換する。図4の(a),(b)を用いて、距離変換の概略について説明する。図4の(a)に示すように、ラベル0の領域R0を背景として、図示のような形状のラベル1の領域R1が存在している。距離変換とは、領域R1の各画素に対して領域R0の背景までの最短距離を与える変換処理である。   The distance conversion unit 30 converts the region R1 of the label 1 in FIGS. 3A and 3B using a 4-neighbor distance. An outline of distance conversion will be described with reference to FIGS. As shown in FIG. 4A, the region R1 of the label 1 having the shape shown in the figure exists with the region R0 of the label 0 as the background. The distance conversion is a conversion process that gives each pixel in the region R1 the shortest distance to the background of the region R0.

図4の(a)の領域R1の各画素に対して背景までの最短距離を与えると、図2の(b)に示す距離値となる。ここでは、背景と隣接する画素の距離値を0としている。なお、背景と隣接する画素の距離値を1とする距離変換の方法もある。   When the shortest distance to the background is given to each pixel in the region R1 in FIG. 4A, the distance value shown in FIG. 2B is obtained. Here, the distance value between the pixels adjacent to the background is set to zero. There is also a distance conversion method in which the distance value between pixels adjacent to the background is 1.

距離変換部30は、図4の(a),(b)で説明した方法で図3の(a),(b)における領域R1を距離変換する。図5は、図3の(a)の領域R1を距離変換した距離変換画像を示している。図5においては、距離値をグレーの濃淡にて表している。距離値0は白で表されている。   The distance conversion unit 30 performs distance conversion on the region R1 in FIGS. 3A and 3B by the method described in FIGS. 4A and 4B. FIG. 5 shows a distance-converted image obtained by distance-converting the region R1 in FIG. In FIG. 5, the distance value is represented by gray shades. The distance value 0 is represented in white.

図3の(b)の領域R1を距離変換した距離変換画像については図示を省略するが、図3の(a)と同様に、背景BGの部分がグレーの濃淡で表される。   Although the illustration of the distance-converted image obtained by distance-converting the region R1 in FIG. 3B is omitted, the background BG portion is represented by gray shades as in FIG.

図1に戻り、距離変換画像は、スケルトン検出部40に入力される。スケルトン検出部40は、距離変換画像において、距離値の極大値を有する画素をスケルトン点とする。距離変換部30において4近傍距離を用いて距離変換したので、スケルトン検出部40は、注目画素と、注目画素の上下及び左右に隣接する4近傍画素との5画素の中で、注目画素が最大値を有すれば、注目画素をスケルトン点とする。   Returning to FIG. 1, the distance conversion image is input to the skeleton detection unit 40. The skeleton detection unit 40 sets a pixel having the maximum value of the distance value as a skeleton point in the distance conversion image. Since the distance conversion unit 30 performs distance conversion using the four neighborhood distances, the skeleton detection unit 40 determines that the pixel of interest is the largest among the five pixels of the pixel of interest and the four neighboring pixels adjacent to the top and bottom and left and right of the pixel of interest. If it has a value, the pixel of interest is a skeleton point.

なお、距離変換部30において、4近傍画素の代わりに8近傍画素を用いてもよい。8近傍画素を用いる場合、スケルトン検出部40は、注目画素と、注目画素の周囲の8近傍画素との9画素の中で、注目画素が最大値を有すれば、注目画素をスケルトン点とする。   In the distance conversion unit 30, eight neighboring pixels may be used instead of the four neighboring pixels. When eight neighboring pixels are used, the skeleton detection unit 40 sets the target pixel as a skeleton point if the target pixel has the maximum value among nine pixels of the target pixel and the eight neighboring pixels around the target pixel. .

スケルトン検出部40によって検出されるスケルトン点の集合をスケルトンと称する。図6の(a)は、物体OBの領域に対応して生成されたスケルトンSKLobを示している。図6の(b)は、背景BGの領域に対応して生成されたスケルトンSKLbgを示している。スケルトンSKLob,SKLbgは、1画素の幅を有する線よりなる細線化画像である。   A set of skeleton points detected by the skeleton detection unit 40 is referred to as a skeleton. FIG. 6A shows a skeleton SKLob generated corresponding to the region of the object OB. FIG. 6B shows a skeleton SKLbg generated corresponding to the background BG region. Skeletons SKLob and SKLbg are thinned images composed of lines having a width of one pixel.

図2に示すフレームFの画像は、以上説明した2値化部20による2値化、距離変換部30による距離変換、スケルトン検出部40によるスケルトン点の検出によって、スケルトンSKLob,SKLbgを有するフレームFとなる。スケルトン検出部40からは、図6の(a)と(b)とを加算した(c)に示すスケルトンSKLob,SKLbgを有するフレームFが出力される。   The image of the frame F shown in FIG. 2 is a frame F having skeletons SKLob and SKLbg by binarization by the binarization unit 20 described above, distance conversion by the distance conversion unit 30, and detection of skeleton points by the skeleton detection unit 40. It becomes. From the skeleton detection unit 40, a frame F having skeletons SKLob and SKLbg shown in (c) obtained by adding (a) and (b) in FIG. 6 is output.

スケルトン検出部40は、距離変換画像のそれぞれの画素に対して、スケルトンフラグとして、スケルトン点であればラベル1を、スケルトン点でなければラベル0を設定する。フレームF内のそれぞれの画素は、輝度値と、スケルトンフラグと、距離値とよりなる固有値を有する。   The skeleton detection unit 40 sets, for each pixel of the distance conversion image, as a skeleton flag, a label 1 if it is a skeleton point and a label 0 if it is not a skeleton point. Each pixel in the frame F has a unique value including a luminance value, a skeleton flag, and a distance value.

ここでの固有値としての輝度値は、2値化部20でフレームFの画像を2値データに変換したときの基準値である。   The luminance value as the eigenvalue here is a reference value when the image of the frame F is converted into binary data by the binarization unit 20.

2値化部20〜スケルトン検出部40は、画像信号Sinにおけるそれぞれのフレームの画像に対して以上の各処理を実行する。記憶部50は、フレーム内のそれぞれの領域がスケルトンに変換された3フレーム分のフレームを記憶する。   The binarization unit 20 to the skeleton detection unit 40 perform the above processes on the images of the respective frames in the image signal Sin. The storage unit 50 stores frames for three frames in which each area in the frame is converted into a skeleton.

図7A,図7Bを参照しながら、図1における記憶部50以降の処理について説明する。図7A,図7Bでは、説明を簡略化するため、物体OBに対する処理のみを説明し、背景BGに対する処理の説明を省略することとする。   The processing after the storage unit 50 in FIG. 1 will be described with reference to FIGS. 7A and 7B. In FIG. 7A and FIG. 7B, to simplify the description, only the process for the object OB will be described, and the description of the process for the background BG will be omitted.

図7Aにおいて、フレームF0,F1,F2は、画像信号Sinにおける連続した3フレームである。フレームF0,F1,F2内の物体OBは左側から右側へと移動している。フレームF1が動物体の領域を検出する対象のフレーム(対象フレーム)である。フレームF1内の物体OBを検出するために、フレームF1の前後のフレームF0(前フレーム)とフレームF2(後フレーム)が用いられる。   In FIG. 7A, frames F0, F1, and F2 are three consecutive frames in the image signal Sin. The object OB in the frames F0, F1, and F2 is moving from the left side to the right side. The frame F1 is a target frame (target frame) for detecting the area of the moving object. In order to detect the object OB in the frame F1, a frame F0 (front frame) and a frame F2 (back frame) before and after the frame F1 are used.

図7Aに示すように、フレームF0,F1,F2それぞれに対して、前述のような2値化、距離変換、スケルトン点の検出の各処理が施されると、スケルトンSKLob0,SKLob1,SKLob2が生成される。スケルトンSKLob0,SKLob1,SKLob2を有するフレームF0,F1,F2は、記憶部50に記憶される。   As shown in FIG. 7A, when the above-described binarization, distance conversion, and skeleton point detection are performed on the frames F0, F1, and F2, skeletons SKLob0, SKLob1, and SKLob2 are generated. Is done. Frames F0, F1, and F2 having skeletons SKLob0, SKLob1, and SKLob2 are stored in storage unit 50.

演算部60内の差分演算部(第1の差分演算部)601は、スケルトンSKLob1を有するフレームF1とスケルトンSKLob0を有するフレームF0との差分を演算する。フレームF1とフレームF0との差分を演算することにより、差分画像Diff_10_skl(第1の差分画像)を有するフレームF10となる。   A difference calculation unit (first difference calculation unit) 601 in the calculation unit 60 calculates a difference between the frame F1 having the skeleton SKLob1 and the frame F0 having the skeleton SKLob0. By calculating the difference between the frame F1 and the frame F0, the frame F10 having the difference image Diff_10_skl (first difference image) is obtained.

演算部60内の差分演算部(第2の差分演算部)602は、スケルトンSKLob1を有するフレームF1とスケルトンSKLob2を有するフレームF2との差分を演算する。フレームF1とフレームF2との差分を演算することにより、差分画像Diff_12_skl(第2の差分画像)を有するフレームF12となる。   A difference calculation unit (second difference calculation unit) 602 in the calculation unit 60 calculates a difference between the frame F1 having the skeleton SKLob1 and the frame F2 having the skeleton SKLob2. By calculating the difference between the frame F1 and the frame F2, the frame F12 having the difference image Diff_12_skl (second difference image) is obtained.

図7Aに示す例では、物体OBが水平移動しているため、スケルトンSKLob0,SKLob1,SKLob2は、同じ水平ライン上で水平方向の位置が少しずつずれている。スケルトンSKLob0の右端部とスケルトンSKLob1の左端部は重なっている。スケルトンSKLob1の右端部とスケルトンSKLob2の左端部は重なっている。従って、差分画像Diff_10_skl,Diff_12_sklは、水平方向の中央部で差分が0となることにより、左右に分断した状態となる。   In the example shown in FIG. 7A, since the object OB moves horizontally, the skeletons SKLob0, SKLob1, and SKLob2 are slightly displaced in the horizontal direction on the same horizontal line. The right end of the skeleton SKLob0 and the left end of the skeleton SKLob1 overlap. The right end of skeleton SKLob1 and the left end of skeleton SKLob2 overlap. Therefore, the difference images Diff_10_skl and Diff_12_skl are in a state of being divided into left and right when the difference becomes 0 at the central portion in the horizontal direction.

同一の物体に基づいて生成したスケルトンは連結する性質を有する。差分画像Diff_10_skl,Diff_12_sklのように同じ水平ライン上で左右に分断している場合には、連結部604,605は、左右の画像を連結させ、差分画像Diff_10c_skl,Diff_12c_sklとする。   Skeletons generated based on the same object have the property of being connected. When the difference images Diff_10_skl and Diff_12_skl are divided to the left and right on the same horizontal line, the connecting units 604 and 605 connect the left and right images to obtain the difference images Diff_10c_skl and Diff_12c_skl.

本例では物体OBのスケルトンが一本の水平線として抽出されたため、物体OBが斜め方向に移動した場合には、スケルトンSKLob0,SKLob1は互いに重ならず、スケルトンSKLob1,SKLob2も互いに重ならない。図7Aに示す例のように、スケルトンが同じ水平位置で位置がずれる場合には、スケルトンの差分画像が分断する。このような場合には、スケルトンの連結性に基づき、分断した差分画像を連結させればよい。   In this example, since the skeleton of the object OB is extracted as one horizontal line, when the object OB moves in an oblique direction, the skeletons SKLob0 and SKLob1 do not overlap each other, and the skeletons SKLob1 and SKLob2 do not overlap each other. When the skeletons are displaced at the same horizontal position as in the example illustrated in FIG. 7A, the difference image of the skeleton is divided. In such a case, the divided difference images may be connected based on the connectivity of the skeleton.

差分画像Diff_10c_sklを有するフレームF10と、差分画像Diff_12c_sklを有するフレームF12は、演算部60内の論理積演算部603に入力される。図7Bに示すように、論理積演算部603は、差分画像Diff_10c_sklを有するフレームF10と、差分画像Diff_12c_sklを有するフレームF12との論理積を演算する。   The frame F10 having the difference image Diff_10c_skl and the frame F12 having the difference image Diff_12c_skl are input to the AND operation unit 603 in the operation unit 60. As shown in FIG. 7B, the logical product operation unit 603 calculates the logical product of the frame F10 having the difference image Diff_10c_skl and the frame F12 having the difference image Diff_12c_skl.

フレームF10とフレームF12との論理積を演算したフレームをフレームF1012とする。差分画像Diff_10c_skl,Diff_12c_sklの論理積をとると、論理積画像A1012_sklとなる。フレームF1012内の論理積画像A1012_sklの位置は、スケルトンSKLob1の位置と一致する。フレームF1012は、フレームF1に相当する。   A frame obtained by calculating a logical product of the frames F10 and F12 is defined as a frame F1012. When a logical product of the difference images Diff_10c_skl and Diff_12c_skl is taken, a logical product image A1012_skl is obtained. The position of the logical product image A1012_skl in the frame F1012 coincides with the position of the skeleton SKLob1. The frame F1012 corresponds to the frame F1.

動領域復元部70は、論理積画像A1012_sklに基づいて、フレームF1内の動物体の領域である物体OBを復元する。論理積画像A1012_sklを構成する個々のスケルトン点は、輝度値と距離値とを有する。動領域復元部70は、論理積画像A1012_sklのそれぞれのスケルトン点に対して距離値を半径とする円Cdを配置する。図7Bでは、簡略化のため、円Cdを5つのみ示している。   The moving area restoration unit 70 restores the object OB that is the area of the moving object in the frame F1 based on the logical product image A1012_skl. Each skeleton point constituting the logical product image A1012_skl has a luminance value and a distance value. The moving area restoration unit 70 arranges a circle Cd having a radius as a distance value for each skeleton point of the logical product image A1012_skl. In FIG. 7B, only five circles Cd are shown for simplification.

動領域復元部70が全てのスケルトン点に対して距離値を半径とする円Cdを配置すれば、フレームF1内の物体OBの位置及び形状を復元することができる。   If the moving area restoration unit 70 arranges the circle Cd having the radius as the distance value for all the skeleton points, the position and shape of the object OB in the frame F1 can be restored.

動領域復元部70は、全てのスケルトン点に配置した円Cdを、スケルトン点が有する輝度値で塗りつぶす。これにより、物体OBの輝度も復元することができる。   The moving area restoration unit 70 fills the circles Cd arranged at all the skeleton points with the luminance values of the skeleton points. Thereby, the brightness of the object OB can also be restored.

背景BGに対しても同様の処理が行われるので、動領域復元部70は、画像F1の背景BGも復元することができる。   Since the same processing is performed on the background BG, the moving region restoration unit 70 can also restore the background BG of the image F1.

図8A〜図8Cに示すフローチャートを用いて、図1に示す動領域検出装置の動作を改めて説明する。図8Aにおいて、2値化部20は、ステップS1にて、フレームFnにおけるnを0とする。フレームFnは、図7AのフレームF0〜F2のいずれかであり、nを0とすることによりフレームF0が選択される。   The operation of the moving region detection apparatus shown in FIG. 1 will be described again using the flowcharts shown in FIGS. 8A to 8C. In FIG. 8A, the binarization unit 20 sets n in the frame Fn to 0 in step S1. The frame Fn is one of the frames F0 to F2 in FIG. 7A. By setting n to 0, the frame F0 is selected.

2値化部20は、ステップS2にて、2値化の基準値である輝度値Lを0とする。2値化部20は、ステップS3にて、フレームF0を輝度値L(輝度値0)で2値化する。   In step S2, the binarization unit 20 sets the luminance value L, which is a binarization reference value, to 0. In step S3, the binarization unit 20 binarizes the frame F0 with the luminance value L (luminance value 0).

距離変換部30は、ステップS4にて、ステップS3で2値化した2値データのラベル1の領域R1を距離変換する。スケルトン検出部40は、ステップS4で距離変換した距離変換画像のスケルトンを検出する。   In step S4, the distance conversion unit 30 performs distance conversion on the region 1 of the label 1 of the binary data binarized in step S3. The skeleton detection unit 40 detects the skeleton of the distance conversion image that has been subjected to the distance conversion in step S4.

2値化部20は、ステップS6にて、輝度値Lが255であるか否かを判定する。2値化部20は、輝度値Lが255でなければ(NO)、処理をステップS7に移行させる。2値化部20は、ステップS7にて輝度値Lを1インクリメントして、処理をステップS3に戻す。   In step S6, the binarization unit 20 determines whether or not the luminance value L is 255. If the luminance value L is not 255 (NO), the binarization unit 20 moves the process to step S7. The binarization unit 20 increments the luminance value L by 1 in step S7, and returns the process to step S3.

2値化部20がステップS3〜S7の処理を繰り返し、ステップS6にて輝度値Lが255であれば(YES)、フレームF0を0〜255の全ての輝度値Lで2値化したことになる。   The binarization unit 20 repeats the processing of steps S3 to S7. If the luminance value L is 255 in step S6 (YES), the frame F0 is binarized with all the luminance values L of 0 to 255. Become.

2値化部20は、ステップS8にて、nが2であるか否かを判定する。2値化部20は、nが2でなければ(NO)、処理をステップS9に移行させる。   In step S8, the binarization unit 20 determines whether n is 2. If n is not 2 (NO), the binarizing unit 20 moves the process to step S9.

2値化部20は、ステップS9にて、nを1インクリメントして、処理をステップS2に戻す。nを1インクリメントすることにより、次にフレームF1が選択される。2値化部20〜スケルトン検出部40がフレームF1に対してもステップS2〜S7の処理を繰り返すと、フレームF1の2値化、距離変換、スケルトン検出が完了する。   In step S9, the binarization unit 20 increments n by 1, and returns the process to step S2. Next, by incrementing n by 1, the frame F1 is selected. When the binarization unit 20 to the skeleton detection unit 40 repeat the processes of steps S2 to S7 for the frame F1, the binarization, distance conversion, and skeleton detection of the frame F1 are completed.

2値化部20は、ステップS8にてnが2でないと判定して、ステップS9にて、nを1インクリメントして、処理をステップS2に戻す。nを1インクリメントすることにより、さらに次にフレームF2が選択される。2値化部20〜スケルトン検出部40がフレームF2に対してもステップS2〜S7の処理を繰り返すと、フレームF2の2値化、距離変換、スケルトン検出が完了する。   The binarization unit 20 determines that n is not 2 in step S8, increments n by 1 in step S9, and returns the process to step S2. By incrementing n by 1, the next frame F2 is selected. When the binarization unit 20 to the skeleton detection unit 40 repeat the processes of steps S2 to S7 for the frame F2, the binarization, distance conversion, and skeleton detection of the frame F2 are completed.

ステップS8にてnが2であれば(YES)、2値化部20は、フレームF0〜F2の全ての2値化、距離変換、スケルトン検出を完了したことになる。   If n is 2 in step S8 (YES), the binarization unit 20 has completed all binarization, distance conversion, and skeleton detection of the frames F0 to F2.

図8Bにおいて、演算部60は、ステップS10にてフレームFnにおけるnを0とし、ステップS11にて画素位置pを0とする。これにより、まずフレームF0の最初の画素である例えば左上端部の画素が選択される。   8B, the calculation unit 60 sets n in the frame Fn to 0 in step S10, and sets the pixel position p to 0 in step S11. Thereby, first, for example, the pixel at the upper left end of the frame F0 is selected.

演算部60は、ステップS12にて、フレームF1の画素位置p(左上端部の画素)のスケルトンフラグがラベル1かラベル0であるかを確認して、フレームF1の画素位置pがスケルトン点であるか否かを判定する。   In step S12, the calculation unit 60 confirms whether the skeleton flag at the pixel position p (the pixel at the upper left corner) of the frame F1 is the label 1 or the label 0, and the pixel position p of the frame F1 is the skeleton point. It is determined whether or not there is.

スケルトン点であれば(YES)、演算部60は、ステップS13にて、フレームFnの画素位置pがスケルトン点であるか否かを判定する。スケルトン点でなければ(NO)、演算部60は、ステップS14にて、フレームFnの画素位置pがスケルトン点であるか否かを判定する。   If it is a skeleton point (YES), the calculation unit 60 determines in step S13 whether or not the pixel position p of the frame Fn is a skeleton point. If it is not a skeleton point (NO), the arithmetic unit 60 determines whether or not the pixel position p of the frame Fn is a skeleton point in step S14.

ステップS13にてスケルトン点であれば(YES)、演算部60は、ステップS15にて、フレームF1の画素位置pとフレームFnの画素位置pとの輝度の差分が所定の閾値より大きいかを判定する。輝度の差分が所定の閾値より大きければ(YES)、演算部60は、処理をステップS18に移行させ、大きくなければ(NO)、演算部60は、処理をステップS19に移行させる。   If the skeleton point is determined in step S13 (YES), the calculation unit 60 determines whether the luminance difference between the pixel position p of the frame F1 and the pixel position p of the frame Fn is larger than a predetermined threshold value in step S15. To do. If the luminance difference is larger than the predetermined threshold (YES), the calculation unit 60 shifts the process to step S18, and if not (NO), the calculation unit 60 shifts the process to step S19.

ステップS13にてスケルトン点なければ(NO)、演算部60は、処理をステップS18に移行させる。   If there is no skeleton point in step S13 (NO), the arithmetic unit 60 shifts the process to step S18.

ステップS14にてスケルトン点であれば(YES)、演算部60は、処理をステップS17に移行させ、スケルトン点でなければ(NO)、演算部60は、処理をステップS16に移行させる。   If it is a skeleton point in step S14 (YES), the calculating part 60 will transfer a process to step S17, and if it is not a skeleton point (NO), the calculating part 60 will transfer a process to step S16.

演算部60は、ステップS16にて、フレームF1nの画素位置pの差分点フラグをラベル0とする。ここでのフレームF1nは、フレームF10である。演算部60は、ステップS17にて、フレームF1nの画素位置pの差分点フラグをラベル1とし、フレームFnの画素位置pの距離値を設定する。   In step S16, the calculation unit 60 sets the difference point flag at the pixel position p of the frame F1n to label 0. The frame F1n here is the frame F10. In step S17, the calculation unit 60 sets the difference point flag at the pixel position p of the frame F1n as the label 1 and sets the distance value of the pixel position p of the frame Fn.

演算部60は、ステップS18にて、フレームF1nの画素位置pの差分点フラグをラベル1とし、フレームF1の画素位置pの距離値を設定する。演算部60は、ステップS19にて、フレームF1nの画素位置pの差分点フラグをラベル0とする。   In step S18, the calculation unit 60 sets the difference point flag at the pixel position p of the frame F1n as the label 1 and sets the distance value of the pixel position p of the frame F1. In step S19, the calculation unit 60 sets the difference point flag at the pixel position p of the frame F1n to label 0.

ステップS16〜S19の後、演算部60は、ステップS20にて、画素位置pは最終画素であるか否かを判定する。例えば右下端部の画素を最終画素とする。最終画素でなければ(NO)、演算部60は、ステップS21にて、画素位置pを1インクリメントして、処理をステップS12に戻し、ステップS12〜S21を繰り返す。   After steps S16 to S19, the calculation unit 60 determines whether or not the pixel position p is the last pixel in step S20. For example, the pixel at the lower right corner is the final pixel. If it is not the last pixel (NO), the calculation unit 60 increments the pixel position p by 1 in step S21, returns the process to step S12, and repeats steps S12 to S21.

ステップS20にて最終画素であれば(YES)、画像F1と画像F0との差分演算が終了したということである。演算部60は、処理をステップS22に移行させる。演算部60は、ステップS22にて、nが2でない(NO)と判定して、ステップS23にて、nを1インクリメントして、処理をステップS11に戻す。nを1インクリメントすることにより、次にフレームF1とフレームF2との差分演算が実行される。   If it is the last pixel in step S20 (YES), it means that the difference calculation between the image F1 and the image F0 is completed. The calculation unit 60 shifts the process to step S22. The calculation unit 60 determines that n is not 2 (NO) in step S22, increments n by 1 in step S23, and returns the process to step S11. By incrementing n by 1, the difference calculation between the frame F1 and the frame F2 is executed next.

n=2として、ステップS12〜S21の処理を繰り返すと、フレームF1とフレームF2との差分演算が完了する。   When n = 2 and the processes in steps S12 to S21 are repeated, the difference calculation between the frame F1 and the frame F2 is completed.

ステップS22にてnが2であれば(YES)、演算部60は、フレームF1とフレームF0との差分演算とフレームF1とフレームF2との差分演算とを完了したことになる。   If n is 2 in step S22 (YES), the calculation unit 60 has completed the difference calculation between the frames F1 and F0 and the difference calculation between the frames F1 and F2.

図8Bに示す処理によって、図7Aに示すフレームF10の差分画像Diff_10_skl,Diff_12_sklが得られる。差分点フラグがラベル1の画素の集合が差分画像Diff_10_skl,Diff_12_sklとなる。図8Bでは特に図示していないが、前述のように、必要に応じて差分画像Diff_10_skl,Diff_12_sklは連結されて差分画像Diff_10c_skl,Diff_12c_sklとされる。   By the processing shown in FIG. 8B, the difference images Diff_10_skl and Diff_12_skl of the frame F10 shown in FIG. 7A are obtained. A set of pixels with the difference point flag of label 1 is the difference images Diff_10_skl and Diff_12_skl. Although not particularly illustrated in FIG. 8B, as described above, the difference images Diff_10_skl and Diff_12_skl are connected as necessary to form the difference images Diff_10c_skl and Diff_12c_skl.

次に、図8Cにおいて、動領域復元部70は、ステップS24にて、フレームの全体をラベル0で初期化する。動領域復元部70は、ステップS25にて、画素位置pを0とする。動領域復元部70は、ステップS26にて、フレームF10,F12の画素位置pの差分点フラグがどちらも1であるか否かを判定する。   Next, in FIG. 8C, the moving region restoration unit 70 initializes the entire frame with the label 0 in step S24. The moving region restoration unit 70 sets the pixel position p to 0 in step S25. In step S26, the moving area restoration unit 70 determines whether or not the difference point flags of the pixel positions p of the frames F10 and F12 are both 1.

フレームF10,F12の画素位置pの差分点フラグがどちらも1であれば(YES)、動領域復元部70は、ステップS27にて、画素位置pを中心としてフレームF10の画素位置pにおける距離値の円の範囲をラベル1として、処理をステップS28に移行させる。フレームF10の画素位置pにおける距離値の代わりに、フレームF12の画素位置pにおける距離値を用いてもよい。   If the difference point flags at the pixel positions p of the frames F10 and F12 are both 1 (YES), the moving region restoration unit 70 determines the distance value at the pixel position p of the frame F10 around the pixel position p at step S27. The process proceeds to step S28 with the range of the circle as label 1. Instead of the distance value at the pixel position p of the frame F10, the distance value at the pixel position p of the frame F12 may be used.

フレームF10,F12の画素位置pの差分点フラグのいずれかが1でなければ(NO)、動領域復元部70は、処理をステップS28に移行させる。   If any of the difference point flags at the pixel positions p of the frames F10 and F12 is not 1 (NO), the moving area restoring unit 70 shifts the process to step S28.

動領域復元部70は、ステップS28にて、画素位置pは最終画素であるか否かを判定する。最終画素でなければ(NO)、動領域復元部70は、ステップS29にて、画素位置pを1インクリメントして、処理をステップS26に戻し、ステップS26〜S29を繰り返す。   In step S28, the moving area restoring unit 70 determines whether the pixel position p is the last pixel. If it is not the last pixel (NO), the moving region restoration unit 70 increments the pixel position p by 1 in step S29, returns the process to step S26, and repeats steps S26 to S29.

ステップS28にて最終画素であれば(YES)、図7Bに示すように物体OBが復元され、処理を終了する。   If it is the last pixel in step S28 (YES), the object OB is restored as shown in FIG. 7B, and the process ends.

比較のため、図9を用いて、2値化、距離変換、スケルトン変換を行わず、演算部60がフレームF0〜F2をそのまま演算した場合について説明する。図9において、フレームF0〜F2における物体OBは移動量が少なく、フレームF1,F0の物体OBは重なり合う位置関係にあり、フレームF1,F2の物体OBは重なり合う位置関係にあるとする。   For comparison, a case where the calculation unit 60 calculates the frames F0 to F2 as they are without performing binarization, distance conversion, and skeleton conversion will be described with reference to FIG. In FIG. 9, it is assumed that the object OB in the frames F0 to F2 has a small amount of movement, the objects OB in the frames F1 and F0 are in an overlapping positional relationship, and the objects OB in the frames F1 and F2 are in an overlapping positional relationship.

差分演算部601が、フレームF1とフレームF0との差分を演算すると、差分画像Diff_10を有するフレームF10となる。差分演算部602がフレームF1とフレームF2との差分を演算すると、差分画像Diff_12を有するフレームF12となる。   When the difference calculation unit 601 calculates the difference between the frame F1 and the frame F0, the frame F10 having the difference image Diff_10 is obtained. When the difference calculation unit 602 calculates the difference between the frame F1 and the frame F2, the frame F12 having the difference image Diff_12 is obtained.

論理積演算部603が、差分画像Diff_10を有するフレームF10と、差分画像Diff_12を有するフレームF12との論理積を演算すると、論理積画像A1012は、図9に示すように、物体OBの左右の部分が欠落した画像となる。フレームF1,F0で物体OBの重なった部分と、フレームF1,F2で物体OBの重なった部分は検出できない領域となる。   When the logical product operation unit 603 calculates the logical product of the frame F10 having the difference image Diff_10 and the frame F12 having the difference image Diff_12, the logical product image A1012 has left and right parts of the object OB as shown in FIG. The image is missing. The portions where the object OB overlaps in the frames F1 and F0 and the portions where the object OB overlaps in the frames F1 and F2 are areas that cannot be detected.

以上のように、本実施形態の動領域検出装置によれば、隣接するフレーム間で物体OBが重なり合う位置関係であっても、物体OBを細線化画像であるスケルトンに変換することにより、重なり合う可能性を大幅に低減させることができる。よって、物体OBを検出しやすくすることができる。   As described above, according to the moving region detection apparatus of the present embodiment, even if the object OB overlaps between adjacent frames, the object OB can be overlapped by converting it into a skeleton that is a thinned image. Can be greatly reduced. Therefore, the object OB can be easily detected.

図7Aで説明したように、スケルトンが重なってしまう場合が稀に発生する。しかしながら、スケルトンの連結性に基づいて分断した差分画像を連結することによって、物体OBを的確に検出することが可能である。   As described with reference to FIG. 7A, there are rare cases where skeletons overlap. However, it is possible to accurately detect the object OB by connecting the difference images divided based on the connectivity of the skeleton.

本実施形態の動領域検出装置によれば、動物体の領域が一様な画素値を有する場合でも、動物体の移動量にかかわらず、動物体の領域を的確に検出することができる。   According to the moving region detection device of this embodiment, even when the moving object region has a uniform pixel value, the moving object region can be accurately detected regardless of the moving amount of the moving object.

本実施形態の動領域検出装置による動領域検出方法を例えば複数枚超解像処理に用いれば、ランダムなノイズ成分を低減させることができ、ダイナミックレンジを拡大することができる。本実施形態の動領域検出装置による動領域検出方法は、複数枚超解像処理以外のノイズリダクションにも用いることができ、ノイズリダクションの性能を向上させることが可能である。   If the moving region detection method by the moving region detection apparatus of this embodiment is used for, for example, a plurality of super-resolution processes, random noise components can be reduced and the dynamic range can be expanded. The moving area detecting method by the moving area detecting apparatus of the present embodiment can be used for noise reduction other than the multi-sheet super-resolution processing, and the noise reduction performance can be improved.

本発明は以上説明した本実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々変更可能である。本実施形態の動領域検出装置をハードウェアで構成してもよいし、ソフトウェア(コンピュータプログラム)で構成してもよい。動領域検出プログラムは、コンピュータに、図8A〜図8Cに示す各ステップを実行させればよい。   The present invention is not limited to the embodiment described above, and various modifications can be made without departing from the scope of the present invention. The moving area detection apparatus according to the present embodiment may be configured by hardware or software (computer program). The moving area detection program may cause the computer to execute the steps shown in FIGS. 8A to 8C.

20 2値化部
30 距離変換部
40 スケルトン検出部
60 演算部
70 動領域復元部
601,602 差分演算部
603 論理積演算部
604,605 連結部
20 binarization unit 30 distance conversion unit 40 skeleton detection unit 60 calculation unit 70 dynamic region restoration unit 601 602 difference calculation unit 603 logical product calculation unit 604 605 connection unit

Claims (4)

画像信号における動物体の領域を検出する対象となっている対象フレームと、前記対象フレームより前の前フレームと、前記対象フレームより後の後フレームとのそれぞれを、前記画像信号の最低輝度から最高輝度までのそれぞれの輝度値を基準値とし、基準値である輝度値を有する領域をラベル1、基準値以外の輝度値を有する領域をラベル0として2値データに変換する2値化部と、
前記対象フレームと前記前フレームと前記後フレームとのそれぞれで、ラベル1の領域内の画素を、ラベル0の領域までの最短距離を示す距離値に変換する距離変換部と、
前記対象フレームと前記前フレームと前記後フレームとのそれぞれで、距離値に変換した領域内で、距離値の極大値を有する画素をスケルトン点として検出するスケルトン検出部と、
前記対象フレームにおけるスケルトン点の集合よりなるスケルトンと、前記前フレームにおけるスケルトン点の集合よりなるスケルトンとの差分を演算して第1の差分画像を生成する第1の差分演算部と、
前記対象フレームにおけるスケルトンと、前記後フレームにおけるスケルトン点の集合よりなるスケルトンとの差分を演算して第2の差分画像を生成する第2の差分演算部と、
前記第1の差分画像と前記第2の差分画像との論理積を演算して論理積画像を生成する論理積演算部と、
前記論理積画像の個々のスケルトン点に対して前記距離変換部で変換された距離値を半径とする円を配置することにより、前記対象フレームにおける動物体の領域を復元する動領域復元部と、
を備えることを特徴とする動領域検出装置。
A target frame that is a target for detecting a region of a moving object in an image signal, a previous frame before the target frame, and a rear frame after the target frame are set to the highest from the lowest luminance of the image signal. A binarization unit that converts each luminance value up to luminance as a reference value, converts an area having a luminance value that is a reference value as a label 1, and converts an area having a luminance value other than the reference value as a label 0 into binary data;
A distance converter that converts pixels in the region of label 1 into a distance value indicating the shortest distance to the region of label 0 in each of the target frame, the previous frame, and the rear frame;
In each of the target frame, the previous frame, and the rear frame, a skeleton detection unit that detects a pixel having a maximum value of a distance value as a skeleton point in a region converted into a distance value;
A first difference calculation unit that generates a first difference image by calculating a difference between a skeleton formed by a set of skeleton points in the target frame and a skeleton formed by a set of skeleton points in the previous frame;
A second difference calculation unit that calculates a difference between a skeleton in the target frame and a skeleton including a set of skeleton points in the subsequent frame to generate a second difference image;
An AND operation unit that calculates an AND of the first difference image and the second difference image to generate an AND image;
A moving region restoration unit that restores a region of the moving object in the target frame by arranging a circle having a radius of the distance value transformed by the distance transformation unit for each skeleton point of the logical product image;
A moving area detecting apparatus comprising:
前記距離変換部は、4近傍距離または8近傍距離を用いてラベル1の領域内の画素を距離値に変換し、
前記スケルトン検出部は、前記距離変換部が4近傍距離を用いる場合には、注目画素と、前記注目画素の上下及び左右に位置する4近傍画素との5画素の中で、前記注目画素が最大値を有すれば、前記注目画素をスケルトン点とし、前記距離変換部が8近傍距離を用いる場合には、前記注目画素の周囲の8近傍画素との9画素の中で、前記注目画素が最大値を有すれば、前記注目画素をスケルトン点とする
ことを特徴とする請求項1記載の動領域検出装置。
The distance conversion unit converts the pixels in the area of the label 1 into distance values using a 4-neighbor distance or an 8-neighbor distance,
When the distance conversion unit uses a 4-neighbor distance, the skeleton detection unit is configured such that the pixel of interest is the largest among the five pixels of the pixel of interest and four neighboring pixels located above and below and on the left and right of the pixel of interest. If the pixel of interest is a skeleton point, and the distance converter uses an 8-neighbor distance, the pixel of interest is the largest among the 9 pixels of the 8-neighbor pixels around the pixel of interest. The moving region detection device according to claim 1, wherein the pixel of interest is a skeleton point if it has a value.
前記動領域復元部は、前記距離変換部で変換された距離値を半径とする円の輝度値を、前記2値化部における基準値である輝度値として前記動物体の領域を復元することを特徴とする請求項1または2に記載の動領域検出装置。   The moving region restoration unit restores the region of the moving object using a luminance value of a circle whose radius is the distance value converted by the distance conversion unit as a luminance value which is a reference value in the binarization unit. The moving area detecting device according to claim 1 or 2, characterized in that 前記対象フレームにおけるスケルトンと前記前フレームにおけるスケルトン、または、前記対象フレームにおけるスケルトンと前記後フレームにおけるスケルトンとが部分的に重なって、前記第1または第2の差分画像が分断した状態となるとき、分断した状態の前記第1または第2の差分画像を連結させる連結部をさらに備えることを特徴とする請求項1〜3のいずれか1項に記載の動領域検出装置。   When the skeleton in the target frame and the skeleton in the previous frame, or the skeleton in the target frame partially overlaps with the skeleton in the subsequent frame, and the first or second difference image is in a divided state, The moving region detection device according to claim 1, further comprising a connecting unit that connects the divided first or second difference images.
JP2013203132A 2013-09-30 2013-09-30 Moving area detector Active JP6028701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013203132A JP6028701B2 (en) 2013-09-30 2013-09-30 Moving area detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013203132A JP6028701B2 (en) 2013-09-30 2013-09-30 Moving area detector

Publications (2)

Publication Number Publication Date
JP2015069412A true JP2015069412A (en) 2015-04-13
JP6028701B2 JP6028701B2 (en) 2016-11-16

Family

ID=52836013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013203132A Active JP6028701B2 (en) 2013-09-30 2013-09-30 Moving area detector

Country Status (1)

Country Link
JP (1) JP6028701B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6226992A (en) * 1985-07-29 1987-02-04 Nippon Telegr & Teleph Corp <Ntt> Mobile object extracting system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6226992A (en) * 1985-07-29 1987-02-04 Nippon Telegr & Teleph Corp <Ntt> Mobile object extracting system

Also Published As

Publication number Publication date
JP6028701B2 (en) 2016-11-16

Similar Documents

Publication Publication Date Title
US9740955B2 (en) Method for product recognition from multiple images
US9693028B2 (en) Projection system, semiconductor integrated circuit, and image correction method
KR102095626B1 (en) Image processing method and apparatus
JP4142732B2 (en) Image processing device
JP6904346B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
US20190197345A1 (en) Object detection device and object detection method
JP5333440B2 (en) Processing system, image processing method, and image processing program
JP7014161B2 (en) Image processing equipment, image processing systems, and image processing methods, and programs
JP6188592B2 (en) Object detection apparatus, object detection method, and object detection program
JP6497162B2 (en) Image processing apparatus and image processing method
JP2003052023A (en) Picture angle detector and scanning line interpolating device equipped therewith
JP2012048484A (en) Image processing apparatus, image processing method, and program
US8798391B2 (en) Method for pre-processing an image in facial recognition system
WO2016152190A1 (en) Image processing device, image processing system, and image processing method
JP2015191369A (en) object detection apparatus
JP2010055252A (en) Motion vector detector and image processor
JP6028701B2 (en) Moving area detector
WO2013118364A1 (en) Image processing device and image processing method
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP5417312B2 (en) Image search apparatus and image search program
JP2006215657A (en) Method, apparatus, program and program storage medium for detecting motion vector
JPWO2012127639A1 (en) Image processing apparatus and image processing method
KR20080069084A (en) Apparatus and method for image restoration based on self-training
JP2007043285A (en) Shake vector detecting apparatus, camera system, shake vector detection method, and shake vector detection program
JP6118295B2 (en) Marker embedding device, marker detection device, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160920

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161003

R150 Certificate of patent or registration of utility model

Ref document number: 6028701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150