JP2008102946A - Contour extraction method for image, object extraction method from image and image transmission system using the object extraction method - Google Patents

Contour extraction method for image, object extraction method from image and image transmission system using the object extraction method Download PDF

Info

Publication number
JP2008102946A
JP2008102946A JP2007286611A JP2007286611A JP2008102946A JP 2008102946 A JP2008102946 A JP 2008102946A JP 2007286611 A JP2007286611 A JP 2007286611A JP 2007286611 A JP2007286611 A JP 2007286611A JP 2008102946 A JP2008102946 A JP 2008102946A
Authority
JP
Japan
Prior art keywords
image
contour
block
data
shape data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2007286611A
Other languages
Japanese (ja)
Inventor
Takashi Ida
孝 井田
Yoko Sanbonsugi
陽子 三本杉
Osamu Hori
修 堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007286611A priority Critical patent/JP2008102946A/en
Publication of JP2008102946A publication Critical patent/JP2008102946A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To speed up processing of an object area extraction system using self-similar mapping. <P>SOLUTION: This contour extraction method comprises: a first step for setting a search reference block to an contour portion of shape data; a second step for finding a similar block having a similar pattern of image data and having a block size larger than the search reference block from the same image in each the search reference block; and a third step for replacing data obtained by binarizing the image inside each the search reference block with the shape data of the corresponding similar block. In contour extraction processing for bringing an contour of the shape data into line with a contour of an object by repeating the third step prescribed times, the contour extraction processing is repeatedly performed, and the image data, the shape data and the search reference block are reduced in the beginning of the repetition to perform contour position correction processing. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像から輪郭抽出対象物体の領域を抽出するための画像の輪郭抽出方法、画像からの物体抽出方法およびこの物体抽出方法を用いた画像伝送システムに関する。     The present invention relates to an image contour extraction method for extracting a region of a contour extraction target object from an image, an object extraction method from an image, and an image transmission system using the object extraction method.

画像から目的の被写体の領域を抽出する技術は、例えば、背景を別の画像に置き換えるといった加工などに有用である。その際、目的の被写体である抽出対象物体の領域が正しく求まっていないと、高い品質の加工画像は得られない。   A technique for extracting a target object region from an image is useful for processing such as replacing the background with another image, for example. At that time, a high-quality processed image cannot be obtained unless the region of the extraction target object that is the target subject is correctly obtained.

そのため、何らかの方法で物体の概略形状が求まっているときに、その概略形状を元にして、より高い精度で物体領域を求める技術が求められており、その手法の一つとして、本件発明者らは文献:「自己相似写像による輪郭線のフィッティング」(井田、三本杉、第5回画像センシングシンポジウム講演論文集、C- 15、pp.115-120、June 1999.)に開示した如きものを提案した。この技術は、自己相似写像を用いる手法であって、その概要を図5〜図8を用いて説明しておく。   Therefore, there is a demand for a technique for obtaining an object region with higher accuracy based on the approximate shape when the approximate shape of the object is obtained by some method. Proposes what is disclosed in the literature: “Fitting contours by self-similar mapping” (Ida, Mimotosugi, Proceedings of the 5th Symposium on Image Sensing, C-15, pp.115-120, June 1999). did. This technique is a technique using a self-similar mapping, and its outline will be described with reference to FIGS.

この技術は、図5に示すように、処理対象のフレーム画像中における抽出対象物体(正しい物体領域)1の画像部分を斜線で、また、抽出対象物体の概略形状2を太線で表わしている。抽出対象物体の概略形状2は例えば、オペレータが画面に表示されたフレーム画像上において抽出対象物体の外形に沿うようにマニュアル操作で大雑把に描いた外形線であり、抽出対象物体1の輪郭1aとはズレがある。   In this technique, as shown in FIG. 5, the image portion of the extraction target object (correct object region) 1 in the frame image to be processed is represented by diagonal lines, and the schematic shape 2 of the extraction target object is represented by thick lines. The outline shape 2 of the extraction target object is, for example, an outline drawn roughly manually by the operator along the outline of the extraction target object on the frame image displayed on the screen. There is a gap.

そこで、この抽出対象物体の概略形状2の内側の画素に画素値“255”を代入し、そして、外側の画素に画素値“0”を代入する。すなわち、抽出対象物体の概略形状2の内側の画素全てが画素値“255”に塗りつぶされた、その背景は全て画素値“0”に塗りつぶされた画像(すなわち、二値画像)が得られる。このような処理を施して得た画像(二値画像)をシェイプデータあるいはアルファマップなどと呼ぶ。   Therefore, the pixel value “255” is substituted for the inner pixel of the schematic shape 2 of the extraction target object, and the pixel value “0” is substituted for the outer pixel. That is, an image in which all the pixels inside the outline shape 2 of the extraction target object are filled with the pixel value “255” and all the backgrounds are filled with the pixel value “0” (that is, a binary image) is obtained. An image (binary image) obtained by performing such processing is called shape data or an alpha map.

自己相似写像を用いる手法によれば、暫定的に与えた抽出対象物体の概略形状2、すなわち、言い換えれば暫定的に設定したシェイプデータの輪郭を、求めたい物体の正しい輪郭である抽出対象物体1の輪郭1aに一致させることができる。   According to the method using the self-similar mapping, the tentatively given outline 2 of the extraction target object, that is, the tentatively set outline of the shape data is the extraction target object 1 that is the correct outline of the object to be obtained. It can be made to correspond to the outline 1a.

そのためには、まず、暫定的なシェイプデータ(暫定的なアルファマップ)の輪郭(抽出対象物体の概略形状2)に沿って探索基準ブロックB1,B2,…,Bn-1,Bnを配置する。   For this purpose, first, search reference blocks B1, B2,..., Bn−1, Bn are arranged along the outline of the temporary shape data (provisional alpha map) (schematic shape 2 of the extraction target object).

これは、暫定的なシェイプデータ(暫定的なアルファマップ)の画像について左上画素(座標位置0,0)から右方向へ、上のラインから下のラインへ順にスキャンし、すなわち、基準座標位置からXYスキャンさせて画素を調べていき、左隣りあるいは上隣りの画素と画素値が異なり、それまでに設定したブロックに含まれない画素である場合に、その画素を中心にして所定の大きさ(ブロックサイズb)のブロックを配置することで行う。これにより、図5にB1,B2,…,Bnで示すようにブロックが数珠つなぎに重なり合いながら設定された探索基準ブロックが得られる。   This scans the image of provisional shape data (provisional alpha map) from the upper left pixel (coordinate position 0, 0) in the right direction and sequentially from the upper line to the lower line, that is, from the reference coordinate position. The pixel is examined by XY scanning, and when the pixel value is different from the pixel on the left or upper side and is not included in the block set so far, a predetermined size ( This is done by arranging blocks of block size b). Thereby, as shown by B1, B2,..., Bn in FIG. 5, a search reference block set while overlapping the blocks in a daisy chain is obtained.

次に、処理対象のフレーム画像中における該当座標位置上にそれぞれの探索基準ブロックB1,…,Bnを位置させる。これにより、抽出対象物体(正しい物体領域)1の輪郭位置を一部に含む抽出対象物体1の部分領域をそれぞれの探索基準ブロックB1,…,Bnが含むことになるので、それぞれそのブロック内の画素状況が似ている相似ブロックを求める。   Next, each search reference block B1,..., Bn is positioned on the corresponding coordinate position in the frame image to be processed. As a result, each search reference block B1,..., Bn includes a partial region of the extraction target object 1 partially including the contour position of the extraction target object (correct object region) 1. Find similar blocks with similar pixel conditions.

相似ブロックは対応する探索基準ブロックを領域拡大した範囲で試行錯誤的に各相似候補ブロックを設定し、その相似候補ブロック内の画像を縮小したものと探索基準ブロック内の画像との誤差が最小となるものを見つけてそれを相似ブロックとして求める。例えば、図6に、探索基準ブロックB1の相似ブロックBs1を示すが、この図の如き対応となる。   Similar blocks are trial-and-error set within the range of the corresponding search reference block, and the error between the reduced image in the similar candidate block and the image in the search reference block is minimized. Find what will be and find it as a similar block. For example, FIG. 6 shows a similar block Bs1 of the search reference block B1, which corresponds to this diagram.

このようにして、それぞれの探索基準ブロックB1,…,Bnに対しての抽出対象物体(正しい物体領域)1の相似ブロックを求める。
このように、相似ブロックとは、対応する探索基準ブロックよりも大きく、その画像データを縮小したときの画素値が、探索基準ブロック内の画像データとほぼ等しくなるものをいう。
In this way, similar blocks of the extraction target object (correct object region) 1 for each search reference block B1,..., Bn are obtained.
As described above, a similar block is a block that is larger than the corresponding search reference block and has a pixel value that is substantially equal to the image data in the search reference block when the image data is reduced.

相似ブロックを見つけるための具体的手法は、次の如きである。例えば、探索基準ブロックB1の相似ブロックを見つけるためには、図7に示したように、探索基準ブロックB1の周囲に適宜な大きさの探索領域Fs1を設定する。そして、この探索領域Fs1の内部において相似候補ブロックBcを様々に設定しながら、その度にブロックサイズヘの縮小処理と探索基準ブロックB1との誤差評価を行い、誤差が最小となった相似候補ブロックを相似ブロックBcdとして決定する。   A specific method for finding similar blocks is as follows. For example, in order to find a similar block of the search reference block B1, a search area Fs1 having an appropriate size is set around the search reference block B1, as shown in FIG. Then, while setting various similar candidate blocks Bc in the search area Fs1, the error evaluation between the block size reduction process and the search reference block B1 is performed each time, and the similar candidate block whose error is minimized Is determined as the similar block Bcd.

図7の例では、探索基準ブロックB1の縦横2倍で中心が同じ位置である相似候補ブロックBcを基準にしてこれを上下左右に各々w画素の範囲で1画素ずつずらしながら誤差評価を行う。   In the example of FIG. 7, the error evaluation is performed while shifting the vertical direction and the horizontal direction of the search reference block B1 by one pixel within the range of w pixels on the basis of the similarity candidate block Bc whose center is the same position.

なお、図6では探索基準ブロックB1の相似ブロックBs1しか示していないが、もちろん図5に示した全ての探索基準ブロックB1,…Bnに対してそれぞれ相似ブロックを求める。   6 shows only the similar block Bs1 of the search reference block B1, but of course, similar blocks are obtained for all the search reference blocks B1,... Bn shown in FIG.

次に、シェイプデータ(アルファマップ)に対して、各探索基準ブロックB1,…Bnの位置に該当するデータについて、その探索基準ブロック対応の相似ブロック内の画像から得たシェイプデータ(アルファマップ)で置き換えると云う手法で補正する。相似ブロックは探索基準ブロックよりサイズが大きいので、当然のことながらサイズは縮小処理して合わせる(サイズの正規化)。   Next, with respect to the shape data (alpha map), the data corresponding to the position of each search reference block B1,... Bn is the shape data (alpha map) obtained from the image in the similar block corresponding to the search reference block. It corrects by the technique of replacing. Since the similar block is larger in size than the search reference block, the size is naturally reduced and matched (size normalization).

このようにして探索基準ブロック対応の相似ブロック内の画像から得た正規化済みのシェイプデータ(アルファマップ)で置き換えると云う手法で補正する。これを全ての探索基準ブロックB1,…Bnにおいて1回ずつ行うと、シェイプデータの輪郭(抽出対象物体の概略形状2)は正しい物体領域1の輪郭1aに近づく。そして、置き換えを再帰的に反復することにより、図8に示したように、シェイプデータの輪郭(抽出対象物体の概略形状2)は正しい物体領域1の輪郭1aの近くに収束する。   In this way, correction is performed by a technique of replacing with normalized shape data (alpha map) obtained from the image in the similar block corresponding to the search reference block. If this is performed once in all the search reference blocks B1,... Bn, the outline of the shape data (the outline shape 2 of the extraction target object) approaches the outline 1a of the correct object region 1. Then, by repeating the replacement recursively, the contour of the shape data (schematic shape 2 of the extraction target object) converges near the contour 1a of the correct object region 1 as shown in FIG.

この手法では探索基準ブロックB1,…Bnに正しい物体領域1の輪郭線が含まれている必要がある。従って、正しい物体領域1の輪郭線に対する探索基準ブロックB1,…Bnのずれが大きい場合には、まず、大きなブロックを用いて上述した処理を行うことで、シェイプデータの輪郭(抽出対象物体の概略形状2)を正しい物体領域1の輪郭1aの近くに寄せ、次に、小さなブロックで上述の処理を行うことで、細かな凸凹を一致させる。
これにより、輪郭のずれが大きい場合でも高い精度で輪郭の抽出が可能となる。そのフローチャートを図9に示す。図9のフローチャートに従って処理を説明すると、まず、
[ステップS1の処理]:探索基準ブロックのブロックサイズをbとすると、このブロックサイズbをAと置く。
In this method, the search reference blocks B1,... Bn need to include the correct contour line of the object region 1. Therefore, when the difference between the search reference blocks B1,... Bn with respect to the contour of the correct object region 1 is large, first, by performing the above-described processing using a large block, the contour of the shape data (the outline of the object to be extracted) The shape 2) is brought close to the contour 1a of the correct object region 1, and then the above-described processing is performed on a small block, thereby matching fine irregularities.
As a result, the contour can be extracted with high accuracy even when the contour shift is large. The flowchart is shown in FIG. The process will be described with reference to the flowchart of FIG.
[Process of Step S1]: If the block size of the search reference block is b, this block size b is set to A.

[ステップS2の処理]:このブロックサイズbを用いて、先に図5〜図8を用いて説明した輪郭位置補正処理を行う。   [Processing of Step S2]: Using this block size b, the contour position correcting process described above with reference to FIGS.

[ステップS3の処理]:次に、探索基準ブロックのブロックサイズbを前回の半分の値にする。   [Process of Step S3]: Next, the block size b of the search reference block is set to a half value of the previous time.

[ステップS4の処理]:その結果、探索基準ブロックのブロックサイズbがZ(<A)よりも小さい場合には処理を終了し、そうでない場合にはステップS2の処理に戻る。   [Process of Step S4]: As a result, if the block size b of the search reference block is smaller than Z (<A), the process is terminated, and if not, the process returns to the process of Step S2.

このような処理により、暫定的に与えたシェイプデータ(暫定的に与えたアルファマップ)の輪郭が、目的の抽出対象の輪郭とずれが大きいような場合でも、目的の抽出対象の輪郭に一致させるように輪郭位置補正処理することができ、従って、この輪郭位置補正処理による補正済みのシェイプデータ(アルファマップ)を用いることで画像中から高い精度で当該目的の抽出対象画像の輪郭を抽出できるようになる。   By such processing, even if the contour of the provisionally given shape data (provisionally given alpha map) is largely different from the contour of the target extraction target, the contour is matched with the target extraction target contour. Therefore, the contour of the target extraction target image can be extracted from the image with high accuracy by using the shape data (alpha map) corrected by the contour position correction processing. become.

画像データから目的の画像部分を抽出する方法として、何らかの方法で物体の概略形状が求まっているときに、その概略形状をもとにして、抽出対象物体の領域を求める技術が求められており、その手法の一つとして、自己相似写像を用いる手法がある。   As a method of extracting a target image portion from image data, when a rough shape of an object is obtained by some method, a technique for obtaining a region of an extraction target object based on the rough shape is required. One method is to use a self-similar map.

この技術は、画像中の目的の画像部分の概略形状をオペレータがマニュアル操作で大雑把に描くことにより、抽出対象物体の概略形状2を得、この抽出対象物体の概略形状2の内側の画素に画素値“255”を代入し、そして、外側の画素に画素値“0”を代入する処理(つまり、二値化)を施すことで、シェイプデータを得る。   In this technique, an operator roughly draws a rough shape of a target image portion in an image by manual operation to obtain a rough shape 2 of the extraction target object, and a pixel inside the rough shape 2 of the extraction target object is a pixel. By substituting the value “255” and substituting the pixel value “0” for the outer pixel (that is, binarization), shape data is obtained.

そして、シェイプデータの輪郭(抽出対象物体の概略形状2)に沿って探索基準ブロックB1,B2,…,Bn-1,Bnを配置する。   Then, search reference blocks B1, B2,..., Bn−1, Bn are arranged along the outline of the shape data (schematic shape 2 of the extraction target object).

次に、それぞれの探索基準ブロックB1,…,Bnについてそれぞれ相似ブロックを求める。   Next, similar blocks are obtained for the respective search reference blocks B1,..., Bn.

次に、シェイプデータについて、各探索基準ブロックB1,…Bnの位置のデータを、その探索基準ブロック対応の相似ブロックにて切り出して縮小したもので置き換える。これを全ての探索基準ブロックB1,…Bnにおいて1回ずつ行うと、シェイプデータの輪郭(抽出対象物体の概略形状2)は正しい物体領域1の輪郭1aに近づく。そして、置き換えを再帰的に反復することにより、図8に示したように、シェイプデータの輪郭(抽出対象物体の概略形状2)は正しい物体領域1の輪郭1aの近くに収束することになる。それは、各相似ブロックが、それぞれが対応している探索基準ブロックよりも大きく、その画像データを縮小したときの画素値が、探索基準ブロック内の画像データとほぼ等しくなるものだからである。   Next, with respect to the shape data, the data at the position of each search reference block B1,... Bn is replaced with the data cut out by the similar block corresponding to the search reference block and reduced. If this is performed once in all the search reference blocks B1,... Bn, the outline of the shape data (the outline shape 2 of the extraction target object) approaches the outline 1a of the correct object region 1. Then, by repeating the replacement recursively, the contour of the shape data (schematic shape 2 of the extraction target object) converges near the contour 1a of the correct object region 1 as shown in FIG. This is because each similar block is larger than the corresponding search reference block, and the pixel value when the image data is reduced is almost equal to the image data in the search reference block.

この手法では探索基準ブロックB1,…Bnに正しい物体領域1の輪郭線が含まれている必要がある。従って、正しい物体領域1の輪郭線に対する探索基準ブロックB1,…Bnのずれが大きい場合には、まず、大きなブロックを用いて上述した処理を行うことで、暫定的に与えたシェイプデータの輪郭(抽出対象物体の概略形状2)を正しい物体領域1の輪郭1aの近くに寄せ、次に、小さなブロックで上述の処理を行うことで、細かな凸凹までもを一致させる補正ができる。そして、これにより、輪郭のずれが大きい場合でも高い精度で輪郭の抽出が可能となる。   In this method, the search reference blocks B1,... Bn need to include the correct contour line of the object region 1. Therefore, when the difference between the search reference blocks B1,... Bn with respect to the contour of the correct object region 1 is large, first, the above-described processing is performed using a large block, so that the contour of the provisionally given shape data ( By bringing the outline shape 2) of the extraction target object close to the outline 1a of the correct object region 1 and then performing the above-described processing with a small block, it is possible to correct even fine irregularities. As a result, the contour can be extracted with high accuracy even when the contour shift is large.

自己相似写像を用いるこのような手法によれば、暫定的に与えた抽出対象物体の概略形状2、すなわち、言い換えれば暫定的に与えたシェイプデータの輪郭を、正しい物体領域1の輪郭1aに一致させることができる。   According to such a method using the self-similar mapping, the outline shape 2 of the provisional object to be provisionally given, that is, the outline of the shape data provisionally given coincides with the outline 1 a of the correct object region 1. Can be made.

しかしながら、この手法の場合、相似ブロック探索の演算量が多く、画像から目的画像部分を高速で抽出することが困難であるという問題があった。そのため、動画像などに適用するにはさらなる改善が必要である。   However, in this method, there is a problem that it is difficult to extract a target image portion from an image at a high speed because the calculation amount of the similar block search is large. Therefore, further improvement is necessary to apply to moving images.

そこで、この発明の目的とするところは、処理量を削減でき、画像から目的画像部分を高速で抽出することが可能となる画像の輪郭抽出方法を提供することにある。   Accordingly, an object of the present invention is to provide an image contour extraction method capable of reducing the amount of processing and extracting a target image portion from an image at high speed.

上記目的を達成するため、本発明は次のように構成する。   In order to achieve the above object, the present invention is configured as follows.

[1]第1には、輪郭抽出対象物体が撮像された画像データと、この画像データ内の輪郭抽出対象物体の領域を表わす暫定的な輪郭形状の二値化画像であるシェイプデータを入力とし、前記シェイプデータの輪郭部分に、それぞれ中心位置を置いて所定サイズの探索基準ブロックを、互いの位置をずらして複数設定する第1のステップと、各探索基準ブロック毎に、そのブロック内での前記画像データの図柄が相似で、かつ、前記探索基準ブロックよりも大きいブロックサイズの相似ブロックを同じ画像の中から探索する第2のステップと、シェイプデータのうち、前記各探索基準ブロック内におけるシェイプデータを、各々の前記相似ブロックより得た縮小処理によるサイズ調整済みの補正用シェイプデータと置き換えることによりシェイプデータの補正処理をする第3のステップとから成り、前記第3のステップを所定の回数繰り返すことにより、シェイプデータの輪郭線を前記物体の輪郭線に一致させる輪郭抽出処理方法において、
前記輪郭抽出処理を所定の回数反復して行い、
その反復の初めには前記画像データとシェイプデータを縮小して輪郭抽出処理を行うことを特徴とする。
[1] First, image data obtained by capturing the contour extraction target object and shape data that is a binary image of a provisional contour shape representing the region of the contour extraction target object in the image data are input. , A first step of setting a plurality of search reference blocks of a predetermined size with their respective center positions placed on the contour portion of the shape data, and for each search reference block within each block, A second step of searching for a similar block in the same image with a similar block size of the image data and a block size larger than the search reference block; and among the shape data, the shape in each search reference block By replacing the data with the correction-corrected shape data obtained by the reduction process obtained from each of the similar blocks, the shape is corrected. And a third step of the correction processing of the data, by repeating the number of times the third step a given, in the contour extraction processing method for matching the contour of the shape data in the contour of the object,
The contour extraction process is repeated a predetermined number of times,
At the beginning of the iteration, the image data and the shape data are reduced and contour extraction processing is performed.

本発明においては、自己写像を用いる方法を採用して暫定のシェイプデータ (アルファマップ)を輪郭抽出対象物体の輪郭に一致するように修正するが、そのために輪郭抽出対象物体が撮像された画像データと、この画像データ内の輪郭抽出対象物体の領域を表わす暫定的な輪郭形状の二値化画像であるシェイプデータを用い、前記シェイプデータの輪郭部分に、それぞれ中心位置を置いて所定サイズの探索基準ブロックを、互いの位置をずらして複数設定する。そして、各探索基準ブロック毎に、そのブロック内での前記画像データの図柄が相似で、かつ、前記探索基準ブロックよりも大きいブロックサイズの相似ブロックを同じ画像の中から探索する。そして、シェイプデータのうち、前記各探索基準ブロック内におけるシェイプデータを、各々の前記相似ブロックより得た縮小処理によるサイズ調整済みの補正用シェイプデータと置き換えることにより、シェイプデータの補正処理をする。   In the present invention, a method using self-mapping is employed to correct the temporary shape data (alpha map) so as to match the contour of the contour extraction target object. For this purpose, image data obtained by capturing the contour extraction target object is used. And a search for a predetermined size by using the shape data which is a binarized image of a temporary contour shape representing the region of the contour extraction target object in the image data, and placing the center position on each contour portion of the shape data. A plurality of reference blocks are set by shifting their positions. Then, for each search reference block, a search is made in the same image for a similar block having a similar design of the image data in the block and a block size larger than the search reference block. Then, the shape data correction processing is performed by replacing the shape data in each search reference block among the shape data with the shape data for correction that has been size-adjusted by the reduction processing obtained from each of the similar blocks.

本発明では、前記輪郭抽出処理を所定の回数反復して行い、その反復の初めには前記画像データとシェイプデータを縮小して輪郭抽出処理を行う。   In the present invention, the contour extraction process is repeated a predetermined number of times, and at the beginning of the repetition, the image data and shape data are reduced to perform the contour extraction process.

すなわち、複数回繰り返される輪郭抽出処理においては、そのはじめの方では前記画像データとシェイプデータを縮小して輪郭抽出処理を行うが、処理対象の画像サイズを小さくすれば、それに合わせて輪郭のずれの画素数も小さくなることから、探索基準ブロックのブロックサイズをそれほど大きくしなくてもシェイプデータの輪郭を正しい位置に近づけることができることを利用している。故に、本発明では、はじめの方の回の輪郭抽出処理においては、画像データは縮小したものを用いると共に、あわせてシェイプデータおよび探索基準ブロックも縮小したものを用いて輪郭抽出処理を行う。   That is, in the contour extraction process that is repeated a plurality of times, the image data and the shape data are reduced at the beginning, and the contour extraction process is performed. However, if the image size to be processed is reduced, the contour shifts accordingly. Therefore, the fact that the contour of the shape data can be brought close to the correct position without making the block size of the search reference block so large is utilized. Therefore, according to the present invention, in the first round of contour extraction processing, the image data is reduced and the contour extraction processing is performed using the shape data and the search reference block also reduced.

ここでの処理に従来よりも小さなサイズのブロックで処理が行えるのでその分、演算量も少なくて済む。輪郭抽出処理の回数が進むと、元の画像サイズでの輪郭抽出処理が行われることで、最終的には輪郭抽出対象物体の持つ輪郭の細かい凸凹も反映されるようにシェイプデータの補正がなされ、この補正されたシェイプデータを用いることで、輪郭抽出対象物体の輪郭を精度良く抽出できるようになる。   Since the processing can be performed with a block having a smaller size than the conventional processing, the amount of calculation can be reduced accordingly. As the number of contour extraction processes increases, the contour extraction process is performed with the original image size, so that the shape data is corrected so that the fine contours of the contour extraction target object are finally reflected. By using this corrected shape data, the contour of the contour extraction target object can be extracted with high accuracy.

従って、この発明によれば、シェイプデータ(アルファマップ画像)の輪郭位置補正の処理量を軽減でき、画像から目的画像部分を高速で抽出することが可能となる画像の輪郭抽出方法を提供できる。   Therefore, according to the present invention, it is possible to provide an image contour extraction method capable of reducing the amount of processing for contour position correction of shape data (alpha map image) and extracting a target image portion from an image at high speed.

[2]また、本発明は、輪郭抽出対象物体が撮像された画像データと、この画像データ内の輪郭抽出対象物体の領域を表わす暫定的な輪郭形状の二値化画像であるシェイプデータを入力とし、前記シェイプデータの輪郭部分に、それぞれ中心位置を置いて所定サイズの探索基準ブロックを、互いの位置をずらして複数設定する第1のステップと、各探索基準ブロック毎に、そのブロック内での前記画像データの図柄が相似で、かつ、前記探索基準ブロックよりも大きいブロックサイズの相似ブロックを同じ画像の中から探索する第2のステップと、シェイプデータのうち、前記各探索基準ブロック内におけるシェイプデータを、各々の前記相似ブロックより得た縮小処理によるサイズ調整済みの補正用シェイプデータと置き換えることによりシェイプデータの補正処理をする第3のステップとから成り、前記第3のステップを所定の回数繰り返すことにより、シェイプデータの輪郭線を前記物体の輪郭線に一致させる輪郭抽出処理方法において、
前記第2のステップでの処理は、相似ブロックの探索範囲を探索基準ブロック内のシェイプデータの輪郭の方向と垂直な方向に制限することを特徴とする。
[2] Further, according to the present invention, image data obtained by capturing the contour extraction target object and shape data that is a binary image of a provisional contour shape representing the region of the contour extraction target object in the image data are input. And a first step of setting a plurality of search reference blocks of a predetermined size with their respective center positions positioned in the contour portion of the shape data, and for each search reference block within each block A second step of searching the same image for a similar block having a block size larger than that of the search reference block, and the shape of the image data within each search reference block. By replacing the shape data with the correction-corrected shape data obtained by the reduction process obtained from each of the similar blocks And a third step of the correction process Eipudeta, by repeating the number of times the third step a given, in the contour extraction processing method for matching the contour of the shape data in the contour of the object,
The processing in the second step is characterized in that the search range of the similar block is limited to a direction perpendicular to the direction of the contour of the shape data in the search reference block.

本発明においては、自己写像を用いる方法を採用してシェイプデータ(アルファマップ)を輪郭抽出対象物体の輪郭に一致するように修正するが、そのために輪郭抽出対象物体が撮像された画像データと、この画像データ内の輪郭抽出対象物体の領域を表わす暫定的な輪郭形状の二値化画像であるシェイプデータを用い、前記シェイプデータの輪郭部分に、それぞれ中心位置を置いて所定サイズの探索基準ブロックを、互いの位置をずらして複数設定する。各探索基準ブロック毎に、そのブロック内での前記画像データの図柄が相似で、かつ、前記探索基準ブロックよりも大きいブロックサイズの相似ブロックを同じ画像の中から探索する。シェイプデータのうち、各探索基準ブロック内におけるシェイプデータを、各々の相似ブロックより得た縮小処理によるサイズ調整済みの補正用シェイプデータと置き換えることによりシェイプデータの補正処理をする。   In the present invention, the shape data (alpha map) is corrected so as to match the contour of the contour extraction target object by adopting a method using self-mapping, for that purpose, image data obtained by capturing the contour extraction target object, A search reference block having a predetermined size with a center position on each contour portion of the shape data using shape data which is a binarized image of a temporary contour shape representing the region of the contour extraction target object in the image data Are set by shifting the position of each other. For each search reference block, a search is made in the same image for a similar block having a similar design of the image data in the block and having a block size larger than that of the search reference block. Of the shape data, the shape data in each search reference block is replaced with the shape data for correction that has been size-adjusted by the reduction processing obtained from the respective similar blocks, thereby correcting the shape data.

本発明では、前記第2のステップでの処理、すなわち、各探索基準ブロック毎に、そのブロック内での前記画像データの図柄が相似で、かつ、前記探索基準ブロックよりも大きいブロックサイズの相似ブロックを同じ画像の中から探索する相似ブロック探索処理は、相似ブロックの探索範囲を探索基準ブロック内のシェイプデータの輪郭の方向と垂直な方向に制限するようにする。   In the present invention, the processing in the second step, that is, for each search reference block, the image data in the block is similar, and the similar block has a larger block size than the search reference block. In the similar block search process of searching for the same image from the same image, the search range of the similar block is limited to a direction perpendicular to the direction of the contour of the shape data in the search reference block.

すなわち、ある探索基準ブロックに対する相似ブロック探索処理は、従来手法によれば、その探索基準ブロックを中心に、上下左右所定の範囲内でブロックサイズを拡張して類似の画素パターンを示すものを探すことで実施するが、本発明では相似ブロックの探索範囲を探索基準ブロック内のシェイプデータの輪郭の方向と垂直な方向に制限する。これにより、演算量を軽減する。   In other words, according to the conventional method, the similar block search process for a certain search reference block is to search for a block having a similar pixel pattern by extending the block size within a predetermined range up, down, left, and right around the search reference block. However, in the present invention, the search range of the similar blocks is limited to a direction perpendicular to the contour direction of the shape data in the search reference block. This reduces the amount of calculation.

輪郭抽出対象物体の輪郭は、もちろん未知であり、暫定的に与えたシェイプデータの輪郭をどちらに動かせば輪郭抽出対象物体の輪郭に近づくのかも、相似ブロック探索時には当然分からないわけであるが、シェイプデータの輪郭の方向と輪郭抽出対象物体の輪郭の方向は経験的にみて、ほぼ合っていることがほとんどなので、シェイプデータの輪郭の方向と垂直な方向に対して探索するのが最も合理的である。   Of course, the contour of the contour extraction target object is unknown, and it is naturally unknown when searching for similar blocks whether the contour of the shape data given provisionally is moved to approach the contour of the contour extraction target object. Since the direction of the contour of the shape data and the direction of the contour of the contour extraction target object are empirically almost the same, it is most reasonable to search for the direction perpendicular to the contour direction of the shape data. It is.

従って、この発明によれば、シェイプデータ(アルファマップ)の輪郭位置補正の処理量を軽減でき、画像か-ら目的画像部分を高速で抽出することが可能となる画像の輪郭抽出方法を提供できる。   Therefore, according to the present invention, it is possible to provide an image contour extraction method capable of reducing the amount of processing for contour position correction of shape data (alpha map) and extracting a target image portion from an image at high speed. .

更に、本発明は、抽出対象物体が撮像された画像データの各部分を同じ画像データの別の部分または別の画像データと比較することにより、この画像データ内の抽出対象物体の暫定的な領域を表わす画像であるシェイプデータを生成する第1のステップと、前記画像データと暫定的に生成した前記シェイプデータとを用いて、前記シェイプデータの輪郭を前記抽出対象物体の輪郭に一致させる第2のステップとから成ることを特徴とする画像からの物体抽出方法を提供する。   Furthermore, the present invention compares each part of the image data in which the extraction target object is imaged with another part of the same image data or another image data, so that the provisional region of the extraction target object in this image data is obtained. A second step of matching the contour of the shape data with the contour of the object to be extracted using the first step of generating shape data that is an image representing the image, and the shape data generated provisionally. An object extraction method from an image is provided.

本発明によると、物体を所定位置に固定しなくとも適正に物体を抽出できる。   According to the present invention, an object can be appropriately extracted without fixing the object at a predetermined position.

本発明は、抽出対象物体が撮像された画像データと、前記画像データ内の抽出対象物体の暫定的な領域を表す画像であるシェイプデータを入力とし、前記シェイプデータの輪郭部分に、それぞれ中心部分をおいて所定サイズの探索基準ブロックを、互いの位置をずらして複数設定する第1のステップと、各探索基準ブロック毎に、そのブロック内での前記画像データの図柄が相似で、かつ、前記探索基準ブロックよりも大きいブロックサイズの相似ブロックを同じ画像の中から探索する第2のステップと、前記シェイプデータのうち、前記各探索基準ブロック内におけるシェイプデータを、前記相似ブロックより得た縮小処理によるサイズ補正済みの補正用シェイプデータと置き換えることによりシェイプデータの補正処理をする第3のステップとから成る物体抽出方法において、
前記シェイプデータは、互いに異なる物体の領域と背景領域ではそれぞれ互いに異なる画素値を有し、前記第3のステップにおける縮小処理では、前記シェイプデータのサンプリング点の周囲のいずれかの画素の画素値をサンプリング値とすることを特徴とする画像からの物体抽出方法を提供する。
The present invention receives, as input, image data obtained by capturing an extraction target object and shape data that is an image representing a provisional area of the extraction target object in the image data. A first step of setting a plurality of search reference blocks having a predetermined size by shifting their positions, and for each search reference block, the design of the image data in the block is similar, and A second step of searching for a similar block having a block size larger than the search reference block from the same image; and a reduction process of obtaining the shape data in each search reference block among the shape data from the similar block The third step of correcting the shape data by replacing the corrected shape data with the size of In the object extraction method comprising the flop,
The shape data has different pixel values in different object regions and background regions, and in the reduction process in the third step, the pixel value of any pixel around the sampling point of the shape data is obtained. Provided is a method for extracting an object from an image, characterized by using a sampling value.

本発明は、 送受信データを相互に送受するサーバーとクライアントからなる伝送システムにおいて、前記クライアントは、抽出対象物体が撮像された画像データから物体を抽出して抽出画像データを得る物体抽出手段と、前記抽出画像データをそのままか、あるいは圧縮し、上り送受信データとして前記サーバーに送るクライアント送信手段と、前記サーバーから送られてくる下り送受信データを受信して、その送受信データが圧縮されていない場合にはそのまま画像データとし、圧縮されている場合には画像データを再生するクライアント受信手段と、前記画像データを表示する手段とで構成され、
前記サーバーは、前記上り送受信データを受信して、その送受信データが圧縮されていない場合にはそのまま抽出画像データとし、圧縮されている場合には抽出面像データを再生するサーバー受信手段と、前記抽出画像データを一つの合成画像データに合成する合成手段と、前記合成画像データをそのままか、あるいは圧縮し、前記下り送受信データとして送信するサーバー送信手段とで構成される、ことを特徴とする伝送システムを提供する。
The present invention provides a transmission system composed of a server and a client that mutually transmit and receive transmission / reception data, wherein the client extracts an object from image data obtained by capturing an extraction target object and obtains extracted image data; and When the extracted image data is compressed as it is or is compressed and sent to the server as upstream transmission / reception data, and the downstream transmission / reception data sent from the server is received, and the transmission / reception data is not compressed It is composed of client receiving means for reproducing the image data when compressed as image data as it is, and means for displaying the image data.
The server receives the upstream transmission / reception data, and when the transmission / reception data is not compressed, it is used as extracted image data as it is, and when it is compressed, server reception means for reproducing the extracted plane image data; Transmission comprising: combining means for combining extracted image data into one composite image data; and server transmission means for transmitting the composite image data as it is or after compressing the composite image data as the downlink transmission / reception data Provide a system.

本発明によれば、暫定的に与えたシェイプデータ(アルファマップ)の輪郭を輪郭抽出対象物体の輪郭に近付ける処理を、演算量を大幅に軽減して実行できる。従って、その分、高速な輪郭抽出が可能となる画像の輪郭抽出方法を提供できる。   According to the present invention, the process of bringing the contour of the provisionally given shape data (alpha map) closer to the contour of the contour extraction target object can be executed with a greatly reduced amount of computation. Therefore, it is possible to provide an image contour extraction method that enables high-speed contour extraction accordingly.

また、本発明によれば、抽出対象の物体が画面内のどこにあっても自動的に初期シェイプデータが得られ、利用者の操作が不要か、非常に少ない操作で物体を抽出できる。   Also, according to the present invention, initial shape data can be automatically obtained wherever an object to be extracted is on the screen, and an object can be extracted with very few operations whether or not a user operation is required.

以下、本発明の実施形態について図面を参照して説明する。本発明においては、第1には、画像データと暫定的なシェイプデータと探索基準ブロックを用いて画像中の輪郭抽出対象物体の輪郭抽出に用いるシェイプデータ(アルファマップ)を輪郭抽出対象物体の輪郭に一致させるべく修正する輪郭補正処理を反復して行い、その反復の初めには画像データとシェイプデータと探索基準ブロックを縮小して輪郭補正処理を行う。   Embodiments of the present invention will be described below with reference to the drawings. In the present invention, first, the shape data (alpha map) used for the contour extraction of the contour extraction target object in the image using the image data, the provisional shape data, and the search reference block is used as the contour of the contour extraction target object. The contour correction processing for correcting the image data to match the above is repeated, and at the beginning of the iteration, the image data, the shape data, and the search reference block are reduced to perform the contour correction processing.

すなわち、この第1の発明では、はじめの方の回では輪郭補正処理は、画像サイズを小さくして処理するようにするので、それに合わせて輪郭のずれの画素数も小さくなることから、探索基準ブロックのブロックサイズをそれほど大きくしなくてもシェイプデータ(アルファマップ)の輪郭を正しい位置に近づけることができることを利用する。このように、従来よりも小さなブロックサイズの探索基準ブロックで処理が行えるので演算量も少なくできる。そして、最後には元の画像サイズで輪郭補正処理をすることで輪郭の細かい凸凹にもフィットさせたシェイプデータ(アルファマップ)を得ることができるようにする。   That is, in the first invention, the contour correction processing is performed with the image size being reduced in the first round, so that the number of pixels of the contour shift is also reduced accordingly. The fact that the contour of the shape data (alpha map) can be brought close to the correct position without making the block size of the block so large is utilized. As described above, since the processing can be performed with the search reference block having a smaller block size than the conventional one, the calculation amount can be reduced. Finally, by performing contour correction processing with the original image size, it is possible to obtain shape data (alpha map) fitted to irregularities with fine contours.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(本発明で用いる基本処理内容)
本発明においても輪郭補正処理の基本的な処理内容は従来例で説明した手法を踏襲する。
(Basic processing contents used in the present invention)
Also in the present invention, the basic processing content of the contour correction processing follows the method described in the conventional example.

[基本部分の手法]
すなわち、基本部分の手法は、次のようなものである。いま、図5に示すように、抽出処理対象の画像が撮像されたフレーム画像(原画像)中における当該抽出対象物体(正しい物体領域)1の画像があり、これを輪郭抽出処理することを考える。
[Basic method]
That is, the basic method is as follows. Now, as shown in FIG. 5, there is an image of the object to be extracted (correct object region) 1 in the frame image (original image) in which the image to be extracted is picked up, and it is considered that the contour is extracted. .

[処理1]
<抽出対象物体の概略形状設定>
オペレータは、原画像をディスプレイ画面に表示させ、画面上において当該抽出対象物体(正しい物体領域)1の画像に抽出対象物体の概略形状2を設定する。フレーム画像(原画像)と、抽出対象物体の概略形状2のデータは座標位置は両者で共通化されているが、レイヤを別にするなど、重ね表示はできても、両者のデータが混在しないように管理する。
[Process 1]
<Outline shape setting of extraction target object>
The operator displays the original image on the display screen, and sets the schematic shape 2 of the extraction target object in the image of the extraction target object (correct object region) 1 on the screen. The coordinate position of the frame image (original image) and the data of the approximate shape 2 of the object to be extracted is shared by both, but even if they can be overlaid such as by separate layers, the data of both will not be mixed To manage.

抽出対象物体の概略形状2は例えば、オペレータが画面に表示されたフレーム画像(原画像)上において抽出対象物体の外形に沿うようにマニュアル操作で大雑把に描いた外形線であり、抽出対象物体1の輪郭1aとはズレがある。   The outline shape 2 of the extraction target object is, for example, an outline drawn roughly by a manual operation so that the operator follows the outline of the extraction target object on the frame image (original image) displayed on the screen. There is a deviation from the outline 1a.

そこで、抽出対象物体の概略形状2の輪郭を、求めたい物体の正しい輪郭である抽出対象物体1の輪郭1aに一致させるための処理を、自己相似写像の手法により行う。
[処理2]
自己相似写像法は次の通りである。
Therefore, a process for matching the outline of the schematic shape 2 of the extraction target object with the outline 1a of the extraction target object 1 which is the correct outline of the object to be obtained is performed by the self-similar mapping method.
[Process 2]
The self-similar mapping method is as follows.

[処理2−1]
<シェイプデータ(アルファマップ)生成>
まず、前記抽出対象物体の概略形状2のデータを対象に、当該抽出対象物体の概略形状2の内側の画素に画素値“255”を代入し、そして、外側の画素に画素値“0”を代入する処理を施す。これにより、抽出対象物体の概略形状2の内側の画素全てが画素値“255”に塗りつぶされ、また、その背景は全て画素値“0”に塗りつぶされた画像(つまり、二値画像)であるシェイプデータ(アルファマップ)が得られる。
[Process 2-1]
<Generate shape data (alpha map)>
First, for the data of the outline shape 2 of the extraction target object, the pixel value “255” is assigned to the pixel inside the outline shape 2 of the extraction target object, and the pixel value “0” is assigned to the outside pixel. Apply the substitution process. As a result, all the pixels inside the outline shape 2 of the extraction target object are filled with the pixel value “255”, and the background is all filled with the pixel value “0” (that is, a binary image). Shape data (alpha map) is obtained.

[処理2−2]
<探索基準ブロックの配置>
次に、シェイプデータ(アルファマップ)の輪郭(抽出対象物体の概略形状2)に沿って探索基準ブロックB1,B2,…,Bn-1,Bnを配置する。
[Process 2-2]
<Location of search reference block>
Next, search reference blocks B1, B2,..., Bn−1, Bn are arranged along the outline of the shape data (alpha map) (schematic shape 2 of the extraction target object).

これは、アルファマップの左上画素(座標位置0,0)から右方向へ、上のラインから下のラインへ順にスキャンし、すなわち、基準座標位置からXYスキャンさせて画素を調べていき、左隣りあるいは上隣りの画素と画素値が異なり、それまでに設定したブロックに含まれない画素である場合に、その画素を中心にして所定の大きさ(ブロックサイズb)のブロックを配置することで行う。これにより、図5にB1,B2,…,Bnで示すようにそれぞれ固有の位置座標を以て配置される探索基準ブロックが得られる。この例では、探索基準ブロックB1,B2,…,Bnが数珠つなぎに重なり合いながら設定されている。   This is done by scanning from the upper left pixel (coordinate position 0, 0) of the alpha map in the right direction, sequentially from the upper line to the lower line, that is, by XY scanning from the reference coordinate position and examining the pixels. Alternatively, when the pixel value is different from that of the upper adjacent pixel and the pixel is not included in the previously set block, a block having a predetermined size (block size b) is arranged around the pixel. . As a result, search reference blocks arranged with their own position coordinates are obtained as indicated by B1, B2,..., Bn in FIG. In this example, the search reference blocks B1, B2,..., Bn are set while overlapping in a daisy chain.

[処理2−3]
<相似ブロックの取得>
それぞれ固有の位置座標を持つ探索基準ブロックB1,B2,…,Bnが得られたならば、次に、処理対象のフレーム画像(原画像)上にそれぞれの探索基準ブロックB1,…,Bnを座標位置を合わせて配置させる。
これにより、それぞれの探索基準ブロックB1,…,Bnはそれぞれの座標位置において、自己の持つブロックサイズの範囲で抽出対象物体(正しい物体領域)1の輪郭位置を一部に含む抽出対象物体1の部分領域を特定することになるので、これを用いてそれぞれそのブロック内の画素状況が似ている相似ブロックを求める。
[Processing 2-3]
<Acquiring similar blocks>
If search reference blocks B1, B2,..., Bn each having unique position coordinates are obtained, then the search reference blocks B1,..., Bn are coordinated on the frame image (original image) to be processed. Align and position.
As a result, each search reference block B1,..., Bn is the position of the extraction target object 1 partially including the contour position of the extraction target object (correct object region) 1 within the range of the block size that the search reference block B1,. Since the partial area is specified, a similar block having similar pixel conditions in each block is obtained using this.

ここで、相似ブロックとは、対応する探索基準ブロックよりも大きく、その画像データを縮小したときの画素値が、探索基準ブロック内の画像データとほぼ等しくなるものをいう。   Here, the similar block is a block that is larger than the corresponding search reference block and has a pixel value that is substantially equal to the image data in the search reference block when the image data is reduced.

相似ブロックは、対応する探索基準ブロックを領域拡大した範囲で試行錯誤的に各相似候補ブロックを設定し、そのブロックの範囲の画像について探索基準ブロックのブロックサイズに縮小したものと、対応する探索基準ブロックのブロック内画像の画素状況(簡単に云えばブロック内の図柄)が似ているか否かの度合いを誤差評価により調べ、誤差が最小(評価結果が最良)となるものを見つけてそれを相似ブロックとして求める。   Similar blocks are obtained by setting each similar candidate block by trial and error in a range in which the corresponding search reference block is enlarged, reducing the image within the block range to the block size of the search reference block, and the corresponding search criteria. Check the degree of whether or not the pixel status of the image in the block (simply speaking, the design in the block) is similar by error evaluation, find the one with the smallest error (best evaluation result), and compare it Ask as a block.

このようにして、それぞれの探索基準ブロックB1,…,Bnに対しての抽出対象物体(正しい物体領域)1の相似ブロックを求める。   In this way, similar blocks of the extraction target object (correct object region) 1 for each search reference block B1,..., Bn are obtained.

相似ブロックを見つけるための具体的手法は、次の如きである。
例えば、探索基準ブロックB1の相似ブロックを見つけるためには、図7に示したように、探索基準ブロックB1の周囲に適宜な大きさの探索領域Fs1を設定する。そして、この探索領域Fs1の内部において相似候補ブロックBcを様々に設定しながら、その度に探索基準ブロックB1のブロックサイズヘの縮小処理と、縮小処理後の相似候補ブロックと探索基準ブロックB1との画素分布の類似度を評価する誤差評価を行い、誤差が最小(評価結果が最良)となった相似候補ブロックを相似ブロックBcdとして決定する。
A specific method for finding similar blocks is as follows.
For example, in order to find a similar block of the search reference block B1, a search area Fs1 having an appropriate size is set around the search reference block B1, as shown in FIG. Then, various similar candidate blocks Bc are set within the search area Fs1, and each time, the reduction process to the block size of the search reference block B1 and the similar candidate block and the search reference block B1 after the reduction process are performed. Error evaluation for evaluating the similarity of the pixel distribution is performed, and the similarity candidate block having the smallest error (the evaluation result is the best) is determined as the similarity block Bcd.

図7の例では、探索基準ブロックB1の縦横2倍で中心の座標位置が同位置である相似候補ブロックBcを基準にして、これを上下左右に各々w画素の範囲で1画素ずつずらすことで得られる新たな相似候補ブロックを用い、探索基準ブロックB1の画素分布に対する誤差評価を行う。   In the example of FIG. 7, the similarity candidate block Bc whose vertical and horizontal dimensions are the same as the search reference block B1 and whose center coordinate position is the same position is used as a reference, and this is shifted by one pixel in the range of w pixels vertically and horizontally. An error evaluation is performed on the pixel distribution of the search reference block B1 using the obtained new similarity candidate block.

なお、図6では探索基準ブロックB1の相似ブロックBs1しか示していないが、もちろん図5に示した全ての探索基準ブロックB1,…Bnに対してそれぞれ最終的な相似ブロックBcd1,…Bcdnを求める。   6 shows only the similarity block Bs1 of the search reference block B1, but of course, final similarity blocks Bcd1,... Bcdn are obtained for all the search reference blocks B1,.

[処理2−4]
<輪郭位置補正処理>
全ての探索基準ブロックB1,…Bnに対してそれぞれ相似ブロックBcd1,…Bcdnが求められたならば、次に、シェイプデータ(アルファマップ)に対し、各探索基準ブロックB1,…Bn内の部分を、補正用のシェイプデータ(アルファマップ)で置き換えると云う処理をする。この補正用のシェイプデータ(アルファマップ)は、それぞれその探索基準ブロックに対応する相似ブロックBcd1,…Bcdnでシェイプデータ(アルファマップ)から切り出し、探索基準ブロックのブロックサイズに縮小処理したものである。
[Process 2-4]
<Outline position correction processing>
If similar blocks Bcd1,... Bcdn are obtained for all the search reference blocks B1,... Bn, next, the portions in the search reference blocks B1,. Then, the process of replacing with the correction shape data (alpha map) is performed. The correction shape data (alpha map) is obtained by cutting out from the shape data (alpha map) with the similar blocks Bcd1,... Bcdn corresponding to the search reference block, and reducing the block size of the search reference block.

これを全ての探索基準ブロックB1,…Bnにおいて1回ずつ行うと、シェイプデータの輪郭(抽出対象物体の概略形状2)は正しい物体領域1の輪郭1aに近づく。そして、このような置き換え処理を再帰的に反復することにより、図8に示したように、シェイプデータの輪郭(抽出対象物体の概略形状2)は正しい物体領域1の輪郭1aの近くに収束する。   If this is performed once in all the search reference blocks B1,... Bn, the outline of the shape data (the outline shape 2 of the extraction target object) approaches the outline 1a of the correct object region 1. Then, by repeating such replacement processing recursively, as shown in FIG. 8, the contour of the shape data (schematic shape 2 of the extraction target object) converges near the contour 1 a of the correct object region 1. .

このような処理により、シェイプデータ(アルファマップ)の輪郭は正しい物体領域1の持つ輪郭と細かな凸凹まで一致させることができる。   By such processing, the contour of the shape data (alpha map) can be matched with the contour of the correct object region 1 up to fine irregularities.

但し、この手法では「フレーム画像(原画像)上に探索基準ブロックB1,…Bnを配置した場合に、各探索基準ブロックB1,…Bn内には正しい物体領域1の輪郭線が含まれている」という条件が成立している必要がある。従って、正しい物体領域1の輪郭線に対する探索基準ブロックB1,…Bnのずれが大きい場合には、まず、大きなブロックを用いて上述した処理を行うことで、シェイプデータの輪郭(抽出対象物体の概略形状2)を正しい物体領域1の輪郭1aの近くに寄せる処理をして必要条件を整え、次に、小さなブロックで上述の処理を再帰的に行うことで、最終的に正しい物体領域1の輪郭に一致させる。   However, in this method, “when the search reference blocks B1,... Bn are arranged on the frame image (original image), the contour lines of the correct object region 1 are included in each search reference block B1,. Is necessary to be satisfied. Therefore, when the difference between the search reference blocks B1,... Bn with respect to the contour of the correct object region 1 is large, first, by performing the above-described processing using a large block, the contour of the shape data (the outline of the object to be extracted) The process of bringing the shape 2) close to the contour 1a of the correct object region 1 is performed to adjust the necessary conditions, and then the above processing is recursively performed with small blocks, so that the contour of the correct object region 1 is finally obtained. To match.

このような処理により得られた補正済みのシェイプデータ(アルファマップ)の輪郭は、輪郭抽出対象物体(正しい物体領域1)の持つ輪郭1aと細かな凸凹まで一致させることができる。
そして、これにより、輪郭のずれが大きい場合でも高い精度で輪郭の抽出が可能となる。
The contour of the corrected shape data (alpha map) obtained by such processing can be matched with the contour 1a of the contour extraction target object (correct object region 1) to fine irregularities.
As a result, the contour can be extracted with high accuracy even when the contour shift is large.

以上が、シェイプデータ(アルファマップ)の輪郭位置補正処理であり、本発明においても、基本的な処理の内容は、従来からあるこのような自己相似写像法を踏襲している。但し、本発明では、演算処理の負担を軽減させるために、輪郭位置補正処理で用いる探索基準ブロックのブロックサイズを従来手法より小さくするようにしている。手法の詳細を説明する。   The above is the contour position correction processing of the shape data (alpha map). In the present invention, the content of the basic processing follows the conventional self-similar mapping method. However, in the present invention, in order to reduce the burden of calculation processing, the block size of the search reference block used in the contour position correction processing is made smaller than that of the conventional method. Details of the method will be described.

(第1の実施形態)
すなわち、従来手法においては、図9に示したように、シェイプデータ(アルファマップ)も、また、原画像(抽出対象の撮像されているフレーム画像)も、また、探索基準ブロックも元々のサイズのままのもの(縮小していないもの)を用いた。しかし、それを本発明では演算処理低減のために、サイズを縦横それぞれ今までの半分のサイズにして処理を進めるようにする。
(First embodiment)
That is, in the conventional method, as shown in FIG. 9, the shape data (alpha map), the original image (the frame image being picked up), and the search reference block have the original size. As-is (not reduced) was used. However, in the present invention, in order to reduce the arithmetic processing, the size is reduced to half the current size in the vertical and horizontal directions.

すなわち、従来は、探索基準ブロックの一辺あたりのブロックサイズをbとすると、このbはAと置いた。そして、このAなるブロックサイズbの探索基準ブロックを用い、かつ、原画像(抽出対象の撮像されているフレーム画像)およびシェイプデータ(アルファマップ)も元々のサイズの画像を用い、先に図5〜図8を用いて説明した輪郭位置補正処理を行った。そして、次に、Aなるブロックサイズbを、その半分の値にし、ブロックサイズbがZ(<A)よりも小さい場合には終了し、そうでない場合にはブロックサイズをさらに半分にしてこれを用いて輪郭位置補正処理を行うと云う処理を繰り返した。   That is, conventionally, when the block size per side of the search reference block is b, this b is set as A. Then, the search reference block having the block size b of A is used, and the original image (the frame image being picked up as an extraction target) and the shape data (alpha map) are also used in the original size, and FIG. The contour position correction process described with reference to FIG. 8 was performed. Then, the block size b of A is reduced to half of the value, and if the block size b is smaller than Z (<A), the process ends. Otherwise, the block size is further reduced to half. The process of performing the contour position correction process was repeated.

そして、このような処理により、輪郭のずれが大きい場合でも高い精度で輪郭抽出できるようにした。   By such processing, the contour can be extracted with high accuracy even when the contour shift is large.

これに対して、本発明では、輪郭位置補正処理は粗調整段階と、本調整段階との2段処理とし、粗調整段階での輪郭位置補正処理では、はじめから暫定的なシェイプデータ(アルファマップ)を縦横1/2に縮小したものを、また、原画像も縦横1/2に縮小した画像を用いるようにし、それに合わせて探索基準ブロックもブロックサイズはb/2にしたものを用い、輪郭位置補正処理を行うようにする。そして、これにより、演算処理を軽減するようにした。   On the other hand, in the present invention, the contour position correction process is a two-stage process of a rough adjustment stage and a main adjustment stage. In the contour position correction process in the coarse adjustment stage, provisional shape data (alpha map) from the beginning. ) Is reduced to 1/2 in the vertical and horizontal directions, and the original image is also reduced to 1/2 in the vertical and horizontal directions, and the search reference block having a block size of b / 2 is used accordingly. A position correction process is performed. As a result, the arithmetic processing is reduced.

図1は、本発明の一実施形態を示すフローチャートであり、このフローチャートを参照して本発明を説明する。本発明では、第1段階としてシェイプデータ(アルファマップ)および原画像および探索基準ブロックをサイズ縮小して輪郭位置補正処理を行うようにして、これにより、暫定的なシェイプデータ(アルファマップ)を抽出対象物体の正しい輪郭の形状に近付けておき(粗調整段階)、次に、粗調整された暫定的シェイプデータ(アルファマップ)を抽出対象物体の正しい輪郭の形状にフィットさせるために、この粗調整されたシェイプデータ(アルファマップ)および原画像については本来のサイズで使用し、探索基準ブロックについては粗調整段階で使用した小さいサイズのものを使用して輪郭位置補正処理を行うようにする(本調整段階)ことで、演算量を大幅に低減した輪郭抽出処理を実施可能にする。   FIG. 1 is a flowchart showing an embodiment of the present invention, and the present invention will be described with reference to this flowchart. In the present invention, the shape data (alpha map), the original image, and the search reference block are reduced in size as the first stage to perform contour position correction processing, thereby extracting provisional shape data (alpha map). This coarse adjustment is performed in order to approximate the correct contour shape of the target object (coarse adjustment stage), and then to fit the coarsely adjusted provisional shape data (alpha map) to the correct contour shape of the target object to be extracted. The contour shape correction processing is performed using the original shape data (alpha map) and the original image at the original size, and the search reference block using the small size used at the coarse adjustment stage (this book). (Adjustment stage), thereby making it possible to implement contour extraction processing with a greatly reduced amount of computation.

本発明び要部を説明する。
最初の段階でのシェイプデータ(アルファマップ)、すなわち、暫定的なシェイプデータ(暫定的なアルファマップ)が得られたならば、まず、粗調整段階では、前述の[処理2−2]における処理である「シェイプデータ(アルファマップ)の輪郭(抽出対象物体の概略形状2)に沿って探索基準ブロックB1,B2,…,Bn-1,Bnを配置する」と云う処理に先立ち、探索基準ブロックのブロックサイズを定める。
The main part of the present invention will be described.
If shape data (alpha map) in the first stage, that is, provisional shape data (provisional alpha map) is obtained, first, in the coarse adjustment stage, the process in [Process 2-2] described above is performed. Prior to the processing of “place search reference blocks B1, B2,..., Bn−1, Bn along the outline of the shape data (alpha map) (schematic shape 2 of the extraction target object)”, the search reference block Determine the block size.

[ステップS11]:既存技術と同様、探索基準ブロックのブロックサイズbを初期値はAとする。   [Step S11]: As in the existing technology, the initial value of the block size b of the search reference block is A.

[ステップS12]:最初の段階でのシェイプデータ(アルファマップ)である暫定的なシェイプデータ(暫定的なアルファマップ)を縦横1/2に縮小する。この縮小は元となる暫定的なシェイプデータ(暫定的なアルファマップ)について1画素とびの間引きを行うことにより、あるいは、サンプリング点近傍4画素の多数決フィルタなどを用いてフィルタ処理することで得られる。   [Step S12]: The provisional shape data (provisional alpha map), which is the shape data (alpha map) in the first stage, is reduced to 1/2 in the vertical and horizontal directions. This reduction can be obtained by skipping one pixel from the original provisional shape data (provisional alpha map), or by performing filtering using a majority filter of four pixels in the vicinity of the sampling point. .

[ステップS13]:フレーム画像(原画像)を縦横1/2に縮小処理し、また、探索基準ブロックのブロックサイズを縦横1/2に縮小処理する。
そして、この縮小処理済みのフレーム画像(原画像),探索基準ブロック,シェイプデータ(アルファマップ)を用いて前述の[処理2−2]以降の輪郭位置補正処理を行う。
[Step S13]: The frame image (original image) is reduced to 1/2 in the vertical and horizontal directions, and the block size of the search reference block is reduced to 1/2 in the vertical and horizontal directions.
Then, using the reduced frame image (original image), the search reference block, and the shape data (alpha map), the contour position correction process after [Process 2-2] is performed.

[ステップS14]:次に、上述の輪郭位置補正処理で用いた探索基準ブロックのブロックサイズをさらに縦横1/2に縮小処理する。
[ステップS15]:そして、S14において縮小処理された探索基準ブロックのブロックサイズbがYよりも小さいか否かを調べる。Yは予め設定した所望の値であり、Y<Aの関係にある。bとYとの大小比較の結果、bがYよりも小さい場合にはステップS16の処理に進む。そうでない場合にはステップS13の処理に戻る。これは粗調整での輪郭位置補正処理に用いる探索基準ブロックのブロックサイズが縮小され過ぎて探索基準ブロック内の画像が少なくなり過ぎるのを避けるための処置である。
[Step S14]: Next, the block size of the search reference block used in the above-described contour position correction process is further reduced to 1/2 in the vertical and horizontal directions.
[Step S15]: Then, it is checked whether or not the block size b of the search reference block reduced in S14 is smaller than Y. Y is a desired value set in advance and has a relationship of Y <A. As a result of the size comparison between b and Y, if b is smaller than Y, the process proceeds to step S16. Otherwise, the process returns to step S13. This is a measure for avoiding that the block size of the search reference block used for the contour position correction process in the coarse adjustment is excessively reduced and the image in the search reference block becomes too small.

このようにしてブロックサイズが所定のサイズに到達するまでこの処理を繰り返すことで、暫定的なシェイプデータ(暫定的はアルファマップ)を抽出対象物体の正しい輪郭の形状に大まかに近付けることができる(粗調整段階)。   By repeating this process until the block size reaches a predetermined size in this way, provisional shape data (tentatively an alpha map) can be approximated to the correct contour shape of the extraction target object ( Coarse adjustment stage).

bとYとの大小比較の結果、bがYよりも小さい場合には粗調整段階終了であり、本調整段階に処理を移すことになる。本調整段階はステップS16以降の処理が該当する。   If b is smaller than Y as a result of comparing the magnitudes of b and Y, the rough adjustment stage is completed, and the process is shifted to the main adjustment stage. This adjustment stage corresponds to the processing after step S16.

[ステップS16]:本調整段階ではまずはじめに粗調整段階では縮小して使用していたシェイプデータ(アルファマップ)を本来のサイズに戻すことを行う。すなわち、粗調整段階で使用して粗調整されたシェイプデータ(アルファマップ)である粗調整済みシェイプデータ(粗調整済みアルファマップ)のサイズを縦横2倍に拡大する。これにより本来の原画像と同じサイズになる。   [Step S16]: In this adjustment stage, first, the shape data (alpha map) reduced and used in the coarse adjustment stage is returned to the original size. That is, the size of the coarsely adjusted shape data (roughly adjusted alpha map), which is the coarsely adjusted shape data (alpha map) used in the coarse adjustment stage, is enlarged two times vertically and horizontally. Thereby, it becomes the same size as the original original image.

[ステップS17]:本来のサイズの原画像を用い、また、粗調整段階最後の処理で使用したブロックサイズbの探索基準ブロックと本来のサイズに戻された粗調整済みのシェイプデータ(粗調整済みアルファマップ)とを用いて輪郭位置補正処理を行う。   [Step S17]: The search reference block of the block size b used in the original processing of the original size and used in the final processing of the coarse adjustment stage and the coarsely adjusted shape data (roughly adjusted) returned to the original size The contour position correction process is performed using the (alpha map).

[ステップS18]:次に、探索基準ブロックのブロックサイズbの値を1/2にする。   [Step S18]: Next, the value of the block size b of the search reference block is halved.

[ステップS19]:探索基準ブロックのブロックサイズbがZよりも小さいか否かを調べる。Zは予め設定した所望の値であり、Z<Yの関係にある。bとZとの大小比較の結果、bがZよりも小さい場合には処理を終了し、bがZよりも大きい場合にはステップS17の処理に戻る。   [Step S19]: Check whether the block size b of the search reference block is smaller than Z. Z is a desired value set in advance and has a relationship of Z <Y. As a result of comparing the size of b and Z, if b is smaller than Z, the process is terminated, and if b is larger than Z, the process returns to step S17.

これは本調整における輪郭位置補正処理に用いる探索基準ブロックのブロックサイズが縮小され過ぎて探索基準ブロック内の画像が少なくなり過ぎるのを避けるための処置である。探索基準ブロックのサイズが次第に小さくなることで、細かい凹凸までフィットさせることが可能になる。   This is a measure for avoiding that the block size of the search reference block used for the contour position correction processing in the main adjustment is excessively reduced and the image in the search reference block becomes too small. As the size of the search reference block is gradually reduced, it becomes possible to fit even fine irregularities.

このようにして探索基準ブロックのサイズが小さい所定サイズに到達するまでこの処理を繰り返すことで、シェイプデータ(アルファマップ)を抽出対象物体の正しい輪郭の形状に細かいところまで近付けることができる。   By repeating this process until the search reference block size reaches a predetermined size in this way, the shape data (alpha map) can be brought closer to the correct contour shape of the extraction target object.

<輪郭位置補正処理フロー>
ここで、ステップS13とステップS17での処理である輪郭位置補正処理の詳しいフローチャートを図2に示す。なお、S13では原画像の1/2の画像サイズ、S17では原画像と同じ画像サイズでの処理である。
<Outline position correction processing flow>
Here, FIG. 2 shows a detailed flowchart of the contour position correction process which is the process in steps S13 and S17. Note that S13 is a process with an image size that is ½ of the original image, and S17 is a process with the same image size as the original image.

[ステップS21]:暫定的なシェイプデータ(暫定的なアルファマップ)の輪郭部分に図5のようにブロックを設定する。ここで、S13では、探索基準ブロックの一辺のサイズがb/2なるブロックサイズ、S17では探索基準ブロックの一辺のサイズがbなるブロックサイズとする。   [Step S21]: A block is set in the contour portion of the provisional shape data (provisional alpha map) as shown in FIG. Here, in S13, the size of one side of the search reference block is b / 2, and in S17, the size of one side of the search reference block is b.

[ステップS22]:画像データを用いて探索基準ブロックの相似ブロックを求める。   [Step S22]: A similar block of the search reference block is obtained using the image data.

[ステップS23]:ステップS21で設定した全ての探索基準ブロックについて相似ブロックを求め終わった場合はステップS24の処理に進む。そうでない場合には他の探索基準ブロックの相似ブロックを求めるためにステップS22の処理に戻る。   [Step S23]: If similar blocks have been obtained for all the search reference blocks set in Step S21, the process proceeds to Step S24. Otherwise, the process returns to step S22 to obtain a similar block of other search reference blocks.

[ステップS24]:探索基準ブロックのシェイプデータを、相似ブロックのシェイプデータを縮小したもので置き換える。   [Step S24]: Replace the shape data of the search reference block with the reduced shape data of the similar block.

[ステップS25]:全ての探索基準ブロックについて置き換えが終わった場合はステップS26の処理に進む。そうでない場合には、他の探索基準ブロックの置き換えを行うためにステップS24の処理に戻る。   [Step S25]: If replacement has been completed for all search reference blocks, the process proceeds to step S26. Otherwise, the process returns to step S24 in order to replace another search reference block.

[ステップS26]:置き換えの回数が所定の回数に達した場合は終了し、そうでない場合は、ステップS24の処理に戻る。   [Step S26]: When the number of replacements reaches a predetermined number of times, the process ends. Otherwise, the process returns to step S24.

本発明おいて、この輪郭位置補正処理は、例えばフレーム画像(原画像)のサイズが320×240画素、A=32、Y=16、Z=4の場合、下表のようになる。なお、A,Y,Zのこのような値は、適宜に設定した値である。Aは本来のサイズであり、Yは粗調整段階で粗調整としての輪郭位置補正処理をどこで打ち切るかその閾値として使用し、また、Zは本調整段階での輪郭位置補正処理をどこで打ち切るかその閾値として使用する。   In the present invention, this contour position correction processing is as shown in the following table when the size of the frame image (original image) is 320 × 240 pixels, A = 32, Y = 16, and Z = 4, for example. Such values of A, Y, and Z are values set as appropriate. A is the original size, Y is used as a threshold value at which the contour position correction process as the coarse adjustment is terminated in the coarse adjustment stage, and Z is the position at which the contour position correction process in the present adjustment stage is terminated. Use as a threshold.

表:
---------------------------------------------
[回] [b] [画像サイズ] [ブロックサイズ]
---------------------------------------------
i回目 32 160×120 16
ii回目 16 160×120 8
iii回目 8 320×240 8
iv回目 4 320×240 4
---------------------------------------------
すなわち、探索基準ブロックの本来のブロックサイズb=Aが“32”であったとして、粗調整段階では“320×240画素”構成のフレーム画像(原画像)を第1回目の処理(表におけるi回目)では1/2のサイズにした“160×120画素”構成で使用し、そのときの探索基準ブロックは縦および横がそれぞれ16画素のブロックサイズとなっている。そして、この第1回目の処理が終了した段階ではbは“32”であるので、これを1/2して“16”を得、これをYの値と大小比較する。この“16”なる値は、“16”に設定したYの値より小さくはないので、粗調整段階での第2回目(表におけるii回目)の処理に移る。粗調整段階での第2回目の処理では第1回目の処理で使用したものと同様に “320×240画素”構成のフレーム画像(原画像)の1/2のサイズである“160×120画素”構成の縮小版フレーム画像(原画像)使用し、そのときの探索基準ブロックは第1回目の半分のサイズである縦および横がそれぞれ8画素のブロックサイズとなっている。
table:
---------------------------------------------
[Times] [b] [image size] [block size]
---------------------------------------------
i-th time 32 160 × 120 16
ii 16th 160 × 120 8
iii 8 8 320 × 240 8
iv 4th 4 320 × 240 4
---------------------------------------------
That is, assuming that the original block size b = A of the search reference block is “32”, a frame image (original image) having a configuration of “320 × 240 pixels” is processed for the first time (i in the table) in the coarse adjustment stage. In the second), a “160 × 120 pixel” configuration with a half size is used, and the search reference block at that time has a block size of 16 pixels in the vertical and horizontal directions. Then, since b is “32” at the stage when the first processing is completed, this is halved to obtain “16”, which is compared with the value of Y. Since the value “16” is not smaller than the Y value set to “16”, the process proceeds to the second process (ii-th in the table) in the coarse adjustment stage. In the second processing in the coarse adjustment stage, “160 × 120 pixels, which is half the size of the frame image (original image) having the“ 320 × 240 pixels ”configuration, similar to that used in the first processing. A reduced-size frame image (original image) having a configuration is used, and the search reference block at that time has a block size of 8 pixels each in the vertical and horizontal directions, which is the half size of the first time.

そして、この第2回目の処理が終了した段階ではbは“16”であるので、これを1/2して“8”を得、これをYの値と大小比較する。“8”なる値は、 “16”に設定したYの値より小さいので、粗調整段階は終了し、本調整段階に移る。   Then, since b is “16” at the stage when the second processing is completed, “8” is obtained by halving it, and this is compared with the value of Y. Since the value “8” is smaller than the Y value set to “16”, the coarse adjustment stage ends, and the process proceeds to the main adjustment stage.

本調整段階では、bは粗調整段階最終処理での値を踏襲し、また、探索基準ブロックのサイズも粗調整段階最終処理での値を踏襲するが、フレーム画像(原画像)は本来のサイズのものを用いる。すなわち、この例では“320×240画素”構成のフレーム画像(原画像)を用い、探索基準ブロックのサイズは“8”、bは“8”である。   In this adjustment stage, b follows the value in the coarse adjustment stage final process, and the size of the search reference block follows the value in the coarse adjustment stage final process, but the frame image (original image) is the original size. Use one. That is, in this example, a frame image (original image) having a configuration of “320 × 240 pixels” is used, the size of the search reference block is “8”, and b is “8”.

本調整段階では“320×240画素”構成のフルサイズフレーム画像(原画像)を毎回の処理に使用する。本調整段階での第1回目(表における iii回目)の処理では探索基準ブロックは縦および横がそれぞれ8画素のブロックサイズとなっている。そして、この第1回目(表における iii回目)の処理が終了した段階ではbは“8”であるので、これを1/2して“4”を得、これをZの値と大小比較する。この“4”なる値は、“4”に設定したZの値より小さくはないので、本調整段階での第2回目(表におけるiv回目)の処理に移る。本調整段階での第2回目(表におけるiv回目)の処理でも本調整段階での第1回目(表における iii回目)の処理で使用したものと同様に“320×240画素”構成のフレーム画像(原画像)のフルサイズフレーム画像(原画像)使用し、そのときの探索基準ブロックは本調整段階での第1回目の処理での半分のサイズである縦および横がそれぞれ4画素のブロックサイズとなっている。   In this adjustment stage, a full size frame image (original image) having a configuration of “320 × 240 pixels” is used for each processing. In the first process (the iiith process in the table) in this adjustment stage, the search reference block has a block size of 8 pixels in the vertical and horizontal directions. Then, at the stage where the first processing (the iiith time in the table) is finished, b is “8”, so this is halved to obtain “4”, and this is compared with the value of Z . Since the value “4” is not smaller than the value of Z set to “4”, the process proceeds to the second (iv) in the adjustment stage. A frame image of “320 × 240 pixels” is used in the second processing (iv time in the table) in the main adjustment stage in the same manner as that used in the first processing (iii time in the table) in the main adjustment stage. The full-size frame image (original image) of (original image) is used, and the search reference block at that time is a half size in the first processing in the main adjustment stage, and the block size is 4 pixels each in vertical and horizontal directions It has become.

そして、この第2回目(表におけるiv回目)の処理が終了した段階ではbは “4”であるので、これを1/2して“2”を得、これをZの値と大小比較する。“2”なる値は、“8”に設定したZの値より小さいので、本調整段階も終了条件が整うので終了して処理を完了する。   Since b is “4” at the stage when the second processing (iv time in the table) is completed, this is halved to obtain “2”, which is compared with the value of Z. . Since the value “2” is smaller than the value of Z set to “8”, the end condition is also satisfied in this adjustment stage, and the process ends and the process is completed.

このように本発明おいて、輪郭位置補正処理は、フレーム画像(原画像)のサイズが320×240画素、A=32、Y=16、Z=4なる条件である場合、粗調整段階処理を2回、本調整段階処理を2回、計4回で処理を完了するが、粗調整は演算に使用する画素数が毎回、半減し、本調整段階ではフレーム画像(原画像)およびシェイプデータ(アルファマップ)についてはフルサイズのものに戻すものの、探索基準ブロックは粗調整段階からのサイズを処理毎に1/2ずつにサイズ変更していくので、トータルとしての演算処理の負担は大幅に軽減される。しかも、探索基準ブロックのサイズを粗調整段階から継続して、処理毎に1/2ずつにサイズ縮小できるのは、粗調整段階でシェイプデータ(アルファマップ)が輪郭抽出対象物体の輪郭にほぼ近づけることができているからである。   As described above, according to the present invention, the contour position correction process is performed when the size of the frame image (original image) is 320 × 240 pixels, A = 32, Y = 16, and Z = 4. The adjustment process is completed twice, twice, a total of four times. In rough adjustment, the number of pixels used in the calculation is halved each time. In this adjustment stage, the frame image (original image) and shape data ( (Alpha map) is restored to the full size, but the search reference block is resized to 1/2 each processing step from the coarse adjustment stage, greatly reducing the total computational burden. Is done. In addition, the size of the search reference block can be reduced by ½ for each process by continuing from the coarse adjustment stage, and the shape data (alpha map) is brought close to the outline of the contour extraction target object in the coarse adjustment stage. Because it is possible.

従って、自己相似写像を用いる手法を採用して輪郭抽出する場合に、はじめに与えた抽出対象物体の概略形状を、少ない演算処理によって、輪郭抽出対象物体の輪郭に一致させることができるようになり、暫定的に与えたシェイプデータの輪郭を、輪郭抽出対象物体の輪郭に高速で一致させることができる輪郭抽出方法が得られる。   Therefore, when the contour extraction is performed using the method using the self-similar mapping, the outline shape of the extraction target object given first can be matched with the contour of the contour extraction target object with a small amount of arithmetic processing. A contour extraction method is obtained in which the contour of the shape data provisionally given can be matched with the contour of the contour extraction target object at high speed.

なお、上記例において、探索基準ブロックのブロックサイズbは必ずしも1/2ずつ小さくする必要はない。例えば、“32”、“8”、“4”の如きとしてもよく、このようにすれば、処理量をさらに削減できるようになる。   In the above example, the block size b of the search reference block does not necessarily have to be reduced by 1/2. For example, “32”, “8”, “4” may be used, and in this way, the processing amount can be further reduced.

以上は、シェイプデータ(アルファマップ)の輪郭位置調整処理を粗調整段階、本調整段階の2段階で実施すると共に、粗調整段階では、原画像も探索基準ブロックもまた、シェイプデータ(アルファマップ)も縮小したものを用い、また、縮小するブロックサイズが所定の条件に達するまで前回の輪郭位置調整処理での縮小よりもさらに縮小させて輪郭位置調整処理を実施し、条件に到達したならば次に本調整段階に入り、この本調整段階では原画像もまた、シェイプデータ(アルファマップ)も本来のサイズのものを使用し、探索基準ブロックは粗調整段階の最終時点で使用したサイズのものを使用し、以後、ブロックサイズが所定の条件に達するまで、探索基準ブロックについては毎回、前回より縮小したものを用いて輪郭位置調整処理を実施し、これによって所望に与えたシェイプデータ(アルファマップ)の形状を抽出対象の輪郭形状に合わせるようにしたものである。   As described above, the contour position adjustment processing of the shape data (alpha map) is performed in two stages of the coarse adjustment stage and the main adjustment stage. In the coarse adjustment stage, both the original image and the search reference block are shaped data (alpha map). If the block size to be reduced reaches a predetermined condition, the contour position adjustment process is performed by further reducing the size of the block in the previous contour position adjustment process. This adjustment stage uses the original image and the shape data (alpha map) of the original size, and the search reference block has the size used at the end of the coarse adjustment stage. After that, until the block size reaches a predetermined condition, the contour position adjustment process is performed using the search reference block that has been reduced from the previous time each time. Carried out, whereby is obtained with aligning the contour shape of the extraction target shape of the shape data given the desired (alpha map).

この輪郭位置調整処理において、相似ブロックを探索するに際して、相似候補を探索基準ブロックの上下左右方向に暫時、拡大して該当のものを探していくようにしているが、常に上下左右方向に拡大するのではなく、探索基準ブロック内のシェイプデータの輪郭の存在する方向に従ってその方向対応に拡大していくようにすればより合理的である。その例を次に第2の実施形態として説明する。   In this contour position adjustment process, when searching for similar blocks, similar candidates are expanded in the vertical and horizontal directions of the search reference block for a while to search for the corresponding ones, but always expand in the vertical and horizontal directions. Instead of this, it is more reasonable if the direction is expanded corresponding to the direction according to the direction in which the contour of the shape data in the search reference block exists. An example of this will now be described as a second embodiment.

(第2の実施形態)
相似ブロックの探索範囲を探索基準ブロック内のシェイプデータの輪郭の方向によって切り替える実施形態を説明する。
(Second Embodiment)
An embodiment in which the search range of similar blocks is switched according to the direction of the contour of the shape data in the search reference block will be described.

図7を用いて説明したように、従来においては、相似ブロックの探索範囲は、探索基準ブロックとの相対的な位置によって決まり、画面の場所やシェイプデータや画像データによっては制御されない。   As described with reference to FIG. 7, conventionally, the search range of the similar block is determined by the relative position with respect to the search reference block, and is not controlled by the screen location, shape data, or image data.

しかし、例えば、図3に示した探索基準ブロックB1のように、シェイプデータの輪郭がその内部を横切っている場合には、左右方向を省略し、上下方向へW画素分、動かした範囲Bs1′で探索するだけでも、抽出性能はほとんど劣化しない。
なぜなら、相似ブロックBs1のような場合には、シェイプデータの輪郭は置き換えのときに上下方向に移動して初めて補正の効果が得られるものであり、従って、この例の場合、上下方向に移動させるのは、そのために上下方向にずれた相似ブロックを選べるようにしたいがためである。
However, for example, when the outline of the shape data crosses the inside thereof as in the search reference block B1 shown in FIG. 3, the horizontal direction is omitted, and the range Bs1 ′ moved by W pixels in the vertical direction. The extraction performance is hardly deteriorated even by searching with.
This is because in the case of the similar block Bs1, the outline of the shape data is not moved until it is replaced, and the correction effect is obtained only in this case. Therefore, in this example, the contour is moved vertically. This is because we want to be able to select similar blocks shifted in the vertical direction.

背景や物体の細かい図柄の影響で、左右にずらした場合の誤差が最小となる場合もあるが、それよりも誤差は多少大きくても、シェイプデータの輪郭が上下方向に移動する方が正しい輪郭に近づく。   The error when shifting to the left or right may be minimal due to the influence of the background or the fine design of the object, but even if the error is slightly larger than that, it is more correct to move the contour of the shape data vertically Get closer to.

輪郭抽出対象物体(正しい物体領域)1の輪郭1aは、もちろん未知であり、暫定的に与えたシェイプデータの輪郭(抽出対象物体の概略形状2)をどちらに動かせば輪郭抽出対象物体(正しい物体領域)1の輪郭1aに近づくのかも、相似ブロック探索時には当然分からないのであるが、シェイプデータの輪郭(抽出対象物体の概略形状2)の方向と輪郭抽出対象物体(正しい物体領域)1の輪郭1aの方向は経験的にみて、ほぼ合っていることがほとんどなので、シェイプデータの輪郭(抽出対象物体の概略形状2)の方向と垂直な方向に相似候補ブロックを動かすのが最も合理的である。   The contour 1a of the contour extraction target object (correct object region) 1 is, of course, unknown, and the contour extraction target object (correct object) should be moved to which of the provisionally given shape data contour (schematic shape 2 of the extraction target object). It is obvious that the approach to the contour 1a of the region 1) is not possible when searching for similar blocks, but the direction of the contour of the shape data (schematic shape 2 of the extraction target object) and the contour of the contour extraction target object (correct object region) 1 Since the direction of 1a is almost the same as empirically, it is most reasonable to move the similarity candidate block in a direction perpendicular to the direction of the outline of the shape data (schematic shape 2 of the extraction target object). .

例えば、シェイプデータのブロックの左上、右上、左下、右下の4画素の値を比較し、左上と右上が等しく、左下と右下が等しい場合には横方向の輪郭と判定し、相似候補ブロックは上下方向のみの範囲を動かしていき、相似ブロックを探索していく。
同様に、左上と左下が等しく、右上と右下が等しい場合には縦方向の輪郭と判定し、左右方向に相似候補ブロックを変化させて相似ブロックを探索する。
For example, the upper left, upper right, lower left, and lower right four pixel values of the shape data block are compared. If the upper left and upper right are equal, and the lower left and lower right are equal, it is determined as a horizontal contour, and the similarity candidate block Moves the range only in the vertical direction and searches for similar blocks.
Similarly, when the upper left and the lower left are equal and the upper right and the lower right are equal, it is determined as a vertical contour, and the similarity candidate block is changed in the horizontal direction to search for a similar block.

また、そのいずれでもない場合は、従来方法と同様に、全方向で探索する。
このようにすることで抽出精度を劣化させずに相似ブロックの探索の処理量を削減できる。
If none of them is found, the search is performed in all directions as in the conventional method.
By doing so, the processing amount for searching for similar blocks can be reduced without degrading the extraction accuracy.

ここで、相似ブロックの探索時には、探索範囲内で誤差最小の相似候補ブロックを以てそこでの相似ブロックに決定するのではなく、順次相似候補ブロックを変えて誤差評価をする際に、予め定める許容誤差よりも誤差が小さくなった相似候補ブロックが見つかった時点で探索を打ち切り、その相似候補ブロックを相似ブロックとして決定すると良い。   Here, when searching for similar blocks, instead of determining the similar candidate block with the smallest error within the search range as the similar block there, when evaluating the error by sequentially changing the similar candidate block, a predetermined tolerance is used. However, it is preferable to stop the search when a similar candidate block with a smaller error is found and determine the similar candidate block as a similar block.

このようにすることにより、抽出精度を劣化させずにさらに処理量を削減できるようになる。   By doing so, the processing amount can be further reduced without degrading the extraction accuracy.

また、ブロックの画面内での位置によって、探索範囲を切り替えるのが有効な場合もある。例えば、特願平11−186537号「画像輪郭抽出装置」で提案したように、抽出対象が頭部を含めた自己の顔画像部分であったとして、この場合、人間の頭部輪郭線像を予め用意しておき、画面にこの頭部輪郭線像を表示させると共に、画面に表示されたこの頭部輪郭線像としての枠線内に自己の頭部を合わせるように位置決めして撮像し、その枠線をシェイプデータの初期状態(暫定的なシェイプデータ(暫定的なアルファマップ))として用い、画像中から頭部を輪郭に沿って抽出する技術があるが、この技術を適用する場合において、ユーザが常にあごの位置を枠線の下限に合わせるとすると、あごの部分の輪郭のずれは他の部分よりも小さくなる。   In some cases, it is effective to switch the search range depending on the position of the block in the screen. For example, as proposed in Japanese Patent Application No. 11-186537 “Image Contour Extraction Device”, it is assumed that the extraction target is a face image portion including the head. Prepare in advance, display this head contour image on the screen, and position and image the head to fit within the frame as the head contour image displayed on the screen, There is a technique for extracting the head from the image along the contour using the frame line as the initial state of the shape data (provisional shape data (provisional alpha map)). If the user always adjusts the position of the chin to the lower limit of the frame line, the deviation of the contour of the chin portion becomes smaller than the other portions.

このような時には、枠線の下の部分では、大きいブロックサイズでの処理を省略したほうが、誤抽出の確率が低くなる。あるいは、探索範囲を狭くしたほうが、やはり誤抽出の確率が低くなる。大きいブロックでの処理の省略や探索範囲を狭くすることは処理量の削減にもなる。また、上のように初期シェイプが既知の場合には、探索基準ブロックの配置も一意に決まるので、その配置を記憶しておき、探索基準ブロックを配置するステップS21では、それを読み出すだけにすれば、シェイプデータの輪郭を検出する処理を省略できる。   In such a case, in the portion below the frame line, the probability of erroneous extraction is lower when processing with a large block size is omitted. Alternatively, the probability of erroneous extraction becomes lower as the search range is narrowed. Omitting processing in a large block and narrowing the search range also reduce the amount of processing. In addition, when the initial shape is known as described above, the arrangement of the search reference block is also uniquely determined. Therefore, the arrangement is stored, and in step S21 for arranging the search reference block, only the reading is performed. For example, the process of detecting the contour of the shape data can be omitted.

また、図5のように、数珠つなぎになった探索基準ブロックB1,…Bnの全てについて相似ブロックを求めるようなことはせずに、間欠的に、例えば、一つ置きに求めるようにし、間のブロックの相似ブロックはその両端のブロックの相似ブロックの中間位置にあるものとして処理することで、探索の処理を大幅に省略できる。   In addition, as shown in FIG. 5, instead of obtaining similar blocks for all of the search reference blocks B1,. The processing of the search can be largely omitted by processing the similar block of the block as being in the middle of the similar blocks of the blocks at both ends.

また、各探索基準ブロックが互いが重ならないように配置する方法もある。このようにすると、探索基準ブロックの総数が減ることから、当然のことながら処理量が減ることになる。   There is also a method of arranging the search reference blocks so as not to overlap each other. In this way, since the total number of search reference blocks is reduced, the processing amount is naturally reduced.

また、相似候補ブロックを設定するたびに縮小処理を施すのではなく、予め画面全体を縮小したものを用意しておき、相似候補ブロックを設定したときに、それに対応する部分を当該縮小画像から取り出して、探索基準ブロック内の画像との誤差比較をする方法もある。このようにすることによっても、全体の処理量を削減できるようになる。   Also, instead of performing a reduction process every time a similar candidate block is set, a reduced version of the entire screen is prepared in advance, and when a similar candidate block is set, the corresponding portion is extracted from the reduced image. There is also a method for comparing errors with the image in the search reference block. This also makes it possible to reduce the overall processing amount.

このとき、例えば、探索基準ブロックと相似ブロックのサイズが1対2で、相似候補ブロックを1画素ずつずらしながら設定する場合、図4に円で示した如くA,B,C,Dなる原画像の画素位置に対して、Aの画素位置でサンプリングした画素を用いて縦横半分のサイズの縮小画面を作成する。また、サンプリング点がB、C、D点の画素位置にずれた、つまり、位相がずれた場合のそれぞれの画像の縮小画像を作る。これにより、合計4枚の縮小画面が作られたことになる。このとき、相似候補ブロックの位置を例えば縦座標、横座標とも偶数値だけにして、つまり、探索範囲内で2画素ずつずらしながら探索する場合には、A,B,C,Dのうち、一つだけを予め作れば十分であり、この場合、他の3枚を作る処理を省略できる。   In this case, for example, when the size of the search reference block and the similarity block is 1: 2, and the similarity candidate block is set while being shifted by one pixel, the original images A, B, C, and D as shown by circles in FIG. A reduced screen having a half size in the vertical and horizontal directions is created using the pixels sampled at the A pixel position. Further, a reduced image of each image when the sampling point is shifted to the pixel positions of the B, C, and D points, that is, the phase is shifted, is created. As a result, a total of four reduced screens are created. At this time, when the positions of the similarity candidate blocks are set to even numbers for both the ordinate and abscissa, for example, when searching while shifting by two pixels within the search range, one of A, B, C, and D is selected. It is sufficient to make only one in advance, and in this case, the process of making the other three sheets can be omitted.

1画素ずらしを2画素ずらしにするとそれだけ相似探索のための相似候補ブロックの数が減り、探索処理は少なくなるが、縮小画面を用いる方法では、さらに縮小画面を作る処理も大幅に削減できる。   If the shift by one pixel is shifted by two pixels, the number of similar candidate blocks for similarity search is reduced accordingly, and the search process is reduced. However, the method using a reduced screen can further greatly reduce the process of creating a reduced screen.

また、初期シェイプデータが小さい場合、縮小画面は画面全体を作る必要はない。予め、相似ブロックの探索範囲には入らない部分が分かる場合には、その部分の縮小画面を作る処理を省いて良い。   In addition, when the initial shape data is small, it is not necessary to create the entire reduced screen. If a part that does not fall within the search range of similar blocks is known in advance, the process of creating a reduced screen of that part may be omitted.

なお、以上においては、相似ブロック探索時の縮小画面の生成について述べたが、見つけた相似ブロックの画像をシェイプデータ(アルファマップ)上に置き換え変換する時も同様に、最初に縮小したシェイプ画面を作っておき、各探索基準ブロックのシェイプデータをその縮小したシェイプ画面から抜き取ってきて置き換えるようにできる。
このようにすると、置き換えのたびの縮小処理を省略できるようになり、演算処理の一層の負担低減を図ることができるようになる。
In the above, the generation of the reduced screen when searching for similar blocks has been described. However, when the image of the similar block found is replaced with shape data (alpha map) and converted, the first reduced shape screen is also displayed. The shape data of each search reference block can be extracted and replaced from the reduced shape screen.
In this way, the reduction process for each replacement can be omitted, and the burden on the calculation process can be further reduced.

以上、第2の実施形態によれば、相似ブロックを探索するにあたり、その探索範囲を探索基準ブロック内のシェイプデータ(アルファマップ)の輪郭方向と垂直の方向に制限することで、暫定的に与えたシェイプデータ(アルファマップ)の輪郭を輪郭抽出対象物体の輪郭に近付ける処理を合理的に行うことができ、しかも、演算処理量を大幅に軽減できる。また、シェイプデータ(アルファマップ)の輪郭上に配置する探索基準ブロックは互いが重ならないようにすることで、演算処理量を大幅に軽減できる。また、相似候補ブロックを設定するたびに縮小処理を施すのではなく、予め画面全体を縮小したものを用意しておき、相似候補ブロックを設定したときに、それに対応する部分を当該縮小画像から取り出して、探索基準ブロック内の画像との誤差比較をするようにすることにより、全体の演算処理量を削減できるようになる。   As described above, according to the second embodiment, when searching for similar blocks, the search range is limited to the direction perpendicular to the contour direction of the shape data (alpha map) in the search reference block. Further, it is possible to rationally perform the process of bringing the contour of the shape data (alpha map) close to the contour of the contour extraction target object, and the processing amount can be greatly reduced. In addition, the search processing blocks arranged on the outline of the shape data (alpha map) are not overlapped with each other, so that the calculation processing amount can be greatly reduced. Also, instead of performing a reduction process every time a similar candidate block is set, a reduced version of the entire screen is prepared in advance, and when a similar candidate block is set, the corresponding portion is extracted from the reduced image. Thus, by comparing the error with the image in the search reference block, the overall calculation processing amount can be reduced.

ところで、画像から被写体の領域を抽出する場合、利用者がマニュアル操作によって物体のおよその形状を描くか、あるいは、利用者が画面を見ながら、そこに表示される輪郭線に自分の頭部を合わせることで、物体のおよそのシェイプデータを得て、次に、そのシェイプデータの輪郭を画像データ内の物体の輪郭の位置に補正する方法が取られ、これらにより、ほとんどの状況において正確な抽出が行われる。この場合、画面中央の楕円の領域を表すシェイプデータが生成され、利用者が画面に表示される楕円の輪郭線に自分の頭部を合わせることにより、楕円のシェイプデータは次のステップで頭部の領域を抽出するに足る程度に頭部を近似している。楕円のシェイプデータを初期シェイプとして、そのシェイプデータの輸郭の位置が画像データ内の頭部の輪郭の位置に補正される。   By the way, when extracting the region of the subject from the image, the user draws the approximate shape of the object by manual operation or the user looks at the screen and puts his head on the contour line displayed there. Together, the approximate shape data of the object is obtained, and then the contour of that shape data is corrected to the position of the contour of the object in the image data, which allows accurate extraction in most situations Is done. In this case, shape data representing the elliptical area in the center of the screen is generated, and the user aligns his / her head with the outline of the ellipse displayed on the screen. The head is approximated enough to extract the region of. Using the ellipse shape data as the initial shape, the contour position of the shape data is corrected to the position of the head contour in the image data.

しかしながら、初期シェイプデータを得るために利用者が自分で画面内の所定の位置に頭部を固定するのは不便である。背景が比較的平坦であったり、背景に動きがない場合など、物体の抽出が比較的容易な状況では、自動的に初期シェイプデータが得られることが望まれる。   However, in order to obtain initial shape data, it is inconvenient for the user to fix the head at a predetermined position in the screen. In situations where the object can be extracted relatively easily, such as when the background is relatively flat or the background does not move, it is desirable that the initial shape data be automatically obtained.

そこで、この要望に沿った実施形態を以下に説明する。   Therefore, an embodiment according to this demand will be described below.

(第3の実施形態)
図10に第3の実施形態の画像からの物体抽出方法を説明するフローチャートを示す。本実施形態では分離度という統計的指標を用いる。分離度Sは、次式により表される(福井「領域間の分離度に基づく物体輪郭抽出」、電子情報通信学会論文誌、D-II、Vol.J80−D−II、No.6、pp.1406-1414、1997)。即ち、
S=X/Y
X=Nb*(Ab−A)*(Ab-A)+Nf*(Af−A)*(Af−A)
Nb:背景領域の画素数
Nf:物体領域の画素数
A:全画素値の平均値
Ab:背景領域の画素値の平均値
Af:物体領域の画素値の平均値
Y:各画素値とAの差分の二乗の全画素の和
蒸気式から明らかなように物体領域と背景領域の平均値の差が大きいほど、1に近づき、それらの平均値の差が小さいほど0に近づく。通常、物体と背景では画素値の平均値などの統計的性質は互いに異なるので、分離度が大きいほどより正しい物体領域であると推定できる。
(Third embodiment)
FIG. 10 is a flowchart illustrating an object extraction method from an image according to the third embodiment. In this embodiment, a statistical index called a degree of separation is used. The degree of separation S is expressed by the following equation (Fukui “Object contour extraction based on the degree of separation between regions”, IEICE Transactions, D-II, Vol. J80-D-II, No. 6, pp. 1406-1414, 1997). That is,
S = X / Y
X = Nb * (Ab−A) * (Ab−A) + Nf * (Af−A) * (Af−A)
Nb: Number of pixels in the background area Nf: Number of pixels in the object area A: Average value of all pixel values Ab: Average value of pixel values in the background area Af: Average value of pixel values in the object area
Y: Sum of squares of all pixel values and the square of the difference between A As is clear from the steam equation, the larger the difference between the average values of the object region and the background region, the closer to 1, and the smaller the difference between the average values Approaching zero. Usually, since the statistical properties such as the average value of the pixel values are different between the object and the background, it can be estimated that the greater the degree of separation, the more correct the object region.

そこで、予めシェイプデータの候補領域を図11に示したように、シェイプ1〜10の10個を用意し、これらの各々に対して分離度を求め、その値が最も大きいシェイプデータを探索し、それを初期シェイプデータとするのが本実施形態である。図10のフローチャートに従ってこの処理を説明する。   Therefore, as shown in FIG. 11 in advance, the shape data candidate areas are prepared as 10 pieces of shapes 1 to 10, the degree of separation is obtained for each of these, and the shape data having the largest value is searched, In the present embodiment, this is used as initial shape data. This process will be described with reference to the flowchart of FIG.

先ず、分離度の最大値を保持する変数Mにゼロを代入する(S31)。数字の順に初期シェイプデータの候補を逐次設定する(S32)。そのシェイプデータを用いた時の現入力画像データにおける分離度Sを求める(S33)。SがMよりも大きい場合にはステップS35に進み、そうでない場合には、ステップS36に進む。   First, zero is substituted into a variable M that holds the maximum value of the degree of separation (S31). Initial shape data candidates are sequentially set in numerical order (S32). A separation degree S in the current input image data when using the shape data is obtained (S33). If S is larger than M, the process proceeds to step S35, and if not, the process proceeds to step S36.

ステップS35では、今、分離度を求めたシェイプデータを初期シェイプデータとして記憶する。それ以前に初期シェイプデータとして記憶していたものがある場合は、以前のものを破棄する。また、M=Sとする。   In step S35, the shape data for which the degree of separation has been obtained is stored as initial shape data. If there is any data previously stored as initial shape data, the previous data is discarded. Further, it is assumed that M = S.

全ての初期シェイプデータの候補に対する処理が終わったかが判断される(S36)。処理が終わっていれば、ステップS17に進み、そうでない場合は、ステップS32に戻る。ステップS37では、初期シェイプデータと現入力画像データを用いて、シェイプデータの輪郭線を画像データ内の物体の輪郭線に一致させる。   It is determined whether the processing for all initial shape data candidates has been completed (S36). If the process is finished, the process proceeds to step S17, and if not, the process returns to step S32. In step S37, the contour line of the shape data is matched with the contour line of the object in the image data using the initial shape data and the current input image data.

物体の動きが比較的ゆるやかであることが分かっている場合には、初期シェイプデータを常に画面全体で探索するのではなく、例えば毎フレームで選択された初期シェイプデータ候補を記憶しておき、前のフレームで選択された初期シェイプデータの近くだけで探索するようにすれば、処理量を削減できる。例えば、前のフレームでは図12のシェイプ11が選択されたとすると、図示したように、その上下左右の4つとそれ自身の5個で探索すれば、10個で探索する場合よりも探索の処理量を半分に減らせる。あるいは、シェイプ11の近くに互いに少しずつずらしながら10個のシェイプデータ候補を設定すれば、同じ処理量でより高い精度の初期シェイプデータが得られる。このように、前フレームのシェイプを中心に初期シェイプデータの探索範囲を設定して人物の頭部を抽出する場合、探索範囲は、画面の上下方向よりも左右方向に広くする。なぜなら、頭部は上下に動くよりも左右に揺れる確率が高いからである。   If it is known that the movement of the object is relatively gentle, the initial shape data is not always searched on the entire screen, but for example, the initial shape data candidate selected in each frame is stored, and the previous If the search is performed only near the initial shape data selected in this frame, the amount of processing can be reduced. For example, if the shape 11 in FIG. 12 is selected in the previous frame, as shown in the figure, if the search is performed with four of the top, bottom, left, and right and five of them, the search processing amount is larger than the case of searching with ten. Can be cut in half. Alternatively, if 10 shape data candidates are set in the vicinity of the shape 11 while being slightly shifted from each other, initial shape data with higher accuracy can be obtained with the same processing amount. In this way, when the initial shape data search range is set around the shape of the previous frame to extract a person's head, the search range is made wider in the left-right direction than in the vertical direction of the screen. This is because the head is more likely to swing left and right than to move up and down.

また、分離度を求める際の領域はシェイプデータと全く同じである必要はない。楕円よりも長方形の方が、処理を節約できる場合には、図13(a)に示したような長方形の領域を用いて分離度を求め、その分離度が最大になった長方形の角をおとして図13(b)のような8角形を初期シェイプデータとする方法もある。角をおとすのは、人物の頭部の形に多少でも近づけるためである。   Further, the area for obtaining the degree of separation does not have to be exactly the same as the shape data. If the rectangle can save more processing than the ellipse, the degree of separation is obtained using the rectangular area as shown in FIG. 13A, and the corner of the rectangle where the degree of separation is maximized is selected. There is also a method in which an octagon as shown in FIG. 13B is used as initial shape data. The reason for putting the corner is to bring it closer to the shape of the person's head.

また、人物の頭部はおおまかに上方の髪と中央以下の顔の2つの領域に分かれる。そこで、図13(c)のように長方形をさらに2つの領域に分け、分離度Sを以下の式により求める。   Further, the head of a person is roughly divided into two regions: the upper hair and the face below the center. Therefore, as shown in FIG. 13C, the rectangle is further divided into two regions, and the degree of separation S is obtained by the following equation.

S=X/Y
X=Nb*(Ab−A)*(Ab-A)+Nf1*(Af1−A)*(Af1−A)+Nf2*(Af2−A)*(Af2−A)
Nb:背景領域の画素数
Ni1:第1の物体領域の画素数
Nf2:第2の物体領域の画素数
A:全画素値の平均値
Ab:背景領域の画素値の平均値
Af1:第1の物体領域の画素値の平均値
Af2:第2の物体領域の画素値の平均値
Y:各画素値とAの差分の二乗の全画素の和
これにより、より正確に人物の頭部を検出できることがある。
S = X / Y
X = Nb * (Ab-A) * (Ab-A) + Nf1 * (Af1-A) * (Af1-A) + Nf2 * (Af2-A) * (Af2-A)
Nb: Number of pixels in the background area Ni1: Number of pixels in the first object area Nf2: Number of pixels in the second object area A: Average value of all pixel values Ab: Average value of pixel values in the background area Af1: First Average value of pixel values of object region Af2: Average value of pixel values of second object region Y: Sum of squares of difference between each pixel value and A This makes it possible to detect a human head more accurately. There is.

ステップS37の輪郭位置補正処理は、図14のフローチャートに従って行われる。即ち、先ずシェイプデータの輪郭部分にブロックが設定される(S41)。次に、画像データを用いてブロックの相似ブロックを求める(S42)。ステップ41で設定した全てのブロックについて相似ブロックを求め終わったかが判断され(S43)、終わった場合は、処理はステップS44に進む。そうでない場合には他のブロックの相似ブロックを求めるためにステップS42に戻る。   The contour position correction process in step S37 is performed according to the flowchart of FIG. That is, first, a block is set in the contour portion of the shape data (S41). Next, a block similar block is obtained using the image data (S42). It is determined whether similar blocks have been obtained for all the blocks set in step 41 (S43). If completed, the process proceeds to step S44. Otherwise, the process returns to step S42 to obtain a similar block of another block.

ステップS44では、ブロックのシェイプデータを相似ブロックのシェイプデータを縮小したもので置き換える。全てのブロックについて置き換えが終わったかが判断され(S45)、終わっていれば、処理はステップS46に進む。そうでない場合には、他のブロックの置き換えを行うためにステップS44に戻る。ステップS46での判定で、置き換えの回数が所定の回数に達した場合は処理は、終了する。そうでない場合は、処理はステップS44に戻る。   In step S44, the shape data of the block is replaced with the reduced shape data of the similar block. It is determined whether or not replacement has been completed for all blocks (S45), and if completed, the process proceeds to step S46. Otherwise, the process returns to step S44 to replace another block. If it is determined in step S46 that the number of replacements reaches a predetermined number, the process ends. Otherwise, the process returns to step S44.

背景に初期シェイプデータ候補のいずれかに合う物体があると、これにおける分離度の方が、頭部における分離度よりも高くなることがある。しかし、背景が比較的平坦な場合には、本実施形態により頭部が画面のどこにあっても良好な初期シェイプが得られる。   If there is an object that matches any of the initial shape data candidates in the background, the degree of separation in this case may be higher than the degree of separation in the head. However, when the background is relatively flat, this embodiment can provide a good initial shape regardless of where the head is on the screen.

(第4の実施形態)
次に、図15および図16を参照して、第4の実施形態を説明する。本実施形態では、抽出を始める前に背景画像を取得しておき、その後は、入力画像と背景画像の差が一定値以上となる領域を物体領域と判定することで初期シェイプデータを生成する方法である。
(Fourth embodiment)
Next, a fourth embodiment will be described with reference to FIGS. 15 and 16. In this embodiment, a method of generating initial shape data by acquiring a background image before starting extraction, and then determining an area where the difference between the input image and the background image is a certain value or more as an object area It is.

先ず、抽出すべきオブジェクトが撮影範囲に入っていない画像(図16(a))を背景面像として利用者が確認しながら取得する(S51)。次に、図16(b)に示すようにオブジェクト(人物)が画面に入ると、このとき、現入力フレームと背景画像の差分を求め、差分の絶対値が一定値以上となる画素を物体画素、そうでない画素を背景画素として初期シェイプデータ(図16(c)))を生成する(S52)。   First, an image (FIG. 16A) in which an object to be extracted is not within the shooting range is acquired as a background image while being confirmed by the user (S51). Next, when an object (person) enters the screen as shown in FIG. 16B, at this time, the difference between the current input frame and the background image is obtained, and the pixel whose absolute value is equal to or greater than a certain value is determined as the object pixel. Then, initial shape data (FIG. 16 (c))) is generated using the other pixels as background pixels (S52).

ただし、単純に画素単位でこの処理を行うと領域が粒状に分割される場合が多い。そこで、背景画像をブロックに分割し、それぞれのブロックにおいて画素値のブロック平均値を求めておく。入力画像でも同じくブロック平均値を求め、入力画像と背景画像のブロック平均値の差の絶対値が所定値よりも大きいブロックを物体領域とし、そうでないブロックを背景領域として初期シェイプデータを生成する。このようにブロック単位にすると、輪郭に段差があるシェイプデータしか得られないが、ステップS53において輪郭補正を行うので問題はない。さらに、先に述べた画素単位で求めた差分の絶対値のブロック内での和を求め、このブロック内での和が所定値よりも大きい場合に、そのブロックも物体領域に加える。これにより、本来、背景と図柄が異なる物体領域が、ブロック平均値をとったために背景のブロック平均値に近くなってしまい、物体と判定されないという誤検出を回避できる。   However, if this processing is simply performed in units of pixels, the region is often divided into granular shapes. Therefore, the background image is divided into blocks, and a block average value of pixel values is obtained for each block. Similarly, an average block value is obtained for the input image, and initial shape data is generated using a block whose absolute value of the difference between the average block values of the input image and the background image is larger than a predetermined value as an object region and a block other than that as a background region. In such a block unit, only shape data having a step in the contour can be obtained, but there is no problem because the contour correction is performed in step S53. Further, the sum of the absolute values of the differences obtained in units of pixels described above in the block is obtained, and when the sum in the block is larger than a predetermined value, the block is also added to the object region. Accordingly, it is possible to avoid erroneous detection that an object region whose design is different from the background is close to the block average value of the background due to the block average value, and is not determined as an object.

ステップS53では、初期シェイプデータと現入力画像データを用いて、シェイプデータの輪郭線を画像データ内の物体の輪郭線に一致させ、処理を次のフレームに進める(S54)。背景が静止している場合には、本実施形態によって、どのような形状の物体でも、あるいは、複数の物体でも、それらが画面内のどこにあっても高い精度で抽出できる。   In step S53, using the initial shape data and the current input image data, the contour line of the shape data is matched with the contour line of the object in the image data, and the process proceeds to the next frame (S54). When the background is stationary, according to the present embodiment, an object of any shape or a plurality of objects can be extracted with high accuracy wherever they are in the screen.

(第5の実施形態)
次に、基準フレームとの動き補償によって初期シェイプデータを生成する第5の実施形態を図17を用いて説明する。
(Fifth embodiment)
Next, a fifth embodiment for generating initial shape data by motion compensation with a reference frame will be described with reference to FIG.

先ず、固定の初期シェイプデータを用いる方法で、利用者が頭部を画面表示に合わせながら頭部の輪郭が抽出される。この輪郭抽出は、正しく抽出されていることを利用者が確認しながら画像取得操作を行う。そのときの画像と最終的なシェイプデータをそれぞれ基準画像データ、基準シェイプデータとする(S61)。次に、図18に示すような基準画像データから現入力フレームの画像データへの動き検出を行う。その動き検出結果を用いて、基準シェイプデータに対して動き補償を行うことで、現入力フレームの初期シェイプデータを生成する(S62)。例えば、基準フレームの物体領域の画像データを切り出し、それを現入力フレーム内で、平行移動しながらマッチングをとる。マッチング誤差が最小となった部分に基準シェイプデータの物体領域を平行移動させて初期シェイプデータを生成する。この後、初期シェイプデータと現人力画像データを用いて、シェイプデータの輪郭線を画像データ内の物体の輪郭線に一致させる、即ち輪郭位置の補正処理が行われる(S63)。次いで、処理は次のフレームに進める(S64)。   First, the outline of the head is extracted while the user matches the head to the screen display by a method using fixed initial shape data. In this contour extraction, the user performs an image acquisition operation while confirming that the contour is correctly extracted. The image and final shape data at that time are set as reference image data and reference shape data, respectively (S61). Next, motion detection from the reference image data to the image data of the current input frame as shown in FIG. 18 is performed. Using the motion detection result, motion compensation is performed on the reference shape data to generate initial shape data of the current input frame (S62). For example, the image data of the object area of the reference frame is cut out, and matching is performed while moving the image data in the current input frame. The initial shape data is generated by translating the object region of the reference shape data to the portion where the matching error is minimized. Thereafter, using the initial shape data and the current human power image data, the contour line of the shape data is matched with the contour line of the object in the image data, that is, the contour position is corrected (S63). Next, the process proceeds to the next frame (S64).

本実施形態によって、初めは利用者が画面を確かめながら自分で頭部の位置の調整をしなければならないが、基準画像を取得した後は、動き補償によって、物体の同じ面がカメラに向いているかぎり、画面内のどこにあっても抽出されるようになる。動き検出は平行移動の2パラメータに限らず、回転を含めた3パラメータ、さらに拡大/縮小を含めた4パラメータ、アフィン変換の6パラメータなど、パラメータ数を増やせば処理量は多くなるが、精度は向上する。   According to the present embodiment, the user must first adjust the position of the head while checking the screen, but after acquiring the reference image, the same surface of the object faces the camera by motion compensation. As long as it is, it will be extracted anywhere in the screen. Motion detection is not limited to two parameters of translation, but the amount of processing increases as the number of parameters increases, such as three parameters including rotation, four parameters including enlargement / reduction, and six parameters of affine transformation. improves.

物体が最初の位置からあまり動かないことが予め分かっている場合は、基準フレームは最初のままで変更する必要はない。しかし、物体が最初の位置から徐々に動いていく場合には、基準フレームは適宜更新し、例えば、フレーム毎に更新し、常に直前のフレームと動き補償を行うようにすれば、物体が時間を経て大きく動くときにも正しく抽出できる。   If it is known in advance that the object does not move much from its initial position, the reference frame remains the first and does not need to be changed. However, if the object moves gradually from the initial position, the reference frame is updated as appropriate, for example, updated every frame, and if the motion compensation is always performed with the immediately preceding frame, the object takes time. Even when moving greatly after that, it can be extracted correctly.

次に、複数の物体を区別しながら同時に抽出する実施形態を説明する。図19のようにあるフレームで物体Aと物体Bが離れて抽出されたとして、以降のフレームでもこれらを区別しながら追跡と抽出を行うとする。この場合、第3実施形態や第4実施形態に従って物体をそれぞれ抽出し、フレーム間で重なる画素数が多いもの同士を同じ物体だと判定するのが簡便に実現できる方法である。しかし、これらの方法では、図19(a)の状態だったものが、19(b)、(c)、(d)というように変化し、物体が途中で一部重なると、図19(b)や(c)のときに物体領域が融合してしまい、その結果、図19(d)のときに、どちらが物体Aでどちらが物体Bかが分からなくなる。このような場合に対応するためには、第5実施形態を2つの物体に対してそれぞれ用い、動き補償を行ったもの同士を同じ物体だと区別する。   Next, an embodiment in which a plurality of objects are extracted while being distinguished will be described. Assuming that the object A and the object B are extracted separately in a certain frame as shown in FIG. 19, it is assumed that tracking and extraction are performed while distinguishing these in subsequent frames. In this case, it is a method that can be realized easily by extracting objects according to the third embodiment and the fourth embodiment, and determining that objects having a large number of overlapping pixels between frames are the same object. However, in these methods, what was in the state of FIG. 19A changes to 19 (b), (c), and (d), and when the objects partially overlap in the middle, FIG. ) And (c), the object regions are merged. As a result, in FIG. 19D, it is not possible to know which is the object A and which is the object B. In order to deal with such a case, the fifth embodiment is used for each of two objects, and those subjected to motion compensation are distinguished from each other as the same object.

動き補償によって初期シェイプデータが図19(b)の様に求まったときに、特願平11−001891号や特願平11-301415号に記載された自己相似写像法を用いて輪郭位置の補正を行う例を図20と図21を用いて説明する。ここで、シェイプデータにおいては、物体Aの領域とされた画素には画素値1が代入され、物体Bの画素には画素値2が代入され、物体Aでも物体Bでもない画素には画素値0が代入されているとする。このようなシェイプデータの輪郭、すなわち、0と1の境界、0と2の境界、1と2の境界を画像データにおける物体の輪郭、すなわち、背景と物体Aの境界、背景と物体Bの境界、物体Aと物体Bの境界にそれぞれ補正するのが目的である。先願ではシェイプデータ(アルファマップ、アルファデータ、アルファマスクと同じ)は、2値の画像であったが、ここでは、{0、1、2}の3値の画像であることに注意する。   When the initial shape data is obtained by motion compensation as shown in FIG. 19B, the contour position is corrected by using the self-similar mapping method described in Japanese Patent Application Nos. 11-001891 and 11-301415. An example of performing the above will be described with reference to FIGS. 20 and 21. FIG. Here, in the shape data, the pixel value 1 is substituted for the pixel set as the area of the object A, the pixel value 2 is substituted for the pixel of the object B, and the pixel value is set for the pixel that is neither the object A nor the object B. Assume that 0 is assigned. The contour of such shape data, that is, the boundary between 0 and 1, the boundary between 0 and 2, and the boundary between 1 and 2 are the contours of the object in the image data, that is, the boundary between the background and the object A, and the boundary between the background and the object B. The purpose is to correct the boundary between the object A and the object B, respectively. In the prior application, the shape data (same as alpha map, alpha data, and alpha mask) was a binary image, but here it is noted that it is a ternary image of {0, 1, 2}.

まず、図21に示したようにシェイプデータの輪郭に沿ってブロックを配置する。そのために、シェイプデータをラスタスキャンし、隣接する画素と画素値が異なり、かつ、それまでに設定したブロックに含まれない画素を中心にして逐次、ブロックを設定する。この方法だと、ブロックが互いに重なり合いながら数珠つなぎに配置される。あるいは、特願平11-001891号に示したようにブロックが重ならないように配置する方法もある。次に、画像データを用いてブロックごとに、相似ブロックを探索する。   First, as shown in FIG. 21, blocks are arranged along the contour of the shape data. For this purpose, the shape data is raster-scanned, and blocks are sequentially set around pixels that have different pixel values from those of adjacent pixels and are not included in the previously set blocks. In this method, the blocks are arranged in a daisy chain while overlapping each other. Alternatively, as shown in Japanese Patent Application No. 11-001891, there is a method of arranging so that the blocks do not overlap. Next, a similar block is searched for each block using image data.

最後に、ブロックのシェイプデータを相似ブロックのシェイプデータを縮小したもので置き換える。例えば、図20に示したように、ブロックが2×2画素で、相似ブロックが4×4画素の場合、画素12に対する相似ブロック内でのサンプリングポイントは点13になる。そこで、点13の周囲4画素の画素値を調べ、最も数が多かった画素値(0、1、2のいずれか)をサンプリング値として、この値で画素12を置き換える。画素14に対しても点15の周囲4面素を用いて同様に置き換える。このようにして全ブロックの画素値の置き換えを複数回繰り返すことで、シェイプデータの輪郭は画像データ内の物体の輪郭に近づき、それと一致した状態で収束する。   Finally, the block shape data is replaced with a reduced version of the similar block shape data. For example, as shown in FIG. 20, when the block is 2 × 2 pixels and the similar block is 4 × 4 pixels, the sampling point for the pixel 12 in the similar block is point 13. Therefore, the pixel values of the four pixels around the point 13 are checked, and the pixel value (either 0, 1 or 2) with the largest number is used as a sampling value, and the pixel 12 is replaced with this value. The pixel 14 is similarly replaced by using the tetrahedron around the point 15. By repeating the replacement of the pixel values of all blocks in this manner a plurality of times, the contour of the shape data approaches the contour of the object in the image data and converges in a state consistent with it.

この方法によれば、物体を区別しながら追跡して、なおかつ輪郭に沿った抽出を行える。なお物体の数が3つ以上の場合はそれに応じて画素値の種類すなわちラベルを増やす。ラベルが増えても、サンプリング値を多数決で決めるのは同じである。   According to this method, an object can be tracked while being distinguished, and extraction along a contour can be performed. When the number of objects is three or more, the type of pixel value, that is, the label is increased accordingly. Even if the number of labels increases, the sampling value is determined by majority vote.

また、ブロックが重なる部分では、一つの画素に複数のサンプリング点が対応する。その場合には、上述したブロック毎の置き換えにおいて最後に置き換えた値を有効とする。あるいは、複数のサンプリング点の周囲の画索、例えば3個のサンプリング点の周囲の合計12個の画素を用いた多数決で置き換える値を決める。   Further, in a portion where the blocks overlap, a plurality of sampling points correspond to one pixel. In that case, the last replacement value in the replacement for each block described above is valid. Alternatively, the value to be replaced is determined by a search around a plurality of sampling points, for example, a majority decision using a total of 12 pixels around three sampling points.

本実施形態で用いた、3つ以上のラベルを用いる輪郭抽出補正法は、画像のセグメンテーションに用いることもできる。その際、ブロックの配置は図22(a)に示したように、画面全体を分割したものとする。次に、この画像データを用いて各ブロックに対して相似ブロックを求めるのは図14のステップS42等と同じである。そして、初期シェイプデータとしては、例えばランダムに各画素にラベルを配置したものを用意する。ラベルの数は予め決めておく。あるいは、画面を正方形のブロックに分割してブロック毎にラベルをつける。このブロック分割は図14と同じ方法であっても異なっても良い。あるいは、画像データの画素値を量子化し、各量子レベルにラベルを割り当てる。   The contour extraction correction method using three or more labels used in this embodiment can also be used for image segmentation. At this time, it is assumed that the arrangement of the blocks is obtained by dividing the entire screen as shown in FIG. Next, obtaining similar blocks for each block using this image data is the same as step S42 in FIG. As the initial shape data, for example, data in which a label is randomly arranged on each pixel is prepared. The number of labels is determined in advance. Alternatively, the screen is divided into square blocks and a label is attached to each block. This block division may be the same as or different from that in FIG. Alternatively, the pixel value of the image data is quantized and a label is assigned to each quantum level.

このようにして作成した初期シェイプデータに対して、相似ブロックからブロックヘの置き換えを繰り返すとあるシェイプデータに収束する。セグメンテーション画像は、収束したシェイプデータのラベルごとに色分けした画像として図22(b)のように得られる。第5の実施形態において基準フレームを設定する際に、このセグメンテーション画像を表示し、利用者が物体に属する領域を一つずつ選択することでその基準フレームの物体領域を設定してもよい。   When the replacement from the similar block to the block is repeated with respect to the initial shape data thus created, the initial shape data converges to certain shape data. The segmentation image is obtained as shown in FIG. 22B as an image color-coded for each label of the converged shape data. In setting the reference frame in the fifth embodiment, this segmentation image may be displayed, and the object area of the reference frame may be set by the user selecting areas belonging to the object one by one.

(第6の実施形態)
次に、図23、図24および図25を参照して本発明の物体抽出方法を用いた面像伝送システムを第6の実施形態として説明する。
(Sixth embodiment)
Next, a surface image transmission system using the object extraction method of the present invention will be described as a sixth embodiment with reference to FIG. 23, FIG. 24 and FIG.

図23において、具体的には、例えば携帯電話やパソコン、ゲーム機である画像送受信端末Xは、端末付属のカメラ16、画像切り出し器18、符号器20,復号器36および表示器38を備えている。他の画像送受信端末Y、Zも端末Xと同様に構成されている。   In FIG. 23, for example, an image transmission / reception terminal X, which is a mobile phone, a personal computer, or a game machine, for example, includes a camera 16 attached to the terminal, an image segmenter 18, an encoder 20, a decoder 36, and a display 38. Yes. The other image transmitting / receiving terminals Y and Z are configured in the same manner as the terminal X.

これら画像送受信端末X、Y、Zに接続される画像配信センターAは、端末X、Y、Zにそれぞれ接続される復号器24,25,26、これら復号器に接続される合成器30、背景メモリ31および符号器34を備えている。   The image distribution center A connected to these image transmission / reception terminals X, Y, and Z includes decoders 24, 25, and 26 connected to the terminals X, Y, and Z, a synthesizer 30 connected to these decoders, and a background. A memory 31 and an encoder 34 are provided.

このような構成において、端末付属のカメラ16によって端末Xの利用者の画像が撮影され、その画像データ17が切り出し器18に送られる。切り出し器18では利用者の顔画像が第3、4、5の実施形態などの手法で切り出され、顔画像データ19が符号器20に送られる。顔画像データとは、画像データ17と同じものと、その顔領域を表すシェイプデータ(アルファマップ、アルファデータ、アルファマスク)をあわせたものである。符号器20では、例えば、動画像符号化の国際標準であるMPEG−4方式によって顔画像データがオブジェクト符号化され、圧縮データ21が通信回線を介して画像配信センターAに送られる。   In such a configuration, an image of the user of the terminal X is taken by the camera 16 attached to the terminal, and the image data 17 is sent to the clipping unit 18. In the clipper 18, the face image of the user is cut out by a method such as the third, fourth, and fifth embodiments, and the face image data 19 is sent to the encoder 20. The face image data is a combination of the same image data 17 and shape data (alpha map, alpha data, alpha mask) representing the face area. In the encoder 20, for example, face image data is object-encoded by the MPEG-4 system, which is an international standard for moving image encoding, and the compressed data 21 is sent to the image distribution center A via a communication line.

端末Xとは離れたところにある端末Y、Zからも同様にそれぞれの利用者の顔画像が圧縮され、圧縮データ22、23としてそれぞれ、センターAに送られる。センターAでは受信した圧縮データ21、22、23がそれぞれ、復号器24、25、26で顔画像データ27、28、29に再生され、画像合成器30に送られる。   Similarly, the face images of the respective users are compressed from the terminals Y and Z located away from the terminal X, and sent to the center A as compressed data 22 and 23, respectively. In the center A, the received compressed data 21, 22, and 23 are reproduced as face image data 27, 28, and 29 by the decoders 24, 25, and 26, and sent to the image synthesizer 30.

合成器30には背景メモリ31から背景画像32も入力される。合成器30では図24に示したように背景画像32に顔画像データ27、28、29が合成され、この合成画像33が符号器34に送られる。符号器34では、合成画像33がMPEG−4方式などで通常の矩形画像として圧縮され、圧縮データ35が端末X、Y、Zのそれぞれに送られる。   A background image 32 is also input from the background memory 31 to the synthesizer 30. In the synthesizer 30, the face image data 27, 28, and 29 are synthesized with the background image 32 as shown in FIG. 24, and this synthesized image 33 is sent to the encoder 34. In the encoder 34, the composite image 33 is compressed as a normal rectangular image by the MPEG-4 method or the like, and the compressed data 35 is sent to each of the terminals X, Y, and Z.

端末Xでは受信した圧縮データ35は復号器36に送られる。復号器36では合成画像が再生され、その合成画像37は端末付属の表示部38に送られ、図24と同じ画像が表示される。端末YとZにも圧縮データ35がおくられ、同様の合成画像が端末YとZに表示される。   In the terminal X, the received compressed data 35 is sent to the decoder 36. The decoder 36 reproduces the synthesized image, and the synthesized image 37 is sent to the display unit 38 attached to the terminal, and the same image as that shown in FIG. 24 is displayed. The compressed data 35 is also sent to the terminals Y and Z, and similar composite images are displayed on the terminals Y and Z.

音声も別途伝送すれば、本システムにより、互いの顔を見ながら、サイバー空間を共有しながらの楽しいリアルタイムチャットシステムを実現できる。   If voice is also transmitted separately, this system can realize a fun real-time chat system while sharing cyber space while looking at each other's faces.

本システムの端末と画像配送センターでの手順は図25に示されている。同図25では、左側フローが端末での手順を示し、右側のフローは画像配送センターでの手順を示している。   The procedure in the terminal of this system and the image distribution center is shown in FIG. In FIG. 25, the left flow shows the procedure at the terminal, and the right flow shows the procedure at the image distribution center.

この手順では、先ず、画像を撮像する(S71)。次に、顔画像を切り出す(S72)。その後、顔画像データを圧縮し、その圧縮データをセンターに送信する(S73)。   In this procedure, first, an image is captured (S71). Next, a face image is cut out (S72). Thereafter, the face image data is compressed, and the compressed data is transmitted to the center (S73).

センターは、端末から圧縮データを受信し、顔画像データに再生する(S74)。再生した顔画像データを合成して合成画像を作る(S75)。合成画像を圧縮し、その圧縮データを端末に送信する(S76)。   The center receives the compressed data from the terminal and reproduces the face image data (S74). The reproduced face image data is combined to create a combined image (S75). The composite image is compressed, and the compressed data is transmitted to the terminal (S76).

端末は、センターから圧縮データを受信し、合成画像に再生する(S77)。この再生合成画像を端末のディスプレイに表示する(S78)。この後、フローはステップS71に戻る。   The terminal receives the compressed data from the center and reproduces it into a composite image (S77). This reproduced composite image is displayed on the display of the terminal (S78). After this, the flow returns to step S71.

なお、画像配送センターでのS74では、複数の圧縮データを受信することで、複数の顔画像を合成する。   In S74 at the image distribution center, a plurality of face images are synthesized by receiving a plurality of compressed data.

(第7の実施形態)
同様の機能を面像配信センターを介さずに実現する第7の実施形態に従った別の画像伝送システムを図26を参照して説明する。このシステムでは、端末Xにおいて、顔画像データ19を生成し、符号器20を介して圧縮データ21を生成する点は、先のシステムと同じであるので説明は省略する。
(Seventh embodiment)
Another image transmission system according to the seventh embodiment that realizes the same function without going through the area image distribution center will be described with reference to FIG. In this system, since the face image data 19 is generated in the terminal X and the compressed data 21 is generated via the encoder 20, the description is omitted because it is the same as the previous system.

圧縮データ21は、端末YとZにそれぞれ通信回線を介して送られる。端末YとZからも同様に、圧縮データ22、23が送出され、端末Xに送られる。また、端末YとZの間でも相互に圧縮データの送信を行う。端末Xで受信した圧縮データ22、23はそれぞれ、復号器39、40で復号され、顔画像データ41、42が合成器43に送られる。合成器43には、端末Xの利用者の顔画像データ19も入力され、これらが、背景メモリ44から送らてくる背景面像45と合成される。合成画像46は表示部47に送られて表示される。端末YとZも上記と同様にデータの送受が行われ、合成画像がそれぞれの表示部に表示される。   The compressed data 21 is sent to terminals Y and Z via communication lines. Similarly, the compressed data 22 and 23 are sent from the terminals Y and Z and sent to the terminal X. Also, the compressed data is transmitted between the terminals Y and Z. The compressed data 22 and 23 received by the terminal X are decoded by the decoders 39 and 40, respectively, and the face image data 41 and 42 are sent to the synthesizer 43. The face image data 19 of the user of the terminal X is also input to the synthesizer 43, and these are combined with the background surface image 45 sent from the background memory 44. The composite image 46 is sent to the display unit 47 and displayed. The terminals Y and Z also transmit and receive data in the same manner as described above, and the composite image is displayed on each display unit.

このシステムでは、各端末での処理が多くなり、複数の相手と同時に通信する必要があるが、画像配信センターが不要で、背景画像や顔画像の配置を各端末で利用者が好きなように決められる利点がある。   This system requires more processing at each terminal, and it is necessary to communicate with multiple partners at the same time, but there is no need for an image distribution center, so that each terminal likes the arrangement of background images and face images. There are benefits that can be determined.

図26のシステムの端末での手順が図27に示されている。これによると、最初に、画像を撮像する(S81)。次に、物体を抽出する。即ち、顔画像を切り出す(S82)。切り出した画像、例えば自分の顔画像データを圧縮し、その圧縮データを別の端末に送信する(S83)。このとき同時に、別の端末から圧縮データを受信して相手の顔画像データに再生する。自分の顔画像データと相手の顔画像データを合成して合成画像を作る(S84)。この合成画像を表示する(S85)と、フローはステップS81に戻る。   The procedure at the terminal of the system of FIG. 26 is shown in FIG. According to this, first, an image is captured (S81). Next, an object is extracted. That is, the face image is cut out (S82). The clipped image, for example, own face image data is compressed, and the compressed data is transmitted to another terminal (S83). At the same time, the compressed data is received from another terminal and reproduced as the other party's face image data. The own face image data and the other party's face image data are combined to create a combined image (S84). When this composite image is displayed (S85), the flow returns to step S81.

図27の右側には別の端末での手順が示されているが、この手順は左側の手順と同じである。   Although the procedure at another terminal is shown on the right side of FIG. 27, this procedure is the same as the procedure on the left side.

また、合成画像を生成する際に、顔画像が正しく得られたかどうか、つまり顔が正しく抽出されてきたかどうかを自動的に判定し、顔画像が得られた場合には背景に合成し抽出に失敗して顔画像が得られていない場合には合成しないようにすれば、顔以外の不要なものが誤って合成されることがなくなる。この判定は、例えば、物体領域の肌色の画素数を数え、その肌色の画素数の物体領域全体に対する割合が一定値以上なら顔画像であり、それ以下なら顔画像ではないと判定する。ここで、肌色の判定は例えば、各画素の色がY、U、Vの3色で、おのおの0〜255の値で表された画像の場合、U=110、V=160を肌色の基準とし、画像データのUと110の差の絶対値が所定値よりも小さく、かつ、Vと160の差の絶対値が所定値よりも小さい画素を肌色と判定する。   Also, when generating a composite image, it is automatically determined whether or not the face image is correctly obtained, that is, whether or not the face has been correctly extracted, and if a face image is obtained, it is combined with the background for extraction. If the face image is not obtained due to the failure, if it is not combined, unnecessary things other than the face will not be mistakenly combined. In this determination, for example, the number of skin color pixels in the object region is counted, and if the ratio of the number of skin color pixels to the entire object region is equal to or greater than a predetermined value, the face image is determined. Here, for example, in the case of an image in which the color of each pixel is three colors Y, U, and V and each is represented by a value of 0 to 255, U = 110 and V = 160 are used as skin color standards. A pixel in which the absolute value of the difference between U and 110 of the image data is smaller than a predetermined value and the absolute value of the difference between V and 160 is smaller than the predetermined value is determined as skin color.

顔画像か否かの判定は合成器30や43で行うのが一つの方法であるが、符号器において判定を行い、顔画像でない場合には符号化しないようにすれば通信量を削減できる。   One method is to determine whether or not the image is a face image by the synthesizers 30 and 43. However, if the determination is performed by the encoder and the image is not a face image, the amount of communication can be reduced.

表示部38や47は端末とは別の例えばテレビを用いても良い。その際、テレビヘの画像の送信はブルートゥースなどの無線を用いると配線の煩わしさがなくてよい。また、背景画像32、45は背景メモリ31、44から読み出すのではなく、テレビなどの放送映像を受信して用いてもよい。そうすると、離れた場所にいる人同士が互いの様子を見ながら一緒に同じテレビ番組を楽しめる。   The display units 38 and 47 may use a television other than the terminal, for example. At this time, the transmission of the image to the television can be made without the hassle of wiring by using wireless communication such as Bluetooth. In addition, the background images 32 and 45 may be used by receiving broadcast video from a television or the like instead of being read from the background memories 31 and 44. Then, people in remote locations can enjoy the same TV program together while watching each other.

配送センターAでは、合成する画像として、予めタレントなどの顔画像を用意しておき、端末利用者からの求めに応じてそのタレントの顔を利用者の顔と並べて合成して送信するなどのサービスも可能である。背景画像についても同じく、キャラクタの背景を用意しておき、利用者の希望に応じて背景を選択する。   In the delivery center A, a face image such as a talent is prepared in advance as an image to be combined, and the face of the talent is combined with the user's face and transmitted in response to a request from the terminal user. Is also possible. Similarly, a background of the character is prepared for the background image, and the background is selected according to the user's desire.

なお、本発明は上述した実施形態に限定されるものではなく、種々変形して実施可能である。また、実施形態に記載した手法は、コンピュータに読み取り実行させることのできるプログラムとして、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することもできる。   The present invention is not limited to the above-described embodiment, and can be implemented with various modifications. Further, the method described in the embodiment is a program that can be read and executed by a computer, such as a magnetic disk (floppy (registered trademark) disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, etc. It can be stored in a medium and distributed.

本発明の第1の実施形態に従った画像輪郭抽出方法を説明するためのフローチャート。The flowchart for demonstrating the image outline extraction method according to the 1st Embodiment of this invention. 図1におけるステップS13とステップS17の処理である輪郭位置補正処理の詳しい処理内容を示すフローチャート。The flowchart which shows the detailed processing content of the outline position correction process which is a process of step S13 in FIG. 1, and step S17. 本発明の第2の実施形態における相似ブロックの探索範囲の例を説明するための図。The figure for demonstrating the example of the search range of the similar block in the 2nd Embodiment of this invention. 本発明の第2の実施形態における縮小画面のサンプリング位置を説明するための図。The figure for demonstrating the sampling position of the reduction | decrease screen in the 2nd Embodiment of this invention. 自己相似写像を用いた手法による輪郭位置補正処理で使用するシェイプデータ(アルファマップ)上の探索基準ブロックの配置例。An arrangement example of search reference blocks on shape data (alpha map) used in contour position correction processing by a method using a self-similar map. 自己相似写像を用いた手法による輪郭位置補正処理で使用する探索基準ブロックと相似ブロックの例。The example of the search reference | standard block used by the outline position correction process by the method using a self-similar map and a similar block. 自己相似写像を用いた手法による輪郭位置補正処理での従来の相似ブロックの探索範囲の例。The example of the search range of the conventional similar block in the outline position correction process by the method using a self-similar map. 自己相似写像を用いた手法による輪郭位置補正処理でのシェイプデータ(アルファマップ)の補正結果を示す図。The figure which shows the correction | amendment result of the shape data (alpha map) in the outline position correction process by the method using a self-similar map. 自己相似写像を用いた手法による従来の輪郭位置補正処理内容を示すフローチャート。The flowchart which shows the content of the conventional outline position correction process by the method using a self-similar map. 本発明の第3の実施形態に従った画像輪郭抽出方法を説明するためのフローチャート。The flowchart for demonstrating the image outline extraction method according to the 3rd Embodiment of this invention. 第3の実施形態により生成される複数の初期シェイプデータ候補を示す図。The figure which shows the some initial shape data candidate produced | generated by 3rd Embodiment. 他の初期シェイプデータ候補を示す図。The figure which shows another initial shape data candidate. (a)分離度を求める領域、(b)初期シェイプデータ、(c)分離度を求める領域を示す図。(A) The area | region which calculates | requires a degree of separation, (b) Initial shape data, (c) The figure which shows the area | region which calculates | requires a degree of separation. 輪郭位置補正処理を説明するフローチャート。The flowchart explaining an outline position correction process. 本発明の第4の実施形態に従った画像輪郭抽出方法を説明するためのフローチャート。The flowchart for demonstrating the image outline extraction method according to the 4th Embodiment of this invention. 第4の実施形態の画像輪郭抽出方法を説明するための図。The figure for demonstrating the image outline extraction method of 4th Embodiment. 本発明の第5の実施形態に従った画像輪郭抽出方法を説明するためのフローチャート。The flowchart for demonstrating the image outline extraction method according to the 5th Embodiment of this invention. 第5の実施形態の画像輪郭抽出方法を説明するための画面図。The screen figure for demonstrating the image outline extraction method of 5th Embodiment. 物体が交差する様子を説明するための図。The figure for demonstrating a mode that an object cross | intersects. 画素値のサンプリングを説明するための図。The figure for demonstrating sampling of a pixel value. 複数の物体を識別するブロックの配置を説明する図。The figure explaining arrangement | positioning of the block which identifies a some object. ブロック分割した画面およびセグメンテーション画像を示す図Figure showing a block-divided screen and segmentation image 第6の実施形態に従った画像伝送システムのブロック図。The block diagram of the image transmission system according to 6th Embodiment. 第6の実施形態で形成される合成画像を示す図。The figure which shows the synthesized image formed in 6th Embodiment. 第6の実施形態の伝送システムでの手順を示すフローチャート。10 is a flowchart showing a procedure in the transmission system of the sixth embodiment. 第7の実施形態の画像伝送システムのブロック図。The block diagram of the image transmission system of 7th Embodiment. 第7の実施形態の伝送システムでの手順を示すフローチャート。The flowchart which shows the procedure in the transmission system of 7th Embodiment.

符号の説明Explanation of symbols

1…輪郭抽出対象物体(正しい物体領域)、1a…輪郭抽出対象物体の輪郭(正しい物体領域1の輪郭)、2…シェイプデータの輪郭(抽出対象物体の概略形状)、16…端末付属のカメラ、18…画像切り出し器、20、34…符号器、24,25,26、36…復号器、30…合成器、31…背景メモリ、38…表示器、B1,〜Bn…探索基準ブロック、Bs1〜Bsn…探索基準ブロックB1〜Bnの相似ブロック、Fs1…探索基準ブロックB1の周囲に適宜な大きさの探索領域、Bc…相似候補ブロック、Bcd…探索基準ブロックB1との誤差評価を行った結果、誤差最小で相似ブロックとして決定されることとなった相似候補ブロック、X、Y、Z…画像送受信端末、   DESCRIPTION OF SYMBOLS 1 ... Contour extraction target object (correct object area), 1a ... Contour of contour extraction target object (contour of correct object area 1), 2 ... Shape data outline (general shape of extraction target object), 16 ... Camera attached to terminal , 18 ... Image segmenter, 20, 34 ... Encoder, 24, 25, 26, 36 ... Decoder, 30 ... Synthesizer, 31 ... Background memory, 38 ... Display, B1, ... Bn ... Search reference block, Bs1 ˜Bsn: similarity block of search reference blocks B1 to Bn, Fs1: search area of appropriate size around search reference block B1, Bc: similarity candidate block, Bcd: result of error evaluation with search reference block B1 , A similarity candidate block determined as a similarity block with a minimum error, X, Y, Z...

Claims (5)

画像輪郭抽出装置を用いた画像からの物体抽出方法であって、
前記画像輪郭抽出装置の第1処理手段が、抽出対象物体が撮像された画像データの各部分を同じ画像データの別の部分または別の画像データと比較することにより、この画像データ内の抽出対象物体の暫定的な領域を表わす画像であるシェイプデータを生成する第1のステップと、
前記画像輪郭抽出装置の第2処理手段が、前記画像データと暫定的に生成した前記シェイプデータとを用いて、前記シェイプデータの輪郭を前記抽出対象物体の輪郭に一致させる第2のステップと、
を含むことを特徴とする画像からの物体抽出方法。
An object extraction method from an image using an image contour extraction device,
The first processing means of the image contour extracting device compares each part of the image data in which the extraction target object is imaged with another part of the same image data or another image data, thereby extracting the extraction target in the image data. A first step of generating shape data that is an image representing a provisional region of the object;
A second step in which the second processing means of the image contour extracting apparatus matches the contour of the shape data with the contour of the extraction target object using the image data and the shape data provisionally generated;
A method for extracting an object from an image, comprising:
前記第1のステップは、予め複数の候補領域を決めておき、これら候補領域を選択的に画像データ内に設定した場合に、前記候補領域の内側と外側の画素値の統計的な性質が最も隔たるような候補領域を前記抽出対象物体の暫定的な領域として設定することを含むことを特徴とする請求項1記載の画像からの物体抽出方法。   In the first step, when a plurality of candidate regions are determined in advance and these candidate regions are selectively set in the image data, the statistical properties of the pixel values inside and outside the candidate region are the most. The method for extracting an object from an image according to claim 1, further comprising: setting candidate areas that are separated from each other as a provisional area of the object to be extracted. 前記第1のステップは、現入力画像データと、予め取得しておく前記抽出対象物体が写っていない背景画像データとを比較し、現入力画像データと背景画像データの値が異なる領域を前記抽出対象物体の暫定的な領域として設定することを含むことを特徴とする請求項1記載の画像からの物体抽出方法。   In the first step, the current input image data is compared with the background image data in which the extraction target object that is acquired in advance is not captured, and the areas where the values of the current input image data and the background image data are different are extracted. The method for extracting an object from an image according to claim 1, further comprising setting as a provisional area of the target object. 画像輪郭抽出装置を用いた画像からの物体抽出方法であって、
前記画像輪郭抽出装置の第1処理手段が、抽出対象物体が撮像された画像データと、前記画像データ内の抽出対象物体の暫定的な領域を表す画像であるシェイプデータを入力とし、前記シェイプデータの輪郭部分に、それぞれ中心部分をおいて所定サイズの複数の探索基準ブロックを、互いの位置をずらして設定する第1のステップと、
前記画像輪郭抽出装置の第2処理手段が、各探索基準ブロック毎に、そのブロック内での前記画像データの図柄が相似で、かつ、前記探索基準ブロックよりも大きいブロックサイズの相似ブロックを同じ画像の中から探索する第2のステップと、
前記画像輪郭抽出装置の第3処理手段が、前記シェイプデータのうち、前記各探索基準ブロック内におけるシェイプデータを、前記相似ブロックより得た縮小処理によるサイズ補正済みの補正用シェイプデータと置き換えることによりシェイプデータの補正処理をする第3のステップと、を含み、
前記シェイプデータは、互いに異なる物体の領域と背景領域ではそれぞれ互いに異なる画素値を有し、前記第3のステップにおける縮小処理では、前記シェイプデータのサンプリング点の周囲のいずれかの画素の画素値をサンプリング値とすることを特徴とする画像からの物体抽出方法。
An object extraction method from an image using an image contour extraction device,
The first processing means of the image contour extraction apparatus receives image data obtained by capturing an extraction target object and shape data that is an image representing a provisional region of the extraction target object in the image data, and the shape data A first step of setting a plurality of search reference blocks of a predetermined size with their respective positions being shifted from each other in the contour portion,
The second processing means of the image contour extracting apparatus uses the same image for each search reference block in which the blocks of the image data in the block are similar and have a block size larger than the search reference block. A second step of searching from within,
The third processing means of the image contour extracting device replaces the shape data in each search reference block of the shape data with the corrected shape data for which size correction has been performed by the reduction processing obtained from the similar block. And a third step of correcting the shape data,
The shape data has different pixel values in different object regions and background regions, and in the reduction process in the third step, the pixel value of any pixel around the sampling point of the shape data is obtained. A method for extracting an object from an image, characterized by using a sampling value.
送受信データを相互に送受する複数の通信端末からなる伝送システムであって、
前記通信端末は、
抽出対象物体が撮像された画像データから物体を抽出して抽出画像データを得る物体抽出手段と、
前記抽出画像データをそのままか、あるいは圧縮し、通信端末間送受信データとして別の通信端末に送る送信手段と、
別の通信端末から送られてくる前記通信端末間送受信データを受信して、その送受信データが圧縮されていない場合にはそのまま抽出画像データとし、圧縮されている場合には抽出画像データを再生する受信手段と、
前記抽出画像データを一つの合成画像データに合成する合成手段と、
前記合成画像データを表示する手段と、により構成されることを特徴とする伝送システム。
A transmission system comprising a plurality of communication terminals that transmit and receive data to and from each other,
The communication terminal is
Object extraction means for extracting an object from image data obtained by capturing an extraction target object and obtaining extracted image data;
Transmitting means that directly or compresses the extracted image data and sends it to another communication terminal as communication terminal transmission / reception data;
The inter-communication terminal transmission / reception data sent from another communication terminal is received, and when the transmission / reception data is not compressed, it is used as extracted image data as it is, and when it is compressed, the extracted image data is reproduced. Receiving means;
Synthesizing means for synthesizing the extracted image data into one synthesized image data;
And a means for displaying the composite image data.
JP2007286611A 1999-10-22 2007-11-02 Contour extraction method for image, object extraction method from image and image transmission system using the object extraction method Abandoned JP2008102946A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007286611A JP2008102946A (en) 1999-10-22 2007-11-02 Contour extraction method for image, object extraction method from image and image transmission system using the object extraction method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP30141599 1999-10-22
JP2007286611A JP2008102946A (en) 1999-10-22 2007-11-02 Contour extraction method for image, object extraction method from image and image transmission system using the object extraction method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2000099877A Division JP2001188910A (en) 1999-10-22 2000-03-31 Method for extracting outline of image, method for extracting body from image, and image transmisison system using the same

Publications (1)

Publication Number Publication Date
JP2008102946A true JP2008102946A (en) 2008-05-01

Family

ID=39437178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007286611A Abandoned JP2008102946A (en) 1999-10-22 2007-11-02 Contour extraction method for image, object extraction method from image and image transmission system using the object extraction method

Country Status (1)

Country Link
JP (1) JP2008102946A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010007423A2 (en) * 2008-07-14 2010-01-21 Musion Ip Limited Video processing and telepresence system and method
US20100226574A1 (en) * 2009-03-04 2010-09-09 Fujifilm Corporation Region extraction apparatus and region extraction method
US8270075B2 (en) 2008-05-08 2012-09-18 Musion Ip Limited Projection apparatuses and associated methods
US8915595B2 (en) 2008-12-24 2014-12-23 Musion Ip Limited Method of manufacturing foil for producing a pepper's ghost illusion
US9563115B2 (en) 2008-12-24 2017-02-07 Musion Ip Limited Method of manufacturing foil for producing a pepper's ghost illusion
CN109636866A (en) * 2018-12-13 2019-04-16 福建工程学院 The foreground extracting method of stochastic clustering statistics based on resolution decreasing
US10288982B2 (en) 2008-12-02 2019-05-14 Musion Ip Limited Mobile studio
US10447967B2 (en) 2008-07-14 2019-10-15 Musion Ip Ltd. Live teleporting system and apparatus
CN110991465A (en) * 2019-11-15 2020-04-10 泰康保险集团股份有限公司 Object identification method and device, computing equipment and storage medium

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8270075B2 (en) 2008-05-08 2012-09-18 Musion Ip Limited Projection apparatuses and associated methods
US8514490B2 (en) 2008-05-08 2013-08-20 Musion Ip Limited Projection apparatuses and associated methods
WO2010007423A2 (en) * 2008-07-14 2010-01-21 Musion Ip Limited Video processing and telepresence system and method
WO2010007423A3 (en) * 2008-07-14 2010-07-15 Musion Ip Limited Video processing and telepresence system and method
US10447967B2 (en) 2008-07-14 2019-10-15 Musion Ip Ltd. Live teleporting system and apparatus
EA018293B1 (en) * 2008-07-14 2013-06-28 МЬЮЖН АйПи ЛИМИТЕД Video and telepresence processing method
US10288982B2 (en) 2008-12-02 2019-05-14 Musion Ip Limited Mobile studio
US9563115B2 (en) 2008-12-24 2017-02-07 Musion Ip Limited Method of manufacturing foil for producing a pepper's ghost illusion
US8915595B2 (en) 2008-12-24 2014-12-23 Musion Ip Limited Method of manufacturing foil for producing a pepper's ghost illusion
US8620076B2 (en) 2009-03-04 2013-12-31 Fujifilm Corporation Region extraction apparatus and region extraction method
JP2010205067A (en) * 2009-03-04 2010-09-16 Fujifilm Corp Device, method and program for extracting area
US20100226574A1 (en) * 2009-03-04 2010-09-09 Fujifilm Corporation Region extraction apparatus and region extraction method
CN109636866A (en) * 2018-12-13 2019-04-16 福建工程学院 The foreground extracting method of stochastic clustering statistics based on resolution decreasing
CN110991465A (en) * 2019-11-15 2020-04-10 泰康保险集团股份有限公司 Object identification method and device, computing equipment and storage medium
CN110991465B (en) * 2019-11-15 2023-05-23 泰康保险集团股份有限公司 Object identification method, device, computing equipment and storage medium

Similar Documents

Publication Publication Date Title
US7428335B2 (en) Method of extracting contour of image, method of extracting object from image, and video transmission system using the same method
JP2008102946A (en) Contour extraction method for image, object extraction method from image and image transmission system using the object extraction method
US8798168B2 (en) Video telecommunication system for synthesizing a separated object with a new background picture
US10205889B2 (en) Method of replacing objects in a video stream and computer program
KR100387341B1 (en) Region-based image processing method, image processing apparatus communication apparatus
US8824738B2 (en) Data capture and identification system and process
US6404901B1 (en) Image information processing apparatus and its method
US6297846B1 (en) Display control system for videoconference terminals
Nie et al. Dynamic video stitching via shakiness removing
KR100737974B1 (en) Image extraction combination system and the method, And the image search method which uses it
US20140310097A1 (en) Information processing system, information processing method, communications terminals and control method and control program thereof
JP2008116459A (en) Method of extracting contour of image, method of extracting object from image, and image transmission system using method of extracting object
KR20180129339A (en) Method for image compression and method for image restoration
US6522790B1 (en) Method and apparatus for merging images
JP2001283201A (en) Method for creating three-dimensional image data and method for creating optional viewpoint image using three-dimensional image data
KR100641455B1 (en) Apparatus and Method for complexing image in mobile communication terminal
JP6340675B1 (en) Object extraction device, object recognition system, and metadata creation system
WO2014132816A1 (en) Image processing device, method, and program
KR20060070002A (en) 3-dimension contents giving system and operation method thereof
US20050047665A1 (en) Method for segmenting moving object of compressed moving image
JP2017143339A (en) Image synthesizing apparatus, operation method of image synthesizing apparatus, and computer program
US20220222774A1 (en) Apparatus and method for 360-degree video stitching
JP2000348175A (en) Method and device for corresponding point detection
JP2007525916A (en) Method and apparatus for video communication over limited bandwidth media
KR20220101565A (en) Apparatus and Method for 360°Image Stitching

Legal Events

Date Code Title Description
A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20100125