JP3411971B2 - Human image extraction device - Google Patents

Human image extraction device

Info

Publication number
JP3411971B2
JP3411971B2 JP2001037121A JP2001037121A JP3411971B2 JP 3411971 B2 JP3411971 B2 JP 3411971B2 JP 2001037121 A JP2001037121 A JP 2001037121A JP 2001037121 A JP2001037121 A JP 2001037121A JP 3411971 B2 JP3411971 B2 JP 3411971B2
Authority
JP
Japan
Prior art keywords
image
area
person
edge
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001037121A
Other languages
Japanese (ja)
Other versions
JP2002245441A (en
Inventor
昭二 田中
聡 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2001037121A priority Critical patent/JP3411971B2/en
Publication of JP2002245441A publication Critical patent/JP2002245441A/en
Application granted granted Critical
Publication of JP3411971B2 publication Critical patent/JP3411971B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、ディジタルカメ
ラやスキャナ等の画像入力装置、もしくは既にコンピュ
ータに取り込まれた画像データファイルから入力された
人物画像から人物像を抽出する人物像抽出装置に関する
ものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image input device such as a digital camera or a scanner, or a human image extraction device for extracting a human image from a human image input from an image data file that has already been captured by a computer. is there.

【0002】[0002]

【従来の技術】図33は、例えば特許第3034224
4号公報に示された従来の構図情報抽出装置の全体構成
を説明するための図であり、被写体抽出回路によって、
入力された写真画像から被写体領域を抽出する。
2. Description of the Related Art FIG. 33 shows, for example, Japanese Patent No. 3034224.
It is a figure for explaining the whole composition of the conventional composition information extraction device shown by the gazette No. 4 by a subject extraction circuit.
The subject area is extracted from the input photographic image.

【0003】次に動作について説明する。従来の構図情
報抽出装置の被写体抽出回路では、まずガボールフィル
タバンクを用いた領域分割手法により画像を領域分割
し、分割された各領域のコントラストパラメータ(領域
間の違いおよび各領域と画像全体との違いを測るための
パラメータ)を計測し、予め構築したニューラルネット
ワークに入力することで、各領域を被写体と背景に分離
する。
Next, the operation will be described. In a subject extraction circuit of a conventional composition information extraction device, an image is first divided into regions by a region dividing method using a Gabor filter bank, and contrast parameters of each divided region (differences between regions and the difference between each region and the entire image). By measuring parameters for measuring the difference) and inputting them to a neural network constructed in advance, each region is separated into a subject and a background.

【0004】ここで、上記ニューラルネットワークは、
様々な画像から切り出された領域に対して、人間が分類
した被写体領域データおよび背景領域データを学習デー
タとして学習させた結果得られたものである。
Here, the neural network is
This is obtained as a result of learning subject area data and background area data classified by humans as learning data with respect to areas cut out from various images.

【0005】また、特開2000−36032号公報に
示された従来の別の前景画像抽出方法では、前景、つま
り被写体領域を予め撮影しておいた背景画像との差分を
求めることにより抽出している。
In another conventional foreground image extraction method disclosed in Japanese Patent Laid-Open No. 2000-36032, a foreground, that is, a subject region is extracted by obtaining a difference from a background image previously photographed. There is.

【0006】[0006]

【発明が解決しようとする課題】従来の構図情報抽出装
置の被写体抽出回路は、ガボールフィルタバンクによる
領域分割を基に被写体抽出を行っているため、リアルタ
イム処理が困難である。また、ガボールフィルタバンク
による領域分割は、テクスチャ領域を分割する場合に適
しているが、領域の切出し精度(領域の境界がエッジ上
に存在する割合)が良好でないという問題点があった。
Since the subject extraction circuit of the conventional composition information extraction device performs subject extraction based on area division by the Gabor filter bank, real-time processing is difficult. Further, although the region division by the Gabor filter bank is suitable for dividing a texture region, there is a problem that the region cutting accuracy (the ratio of the region boundary on the edge) is not good.

【0007】さらに、従来の構図情報抽出装置の被写体
抽出回路は、任意の画像に対して被写体を抽出するため
のものであることから、本発明の人物像抽出装置が対象
とする人物画像に対して常に良好な結果が得られるとは
限らないという問題点があった。
Further, since the subject extracting circuit of the conventional composition information extracting device is for extracting the subject from an arbitrary image, the human image extracting device of the present invention is capable of extracting the subject image. However, there is a problem that good results are not always obtained.

【0008】また、従来の別の前景画像抽出法では、常
に背景画像をシステムが保持しなければならず、撮影時
の利用者の手間が増える問題点があった。また、既存の
写真画像から被写体を抽出するためには、被写体が撮影
される前の背景画像が必要となり、その背景画像がない
場合には被写体抽出が不可能という問題点があった。
Further, in another conventional foreground image extraction method, the system must always hold the background image, which causes a problem that the user's time and effort at the time of photographing increases. Further, in order to extract a subject from an existing photographic image, a background image before the subject is photographed is required, and there is a problem that the subject cannot be extracted if the background image is not present.

【0009】この発明は、上記のような問題点を解決す
るためになされたもので、一人又は複数の人物を均一あ
るいはぼけた背景の前で、かつバストショットで撮影さ
れた画像に対して、リアルタイムに、エッジ精度良く、
かつ常に高い抽出精度で被写体を抽出することができる
人物像抽出装置を提供することを目的とする。
The present invention has been made in order to solve the above-mentioned problems, and for an image taken by a bust shot in front of a uniform or blurred background of one or more persons, In real time, with good edge accuracy,
Moreover, it is an object of the present invention to provide a human image extraction device that can always extract a subject with high extraction accuracy.

【0010】[0010]

【課題を解決するための手段】この発明に係る人物像抽
出装置は、画像を入力する画像入力手段と、この画像入
力手段により入力された画像から人物領域の候補を決定
する人物領域候補決定手段と、この人物領域候補決定手
段において決定した人物領域候補の中から人物像を構成
する領域を選択し、人物像を画像から抽出する人物像抽
出手段と、この人物像抽出手段の抽出結果を出力する抽
出結果出力手段と、を備えたものである。
A person image extracting device according to the present invention comprises an image inputting means for inputting an image and a person area candidate determining means for determining a candidate for a person area from the image input by the image inputting means. And a person image extracting means for selecting an area forming a person image from the person area candidates determined by the person area candidate determining means and extracting the person image from the image, and outputting the extraction result of the person image extracting means. And an extraction result output means for performing the extraction result output.

【0011】また、人物領域候補決定手段は、入力画像
のエッジ抽出を行うエッジ抽出手段と、入力画像の色を
減色し、各色のIDに基づいて画像の各画素をIDで表した
インデックスマップを作成する画像減色手段と、この画
像減色手段で作成されたインデックスマップに基づいて
領域マップを作成する領域マップ作成手段と、を備えた
ものである。
Further, the person area candidate determining means is an edge extracting means for extracting an edge of the input image, a color of the input image is subtracted, and an index map in which each pixel of the image is represented by an ID based on the ID of each color. It is provided with image reducing means for producing and area map producing means for producing an area map based on the index map produced by the image reducing means.

【0012】また、領域マップ作成手段は、画像減色手
段において作成されたインデックスマップの各画素に対
して、ブロック単位にインデックスのヒストグラムを求
め、ヒストグラムが最大となるインデックスで画素のイ
ンデックスを置き換えるノイズ除去処理を施し微小領域
を除外するものである。
Further, the area map creating means obtains a histogram of indexes for each pixel of the index map created by the image color-reducing means, and removes noise by substituting the index of the pixel with the index that maximizes the histogram. The processing is performed to exclude the minute area.

【0013】また、エッジ抽出手段は、画像入力手段に
より入力された画像のR,G,Bの各プレーンに対してエッ
ジ抽出処理を行い、各画素の各プレーンにおけるエッジ
強度の最大値をその画素のエッジ強度とする処理を行う
ことでエッジ画像を求めるものである。
The edge extraction means performs edge extraction processing on each of the R, G, B planes of the image input by the image input means, and determines the maximum value of the edge strength in each plane of each pixel as the pixel value. The edge image is obtained by performing the processing with the edge strength of.

【0014】また、人物像抽出手段は、背景除去の前処
理に、画像の左右の縁に接する領域が背景領域であるか
否かを判断するための条件式に、左右の縁に接する画素
の座標に応じて変化する重みを導入したものである。
Further, the person image extracting means uses, in the preprocessing of the background removal, a conditional expression for determining whether or not the area in contact with the left and right edges of the image is the background area. It introduces weights that change depending on the coordinates.

【0015】また、人物像抽出手段は、背景除去処理
に、エッジ抽出手段で作成したエッジマップを参照しな
がら背景除去処理を行うものである。
Further, the person image extraction means performs the background removal processing while referring to the edge map created by the edge extraction means in the background removal processing.

【0016】また、人物領域候補決定手段は、テンプレ
ートに応じて人物領域の候補を決定するようにしたもの
である。
The person area candidate determining means is adapted to determine a person area candidate according to the template.

【0017】また、人物領域候補決定手段は、入力画像
の色を減色し、各色のIDに基づいて画像の各画素をIDで
表したインデックスマップを作成する画像減色手段と、
この画像減色手段で作成されたインデックスマップに基
づいて領域マップを作成する領域マップ作成手段と、人
物像を切り出すためのテンプレートを提示するテンプレ
ート提示手段と、利用者が選択したテンプレートを入力
画像に合わせて修正するテンプレート当てはめ手段と、
被写体の数に応じた様々な人物ポーズのテンプレートを
格納した人物ポーズテンプレートDBと、を備えたもので
ある。
The person area candidate determining means subtracts the color of the input image and creates an index map in which each pixel of the image is represented by an ID based on the ID of each color.
An area map creating means for creating an area map based on the index map created by the image color-reducing means, a template presenting means for presenting a template for cutting out a human image, and a template selected by the user are matched with the input image. Template fitting means to correct by
A person pose template DB, which stores templates of various person poses according to the number of subjects, is provided.

【0018】また、人物像抽出手段における人物像抽出
結果を容易に修正するための抽出結果修正手段を設けた
ものである。
Further, the extraction result correction means for easily correcting the extraction result of the human image by the human image extraction means is provided.

【0019】また、抽出結果修正手段は、人物領域抽出
結果の人物領域と背景領域との境界の領域から順に修正
対象領域を利用者に提示し、利用者はそれを選択するの
みで結果を容易に修正可能とするものである。
Further, the extraction result correction means presents the correction target area to the user in order from the boundary area between the human area and the background area of the human area extraction result, and the user can easily select the result. It can be modified to.

【0020】[0020]

【発明の実施の形態】以下、この発明の実施の形態を図
面に基づいて説明する。 実施の形態1.実施の形態1における人物像抽出装置
は、カメラやスキャナ等の画像入力装置、あるいは既存
の画像ファイルから入力された人物写真画像から被写体
である人物像をリアルタイムかつ自動的に抽出すること
を可能とするものである。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. Embodiment 1. The person image extracting apparatus according to the first embodiment is capable of automatically extracting a person image as a subject in real time from an image input apparatus such as a camera or a scanner, or a person photograph image input from an existing image file. To do.

【0021】実施の形態1における人物像抽出装置の全
体構成を図1を用いて説明する。図1は実施の形態1を
示す図で、人物像抽出装置の全体構成を示す図である。
図1に示すように、人物像抽出装置1は、カメラやスキ
ャナ等の画像入力装置、あるいは既にコンピュータに取
り込まれた画像データファイルから画像データを人物像
抽出装置1に入力する画像入力手段2と、入力されたフ
ルカラー画像に対して人物領域の候補を決定する人物領
域候補決定手段3と、人物領域候補決定手段3において
フルカラー画像の色を減色する画像減色手段4と、減色
した画像を領域分割し、領域マップを作成する領域マッ
プ作成手段5と、入力された画像のエッジを抽出し、対
応するエッジマップを作成するエッジ抽出手段6と、人
物領域候補決定手段3において決定した人物領域の候補
の中から人物像を構成する領域を選択し、人物像を画像
から抽出する人物像抽出手段7と、抽出結果を出力する
抽出結果出力手段8とを備えたものである。
The overall configuration of the person image extracting device in the first embodiment will be described with reference to FIG. 1 is a diagram showing a first embodiment, and is a diagram showing an overall configuration of a person image extracting device.
As shown in FIG. 1, the person image extracting device 1 includes an image input device such as a camera or a scanner, or an image input unit 2 for inputting image data from an image data file already loaded into a computer to the person image extracting device 1. , A person area candidate determining unit 3 for determining a person area candidate for the input full-color image, an image color reducing unit 4 for reducing the color of the full-color image in the person area candidate determining unit 3, and an area division of the color-reduced image Then, the area map creating means 5 for creating an area map, the edge extracting means 6 for extracting the edges of the input image and creating the corresponding edge map, and the candidate of the person area determined by the person area candidate determining means 3 From the image, a person image extracting means 7 for extracting the person image from the image, and an extraction result outputting means for outputting the extraction result. It is those with a door.

【0022】次に実施の形態1における人物像抽出装置
1の動作の概要を図2を用いて説明する。図2は実施の
形態1を示す図で、人物像抽出装置の処理の概要を説明
するためのフローチャート図である。図2に示すよう
に、先ず画像入力手段2により画像を人物像抽出装置1
に取り込む(ステップS1-2)。取り込まれた画像は、エ
ッジ抽出手段6および画像減色手段4に入力される。画
像減色手段4では、フルカラー画像(1670万色を表現可
能な画像)を予め設定された色数に減色し、減色した色
情報を格納するカラーマップと、画像の各画素値をカラ
ーマップのIDに置き換えることで作成されるインデック
スマップを作成する(ステップS1-3)。
Next, the outline of the operation of the person image extracting device 1 according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram showing the first embodiment and is a flow chart for explaining the outline of the processing of the person image extracting device. As shown in FIG. 2, first, the image input unit 2 extracts an image from the person image extracting apparatus 1
(Step S1-2). The captured image is input to the edge extraction unit 6 and the image color reduction unit 4. The image color-reducing means 4 reduces a full-color image (an image capable of expressing 16.7 million colors) to a preset number of colors and stores a color map for storing color-reduced color information, and each pixel value of the image is a color map ID. Create an index map created by replacing (step S1-3).

【0023】次に、領域マップ作成手段5において、画
像減色手段4が作成したインデックスマップを基に、同
じIDを持ち、かつ隣り合う画素同士を4連結あるいは8
連結で結合してインデックスマップを領域分割し、分割
された各領域に新たにIDを付与することにより領域マッ
プを作成する(ステップS1-4)。
Next, in the area map creating means 5, based on the index map created by the image color reducing means 4, adjacent pixels having the same ID are connected 4 or 8
The index map is divided into areas by connecting them and the area map is created by newly assigning an ID to each of the divided areas (step S1-4).

【0024】一方エッジ抽出手段6では、入力された画
像に対してエッジ抽出オペレータを施し、画像のエッジ
を抽出し、エッジ上の画素値を1、それ以外の画素値を
0とするエッジマップを作成する(ステップS1-4)。人
物像抽出手段7は、エッジ抽出手段6で作成されたエッ
ジマップと領域マップ作成手段5で作成された領域マッ
プを基に背景領域を除去し、人物像のみを切り出す(ス
テップS1-5)。最後に抽出結果出力手段8により抽出さ
れた人物像を出力する。
On the other hand, the edge extraction means 6 applies an edge extraction operator to the input image to extract the edge of the image, and creates an edge map in which the pixel value on the edge is 1 and the other pixel values are 0. Create (step S1-4). The person image extracting means 7 removes the background area based on the edge map created by the edge extracting means 6 and the area map created by the area map creating means 5, and cuts out only the person image (step S1-5). Finally, the person image extracted by the extraction result output means 8 is output.

【0025】次に画像減色手段4について詳細に説明す
る。コンピュータグラフィックスの分野では、ディスプ
レイに画像を表示するためのフレームメモリを節約する
ために、カラー画像を再現性良く減色する研究が行われ
てきた。この研究の代表的なものに、Xiaolin等が提案
した色の量子化手法がある(同手法についての詳細は、
Xiaolin Wu, “Color Quantization by Dynamic Progra
mming and PrincipalAnalysis,” Transaction on Grap
hics, Vol. 11, No.4, 348-372, 1992を参照のこ
と)。
Next, the image color reduction means 4 will be described in detail. In the field of computer graphics, in order to save a frame memory for displaying an image on a display, research has been conducted to reduce a color image with good reproducibility. A representative example of this research is the color quantization method proposed by Xiaolin et al.
Xiaolin Wu, “Color Quantization by Dynamic Progra
mming and PrincipalAnalysis, ”Transaction on Grap
hics, Vol. 11, No. 4, 348-372, 1992).

【0026】この手法は、原画像で使用されている色デ
ータを主成分分析し、第一主成分に直交する平面で色を
分類する。まず、各画素の色データを第一主成分の軸上
に写像する。そして、写像した画素を2つに分類するた
めの境界点を求める。このとき、境界点は原色と分類し
た各カテゴリの代表色との差が最小となる第一主成分の
値である。さらに分割する必要がある、つまり指定され
た色数に達していない場合には、各カテゴリの中で原色
との差が大きいものを選択し、同様の手段で選択したカ
テゴリを2つに分類する。この処理を分類したカテゴリ
数と指定した色数が一致するまで繰り返す。こうするこ
とで、減色後の画像は原画像を良く再現したものとな
る。
In this method, the color data used in the original image is subjected to the principal component analysis, and the colors are classified on the plane orthogonal to the first principal component. First, the color data of each pixel is mapped on the axis of the first principal component. Then, a boundary point for classifying the mapped pixels into two is obtained. At this time, the boundary point is the value of the first principal component that minimizes the difference between the primary color and the representative color of each classified category. If further division is required, that is, if the specified number of colors has not been reached, the one with a large difference from the primary color is selected from among the categories, and the selected category is classified into two by similar means. . This process is repeated until the number of classified categories and the designated number of colors match. By doing so, the image after color reduction is a good reproduction of the original image.

【0027】実施の形態1における人物像抽出装置1の
画像減色手段4では、上記手法を用いて各画素の色を減
色し、減色後の代表色にIDを付与したカラーマップを作
成する。そして画像の各画素に対して作成したカラーマ
ップを参照し、色に対応したIDを付与したインデックス
マップを作成する。
The image color-reducing means 4 of the human-image extracting apparatus 1 according to the first embodiment subtracts the color of each pixel using the above-described method, and creates a color map in which IDs are given to the representative colors after color reduction. Then, by referring to the color map created for each pixel of the image, an index map having an ID corresponding to the color is created.

【0028】次に領域マップ作成手段5について図3〜
図6を用いて詳細に説明する。図3〜6は実施の形態1
を示す図で、図3は領域マップ作成手段の動作を説明す
るフローチャート図、図4は画像減色手段で作成された
インデックスマップに対して行うノイズ除去処理を説明
するための図、図5は作成されたインデックスマップか
ら特定のID(ここでは1)を持つ画素を抽出した結果を
示した図、図6は図5に対して領域マップ作成手段5が
新たにIDを付与した結果を示した図である。
Next, the area map creating means 5 will be described with reference to FIGS.
This will be described in detail with reference to FIG. 3 to 6 show the first embodiment.
FIG. 3 is a flow chart for explaining the operation of the area map creating means, FIG. 4 is a view for explaining noise removal processing performed on the index map created by the image color-reducing means, and FIG. FIG. 6 is a diagram showing a result of extracting a pixel having a specific ID (here, 1) from the generated index map, and FIG. 6 is a diagram showing a result of the region map creating means 5 newly assigning an ID to FIG. Is.

【0029】次に動作を説明する。画像減色手段4によ
って作成されたインデックスマップの各画素に対して、
以下の条件を満たす画素をノイズと見なし、それらを除
去する(ステップS2-2)。
Next, the operation will be described. For each pixel of the index map created by the image color reduction unit 4,
Pixels satisfying the following conditions are regarded as noise and are removed (step S2-2).

【0030】図4に示すように、注目画素10(○で囲
まれた画素)および周囲の画素9のIDを参照し、過半数
を超えるIDが存在し、かつ、注目画素10のIDと異なる
場合に、注目画素10をノイズと見なし、注目画素10
のIDを過半数を超えるIDに置き換える。
As shown in FIG. 4, when the IDs of the pixel of interest 10 (pixels surrounded by circles) and the surrounding pixels 9 are referred to and there are more than half of the IDs and the IDs of the pixel of interest 10 are different. , The target pixel 10 is regarded as noise, and the target pixel 10
Replace the IDs of with more than half the IDs.

【0031】以上でノイズ除去されたインデックスマッ
プに対して、領域分割を行い、各領域にユニークなIDを
付与する。ここでは、インデックスマップに付与された
全てのIDに対して以下の処理を行う。
The above-described noise-removed index map is divided into areas, and a unique ID is assigned to each area. Here, the following processing is performed for all IDs assigned to the index map.

【0032】インデックスマップに付与されたIDのうち
1つを選択する。例えばここではID=1を選択する。次に
ID=1である画素をインデックスマップから抜き出すと、
例えば図5のようになる(ステップS2-3、ステップS2-
4)。
One of the IDs assigned to the index map is selected. For example, select ID = 1 here. next
When the pixel with ID = 1 is extracted from the index map,
For example, as shown in FIG. 5 (step S2-3, step S2-
Four).

【0033】抽出された画素でかつ隣り合う画素同志を
4連結あるいは8連結により結合し領域を求める(ステッ
プS2-5)。図5では、2つの領域11、12(ハッチン
グされた部分)が求まった。
The extracted pixels and adjacent pixels are
A region is obtained by connecting by 4 connection or 8 connection (step S2-5). In FIG. 5, two regions 11 and 12 (hatched portions) are obtained.

【0034】上記処理により求めた領域に対してそれぞ
れ他と異なるIDを付与する(ステップS2-6)。例えば、
図5の各領域に対してIDを付与し直した結果図6(図5
の領域11が図6の領域13、図5の領域12が図6の
領域14)となる。以上の処理を全てのIDに対して行う
ことにより、各領域ごとにユニークなIDを付与した領域
マップが作成される。
Different IDs are assigned to the areas obtained by the above processing (step S2-6). For example,
As a result of re-assigning IDs to the respective areas in FIG.
The area 11 is the area 13 in FIG. 6, and the area 12 in FIG. 5 is the area 14) in FIG. By performing the above processing for all the IDs, a region map with a unique ID assigned to each region is created.

【0035】次にエッジ抽出手段6によるエッジ抽出処
理について、図7〜図9を用いて詳細に説明する。図7
〜9は実施の形態1を示す図で、図7はエッジ抽出手段
の動作を示すフローチャート図、図8は水平方向のSobe
lオペレータのカーネルを示す図、図9は垂直方向のSob
elオペレータのカーネルを示す図である。
Next, the edge extraction processing by the edge extraction means 6 will be described in detail with reference to FIGS. Figure 7
9 is a diagram showing the first embodiment, FIG. 7 is a flow chart showing the operation of the edge extracting means, and FIG. 8 is a horizontal Sobe.
Figure showing the kernel of the l operator, Figure 9 shows the Sob in the vertical direction
It is a figure which shows the kernel of an el operator.

【0036】画像入力手段2で入力される画像は、カラ
ー画像であるためR,G,Bの3つのプレーンにより画像が
構成されている。エッジ抽出処理は通常、カラー画像を
グレースケール画像に変換後各画素に微分オペレータを
施し、グラジェントの強度を求めることで行われる。し
かしながら、例えば隣り合う画素の色は異なるが輝度が
同じである場合には、差分が0となってしまい、エッジ
を抽出することができなくなる。そこで、本発明の人物
像抽出装置1では、R,G,B各プレーンに対してエッジ抽
出オペレータを施し、各画素の各プレーンに対するエッ
ジ強度のうち最大となるものを、その画素のエッジ強度
とする。
Since the image input by the image input means 2 is a color image, the image is composed of three planes R, G and B. The edge extraction process is usually performed by converting a color image into a grayscale image and then applying a differential operator to each pixel to obtain the intensity of the gradient. However, for example, when the colors of adjacent pixels are different but the brightness is the same, the difference becomes 0, and the edge cannot be extracted. Therefore, in the human image extracting apparatus 1 of the present invention, the edge extraction operator is applied to each of the R, G, and B planes, and the maximum edge strength of each pixel for each plane is defined as the edge strength of that pixel. To do.

【0037】エッジ抽出オペレータには、例えばSobel
オペレータがある。Sobelオペレータは、図8および図
9に示す水平15および垂直方向の微分オペレータ16
であり(図8および図9は3x3の近傍に対するオペレ
ータ)、図8および図9の格子内の値は局所積和演算の
係数を表す。つまり、注目画素(x、y)の画素値をf(x、
y)とし、サイズが2*hk-1のSobelオペレータを適用した
結果得られるグラジェントの値f*(x、y)は次の式で表さ
れる。
The edge extraction operator is, for example, Sobel.
There is an operator. The Sobel operator is a horizontal 15 and vertical differential operator 16 shown in FIGS.
(FIGS. 8 and 9 are operators for 3 × 3 neighborhoods), and the values in the grids of FIGS. 8 and 9 represent the coefficients of the local sum of products operation. That is, the pixel value of the pixel of interest (x, y) is changed to f (x,
y) and the value f * (x, y) of the gradient obtained as a result of applying the Sobel operator of size 2 * hk-1 is expressed by the following formula.

【0038】[0038]

【数1】 [Equation 1]

【0039】w(x、y)はSobelオペレータの係数、*はオ
ペレータの方向で、*=xであれば水平方向のオペレータ1
5を用い、*=yであれば垂直方向のオペレータ16を用い
る。
W (x, y) is the coefficient of the Sobel operator, * is the direction of the operator, and if * = x, the operator 1 in the horizontal direction
5 is used, and if * = y, the vertical operator 16 is used.

【0040】上記式1で求まる水平および垂直方向のグ
ラジェントからエッジ強度は、次式で求まる。
The edge strength is obtained from the following equation from the horizontal and vertical gradients obtained by the above equation 1.

【0041】[0041]

【数2】 [Equation 2]

【0042】fxおよびfyはそれぞれ水平垂直方向のグラ
ジェントである。
Fx and fy are horizontal and vertical gradients, respectively.

【0043】エッジ抽出手段6では、上記Sobelオペレ
ータ15、16をR,G,B各プレーンに施し、各プレーン
のエッジ強度を求め(ステップS3-2)、全画素に対し、
各画素の各プレーンのエッジ強度の最大値を求め、求め
た最大値をその画素のエッジ強度とする処理を行うこと
でエッジ画像を求める(ステップS3-3〜ステップS3-
5)。
In the edge extraction means 6, the Sobel operators 15 and 16 are applied to the R, G and B planes to obtain the edge strength of each plane (step S3-2), and for all pixels,
The maximum value of the edge intensity of each plane of each pixel is obtained, and the edge image is obtained by performing the processing in which the obtained maximum value is the edge intensity of that pixel (step S3-3 to step S3-
Five).

【0044】以上で求めたエッジ画像に対して、しきい
値処理を施し、エッジ強度がしきい値以上の画素の値を
1、それ以外の画素の値を0とするエッジマップを作成
する(ステップS3-6)。
The edge image thus obtained is subjected to threshold processing to create an edge map in which the value of a pixel having an edge strength equal to or higher than the threshold is 1, and the values of other pixels are 0 ( Step S3-6).

【0045】次に人物像抽出手段7について、図10〜
図16を用いて説明する。図10〜図16は実施の形態
1を示す図で、図10は人物像抽出手段における背景除
去処理の前処理のフローチャート図、図11は人物像抽
出手段7における背景除去処理のフローチャート図、図
12はエッジ抽出手段により作成されたエッジマップの
例を示した図、図13〜図15は人物像抽出手段の処理
過程を示した図、図16は人物の腕の部分が画像の左右
の縁に接した場合の画像を示す図である。
Next, the person image extracting means 7 will be described with reference to FIGS.
This will be described with reference to FIG. 10 to 16 are diagrams showing the first embodiment, FIG. 10 is a flowchart of a pre-processing of the background removal processing in the person image extracting means, and FIG. 11 is a flowchart of the background removal processing in the person image extracting means 7. 12 is a diagram showing an example of an edge map created by the edge extraction means, FIGS. 13 to 15 are diagrams showing a processing process of the person image extraction means, and FIG. 16 is a left and right edge of the image where the arm portion of the person is shown. It is a figure which shows the image at the time of touching.

【0046】次に動作を説明する。人物をバストショッ
トで撮影することを条件としていることから、画像の特
に上、左右の縁に接している領域は背景領域である確率
が高い。そこで画像の上、左右の縁に接している領域の
内、次の条件を満たすものを背景領域とする。画像の上
の縁に接している領域:
Next, the operation will be described. Since it is a condition that a person be photographed by a bust shot, there is a high probability that the regions in contact with the left and right edges of the image are background regions. Therefore, of the areas on the image that are in contact with the left and right edges, one that satisfies the following conditions is set as the background area. Area bordering the top edge of the image:

【0047】[0047]

【数3】 [Equation 3]

【0048】Uthはしきい値、upixは領域の外周画素で
画像の上の縁に接している画素数、wIDthは画像の幅
(画素数)である。画像の左右のどちらかに縁に接して
いる領域:
Uth is a threshold value, upix is the number of pixels in the outer peripheral pixels of the area in contact with the upper edge of the image, and wIDth is the width (number of pixels) of the image. The area touching the edge on either side of the image:

【0049】[0049]

【数4】 [Equation 4]

【0050】[0050]

【数5】 [Equation 5]

【0051】[0051]

【数6】 [Equation 6]

【0052】[0052]

【数7】 [Equation 7]

【0053】Lth、Rthはしきい値、lpix、rpixは領域の
外周画素で画像の左右どちらかの縁に接している画素
数、heightは画像の高さ(画素数)、wは重み係数、pは
領域の外周画素で画像の左右どちらかの縁に接している
画素、v(p)はpのy座標(画像の垂直方向)を変数とした
関数、yはpのy座標である。
Lth and Rth are threshold values, lpix and rpix are the outer peripheral pixels of the area, and are the number of pixels in contact with either the left or right edge of the image, height is the height (number of pixels) of the image, and w is a weighting factor. p is a peripheral pixel of the area and is in contact with either the left or right edge of the image, v (p) is a function with the y coordinate of p (vertical direction of the image) as a variable, and y is the y coordinate of p.

【0054】ここで、画像の左右の縁に接する領域が背
景領域であるか否かを判定する条件、式4および式5に
おいて重み係数wを導入した理由は、図16に示すよう
にバストショットには、肩から腕にかけて体の一部が画
像の縁に接して撮影される場合があるため、式7に示す
ように、特に、画像の下の部分に接している画素に対し
ては被写体領域である可能性もあることから、画素のy
座標に応じて式4および式5で得られる値への影響を抑
えるようにした。
Here, the reason for introducing the weighting factor w in the equations 4 and 5 is the bust shot condition as shown in FIG. 16, which is a condition for determining whether or not the area in contact with the left and right edges of the image is the background area. In some cases, a part of the body from the shoulder to the arm may be photographed in contact with the edge of the image. Therefore, as shown in Expression 7, in particular, for a pixel in contact with the lower part of the image, Since it may be a region, the pixel y
The influence on the values obtained by Expression 4 and Expression 5 is suppressed according to the coordinates.

【0055】以上の条件により、背景除去処理の前処理
として画像の上、左右の縁に接している領域が背景領域
であるか否かを判断する。
Based on the above conditions, it is determined as a pre-process of the background removal process whether or not the area in contact with the left and right edges of the image is the background area.

【0056】先ず画像の上、左右の縁に接している領域
を求める(ステップS4-2)。これは、領域マップ作成手
段5で作成された領域マップを基に、画像の上、左右の
縁の画素に着目し、その画素の領域IDを求めることで対
象となる領域を定めることができる。
First, areas on the image that are in contact with the left and right edges are obtained (step S4-2). This can be done by focusing on the pixels on the left and right edges of the image based on the area map created by the area map creating means 5 and determining the area ID of the pixels to determine the target area.

【0057】次に、求めた全ての領域に対して上記条件
を満たす領域が存在するか否かを判断する(ステップS4
-3〜ステップS4-11)。
Next, it is judged whether or not there is an area satisfying the above condition for all the obtained areas (step S4).
-3 ~ step S4-11).

【0058】先ず画像の上の縁に接している画素数を求
め、式3により背景領域であるか否かを判断し(ステッ
プS4-4、ステップS4-5)、式3の条件を満たせば、その
領域を背景領域とする(ステップS4-11)。
First, the number of pixels in contact with the upper edge of the image is obtained, and it is judged by Expression 3 whether or not it is the background area (steps S4-4 and S4-5). If the condition of Expression 3 is satisfied, , That area is set as the background area (step S4-11).

【0059】上記処理で背景領域でないと判断された場
合、画像の左の縁に接している画素数を求め、式4によ
り背景領域であるか否かを判断し(ステップS4-6、ステ
ップS4-7)、式4の条件を満たせば、その領域を背景領
域とする(ステップS4-11)。
When it is determined in the above processing that the pixel is not the background area, the number of pixels in contact with the left edge of the image is calculated, and it is determined whether or not the pixel is the background area by the equation 4 (steps S4-6 and S4). -7), if the condition of Expression 4 is satisfied, the area is set as the background area (step S4-11).

【0060】上記処理で背景領域でないと判断された場
合、画像の右の縁に接している画素数を求め、式5によ
り背景領域であるか否かを判断し(ステップS4-8、ステ
ップS4-9)、式5の条件を満たせば、その領域を背景領
域とする(ステップS4-11)。
When it is determined in the above processing that the pixel is not the background area, the number of pixels in contact with the right edge of the image is calculated, and it is determined by Expression 5 whether or not the pixel is the background area (steps S4-8 and S4). -9), if the condition of Expression 5 is satisfied, the area is set as the background area (step S4-11).

【0061】例えば、領域マップ作成手段5によって作
成された領域マップ18が図13であった場合、以上の
背景処理の前処理を施すことにより、図14の黒く塗り
つぶされた領域19が背景領域となる。
For example, when the area map 18 created by the area map creating means 5 is as shown in FIG. 13, the black-painted area 19 in FIG. Become.

【0062】次に、残った領域からさらに背景領域を除
去する処理を行う。背景除去処理の前処理で示した条件
以外に領域が背景である条件は、領域の外周上でかつ背
景領域との境界においてエッジが存在しないことであ
る。つまり、次の条件を満たす領域を背景領域とする。
Then, the background area is removed from the remaining area. The condition that the region is the background other than the condition shown in the pre-processing of the background removal process is that there is no edge on the outer periphery of the region and at the boundary with the background region. That is, the area satisfying the following conditions is set as the background area.

【0063】[0063]

【数8】 [Equation 8]

【0064】Ethはしきい値、outpixは背景領域と接す
る領域の、背景領域と接した画素数、epixは背景領域と
接した画素のうち、エッジ上の画素である画素数であ
る。
Eth is a threshold value, outpix is the number of pixels in contact with the background area in the area in contact with the background area, and epix is the number of pixels on the edge among the pixels in contact with the background area.

【0065】ここで、式8におけるepixを求める際、領
域境界とエッジの位置が必ずしも一致しているとは限ら
ないため、注目画素の近傍をエッジ抽出手段6で作成し
たエッジマップを参照して調べ、もしエッジが存在する
場合には、その画素をエッジ上の画素と見なすことにす
る。ここでは、注目画素と近傍の画素を参照する。
Here, since the area boundary and the edge position are not always coincident with each other when the epix in the equation 8 is obtained, the edge map created by the edge extracting means 6 is referred to in the vicinity of the target pixel. If there is an edge, the pixel is regarded as a pixel on the edge. Here, the pixel of interest and neighboring pixels are referred to.

【0066】まず、背景領域と接する領域を求め、求め
た全ての領域に対して上記条件により背景領域であるか
否かを判断する(ステップS5-2〜ステップS5-7)。
First, an area in contact with the background area is obtained, and it is determined whether or not all the obtained areas are background areas based on the above conditions (steps S5-2 to S5-7).

【0067】背景領域と接する領域の外周画素のうち、
背景領域と接する画素数outpixを求める(ステップS5-
3)。次に求めた全ての画素に対して、エッジ抽出手段
6で作成したエッジマップを参照し、注目画素および各
画素の近傍の位置にエッジが存在するか否かを調べる。
そして、エッジが存在した画素数epixを求める(ステッ
プS5-4)。
Of the outer peripheral pixels of the area which is in contact with the background area,
The number of pixels outpix in contact with the background area is calculated (step S5-
3). Next, with respect to all the obtained pixels, the edge map created by the edge extraction means 6 is referred to, and it is checked whether or not an edge exists at a position near the pixel of interest and each pixel.
Then, the number of pixels epix in which the edge exists is obtained (step S5-4).

【0068】式8により領域が背景領域か否かを判断し
(ステップS5-5)、式8の条件を満たせばその領域を背
景領域とする(ステップS5-6)。
Whether or not the area is the background area is determined by the expression 8 (step S5-5), and if the condition of the expression 8 is satisfied, the area is set as the background area (step S5-6).

【0069】背景領域と接する全ての領域に対してステ
ップS5-2〜ステップS5-7の処理を終了したとき、背景領
域を発見したならば、ステップS5-2に戻って処理を繰り
返す(ステップS5-8)。
When the background area is found when the processing of steps S5-2 to S5-7 is completed for all areas in contact with the background area, the process returns to step S5-2 to repeat the processing (step S5 -8).

【0070】例えば、背景除去処理の前処理を行った結
果が図14、エッジ抽出手段で抽出されたエッジマップ
17が図12であった場合、上記処理を行うことによ
り、図15の結果20が得られる。
For example, when the result of the pre-processing of the background removal processing is as shown in FIG. 14 and the edge map 17 extracted by the edge extracting means is as shown in FIG. 12, the above processing is performed to obtain the result 20 of FIG. can get.

【0071】以上の人物像抽出手段7で行った背景除去
処理で最終的に残った領域を人物領域とし、抽出結果出
力手段8により人物領域を出力する。
The area finally left by the background removal processing performed by the person image extraction means 7 is set as a person area, and the extraction result output means 8 outputs the person area.

【0072】上述の実施の形態1によれば、以下に示す
効果が得られる。 (1)自動的に画像から人物像を抽出可能である。 (2)画像減色手段4および領域マップ作成手段5にお
いて色情報を基に領域分割することから、背景と人物の
境界が明確な場合、テクスチャを基にした領域分割に比
べ切出し精度が高い。 (3)画像減色手段4および領域マップ作成手段5で用
いられているアルゴリズムは単純であり、リアルタイム
に処理が可能である。 (4)領域マップ作成手段5において、ノイズ除去処理
を施し微小領域を除外することにより、結果として領域
分割後の領域数が減り、処理効率を向上させることがで
きる。 (5)エッジ抽出手段6において、R,G,Bの各プレーン
に対してエッジ抽出処理を行い、各画素の各プレーンに
おけるエッジ強度の最大値をその画素のエッジ強度に代
表させることにより、グレースケール画像からエッジを
抽出する際の「隣り合う画素の色相が異なるが、輝度が
同じ場合に適切なエッジ抽出ができない」問題を解消す
ることができる。 (6)人物像抽出手段7の背景除去の前処理に、画像の
左右の縁に接する領域が背景領域であるか否かを判断す
るための条件式に、縁に接する画素の座標に応じて変化
する重みを導入したことにより、例えば人物の肩から腕
にかけて、体の一部が画像の縁に接していても人物領域
として切り出すことができる。 (7)人物像抽出手段7の背景除去処理に、エッジ抽出
手段6で作成したエッジマップを参照しながら背景除去
処理を行うことから、均一な背景の前で撮影された画像
だけでなく、焦点が人物のみにあたり、背景がぼけてい
る画像であれば任意の背景でも人物像を適切に切り出す
ことが可能である。
According to the above described first embodiment, the following effects can be obtained. (1) A person image can be automatically extracted from an image. (2) Since the image color reduction unit 4 and the region map creation unit 5 divide the regions based on the color information, when the boundary between the background and the person is clear, the clipping precision is higher than that of the texture-based region division. (3) The algorithm used in the image color reduction unit 4 and the area map creation unit 5 is simple and can be processed in real time. (4) In the area map creating means 5, noise removal processing is performed to exclude minute areas. As a result, the number of areas after area division is reduced, and processing efficiency can be improved. (5) The edge extraction means 6 performs edge extraction processing on each of the R, G, and B planes, and the maximum value of the edge strength of each plane of each pixel is represented by the edge strength of that pixel to obtain a gray level. When extracting edges from the scale image, it is possible to solve the problem that "adjacent pixels have different hues, but proper edge extraction is not possible when the luminance is the same". (6) In the background removal pre-processing of the person image extracting means 7, a conditional expression for determining whether or not the area in contact with the left and right edges of the image is the background area is determined according to the coordinates of the pixels in contact with the edge. By introducing the changing weight, it is possible to cut out as a person region even if a part of the body is in contact with the edge of the image, for example, from the shoulder to the arm of the person. (7) Since the background removal processing is performed while referring to the edge map created by the edge extraction means 6 in the background removal processing of the person image extraction means 7, not only the image taken in front of a uniform background but also the focus Is only a person, and if the image has a blurred background, it is possible to appropriately cut out the person image even with an arbitrary background.

【0073】実施の形態2.上記実施の形態1では、人
物像抽出装置1の人物領域候補決定手段3が図1に示す
構成のものを示したが、ここでは、別の構成のものにつ
いて説明する。図17は実施の形態2を示す図で、人物
像抽出装置の全体構成を示す図である。図17に示すよ
うに、本実施の形態2における人物像抽出装置1の人物
領域候補決定手段3は、撮影ポーズの候補を提示するテ
ンプレート提示手段22と、利用者が選択したテンプレ
ートを撮影された人物像に合わせて当てはめるテンプレ
ート当てはめ手段23と、想定される人物の撮影ポーズ
を複数収めた人物ポーズテンプレートDB24から構成さ
れる。
Embodiment 2. In the above-described first embodiment, the person area candidate determining means 3 of the person image extracting apparatus 1 has the configuration shown in FIG. 1, but another configuration will be described here. FIG. 17 is a diagram showing the second embodiment, and is a diagram showing an overall configuration of the person image extracting device. As shown in FIG. 17, the person area candidate determination unit 3 of the person image extraction device 1 according to the second embodiment has a template presentation unit 22 that presents candidates for a shooting pose and a template selected by the user. It is composed of a template fitting unit 23 that fits to a person image, and a person pose template DB 24 that stores a plurality of assumed shooting poses of a person.

【0074】また、本実施の形態2における人物像抽出
装置1は、実施の形態1における人物像抽出手段7とは
異なり、上記テンプレート情報を用いて人物像を抽出す
る人物像抽出手段25を用いる。
Further, unlike the human image extracting means 7 in the first embodiment, the human image extracting device 1 in the second embodiment uses the human image extracting means 25 for extracting the human image using the template information. .

【0075】次に動作の概要を説明する。画像入力手段
2により人物像抽出装置1に画像が入力されると、実施
の形態1同様、画像減色手段4および領域マップ作成手
段5において領域分割および分割された領域にIDを付与
した領域マップが作成される。次に、テンプレート提示
手段22により、画像から人物像を切り出すための人物
ポーズテンプレートを人物ポーズテンプレートDB24か
ら取得し、利用者に提示する。利用者は、テンプレート
当てはめ手段23で提示されたテンプレートから人物像
を画像から切り出すための最適なものを選び、画像に合
わせてテンプレートを当てはめる。テンプレートの当て
はめが終わると、人物像抽出手段25において、テンプ
レートに沿って人物像を画像から切出し、抽出結果出力
手段8で結果を出力する。
Next, the outline of the operation will be described. Image input means
When an image is input to the person image extracting device 1 by 2, the image color reduction means 4 and the area map creation means 5 create an area map in which the areas are divided and the divided areas are given IDs, as in the first embodiment. . Next, the template presenting unit 22 acquires a human pose template for cutting out a human image from the image from the human pose template DB 24 and presents it to the user. The user selects an optimum one for cutting out a person image from the image from the templates presented by the template fitting means 23, and fits the template according to the image. When the fitting of the template is completed, the human image extracting unit 25 cuts out the human image from the image along the template, and the extraction result output unit 8 outputs the result.

【0076】以下に、テンプレート提示手段22の動作
の詳細を図18〜図21を用いて説明する。図18〜図
21は実施の形態2を示す図で、図18はテンプレート
提示手段の動作を説明するためのフローチャート図、図
19は人物ポーズテンプレートDBに格納されたテンプレ
ートデータを示す図、図20は人物ポーズテンプレート
DBに収められたテンプレートの中から、被写体の人数に
応じたテンプレートを検索するためのダイアログを示す
図、図21は検索したテンプレートを表示するテンプレ
ート表示ウインドウを示す図である。
Details of the operation of the template presenting means 22 will be described below with reference to FIGS. 18 to 21. 18 to 21 are views showing the second embodiment, FIG. 18 is a flow chart for explaining the operation of the template presenting means, FIG. 19 is a view showing template data stored in the person pose template DB, and FIG. Is a human pose template
FIG. 21 is a diagram showing a dialog for searching a template according to the number of subjects from the templates stored in the DB, and FIG. 21 is a diagram showing a template display window for displaying the searched template.

【0077】テンプレート提示手段22は、まず利用者
に、撮影された被写体の人数に応じたテンプレートを提
示するために、被写体数入力ダイアログ27を提示する
(ステップS6-2)。ここで、利用者が被写体の人数を入
力し、OKボタンを押すと、テンプレート提示手段22
は、人物ポーズテンプレートDB24に格納されたテンプ
レートデータ26から被写体数に対応するテンプレート
データを取得し、テンプレート表示ウインドウにテンプ
レートを表示する(ステップS6-3、ステップS6-5、テン
プレートS6-6)。利用者がキャンセルボタンを押すと、
テンプレート提示手段22は何もしないで、処理を終了
する(ステップS6-4、ステップS6-9)。このとき、人物
像抽出装置1の処理も同時に終了する。
The template presenting means 22 first presents the subject number input dialog 27 to the user in order to present a template according to the number of photographed subjects (step S6-2). Here, when the user inputs the number of subjects and presses the OK button, the template presenting means 22
Acquires template data corresponding to the number of subjects from the template data 26 stored in the person pose template DB 24 and displays the template in the template display window (step S6-3, step S6-5, template S6-6). When the user presses the cancel button,
The template presenting means 22 does nothing and ends the process (steps S6-4 and S6-9). At this time, the processing of the person image extracting device 1 also ends at the same time.

【0078】テンプレート表示ウインドウ28に示され
たテンプレートの中から、利用者がテンプレートを1つ
選択すると、テンプレート提示手段22はそのテンプレ
ートIDを記憶し(ステップS6-7、ステップS6-8)、テン
プレート当てはめ手段23にIDを引き渡す。
When the user selects one of the templates shown in the template display window 28, the template presenting means 22 stores the template ID (steps S6-7, S6-8), and the template is displayed. The ID is handed over to the fitting means 23.

【0079】次に、テンプレート当てはめ手段23の動
作を図22〜図25を用いて詳細に説明する。図22〜
図25は実施の形態2を示す図で、図22はテンプレー
ト当てはめ手段の動作を説明するためのフローチャート
図、図23は利用者がテンプレート表示ウインドウから
選択したテンプレートを被写体に合わせて当てはめるた
めのテンプレート当てはめダイアログを示す図、図24
はテンプレートを原画像にオーバーラップさせる処理を
説明するためのフローチャート図、図25はテンプレー
トデータを示す図である。
Next, the operation of the template fitting means 23 will be described in detail with reference to FIGS. 22-
FIG. 25 is a diagram showing the second embodiment, FIG. 22 is a flow chart for explaining the operation of the template fitting means, and FIG. 23 is a template for fitting the template selected by the user from the template display window to the subject. FIG. 24 is a diagram showing a fitting dialog.
FIG. 25 is a flowchart for explaining the process of overlapping the template with the original image, and FIG. 25 is a diagram showing template data.

【0080】テンプレート当てはめ手段23は、テンプ
レート提示手段22から入力されたテンプレートIDを基
に、対応するテンプレートデータを人物ポーズテンプレ
ートDB24から取得し、原画像のサイズに合わせて拡大
縮小する(ステップS7-2)。
The template fitting means 23 acquires the corresponding template data from the person pose template DB 24 based on the template ID input from the template presenting means 22, and enlarges or reduces it according to the size of the original image (step S7- 2).

【0081】次に、拡大縮小したテンプレートデータを
原画像にオーバーラップさせた画像を作成し、その画像
を図23に示すテンプレート当てはめダイアログ29と
ともに表示する(ステップS7-3、ステップS7-4)。
Next, an image in which the scaled-up and down template data overlaps the original image is created, and the image is displayed together with the template fitting dialog 29 shown in FIG. 23 (steps S7-3 and S7-4).

【0082】利用者は、テンプレート当てはめダイアロ
グ29に装備された拡大縮小、水平垂直方向の移動のた
めのツール(ここではスクロールバー)を用いて被写体
とテンプレートが合致するようにテンプレートデータを
変更する(ステップS7-5〜ステップS7-11)。そして、
最後にOKボタンを押すと、変更されたテンプレートデー
タを記憶し、人物像抽出手段25にテンプレートデータ
と領域マップ作成手段5で作成した領域マップを引き渡
し、処理を終了する(ステップS7-12、ステップS7-1
3)。
The user changes the template data so that the object and the template match by using the tool (here, the scroll bar) for enlarging / reducing and moving in the horizontal / vertical directions provided in the template fitting dialog 29 ( Steps S7-5 to S7-11). And
Finally, when the OK button is pressed, the changed template data is stored, the template data and the area map created by the area map creating means 5 are delivered to the person image extracting means 25, and the processing is terminated (steps S7-12, step S7-12). S7-1
3).

【0083】ここで、テンプレートデータを原画像にオ
ーバーラップさせる処理について図24、図25を用い
て詳細に説明する。テンプレートデータ30は図25に
示すように、テンプレートの境界の画素値が1、境界の
内側の画素値が2、境界の外側の画素値が0となってい
る。
The process of overlapping the template data with the original image will be described in detail with reference to FIGS. 24 and 25. In the template data 30, as shown in FIG. 25, the pixel value at the boundary of the template is 1, the pixel value inside the boundary is 2, and the pixel value outside the boundary is 0.

【0084】そこで、テンプレート当てはめ手段23で
は、ステップS7-3において、まず原画像をテンプレート
当てはめダイアログ29の画像表示バッファに原画像を
コピーし(ステップS8-2)、テンプレートデータ30の
全ての画素に対して画素値が1である画素を求め(ステ
ップS8-3、ステップS8-4)、対応する表示バッファの画
素の色を予め設定しておいた色に変更することで(ステ
ップS8-5)、原画像にテンプレートの線画をオーバーラ
ップさせることができる。
Therefore, in the template fitting means 23, in step S7-3, the original image is first copied to the image display buffer of the template fitting dialog 29 (step S8-2), and all the pixels of the template data 30 are copied. On the other hand, a pixel having a pixel value of 1 is obtained (step S8-3, step S8-4), and the color of the pixel of the corresponding display buffer is changed to a preset color (step S8-5). , The template line drawing can be overlapped with the original image.

【0085】次に、利用者が設定したテンプレートデー
タに基づいて人物像を画像から抽出する処理を図26を
用いて説明する。図26は実施の形態2を示す図で、人
物像抽出手段の処理を説明するためのフローチャート図
である。人物像抽出手段25は、テンプレートデータの
全ての画素に対してテンプレートデータの画素値が1、
あるいは2である画素に対応する領域マップの画素のID
(領域ID)を取得し(ステップS9-2、ステップS9-3)、
それを記憶する(ステップS9-4)。そして、記憶した全
てのIDに対応する領域を抽出することで人物像を抽出す
る(ステップS9-6)。
Next, the process of extracting a person image from an image based on the template data set by the user will be described with reference to FIG. FIG. 26 is a diagram showing the second embodiment and is a flow chart for explaining the process of the person image extracting means. The person image extracting means 25 sets the pixel value of the template data to 1 for all the pixels of the template data,
Alternatively, the ID of the pixel in the area map corresponding to the pixel that is 2.
(Area ID) is acquired (step S9-2, step S9-3),
It is stored (step S9-4). Then, the person image is extracted by extracting the regions corresponding to all the stored IDs (step S9-6).

【0086】上述の実施の形態2によれば、以下に示す
効果が得られる。実施の形態2における人物領域候補決
定手段3においてテンプレートを用いて人物像を抽出す
るように構成したことにより、手動ではあるが、 (1)背景の条件や人物の撮影条件に関係なく人物像を
抽出可能となる。 (2)バストショットだけでなく、立った人物でも抽出
可能である。 実施の形態1では均一な背景あるいは背景がぼけている
ことが条件であった、さらに、バストショットのみであ
った。
According to the above described second embodiment, the following effects can be obtained. Although the human region candidate determining means 3 in the second embodiment is configured to extract the human image using the template, it is manual, but (1) the human image is extracted regardless of the background condition and the human photographing condition. Can be extracted. (2) Not only bust shots but also standing people can be extracted. In the first embodiment, the condition was that the uniform background or the background was blurred, and further, only the bust shot.

【0087】実施の形態3.上記実施の形態1に示した
人物像抽出装置1は、人物像抽出手段7の抽出結果を抽
出結果出力手段8で出力するようにしたが、図27に示
すように抽出結果修正手段を設け、抽出エラーを容易に
修正可能とするように構成しても良い。
Third Embodiment In the person image extracting device 1 shown in the above-described first embodiment, the extraction result of the person image extracting means 7 is output by the extraction result outputting means 8. However, as shown in FIG. 27, the extraction result correcting means is provided, The extraction error may be easily corrected.

【0088】図27は実施の形態3を示す図で、人物像
抽出装置の全体構成を示す図である。図27に示すよう
に、抽出結果修正手段31は人物像抽出手段7の抽出結
果に対して、もし誤抽出した領域が存在するときには、
その領域をポインティングデバイス、あるいはボタンな
どにより指示することで容易に修正を可能とするための
ものである。
FIG. 27 is a diagram showing the third embodiment, and is a diagram showing the overall configuration of the person image extracting device. As shown in FIG. 27, the extraction result correction unit 31 detects that the region extracted by the human image extraction unit 7 is erroneously extracted from the extraction result of the human image extraction unit 7.
This area is for easily making corrections by pointing the area with a pointing device, a button, or the like.

【0089】次に、実施の形態3における人物像抽出装
置1の動作を図28〜図32を用いて説明する。図28
〜図32は実施の形態3を示す図で、図28は抽出結果
修正手段のユーザインタフェースの一例である抽出結果
修正ウインドウを示す図、図29は抽出結果修正手段の
動作を説明するための部分的なフローチャート図、図3
0は抽出結果修正手段の動作を説明するための部分的な
フローチャート図、図31は背景領域と人物領域の境界
にある領域を格納するための配列を示す図、図32はあ
る抽出結果を修正するときの抽出結果修正手段の動作を
説明するための図である。
Next, the operation of the human image extraction device 1 according to the third embodiment will be described with reference to FIGS. 28 to 32. FIG. 28
32 is a diagram showing the third embodiment, FIG. 28 is a diagram showing an extraction result correction window which is an example of a user interface of the extraction result correction means, and FIG. 29 is a portion for explaining the operation of the extraction result correction means. Flowchart diagram, Fig. 3
0 is a partial flow chart for explaining the operation of the extraction result correction means, FIG. 31 is a view showing an array for storing an area at the boundary between the background area and the person area, and FIG. 32 is for correcting an extraction result. It is a figure for demonstrating operation | movement of the extraction result correction means when doing.

【0090】人物像抽出装置1に画像入力手段2を介し
て人物画像を入力し、人物領域候補決定手段3において
人物領域の候補を決定し、人物像抽出手段7において人
物領域を抽出した結果が図28の抽出結果修正ウインド
ウ32に表示されたとする。抽出結果修正手段31で
は、背景領域と人物領域の境界にある領域を順番に修正
対象領域とし、利用者に修正対象領域をハイライト表示
することで提示し、修正をうながす。
A person image is input to the person image extracting device 1 through the image inputting means 2, the person area candidate determining means 3 determines a person area candidate, and the person image extracting means 7 extracts the person area. It is assumed that it is displayed in the extraction result correction window 32 of FIG. The extraction result correction means 31 sequentially sets the areas on the boundary between the background area and the person area as the correction target area, highlights the correction target area, and presents it to the user to prompt the correction.

【0091】図28では、人物の左肩のあたりに修正対
象領域33がハイライト表示されている。利用者は、ハ
イライト表示された修正対象領域33が誤抽出領域であ
れば、その領域を入力デバイスで選択することにより、
背景領域を人物領域に、あるいは、人物領域を背景領域
に修正することができる。
In FIG. 28, the correction target area 33 is highlighted around the left shoulder of the person. If the highlighted correction target area 33 is an erroneous extraction area, the user selects the area with the input device,
The background area can be modified to a person area, or the person area can be modified to a background area.

【0092】まず、背景領域と人物領域の境界に位置す
る領域のIDを全て求める(ステップS10-2)。これは、
人物像抽出手段7により決定した人物領域の外周画素
で、画像の下の縁に接する画素を除いたものを対象と
し、各画素の周辺画素も含めて人物領域候補決定手段3
において作成された領域マップを参照することで同領域
IDを求めることができる。
First, all the IDs of the areas located at the boundary between the background area and the person area are obtained (step S10-2). this is,
Outer peripheral pixels of the person area determined by the person image extracting means 7 are excluded from the pixels which are in contact with the lower edge of the image, and the person area candidate determining means 3 including peripheral pixels of each pixel is also included.
By referring to the area map created in
You can ask for an ID.

【0093】次に、求めたIDを配列34に格納する(ス
テップS10-3)。
Next, the obtained ID is stored in the array 34 (step S10-3).

【0094】配列34に格納した領域IDの中から、配列
の先頭に格納されたIDを修正対象領域とし(ステップS1
0-4)、その領域をハイライト表示する(ステップS10-
5)。
Of the area IDs stored in the array 34, the ID stored at the beginning of the array is set as the correction target area (step S1
0-4), highlight the area (step S10-
Five).

【0095】もし、利用者が抽出結果修正ウインドウ3
2において次ボタンを選択すると(ステップS10-6)、
現在のIDが格納されている位置が配列の最後尾であるか
否かを判断し(ステップS10-7)、最後尾でなければ次
に格納されているIDを修正対象領域とし(ステップS10-
8)、ステップS10-5から処理を繰り返す。もし、現在の
格納位置が配列の最後尾であれば(ステップS10-7)、
ステップS10-4から処理を繰り返す。
If the user selects the extraction result correction window 3
When the next button is selected in step 2 (step S10-6),
It is determined whether or not the position where the current ID is stored is at the end of the array (step S10-7), and if it is not the end, the next stored ID is set as the correction target area (step S10-
8), the process is repeated from step S10-5. If the current storage position is at the end of the array (step S10-7),
The process is repeated from step S10-4.

【0096】同様に、もし利用者が抽出結果修正ウイン
ドウ32において前ボタンを選択すると(ステップS10-
11)、現在のIDが格納されている位置が配列の先頭であ
るか否かを判断し(ステップS10-12)、先頭でなければ
前に格納されているIDを修正対象領域とし(ステップS1
0-13)、ステップS10-5から処理を繰り返す。もし、現
在の格納位置が配列の先頭であれば(ステップS10-1
2)、修正対象領域を配列の最後尾に格納されたIDとし
(ステップS10-14)、ステップS10-5から処理を繰り返
す。
Similarly, if the user selects the previous button in the extraction result correction window 32 (step S10-
11) It is determined whether or not the position where the current ID is stored is the head of the array (step S10-12), and if it is not the head, the previously stored ID is set as the correction target area (step S1).
0-13), and the process is repeated from step S10-5. If the current storage position is the beginning of the array (step S10-1
2) The area to be modified is set to the ID stored at the end of the array (step S10-14), and the process is repeated from step S10-5.

【0097】もし、利用者が抽出結果修正ウインドウ3
2において選択ボタンを選択すると(ステップS10-
9)、選択された領域が人物領域か否かを判断する(ス
テップS10-10)。例えば、配列34において人物領域
5、図32の領域マップ36において○で囲まれた人物
領域(ID=5)が選択されたとする。
If the user selects the extraction result correction window 3
When the selection button is selected in step 2 (step S10-
9) It is determined whether the selected area is a person area (step S10-10). For example, it is assumed that the person area 5 in the array 34 and the person area (ID = 5) surrounded by a circle in the area map 36 of FIG. 32 are selected.

【0098】利用者が選択した領域(ID=5)が人物領域
であった場合、その領域に隣接する背景領域の中で配列
34に格納されている領域を配列から削除する(ステッ
プS10-17)。図31および図32の例では、ID=6の領域
が配列から削除される。
When the area (ID = 5) selected by the user is the person area, the area stored in the array 34 in the background areas adjacent to the area is deleted from the array (step S10-17). ). In the example of FIGS. 31 and 32, the area of ID = 6 is deleted from the array.

【0099】次に、利用者が選択した人物領域(ID=5)
に隣接する人物領域の中で、配列34に格納されていな
い領域を求める(ステップS10-18)。図32の領域マッ
プ36の例では、ID=15が求まる。
Next, the person area selected by the user (ID = 5)
An area not stored in the array 34 is obtained from the person areas adjacent to (step S10-18). In the example of the area map 36 of FIG. 32, ID = 15 is obtained.

【0100】利用者が選択した人物領域(ID=5)を背景
領域に変更し(ステップS10-19)、その領域IDを配列3
4から削除する(ステップS10-20)。
The person area (ID = 5) selected by the user is changed to the background area (step S10-19), and the area ID is arrayed 3
Delete from 4 (step S10-20).

【0101】次に、ステップS10-18で求めた人物領域(I
D=15)に隣接する背景領域の中で配列34に格納されて
いない領域を求める(ステップS10-21)。図32の領域
マップ36の例では、ID=5の領域が求まる。
Next, the person area (I
Among the background areas adjacent to (D = 15), areas not stored in the array 34 are obtained (step S10-21). In the example of the area map 36 of FIG. 32, the area of ID = 5 is obtained.

【0102】以上で求めた全ての領域ID(ID=15、ID=
5)を配列34の修正対象領域IDが格納されていた位置
に挿入し(ステップS10-22)、ステップS10-5から処理
を繰り返す。図31の例では、配列34が配列35とな
る。
All area IDs (ID = 15, ID =
5) is inserted into the position of the correction target area ID of the array 34 (step S10-22), and the processing is repeated from step S10-5. In the example of FIG. 31, the array 34 becomes the array 35.

【0103】同様に、ステップS10-10において利用者が
選択した領域が背景領域であった場合、まず、隣接する
人物領域の中で配列34に格納されている領域を求め、
それらを配列34から削除する(ステップS10-23)。
Similarly, when the area selected by the user in step S10-10 is the background area, first, the areas stored in the array 34 among the adjacent person areas are obtained,
They are deleted from the array 34 (step S10-23).

【0104】次に、隣接する背景領域の中で配列34に
格納されていない領域を求め(ステップS10-24)、利用
者が選択した背景領域を人物領域に変更し(ステップS1
0-25)、配列34からその領域のIDを削除する(ステッ
プS10-26)。
Next, among the adjacent background areas, areas not stored in the array 34 are obtained (step S10-24), and the background area selected by the user is changed to the person area (step S1).
0-25), the ID of the area is deleted from the array 34 (step S10-26).

【0105】ステップS10-24で求めた背景領域と隣接す
る人物領域で、配列34に含まれていない領域を求め
(ステップS10-27)、以上で求めた全ての領域を配列3
4の修正対象領域が格納されていた位置に挿入し(ステ
ップS10-22)、ステップS10-5から処理を繰り返す。
An area which is not included in the array 34 in the person area adjacent to the background area obtained in step S10-24 is obtained (step S10-27), and all the areas obtained above are arranged in the array 3
It is inserted into the position where the correction target area of No. 4 was stored (step S10-22), and the processing is repeated from step S10-5.

【0106】利用者が、抽出結果修正ウインドウ32に
おいてOKボタンを選択した場合(ステップS10-15)、抽
出結果出力手段8において抽出結果を表示する。
When the user selects the OK button in the extraction result correction window 32 (step S10-15), the extraction result output means 8 displays the extraction result.

【0107】なお、抽出結果修正ウインドウ32の次ボ
タン、前ボタン、選択ボタン、OKボタンは、PCであれば
キーボードのキーに対応させても良い。また、携帯電話
であれば、ジョグボタンや確定ボタンなどに対応させて
も良い。
The next button, the previous button, the select button, and the OK button of the extraction result correction window 32 may correspond to the keys of the keyboard on a PC. Also, if it is a mobile phone, it may correspond to a jog button or a confirm button.

【0108】[0108]

【発明の効果】この発明は、以上説明したように構成さ
れているので、以下に示すような効果を奏する。
Since the present invention is constructed as described above, it has the following effects.

【0109】画像入力手段により入力された画像から、
自動的かつリアルタイムに人物像を抽出することができ
る。
From the image input by the image input means,
It is possible to extract a human figure automatically and in real time.

【0110】また、画像減色手段および領域マップ作成
手段において色情報基に領域分割することから、背景と
人物の境界が明確な場合、テクスチャを基にした領域分
割に比べ切出し精度が高い。また、画像減色手段および
領域マップ作成手段で用いられているアルゴリズムは単
純であり、リアルタイムに処理が可能である。
Further, since the image color reduction means and the area map creation means divide the area based on the color information, when the boundary between the background and the person is clear, the cutout accuracy is higher than that of the area division based on the texture. Further, the algorithm used in the image color reduction means and the area map creation means is simple and can be processed in real time.

【0111】また、領域マップ作成手段において、ノイ
ズ除去処理を施し微小領域を除外することにより、結果
として領域分割後の領域数が減り、処理効率を向上させ
ることができる。
Further, in the area map creating means, noise removal processing is performed to exclude minute areas, and as a result, the number of areas after area division is reduced and processing efficiency can be improved.

【0112】また、エッジ抽出手段において、R,G,Bの
各プレーンに対してエッジ抽出処理を行い、各画素の各
プレーンにおけるエッジ強度の最大値をその画素のエッ
ジ強度に代表させることにより、グレースケール画像か
らエッジを抽出する際の「隣り合う画素の色相が異なる
が、輝度が同じ場合に適切なエッジ抽出ができない」と
いう問題点を解消することができる。
In the edge extraction means, the edge extraction processing is performed on each of the R, G, and B planes, and the maximum value of the edge strength of each plane of each pixel is represented by the edge strength of that pixel. When extracting edges from a grayscale image, the problem that "adjacent pixels have different hues but proper edge extraction cannot be performed when the luminance is the same" can be solved.

【0113】また、人物像抽出手段の背景除去の前処理
に、画像の左右の縁に接する領域が背景領域であるか否
かを判断するための条件式に、縁に接する画素の座標に
応じて変化する重みを導入したことにより、例えば人物
の肩から腕にかけて、体の一部が画像の縁に接していて
も人物領域として切り出すことができる。
Further, in the background removal pre-processing of the person image extracting means, the conditional expression for determining whether or not the area in contact with the left and right edges of the image is the background area is determined according to the coordinates of the pixels in contact with the edge. By introducing the weights that vary with each other, it is possible to cut out as a person region even if a part of the body is in contact with the edge of the image, for example, from the shoulder to the arm of the person.

【0114】また、人物像抽出手段の背景除去処理に、
エッジ抽出手段で作成したエッジマップを参照しながら
背景除去処理を行うことから、均一な背景の前で撮影さ
れた画像だけでなく、焦点が人物のみにあたり、背景が
ぼけている画像であれば任意の背景でも人物像を適切に
切り出すことが可能である。
In the background removal processing of the person image extracting means,
Since the background removal processing is performed while referring to the edge map created by the edge extraction means, it is not limited to an image taken in front of a uniform background, but an arbitrary image if the image is focused only on a person and the background is blurred. It is possible to appropriately cut out a human figure even in the background of.

【0115】また、テンプレートを用いて人物像を切り
出すようにすることにより、手動ではあるが、背景に関
係なく人物像を抽出でき、バストショットだけでなく、
立った人物でも抽出することができる。
Also, by cutting out the human image using the template, the human image can be extracted irrespective of the background though it is a manual operation.
Even standing people can be extracted.

【0116】また、抽出結果修正手段により、人物像抽
出結果を容易に修正することができる。
The extraction result correction means can easily correct the human image extraction result.

【0117】また、抽出結果修正手段は、人物領域抽出
結果の人物領域と背景領域との境界の領域から順に修正
対象領域を利用者に提示し、利用者はそれを選択するの
みで結果を容易に修正可能とすることにより、手動で人
物と背景の境界をなぞるなどの手法に比べて、容易であ
りかつ効率的である。
Further, the extraction result correction means presents the user with the correction target area in order from the boundary area between the human area and the background area of the human area extraction result, and the user can easily obtain the result simply by selecting it. This is easier and more efficient than the method of manually tracing the boundary between the person and the background.

【図面の簡単な説明】[Brief description of drawings]

【図1】 実施の形態1を示す図で、人物像抽出装置の
全体構成を示す図である。
FIG. 1 is a diagram showing a first embodiment and is a diagram showing an overall configuration of a person image extracting device.

【図2】 実施の形態1を示す図で、人物像抽出装置の
処理の概要を説明するためのフローチャート図である。
FIG. 2 is a diagram showing the first embodiment and is a flowchart for explaining the outline of the processing of the person image extracting device.

【図3】 実施の形態1を示す図で、領域マップ作成手
段の動作を説明するフローチャート図である。
FIG. 3 is a diagram showing the first embodiment and is a flow chart for explaining the operation of the area map creating means.

【図4】 実施の形態1を示す図で、画像減色手段で作
成されたインデックスマップに対して行うノイズ除去処
理を説明するための図である。
FIG. 4 is a diagram showing the first embodiment and is a diagram for explaining noise removal processing performed on an index map created by an image color reduction unit.

【図5】 実施の形態1を示す図で、作成されたインデ
ックスマップから特定のID(ここでは1)を持つ画素を
抽出した結果を示した図である。
FIG. 5 shows the first embodiment, and is a diagram showing a result of extracting a pixel having a specific ID (here, 1) from the created index map.

【図6】 実施の形態1を示す図で、図5に対して領域
マップ作成手段が新たにIDを付与した結果を示した図で
ある。
FIG. 6 is a diagram showing the first embodiment and is a diagram showing a result in which the area map creating means newly gives an ID to FIG. 5;

【図7】 実施の形態1を示す図で、エッジ抽出手段の
動作を示すフローチャート図である。
FIG. 7 shows the first embodiment and is a flowchart showing the operation of the edge extracting means.

【図8】 実施の形態1を示す図で、水平方向のSobel
オペレータのカーネルを示す図である。
FIG. 8 is a diagram showing the first embodiment and is a Sobel in a horizontal direction.
It is a figure which shows the kernel of an operator.

【図9】 実施の形態1を示す図で、垂直方向のSobel
オペレータのカーネルを示す図である。
FIG. 9 is a diagram showing the first embodiment and is a Sobel in a vertical direction.
It is a figure which shows the kernel of an operator.

【図10】 実施の形態1を示す図で、人物像抽出手段
における背景除去処理の前処理のフローチャート図であ
る。
FIG. 10 shows the first embodiment and is a flowchart of a pre-process of the background removal process in the person image extracting means.

【図11】 実施の形態1を示す図で、人物像抽出手段
における背景除去処理のフローチャート図である。
FIG. 11 shows the first embodiment and is a flowchart of background removal processing in the person image extracting means.

【図12】 実施の形態1を示す図で、エッジ抽出手段
により作成されたエッジマップの例を示した図である。
FIG. 12 is a diagram showing the first embodiment and is a diagram showing an example of an edge map created by an edge extracting unit.

【図13】 実施の形態1を示す図で、人物像抽出手段
の処理過程を示した図である。
FIG. 13 is a diagram showing the first embodiment and is a diagram showing a processing process of a person image extracting means.

【図14】 実施の形態1を示す図で、人物像抽出手段
の処理過程を示した図である。
FIG. 14 is a diagram showing the first embodiment and is a diagram showing a processing process of a person image extracting means.

【図15】 実施の形態1を示す図で、人物像抽出手段
の処理過程を示した図である。
FIG. 15 is a diagram showing the first embodiment and is a diagram showing a processing process of the person image extracting means.

【図16】 実施の形態1を示す図で、人物の腕の部分
が画像の左右の縁に接した場合の画像を示す図である。
FIG. 16 is a diagram illustrating the first embodiment and is a diagram illustrating an image when the arm portion of a person touches the left and right edges of the image.

【図17】 実施の形態2を示す図で、人物像抽出装置
の全体構成を示す図である。
FIG. 17 is a diagram showing the second embodiment and is a diagram showing an overall configuration of a person image extracting device.

【図18】 実施の形態2を示す図で、テンプレート提
示手段の動作を説明するためのフローチャート図であ
る。
FIG. 18 is a diagram showing the second embodiment, and is a flowchart for explaining the operation of the template presenting means.

【図19】 実施の形態2を示す図で、人物ポーズテン
プレートDBに格納されたテンプレートデータを示す図で
ある。
FIG. 19 is a diagram showing the second embodiment and is a diagram showing template data stored in a person pose template DB.

【図20】 実施の形態2を示す図で、人物ポーズテン
プレートDBに収められたテンプレートの中から、被写体
の人数に応じたテンプレートを検索するためのダイアロ
グを示す図である。
FIG. 20 is a diagram showing the second embodiment and is a diagram showing a dialog for searching a template corresponding to the number of subjects from the templates stored in the person pose template DB.

【図21】 実施の形態2を示す図で、検索したテンプ
レートを表示するテンプレート表示ウインドウを示す図
である。
FIG. 21 is a diagram showing the second embodiment and is a diagram showing a template display window for displaying a searched template.

【図22】 実施の形態2を示す図で、テンプレート当
てはめ手段の動作を説明するためのフローチャート図で
ある。
FIG. 22 is a view showing the second embodiment and is a flow chart for explaining the operation of the template fitting means.

【図23】 実施の形態2を示す図で、利用者がテンプ
レート表示ウインドウから選択したテンプレートを被写
体に合わせて当てはめるためのテンプレート当てはめダ
イアログを示す図である。
FIG. 23 is a diagram showing the second embodiment and is a diagram showing a template fitting dialog for fitting the template selected by the user from the template display window to the subject.

【図24】 実施の形態2を示す図で、テンプレートを
原画像にオーバーラップさせる処理を説明するためのフ
ローチャート図である。
FIG. 24 is a diagram showing the second embodiment and is a flowchart for explaining the process of overlapping the template with the original image.

【図25】 実施の形態2を示す図で、テンプレートデ
ータを示す図である。
FIG. 25 is a diagram showing the second embodiment and is a diagram showing template data.

【図26】 実施の形態2を示す図で、人物像抽出手段
の処理を説明するためのフローチャート図である。
FIG. 26 is a diagram showing the second embodiment and is a flowchart for explaining the process of the person image extracting means.

【図27】 実施の形態3を示す図で、人物像抽出装置
の全体構成を示す図である。
FIG. 27 is a diagram showing the third embodiment and is a diagram showing an overall configuration of a person image extracting device.

【図28】 実施の形態3を示す図で、抽出結果修正手
段のユーザインタフェースの一例である抽出結果修正ウ
インドウを示す図である。
FIG. 28 is a diagram showing the third embodiment and is a diagram showing an extraction result correction window which is an example of a user interface of the extraction result correction means.

【図29】 実施の形態3を示す図で、抽出結果修正手
段の動作を説明するための部分的なフローチャート図で
ある。
FIG. 29 shows the third embodiment and is a partial flowchart for explaining the operation of the extraction result correction means.

【図30】 実施の形態3を示す図で、抽出結果修正手
段の動作を説明するための部分的なフローチャート図で
ある。
FIG. 30 shows the third embodiment and is a partial flow chart for explaining the operation of the extraction result correction means.

【図31】 実施の形態3を示す図で、背景領域と人物
領域の境界にある領域を格納するための配列を示す図で
ある。
FIG. 31 is a diagram showing the third embodiment and is a diagram showing an array for storing an area at the boundary between the background area and the person area.

【図32】 実施の形態3を示す図で、ある抽出結果を
修正するときの抽出結果修正手段の動作を説明するため
の図である。
FIG. 32 shows the third embodiment and is a diagram for explaining the operation of the extraction result correction means when correcting a certain extraction result.

【図33】 従来の構図情報抽出装置の全体構成を説明
するための図である。
FIG. 33 is a diagram for explaining the overall configuration of a conventional composition information extraction device.

【符号の説明】[Explanation of symbols]

1 人物像抽出装置、2 画像入力手段、3 人物領域
候補決定手段、4 画像減色手段4、5 領域マップ作
成手段5、6 エッジ抽出手段、7 人物像抽出手段、
8 抽出結果出力手段、9 周囲の画素、10 注目画
素、11〜14領域、15 水平方向の微分オペレー
タ、16 垂直方向の微分オペレータ、17 エッジマ
ップ、18 領域マップ、19 黒く塗りつぶされた領
域、22テンプレート提示手段、23 テンプレート当
てはめ手段、24 人物ポーズテンプレートDB、25
人物像抽出手段、26 テンプレートデータ、27 被
写体数入力ダイアログ、28 テンプレート表示ウイン
ドウ、29 テンプレート当てはめダイアログ、30
テンプレートデータ、31 抽出結果修正手段、32
抽出結果修正ウインドウ、33 修正対象領域、34,
35 配列、36領域マップ。
DESCRIPTION OF SYMBOLS 1 person image extraction device, 2 image input means, 3 person area candidate determination means, 4 image color reduction means 4, 5 area map creation means 5, 6 edge extraction means, 7 person image extraction means,
8 Extraction Result Output Means, 9 Surrounding Pixels, 10 Target Pixels, 11 to 14 Regions, 15 Horizontal Differential Operators, 16 Vertical Differential Operators, 17 Edge Maps, 18 Region Maps, 19 Black Filled Regions, 22 Template presenting means, 23 Template fitting means, 24 Person pose template DB, 25
Person image extraction means, 26 template data, 27 subject number input dialog, 28 template display window, 29 template fitting dialog, 30
Template data, 31 Extraction result correction means, 32
Extraction result correction window, 33 correction target area, 34,
35 sequence, 36 region map.

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 340 G06T 7/00 150 JICSTファイル(JOIS)─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 1/00 340 G06T 7/00 150 JISST file (JOIS)

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 画像を入力する画像入力手段と、 この画像入力手段により入力された画像から人物領域の
候補を決定する人物領域候補決定手段と、 この人物領域候補決定手段において決定した人物領域候
補の中から人物像を構成する領域を選択し、人物像を画
像から抽出する人物像抽出手段と、 この人物像抽出手段の抽出結果を出力する抽出結果出力
手段と、 を備え、 前記人物像抽出手段は、人物領域候補の中から画像の縁
に接する領域が背景領域であるか否かを所定の条件式に
基づいて判定し、背景領域であると判定された領域を人
物領域候補から除去する背景除去の前処理を行うととも
に、前記背景除去の前処理において、画像の左右の縁に
接する領域が背景領域であるか否かを判断するための条
件式に、左右の縁に接する画素の座標に応じて変化する
重みを導入したことを特徴とする人物像抽出装置。
1. An image inputting means for inputting an image, a person area candidate deciding means for deciding a person area candidate from the image inputted by the image input means, and a person area candidate decided by the person area candidate deciding means. A person image extracting unit that selects a region forming a human image from the image and extracts the human image from the image; and an extraction result output unit that outputs the extraction result of the human image extracting unit. The means determines whether or not the area in contact with the edge of the image is a background area from the person area candidates based on a predetermined conditional expression, and removes the area determined to be the background area from the person area candidates. Tomo and performing pre-processing of the background removal
In the pre-processing of the background removal, on the left and right edges of the image
Article for determining whether or not the contact area is the background area
Changes according to the coordinates of the pixels that touch the left and right edges
A human image extraction device characterized by introducing weights .
【請求項2】 前記人物領域候補決定手段は、入力画像
のエッジ抽出を行うエッジ抽出手段と、入力画像の色を
減色し、各色のIDに基づいて画像の各画素をIDで表した
インデックスマップを作成する画像減色手段と、この画
像減色手段で作成されたインデックスマップに基づいて
領域マップを作成する領域マップ作成手段と、を備えた
ことを特徴とする請求項1記載の人物像抽出装置。
2. The person area candidate determination means, edge extraction means for extracting an edge of an input image, color reduction of the input image, and an index map in which each pixel of the image is represented by an ID based on the ID of each color. 2. The person image extracting device according to claim 1, further comprising: an image color-reducing means for creating the area map and an area map creating means for creating the area map based on the index map created by the image color-reducing means.
【請求項3】 前記領域マップ作成手段は、前記画像減
色手段において作成されたインデックスマップの各画素
に対して、ブロック単位にインデックスのヒストグラム
を求め、ヒストグラムが最大となるインデックスで画素
のインデックスを置き換えるノイズ除去処理を施し微小
領域を除外することを特徴とする請求項2記載の人物像
抽出装置。
3. The area map creating means obtains an index histogram for each pixel of each pixel of the index map created by the image color reducing means, and replaces the pixel index with the index that maximizes the histogram. The person image extracting device according to claim 2, wherein a small area is excluded by performing noise removal processing.
【請求項4】 前記エッジ抽出手段は、前記画像入力手
段により入力された画像のR,G,Bの各プレーンに対して
エッジ抽出処理を行い、各画素の各プレーンにおけるエ
ッジ強度の最大値をその画素のエッジ強度とする処理を
行うことでエッジ画像を求めることを特徴とする請求項
2記載の人物像抽出装置。
4. The edge extraction means performs edge extraction processing on each of the R, G, B planes of the image input by the image input means, and determines the maximum value of the edge strength of each plane of each pixel. 3. The human image extracting apparatus according to claim 2, wherein the edge image is obtained by performing processing for setting the edge strength of the pixel.
【請求項5】 前記人物像抽出手段は、前記エッジ抽出
手段で作成したエッジマップを参照しながら人物領域候
補の中からエッジが存在しない領域を背景領域であると
判定して背景領域であると判定された領域を人物領域候
補の中から除去する背景除去処理を行うことを特徴とす
る請求項2記載の人物像抽出装置。
5. The person image extracting means refers to the edge map created by the edge extracting means, determines an area in which no edge exists from the candidate person areas as a background area, and determines that the area is a background area. The person image extracting device according to claim 2, wherein background removal processing is performed to remove the determined area from the person area candidates.
【請求項6】 前記人物領域候補決定手段は、テンプレ
ートに応じて人物領域の候補を決定するようにしたこと
を特徴とする請求項1記載の人物像抽出装置。
6. The person image extracting device according to claim 1, wherein the person region candidate determining means determines a person region candidate according to a template.
【請求項7】 前記人物領域候補決定手段は、入力画像
の色を減色し、各色のIDに基づいて画像の各画素をIDで
表したインデックスマップを作成する画像減色手段と、
この画像減色手段で作成されたインデックスマップに基
づいて領域マップを作成する領域マップ作成手段と、人
物像を切り出すためのテンプレートを提示するテンプレ
ート提示手段と、利用者が選択したテンプレートを入力
画像に合わせて修正するテンプレート当てはめ手段と、
被写体の数に応じた様々な人物ポーズのテンプレートを
格納した人物ポーズテンプレートDBと、を備えたことを
特徴とする請求項記載の人物像抽出装置。
7. The person area candidate determining means reduces the color of the input image, and creates an index map that represents each pixel of the image by an ID based on the ID of each color,
An area map creating means for creating an area map based on the index map created by the image color-reducing means, a template presenting means for presenting a template for cutting out a human image, and a template selected by the user are matched with the input image. Template fitting means to correct by
The person image extracting apparatus according to claim 6 , further comprising: a person pose template DB that stores templates of various person poses according to the number of subjects.
【請求項8】 上記人物抽出装置は、さらに、上記人
物像抽出手段による人物領域抽出結果の人物領域とそれ
以外の背景領域との境界の領域から順に修正対象領域を
利用者に提示し、利用者がそれを選択するのみで人物領
域抽出結果を修正する抽出結果修正手段を備えたことを
特徴とする請求項1記載の人物像抽出装置。
8. The person image extracting device further presents a correction target area to a user in order from a boundary area between a person area as a result of the person area extraction by the person image extracting means and the other background area, 2. The person image extracting apparatus according to claim 1, further comprising extraction result correction means for correcting the person region extraction result only by the user selecting it.
JP2001037121A 2001-02-14 2001-02-14 Human image extraction device Expired - Fee Related JP3411971B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001037121A JP3411971B2 (en) 2001-02-14 2001-02-14 Human image extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001037121A JP3411971B2 (en) 2001-02-14 2001-02-14 Human image extraction device

Publications (2)

Publication Number Publication Date
JP2002245441A JP2002245441A (en) 2002-08-30
JP3411971B2 true JP3411971B2 (en) 2003-06-03

Family

ID=18900297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001037121A Expired - Fee Related JP3411971B2 (en) 2001-02-14 2001-02-14 Human image extraction device

Country Status (1)

Country Link
JP (1) JP3411971B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878265B2 (en) 2017-03-13 2020-12-29 Ricoh Company, Ltd. Image processing device and image processing method for setting important areas in an image

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061105A (en) 2001-06-07 2003-02-28 Seiko Epson Corp Image processing method, image processing program, image processing apparatus, and digital still camera using the image processing apparatus
JP4712659B2 (en) * 2006-09-22 2011-06-29 富士フイルム株式会社 Image evaluation apparatus and program thereof
JP5266701B2 (en) * 2007-09-27 2013-08-21 カシオ計算機株式会社 Imaging apparatus, subject separation method, and program
JP2011188237A (en) * 2010-03-09 2011-09-22 Nk Works Kk Image processing method and image processing apparatus
JP5565227B2 (en) * 2010-09-13 2014-08-06 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP5234086B2 (en) * 2010-11-18 2013-07-10 カシオ計算機株式会社 Region specifying method, region specifying device, program, server, and system
US8687888B2 (en) 2010-11-18 2014-04-01 Casio Computer Co., Ltd. Region specification method, region specification apparatus, recording medium, server, and system
JP5212451B2 (en) * 2010-11-30 2013-06-19 カシオ計算機株式会社 Region specifying method, region specifying device, program, server, and system
JP6613876B2 (en) * 2015-12-24 2019-12-04 トヨタ自動車株式会社 Posture estimation apparatus, posture estimation method, and program
JP6798183B2 (en) 2016-08-04 2020-12-09 株式会社リコー Image analyzer, image analysis method and program
JP7421452B2 (en) * 2020-09-02 2024-01-24 株式会社日立国際電気 Skeleton detection system
CN114693707B (en) * 2020-12-31 2023-09-26 北京小米移动软件有限公司 Object contour template acquisition method, device, equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878265B2 (en) 2017-03-13 2020-12-29 Ricoh Company, Ltd. Image processing device and image processing method for setting important areas in an image

Also Published As

Publication number Publication date
JP2002245441A (en) 2002-08-30

Similar Documents

Publication Publication Date Title
JP3436473B2 (en) Image processing device
US6714689B1 (en) Image synthesizing method
JP3411971B2 (en) Human image extraction device
US5475507A (en) Color image processing method and apparatus for same, which automatically detects a contour of an object in an image
US6404936B1 (en) Subject image extraction method and apparatus
KR100682889B1 (en) Method and Apparatus for image-based photorealistic 3D face modeling
US5220614A (en) Automated coin grading system
US20030223622A1 (en) Method and system for enhancing portrait images
JP2001043376A (en) Image extraction method and device and storage medium
JP2002202838A (en) Image processor
JP3993029B2 (en) Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program
JP3647407B2 (en) Image processing device
JP7282551B2 (en) Information processing device, information processing method and program
CN116342519A (en) Image processing method based on machine learning
JPH05250472A (en) Method and device for preparing fine mask of boundary on image in concerned area so as to separate area from remaining parts of image
CN116485944A (en) Image processing method and device, computer readable storage medium and electronic equipment
CN114723601A (en) Model structured modeling and rapid rendering method under virtual scene
CN117893858A (en) Image tampering positioning method integrating multi-level multi-scale and boundary information
JPH064669A (en) Pattern matching device for gradation picture
JP2775122B2 (en) Automatic contour extraction vectorization processing method of illustration data and processing device used for the method
US9225876B2 (en) Method and apparatus for using an enlargement operation to reduce visually detected defects in an image
JP3164835B2 (en) Pre-processing method and post-processing method in human image recognition
CN112232390A (en) Method and system for identifying high-pixel large image
JP2001136358A (en) Trimming picture preparing device and trimming frame positional information preparing device
JPH10340334A (en) Method for segmenting image of object based on area clearly specified by thick line including contour of object to be segmented in digital color still image

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20021029

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030311

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080320

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090320

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100320

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100320

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110320

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110320

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees