JP6467817B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP6467817B2
JP6467817B2 JP2014169928A JP2014169928A JP6467817B2 JP 6467817 B2 JP6467817 B2 JP 6467817B2 JP 2014169928 A JP2014169928 A JP 2014169928A JP 2014169928 A JP2014169928 A JP 2014169928A JP 6467817 B2 JP6467817 B2 JP 6467817B2
Authority
JP
Japan
Prior art keywords
region
area
boundary
image
specific
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014169928A
Other languages
Japanese (ja)
Other versions
JP2016045744A (en
JP2016045744A5 (en
Inventor
義裕 手島
義裕 手島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014169928A priority Critical patent/JP6467817B2/en
Publication of JP2016045744A publication Critical patent/JP2016045744A/en
Publication of JP2016045744A5 publication Critical patent/JP2016045744A5/ja
Application granted granted Critical
Publication of JP6467817B2 publication Critical patent/JP6467817B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から例えば顔などの特定領域の輪郭を抽出し、その領域を切り抜くための処理を行なう画像処理装置、画像処理方法、およびプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for extracting a contour of a specific area such as a face from an image and performing a process for cutting out the area.

画像処理技術の発達と、いわゆるスマートフォン端末やタブレット端末などの高性能モバイル端末の発達、あるいは電子看板(デジタルサイネージ)装置などの新デバイスの発達により、例えば図7(a)に例示されるような撮影した画像から例えば図7(b)に例示されるような顔画像を切り抜いて、その顔画像を様々なアプリケーション、例えばスタンプを作成するアプリケーションや電子広告を表示するアプリケーションなどに提供する技術が開発されている。   With the development of image processing technology, the development of high-performance mobile terminals such as so-called smartphone terminals and tablet terminals, or the development of new devices such as digital signage devices, for example, as illustrated in FIG. A technology has been developed that cuts out a face image as exemplified in FIG. 7B from the captured image and provides the face image to various applications such as an application for creating a stamp or an application for displaying an electronic advertisement. Has been.

提供された画像から顔画像を切り抜くためには、画像から顔の輪郭を抽出する必要がある。画像から顔を切り抜くための輪郭を取得する場合、初期輪郭から、輪郭を少しずつ変形して、最適な輪郭を探す方法がある。しかし、この方法では、輪郭点の数が多いと探索に時間がかかる、輪郭点の数が少ないと複雑な形状の輪郭を正確に取得できないという問題がある。   In order to cut out a face image from the provided image, it is necessary to extract a face outline from the image. When acquiring an outline for cutting out a face from an image, there is a method of searching for an optimum outline by gradually changing the outline from the initial outline. However, this method has a problem that it takes a long time to search if the number of contour points is large, and it is impossible to accurately acquire a contour having a complicated shape if the number of contour points is small.

この問題を解決するため、大まかな輪郭を取得した後、Graph Cuts法(以下「グラフカット」記載する)と呼ばれる技術を用いてより正確な輪郭を取得する方法が知られている(例えば非特許文献1、特許文献1に記載の技術)。 To solve this problem, after obtaining the rough contour, Graph Cuts method (hereinafter referred to as "graph cut") method for obtaining a more accurate contour using a technique referred to as is known (e.g. non (Techniques described in Patent Document 1 and Patent Document 1).

さらに、顔領域について精度良くグラフカットを行なうための従来技術が知られている(例えば特許文献2に記載の技術)。この従来技術は、既に格納されている複数の人物領域パターンを用いて入力イメージで初期顔領域及び初期背景領域を設定し、これらの領域に対してグラフカットのための初期値をそれぞれ付与することによって、グラフカットを用いたイメージの編集をより精度良く行なう技術である。   Furthermore, a conventional technique for accurately performing a graph cut on a face area is known (for example, a technique described in Patent Document 2). In this prior art, an initial face area and an initial background area are set in an input image using a plurality of human area patterns that are already stored, and initial values for graph cutting are respectively assigned to these areas. Therefore, it is a technique for editing an image using a graph cut with higher accuracy.

特開2011−35636号公報JP 2011-35636 A 特開2013−511076号公報JP 2013-511076 A

Y.Boykov and G.Funka−Lea:“Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N−D Images”,Proceedings of “Internation Conference on Computer Vision”,Vancouver,Canada,vol.I,p.105−112,July 2001.Y. Boykov and G. Funka-Lea: “Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in ND Images”, Proceedings of “Interference Convence CV”. I, p. 105-112, July 2001.

しかし、グラフカットを用いた従来技術では、頭部の輪郭は、頭部と背景との色の差により、正確に輪郭を取得できる場合が多いが、顎の輪郭は、顎の部分の色と首の部分の色が似ているため、グラフカットで取得した輪郭は、がたがたしたりして不自然な輪郭となる問題点を有していた。   However, in the conventional technique using the graph cut, the outline of the head can often be accurately obtained due to the color difference between the head and the background, but the jaw outline is the same as the color of the jaw part. Since the color of the neck portion is similar, the contour obtained by the graph cut has a problem that it becomes an unnatural contour by rattling.

本発明は、例えば顔画像の切抜きにおける頭部の輪郭と顎の輪郭のような背景との色の差が異なる輪郭部分をあわせ持つ特定領域の切抜きの精度を向上させることを目的とする。   An object of the present invention is to improve the accuracy of clipping of a specific area having contour portions having different color differences between the background, such as the contour of the head and the contour of the chin, for example, in the cutout of a face image.

前記目的を達成するため、本発明の画像処理機器の一態様は、画像において前記画像から分割する特定領域を特定する特定手段と、前記特定手段によって特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価する境界適正評価手段と、前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するトライマップ作成手段と、前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割する分割手段と、を備え、前記境界適正評価手段は、更に、前記特定手段によって特定された前記特定領域の画素と前記特定領域以外の画素との色差の大きさに応じて、評価のための感度に関するパラメータを変更することを特徴とする。
前記目的を達成するため、本発明の画像処理方法の一態様は、画像において前記画像から分割する特定領域を特定し、特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価し、前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成し、前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割し、前記境界としての適正の評価は、更に、前記特定領域の画素と前記特定領域以外の画素との色差の大きさに応じて、評価のための感度に関するパラメータを変更することを含むことを特徴とする。
前記目的を達成するため、本発明のプログラムの一態様は、画像において前記画像から分割する特定領域を特定するステップと、特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価するステップと、前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するステップと、前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割するステップと、
をコンピュータに実行させるとともに、前記適正を評価するステップは、前記特定するステップにて特定された前記特定領域の画素と前記特定領域以外の画素との色差の大きさに応じて、評価のための感度に関するパラメータを変更するステップを含むことを特徴とする。
前記目的を達成するため、本発明の画像処理装置の一態様は、画像において前記画像から分割する特定領域を特定する特定手段と、前記特定手段によって特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価する境界適正評価手段と、前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するトライマップ作成手段と、前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割する分割手段と、を備え、前記画像は人物画像であるとともに、前記特定領域と前記特定領域以外の領域は、夫々、顔画像領域と背景領域であり、前記トライマップ作成手段は、前記顔画像領域における顎と首との境界領域と、前記顎以外の前記顔画像領域における頭部と前記背景領域との境界領域と、で前記トライマップの前記不定領域の幅を異なるように設定することを特徴とする。
前記目的を達成するため、本発明の画像処理方法の一態様は、画像において前記画像から分割する特定領域を特定し、特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価し、前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成し、前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割し、更に、前記画像は人物画像であるとともに、前記特定領域と前記特定領域以外の領域は、夫々、顔画像領域と背景領域であり、前記トライマップの作成においては、前記顔画像領域における顎と首との境界領域と、前記顎以外の前記顔画像領域における頭部と前記背景領域との境界領域と、で前記トライマップの前記不定領域の幅を異なるように設定することを含むことを特徴とする。
前記目的を達成するため、本発明のプログラムの一態様は、画像において前記画像から分割する特定領域を特定するステップと、特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価するステップと、前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するステップと、前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割するステップと、をコンピュータに実行させるとともに、前記画像は人物画像であるとともに、前記特定領域と前記特定領域以外の領域は、夫々、顔画像領域と背景領域であり、前記トライマップを作成するステップは、前記顔画像領域における顎と首との境界領域と、前記顎以外の前記顔画像領域における頭部と前記背景領域との境界領域と、で前記トライマップの前記不定領域の幅を異なるように設定するステップを含むことを特徴とする。
In order to achieve the above object, an aspect of the image processing apparatus according to the present invention includes a specifying unit that specifies a specific region to be divided from the image in the image, and the boundary-likeness of the boundary of the specific region specified by the specifying unit. A boundary appropriate evaluation means for evaluating the appropriateness as the boundary based on the evaluation value, and an indefinite region that is in the vicinity of the boundary and includes the boundary based on the evaluation value A trimap creating means for creating a trimap comprising the specific region, a region other than the specific region, and the indefinite region for the image, and a graph cut method in the indefinite region of the trimap. and a dividing means for dividing a region other than the specific region and a specific region, the boundary diligence means further is specified by the specifying means In response to said color difference in the size of pixels in the specific region and the pixels other than the specific area, and changes the parameters relating to sensitivity for the evaluation.
In order to achieve the above object, according to one aspect of the image processing method of the present invention, a specific region to be divided from the image is specified in an image, and an evaluation value for evaluating the likelihood of the boundary of the specified specific region is calculated. And evaluating the adequacy as the boundary based on the evaluation value, setting a width of an indeterminate region that is in the vicinity of the boundary and includes the boundary based on the evaluation value, and specifying the specified for the image Create a trimap consisting of an area, an area other than the specific area, and the indefinite area, and divide the specific area and an area other than the specific area by the graph cut method in the indefinite area of the trimap as the boundary proper evaluation of further in response to said color difference in the size of pixels in the specific region and the pixels other than the specific region, to change the parameters related to the sensitivity for the evaluation Characterized in that it contains.
In order to achieve the above object, an aspect of the program of the present invention includes a step of identifying a specific area to be divided from the image in an image and calculating an evaluation value for evaluating the likelihood of the boundary of the identified specific area. And evaluating the appropriateness as the boundary based on the evaluation value, and setting a width of an indeterminate region that is near the boundary and includes the boundary based on the evaluation value, and for the image Creating a trimap comprising the specific region, a region other than the specific region, and the indefinite region, and dividing the specific region and the region other than the specific region in the indefinite region of the trimap by a graph cut method; Steps,
The cause the computer to execute Rutotomoni, the step of evaluating the appropriate, depending on the color difference in size between pixels other than the specific region and the pixel of the specific region specified in the step of the particular, for the evaluation The method includes a step of changing a parameter related to the sensitivity .
In order to achieve the above object, an aspect of the image processing apparatus according to the present invention includes a specifying unit that specifies a specific region to be divided from the image in the image, and the boundary-likeness of the boundary of the specific region specified by the specifying unit. A boundary appropriate evaluation means for evaluating the appropriateness as the boundary based on the evaluation value, and an indefinite region that is in the vicinity of the boundary and includes the boundary based on the evaluation value A trimap creating means for creating a trimap comprising the specific region, a region other than the specific region, and the indefinite region for the image, and a graph cut method in the indefinite region of the trimap. Dividing means for dividing a specific area and an area other than the specific area, wherein the image is a person image, and the specific area and the specific area The regions other than the region are a face image region and a background region, respectively, and the trimap creating means includes a boundary region between the chin and the neck in the face image region, and a head in the face image region other than the chin. The width of the indefinite region of the trimap is set to be different between the boundary region with the background region.
In order to achieve the above object, according to one aspect of the image processing method of the present invention, a specific region to be divided from the image is specified in an image, and an evaluation value for evaluating the likelihood of the boundary of the specified specific region is calculated. And evaluating the adequacy as the boundary based on the evaluation value, setting a width of an indeterminate region that is in the vicinity of the boundary and includes the boundary based on the evaluation value, and specifying the specified for the image Create a trimap consisting of an area, an area other than the specific area, and the indefinite area, and divide the specific area and an area other than the specific area by a graph cut method in the indefinite area of the trimap, and The image is a human image, and the specific area and the area other than the specific area are a face image area and a background area, respectively. The width of the indefinite region of the trimap is set to be different between the boundary region between the chin and the neck in the image region and the boundary region between the head and the background region in the face image region other than the chin. It is characterized by including.
In order to achieve the above object, an aspect of the program of the present invention includes a step of identifying a specific area to be divided from the image in an image and calculating an evaluation value for evaluating the likelihood of the boundary of the identified specific area. And evaluating the appropriateness as the boundary based on the evaluation value, and setting a width of an indeterminate region that is near the boundary and includes the boundary based on the evaluation value, and for the image Creating a trimap comprising the specific region, a region other than the specific region, and the indefinite region, and dividing the specific region and the region other than the specific region in the indefinite region of the trimap by a graph cut method; And causing the computer to execute the step, the image is a person image, and the specific region and a region other than the specific region Each of which is a face image area and a background area, and the step of creating the trimap includes a boundary area between a chin and a neck in the face image area, a head in the face image area other than the chin, and the background area. And a step of setting the width of the indefinite region of the trimap to be different from each other.

本発明によれば、例えば顔画像の切抜きにおける頭部の輪郭と顎の輪郭のような背景との色の差が異なる輪郭部分をあわせ持つ特定領域の切抜きの精度を向上させることが可能となる。   According to the present invention, for example, it is possible to improve the accuracy of clipping of a specific region having a contour portion having a different color difference between the background such as the contour of the head and the contour of the chin in the clipping of the face image. .

本実施形態に係る画像処理装置のブロック図である。It is a block diagram of an image processing device concerning this embodiment. 本実施形態に係る画像処理装置を実現するハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example which implement | achieves the image processing apparatus which concerns on this embodiment. 本実施形態に係る画像処理の例を示すフローチャートである。It is a flowchart which shows the example of the image processing which concerns on this embodiment. 不定領域の幅の決定動作の説明図である。It is explanatory drawing of the determination operation | movement of the width | variety of an indefinite area | region. 本実施形態における頭部の切抜き動作の説明図である。It is explanatory drawing of the clipping operation of the head in this embodiment. 本実施形態における顎の切抜き動作の説明図である。It is explanatory drawing of the clipping operation of the jaw in this embodiment. 顔画像の切抜き動作の説明図である。It is explanatory drawing of the cutting-out operation | movement of a face image.

以下、本発明を実施するための形態について図面を参照しながら詳細に説明する。図1は、本発明の一実施形態(以下「本実施形態」と記載)に係る画像処理装置100のブロック図である。本実施形態に係る画像処理装置100は、顔検出部101、輪郭取得部102、トライマップ作成部103、グラフカット切抜き部104、および輪郭学習部105を備える。輪郭取得部102はさらに、頭部初期輪郭作成部106、顎初期輪郭作成部107、頭部輪郭フィッティング部108、および顎輪郭フィッティング部109を備える。輪郭学習部105はさらに、頭部輪郭学習部110および顎輪郭学習部111を備える。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings. FIG. 1 is a block diagram of an image processing apparatus 100 according to an embodiment (hereinafter referred to as “this embodiment”) of the present invention. An image processing apparatus 100 according to the present embodiment includes a face detection unit 101, a contour acquisition unit 102, a trimap creation unit 103, a graph cut cutout unit 104, and a contour learning unit 105. The contour acquisition unit 102 further includes a head initial contour creation unit 106, a jaw initial contour creation unit 107, a head contour fitting unit 108, and a jaw contour fitting unit 109. The contour learning unit 105 further includes a head contour learning unit 110 and a jaw contour learning unit 111.

顔検出部101は、入力した画像において分割する特定領域を特定する特定手段であり、具体的には、人物画像における顔領域と背景領域とを分割する。   The face detection unit 101 is a specifying unit that specifies a specific area to be divided in the input image. Specifically, the face detection unit 101 divides a face area and a background area in a person image.

境界適正評価手段として動作する輪郭取得部102は、顔検出部101によって特定された顔領域の輪郭(境界)を、輪郭らしさ(境界らしさ)を評価する評価値を算出しながら、その評価値に基づいて境界としての適正を評価する。本実施形態では、輪郭を取得するために、予め輪郭学習部105において、代表的な輪郭を学習によって取得しておく。より具体的には、頭部輪郭学習部110が代表的な頭部輪郭を学習によって取得し、顎輪郭学習部111が代表的な顎輪郭を学習によって取得しておく。そして、輪郭取得部102において、頭部初期輪郭作成部106が、顔検出部101によって特定された顔領域の頭部に対して、頭部輪郭学習部110が取得した代表的な頭部輪郭をあてはめることにより、頭部初期輪郭を作成する。同様に、顎初期輪郭作成部107が、顔領域の顎に対して、顎輪郭学習部111が取得した代表的な顎輪郭をあてはめることにより、顎初期輪郭を作成する。さらに、輪郭取得部102において、頭部輪郭フィッティング部108が、頭部輪郭のための評価値を算出して評価しながら、頭部初期輪郭作成部106が作成した頭部初期輪郭を変形してゆき、最適な頭部輪郭を作成する。同様に、顎輪郭フィッティング部109が、顎輪郭のための評価値を算出して評価しながら、顎初期輪郭作成部107が作成した顎初期輪郭を変形してゆき、最適な顎輪郭を作成する。   The contour acquisition unit 102 that operates as the boundary appropriateness evaluation unit calculates the evaluation value for evaluating the contour-likeness (boundary-likeness) of the contour (boundary) of the face area specified by the face detection unit 101, and calculates the evaluation value. Based on this, the appropriateness as a boundary is evaluated. In this embodiment, in order to acquire a contour, the contour learning unit 105 acquires a typical contour in advance by learning. More specifically, the head contour learning unit 110 acquires a representative head contour by learning, and the jaw contour learning unit 111 acquires a representative jaw contour by learning. Then, in the contour acquisition unit 102, the head initial contour creation unit 106 obtains the representative head contour acquired by the head contour learning unit 110 for the head of the face area specified by the face detection unit 101. An initial head contour is created by fitting. Similarly, the initial jaw contour creation unit 107 creates the initial jaw contour by applying the representative jaw contour acquired by the jaw contour learning unit 111 to the jaw of the face region. Furthermore, in the contour acquisition unit 102, the head contour fitting unit 108 deforms the head initial contour created by the head initial contour creation unit 106 while calculating and evaluating the evaluation value for the head contour. Yuki creates an optimal head contour. Similarly, while the jaw contour fitting unit 109 calculates and evaluates an evaluation value for the jaw contour, the initial jaw contour created by the initial jaw contour creation unit 107 is deformed to create an optimum jaw contour. .

ここで、頭部輪郭フィッティング部108は、顔検出部101によって特定された顔領域の画素と背景領域の画素との色差の大きさに応じて、評価のための感度に関するパラメータを変更するように構成できる。具体的には、頭部輪郭フィッティング部108は、顎と首の境界領域と、顎以外の頭部と背景領域との境界領域と、で評価のための感度に関するパラメータを異なるように構成できる。 Here, the head contour fitting unit 108 changes the parameter related to the sensitivity for evaluation in accordance with the magnitude of the color difference between the face area pixel and the background area pixel specified by the face detection unit 101. Can be configured. Specifically, the head contour fitting portion 108, the jaw and the neck of the boundary area can be configured differently the parameters related to the sensitivity for the boundary region, in assessment of the head and a background region other than the jaw .

トライマップ作成部103は、評価値に基づいて輪郭近傍の不定領域の幅を設定しながら、画像に対して顔領域、顔領域以外の背景領域、および不定領域からなるトライマップを作成する。具体的には、トライマップ作成部103は、前述の評価値に応じて、異なる領域毎にトライマップの不定領域の幅を異なるように設定することができる。より具体的には、トライマップ作成部103は、顎と首の境界領域と、顎以外の頭部と背景領域との境界領域と、でトライマップの不定領域の幅を異なるように設定することができる。 The trimap creation unit 103 creates a trimap including a face region, a background region other than the face region, and an indeterminate region for the image while setting the width of the indefinite region near the contour based on the evaluation value. Specifically, the trimap creation unit 103 can set the width of the indefinite region of the trimap to be different for each different region according to the evaluation value described above. More specifically, the tri-map generating unit 103 sets the chin and the neck of the border area, and the boundary area between the head and the background region other than the chin, in so as to be different from the width of the unstable region of the tri map be able to.

図2は、本実施形態に係る図1の画像処理装置100を実現するハードウェア構成例を示すブロック図である。   FIG. 2 is a block diagram illustrating a hardware configuration example that implements the image processing apparatus 100 of FIG. 1 according to the present embodiment.

この画像処理装置100は例えば、いわゆるスマートフォン端末やタブレット端末などの携帯情報端末装置、パーソナルコンピュータ、またはデジタルサイネージなどのコンピュータシステム上に実現される。   The image processing apparatus 100 is realized, for example, on a portable information terminal device such as a so-called smart phone terminal or a tablet terminal, a personal computer, or a computer system such as a digital signage.

画像処理装置100は、CPU(Central Processing Unit:中央演算処理装置)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203を備える。また、画像処理装置100は、ソリッド記憶装置やハードディスク記憶装置等の外部記憶装置204と、通信インタフェース205と、タッチパネルディスプレイ装置などの入力装置206および表示装置207を備える。さらに、画像処理装置100は、SD/マイクロSDメモリカード、USB(Universal Serial Bus)メモリカード、コンパクトフラッシュメモリカード、CD−ROM、DVD、光磁気ディスクなどの可搬記録媒体209をセット可能な可搬記録媒体駆動装置208を備える。撮像装置211は、画像を撮像することのできるデジタルカメラ機構であり、レンズ、オートフォーカス駆動制御装置、露出制御装置、撮像センサ等を備える。なお、撮像装置211を備えずに、外部から画像を取得するようにしてもよい。上述の各機器201〜208および211は、バス210によって相互に接続される。   The image processing apparatus 100 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203. The image processing apparatus 100 also includes an external storage device 204 such as a solid storage device or a hard disk storage device, a communication interface 205, an input device 206 such as a touch panel display device, and a display device 207. Further, the image processing apparatus 100 can set a portable recording medium 209 such as an SD / micro SD memory card, a USB (Universal Serial Bus) memory card, a compact flash memory card, a CD-ROM, a DVD, or a magneto-optical disk. A portable recording medium driving device 208 is provided. The imaging device 211 is a digital camera mechanism that can capture an image, and includes a lens, an autofocus drive control device, an exposure control device, an imaging sensor, and the like. In addition, you may make it acquire an image from the exterior, without providing the imaging device 211. FIG. The devices 201 to 208 and 211 described above are connected to each other by a bus 210.

ROM202には、コンピュータ全体の一般的な動作を制御するプログラムのほか、後述する図3のフローチャートで例示される画像処理の制御プログラムが記憶されている。CPU201は、ROM202から、この制御プログラムを読み出し、RAM203をワークメモリとして実行する。これにより、図1の機能ブロックで示される画像処理機能が実現される。この結果、例えばユーザが撮像装置211によって撮像した人物画像などから顔画像を切り抜く画像処理が実行される。これにより得られた顔画像のデータは、様々なアプリケーション、例えばスタンプを作成するアプリケーションや電子広告を表示するアプリケーションなどに転送されて利用され、表示装置207に表示等される。   The ROM 202 stores a program for controlling general operations of the entire computer, as well as an image processing control program exemplified in the flowchart of FIG. The CPU 201 reads this control program from the ROM 202 and executes the RAM 203 as a work memory. Thereby, the image processing function shown by the functional block in FIG. 1 is realized. As a result, for example, image processing is performed in which a face image is cut out from a person image captured by the user with the imaging device 211. The face image data thus obtained is transferred to and used by various applications, for example, an application for creating a stamp or an application for displaying an electronic advertisement, and is displayed on the display device 207.

通信インターフェース205は、例えばLAN(ローカルエリアネットワーク)又はWAN(ワイドエリアネットワーク)の通信回線を接続するための装置である。   The communication interface 205 is a device for connecting, for example, a LAN (local area network) or WAN (wide area network) communication line.

本実施形態によるシステムは、図3のフローチャート等で実現される機能を搭載したプログラムをCPU201が実行することで実現される。そのプログラムは、例えば外部記憶装置204や可搬記録媒体209に記録して配布してもよく、或いは通信インタフェース205によりネットワークから取得できるようにしてもよい。   The system according to the present embodiment is realized by the CPU 201 executing a program equipped with functions realized by the flowchart of FIG. The program may be distributed by being recorded in, for example, the external storage device 204 or the portable recording medium 209, or may be acquired from the network by the communication interface 205.

なお、本実施形態による画像処理装置100は、端末装置上ではなく、サーバコンピュータ上などに実現されてもよい。   Note that the image processing apparatus 100 according to the present embodiment may be realized on a server computer or the like instead of on a terminal device.

図3は、図2に例示される画像処理装置100のハードウェア構成によって実現される本実施形態に係る画像処理の例を示すフローチャートである。以下、随時図2のハードウェア構成を参照するものとする。   FIG. 3 is a flowchart illustrating an example of image processing according to the present embodiment realized by the hardware configuration of the image processing apparatus 100 illustrated in FIG. Hereinafter, the hardware configuration of FIG. 2 will be referred to as needed.

まず、CPU101は、顔検出処理を実行する(ステップS301)。CPU101は、認識対象の元画像において顔検出を行い、顔の位置、大きさを取得する。例えば、CPU101は、元画像における顔の輝度差の分布について目、鼻、口等の特徴量を学習しておいて、それを用いて比較、検出を行う。あるいは、テンプレートマチングなどによって行なってもよい。この処理は、図1の顔検出部101の機能を実現するものである。   First, the CPU 101 executes face detection processing (step S301). The CPU 101 performs face detection in the original image to be recognized, and acquires the position and size of the face. For example, the CPU 101 learns feature quantities such as eyes, nose, and mouth of the distribution of facial brightness differences in the original image, and uses them to compare and detect. Alternatively, it may be performed by template matching or the like. This process realizes the function of the face detection unit 101 in FIG.

次に、CPU101は、頭部初期輪郭と顎初期輪郭のベースデータを計算する(ステップS302)。ここで予め、例えば200サンプルほどの人物画像から顔検出と顔の頭部輪郭と顎輪郭の検出を行っておく。これらの輪郭の検出は、正確な輪郭を必要とするため手動で行っておく。そして、顔検出によって取得した顔の位置と大きさについて、例えば目の位置と間隔の距離などを利用して輪郭座標の正規化を行なった後、全ての画像の平均の輪郭を計算し、その計算結果を代表的な頭部輪郭および顎輪郭として取得しておく。この処理は、図1の頭部輪郭学習部110および顎輪郭学習部111の機能を実現するものである。そして、CPU101は、このようにして得ておいた頭部輪郭と顎輪郭の各学習画像から、ステップS301で検出した顔に適合するように、頭部初期輪郭CIhと顎初期輪郭CIaを決定する。この処理は、図1の頭部初期輪郭作成部106と顎初期輪郭作成部107の機能を実現するものである。   Next, the CPU 101 calculates base data for the initial head contour and initial jaw contour (step S302). Here, for example, face detection and face head contour and chin contour detection are performed in advance from human images of about 200 samples. The detection of these contours is performed manually because an accurate contour is required. Then, for the position and size of the face acquired by face detection, for example, after normalizing the contour coordinates using the distance between the eye position and the interval, the average contour of all images is calculated, The calculation results are acquired as representative head contours and jaw contours. This process realizes the functions of the head contour learning unit 110 and the jaw contour learning unit 111 of FIG. Then, the CPU 101 determines the initial head contour CIh and the initial jaw contour CIa from the learning images of the head contour and the jaw contour thus obtained so as to match the face detected in step S301. . This process implements the functions of the initial head contour creation unit 106 and initial jaw contour creation unit 107 in FIG.

次に、CPU101は、頭部初期輪郭CIhを順次変形させ、その変形した輪郭を評価する評価値を算出しながら最適な輪郭を探索し、切り出そうとしている顔画像の頭部輪郭Chを取得する(ステップS303)。例えば、CPU101は、ステップS302で算出した初期輪郭CIhを構成する点の中から1画素を選び、切り出そうとしている顔画像の頭部の輪郭付近をその画素と比較し、顔の輪郭に適している画素かどうかの評価値を計算する。CPU101は、この評価値の算出において例えば、初期輪郭CIhの画素が元画像で輪郭とすべきエッジ上にある場合は評価値に1を加え、エッジ上にない場合は評価値に−1を加える。CPU101は、この処理を繰り返し、最も評価値の高い輪郭を選択する。この処理は、図1の頭部輪郭フィッティング部108の機能を実現するものである。   Next, the CPU 101 sequentially deforms the initial head contour CIh, searches for an optimal contour while calculating an evaluation value for evaluating the deformed contour, and acquires the head contour Ch of the face image to be extracted. (Step S303). For example, the CPU 101 selects one pixel from the points constituting the initial contour CIh calculated in step S302, compares the vicinity of the head contour of the face image to be extracted with the pixel, and is suitable for the face contour. The evaluation value of whether or not the pixel is present is calculated. In this evaluation value calculation, for example, the CPU 101 adds 1 to the evaluation value when the pixel of the initial contour CIh is on the edge to be a contour in the original image, and adds −1 to the evaluation value when the pixel is not on the edge. . The CPU 101 repeats this process and selects the contour with the highest evaluation value. This process realizes the function of the head contour fitting unit 108 in FIG.

続いて、CPU101は、顎についてもステップS303の場合と同様に、顎初期輪郭CIaを順次変形させ、その変形した輪郭を評価する評価値を算出しながら最適な輪郭を探索し、切り出そうとしている顔画像の顎輪郭Caを取得する(ステップS304)。ただし、評価値の計算方法を、頭部輪郭Chの場合(ステップS303)と、顎輪郭Caの場合(ステップS304)とで変える。頭部の場合は、頭と背景の差があることが多くエッジとして現れやすいので、エッジが多く現れないようなパラメータでエッジ画像を作成する。顎の場合は、顎と首の差が少なくエッジが現れにくいので、多くのエッジが現れるようなパラメータ(頭部より高い感度)でエッジ画像を作成する。例えば、エッジフィルタとして、顎の場合は、横方向のエッジに重みをおいて検出し、または、例えば輝度の微分値でエッジを検出するときの閾値を低くしてエッジの抽出感度を高める。この処理は、図1の顎輪郭フィッティング部109の機能を実現するものである。   Subsequently, as in the case of step S303, the CPU 101 sequentially deforms the initial jaw contour CIa, searches for an optimum contour while calculating an evaluation value for evaluating the deformed contour, and tries to cut out the jaw. The chin contour Ca of the face image is acquired (step S304). However, the evaluation value calculation method is changed between the case of the head contour Ch (step S303) and the case of the jaw contour Ca (step S304). In the case of the head, there is often a difference between the head and the background, and it is easy to appear as an edge. In the case of the chin, the difference between the chin and the neck is small and the edges are difficult to appear. Therefore, an edge image is created with a parameter (sensitivity higher than the head) so that many edges appear. For example, in the case of a jaw as an edge filter, detection is performed by weighting a lateral edge, or, for example, the threshold for detecting an edge with a differential value of luminance is lowered to increase edge extraction sensitivity. This process realizes the function of the jaw contour fitting unit 109 of FIG.

次に、CPU101は、ステップS303およびS304で取得した頭部輪郭Chと顎輪郭Caとから、トライマップを作成する(ステップS305)。トライマップは、ステップS306でのグラフカット処理の際に使用する情報で、画像の各画素に、前景、背景、不定のいずれかのラベルを与えたものである。この処理において、CPU101は、ステップS303とS304で取得した頭部輪郭Chおよび顎輪郭Caの周辺画素を不定にする。 Next, CPU 101 from the acquired a head contour Ch and Agowa Guo Ca in step S303 and S304, to create a tri-map (step S305). The trimap is information used in the graph cut process in step S306, and is given to each pixel of the image as a foreground, background, or indefinite label. In this process, the CPU 101 makes the peripheral pixels of the head contour Ch and the jaw contour Ca acquired in steps S303 and S304 indefinite.

このとき、CPU101は、図4に示されるように、頭部輪郭Chの周辺画素については不定領域の幅Whを太くし、顎輪郭Caの周辺画素については不定領域を細く(例えば1画素幅に)してグラフカットで探索しなくてよいようにする。図5の(a)―1または(a)―2として例示されるように、頭部は髪型に個人差がある。その差を吸収するために、図5の(b)−1または(b)−2として例示されるように、不定領域を太くし、その不定領域の中をグラフカットで探索させるようにする。頭部の輪郭の場合は、頭部と背景との色の差により、正確に輪郭を取得できるため太くすることができる。この結果、図5の(c)−1または(c)−2として例示されるように、髪型が異なってもグラフカットで幅Whが太い不定領域内が探索されることにより、頭部を背景から適切に分割することができる。   At this time, as shown in FIG. 4, the CPU 101 increases the width Wh of the indefinite area for the peripheral pixels of the head outline Ch, and narrows the indefinite area for the peripheral pixels of the jaw outline Ca (for example, 1 pixel width). ) To avoid searching with graph cuts. As illustrated as (a) -1 or (a) -2 in FIG. 5, the head has individual hairstyle differences. In order to absorb the difference, as illustrated as (b) -1 or (b) -2 in FIG. 5, the indefinite area is made thicker and the indeterminate area is searched by a graph cut. In the case of the contour of the head, the contour can be obtained accurately due to the color difference between the head and the background, so that it can be thickened. As a result, as illustrated as (c) -1 or (c) -2 in FIG. 5, even if the hairstyle is different, a search is made in an indefinite region with a wide width Wh by a graph cut, so that the background of the head Can be divided appropriately.

一方、顎は個人差が少ないため、不定領域を細くしてよい。不定領域の幅が狭いのでグラフカットの探索があまり行われず、この結果、例えば図6(a)または(b)として例示されるように、顎を背景から滑らかに分割することができる。顎の部分の不定領域が頭部と同じ幅だと、グラフカットは1画素単位で探索を実行するため、顎の部分の色と首の部分の色が似ていることにより、例えば図6(c)または(d)に例示されるように、得られる輪郭が滑らかにならず不自然となる。   On the other hand, since there are few individual differences in the jaw, the indefinite region may be narrowed. Since the width of the indefinite region is narrow, the search for the graph cut is not performed so much. As a result, for example, as illustrated in FIG. 6A or 6B, the jaw can be smoothly divided from the background. If the indefinite region of the chin portion has the same width as the head, the graph cut performs a search in units of one pixel. Therefore, the color of the chin portion and the color of the neck portion are similar. As exemplified in c) or (d), the contour obtained is not smooth and unnatural.

ステップS305において、評価値から不定領域の幅Whを決める例としては、評価値にエッジの勾配強度などを使って、勾配強度が強い所はエッジらしさが高いので、不定領域の幅Whを狭くし、勾配強度の弱いところはエッジらしさが低いので、不定領域の幅Whを広くするなどの手法を採用できる。グラフカットは、トライマップで得られた不定領域について探索処理を実行し、その画素の中から前景と背景の最適な境界を探す手法である。顔の切抜きにおいては、顔の輪郭周辺を不定とすることで、最適な顔の輪郭が得られる。このとき、頭部輪郭Chは、頭髪と背景の色の差で、グラフカットにより、正確に輪郭を得ることができるが、顎輪郭Caは、顎の色と首の色の差がほとんどないことが多いため、グラフカットで正しい輪郭を取得することが困難である。そこで、本実施形態では、トライマップの作成において、図4に示すように、頭部輪郭Chを中心とした幅Whの領域を不定領域とし、顎輪郭Caに沿った1画素の幅の領域を不定領域とするものである。
なお、ここでは、顎輪郭Caに沿った1画素の幅の領域を不定領域としているが、1画素に限ることなく、2画素あるいはそれ以上であってもよい。
As an example of determining the width Wh of the indefinite region from the evaluation value in step S305, the edge strength of the edge is high where the gradient strength is strong, and the width Wh of the indefinite region is reduced. Since the edge-like property is low at a place where the gradient strength is weak, a technique such as increasing the width Wh of the indefinite region can be adopted. The graph cut is a method of searching for an indefinite region obtained by the trimap and searching for an optimum boundary between the foreground and the background from the pixels. In the face clipping, an optimum face contour can be obtained by making the periphery of the face contour indefinite. At this time, the head contour Ch is the difference between the color of the hair and the background, and the contour can be accurately obtained by graph cutting, but the jaw contour Ca has almost no difference between the color of the chin and the neck. Therefore, it is difficult to obtain a correct contour by graph cut. Therefore, in this embodiment, in the creation of trimap, as shown in FIG. 4, a region having a width Wh around the head portion contour Ch and unstable region, the width of 1 pixel along the Agowa Guo Ca The area is an indefinite area.
Here, although there a region having a width of 1 pixel along the Agowa Guo Ca as unstable region, not limited to 1 pixel, may be two pixels or more.

以上のステップS305のトライマップ処理は、図1のトライマップ作成部103の機能を実現するものである。   The above-described trimap processing in step S305 realizes the function of the trimap creating unit 103 in FIG.

その後、CPU101は、ステップS305で作成したトライマップを使用し、グラフカット処理を実行する(ステップS306)。グラフカットは、主要オブジェクト(本実施形態の場合、顔)を含む画像を主要オブジェクト領域と背景領域とに分割する技術である。領域分割を行う場合,主要オブジェクトと背景の関係によりその境界が不明確な部分(以下「不定領域」と記載する)が存在する可能性があり,最適な領域分割を行う必要がある。そこで、この従来技術では、領域分割をエネルギーの最小化問題としてとらえ、その最小化手法を提案している。この従来技術では,領域分割に適合するようにグラフを作成し、そのグラフの最小カットを求めることにより、エネルギー関数の最小化を行う。この最小カットは、最大フローアルゴリズムを用いることにより、効率的な領域分割計算を実現している。具体的な計算方法としては、例えば非特許文献1に記載の技術を採用することができる。この処理は、図1のグラフカット切抜き部104の機能を実現するものである。   Thereafter, the CPU 101 executes graph cut processing using the trimap created in step S305 (step S306). Graph cut is a technique for dividing an image including a main object (in the case of the present embodiment, a face) into a main object area and a background area. When region division is performed, there may be a portion where the boundary is unclear due to the relationship between the main object and the background (hereinafter referred to as “indefinite region”), and it is necessary to perform optimal region division. Therefore, in this prior art, region division is regarded as an energy minimization problem, and a minimization method is proposed. In this prior art, the energy function is minimized by creating a graph that matches the region division and obtaining the minimum cut of the graph. This minimum cut realizes efficient area division calculation by using a maximum flow algorithm. As a specific calculation method, for example, the technique described in Non-Patent Document 1 can be employed. This process realizes the function of the graph cutout section 104 in FIG.

最後にCPU101は、ステップS306でのグラフカットの結果を使って、元画像から顔領域を切り抜いて出力する(ステップS307)。   Finally, the CPU 101 uses the result of the graph cut in step S306 to cut out the face area from the original image and output it (step S307).

以上説明した実施形態により、グラフカットに与えるトライマップの、頭部(頭髪部分)の輪郭を太くすることで、グラフカットにより複雑な形状の輪郭を取得できる。また、グラフカットに与えるトライマップの、顎の輪郭を細くすることで、グラフカットによらず、指定した滑らかで自然な顎輪郭が取得できる。頭部輪郭と顎輪郭を別々に計算して取得することで、それぞれの輪郭に適したフィッティングができ、輪郭の取得精度を向上させることが可能となる。   According to the embodiment described above, the contour of the head (head portion) of the trimap to be given to the graph cut is thickened so that a contour having a complicated shape can be acquired by the graph cut. In addition, by narrowing the jaw contour of the trimap given to the graph cut, the specified smooth and natural jaw contour can be acquired regardless of the graph cut. By calculating and acquiring the head contour and chin contour separately, fitting suitable for each contour can be performed, and the contour acquisition accuracy can be improved.

なお、本実施例は、顔画像の切抜きについて説明したが、これに限ることはなく、例えばマスコットキャラクターや動物、あるいは花などといった人物以外の特定領域を切抜く場合に用いてもよい。   In the present embodiment, the clipping of the face image has been described. However, the present invention is not limited to this. For example, a specific area other than a person such as a mascot character, an animal, or a flower may be clipped.

以上の実施形態に関して、更に以下の付記を開示する。
(付記1)
画像において分割する特定領域を特定する特定手段と、
前記特定手段によって特定された特定領域の境界を、境界らしさを評価する評価値を算出しながら、当該評価値に基づいて境界としての適正を評価する境界適正評価手段と、
前記評価値に基づいて前記境界近傍の不定領域の幅を設定しながら、前記画像に対して前記特定領域、前記特定領域以外の領域、および前記不定領域からなるトライマップを作成するトライマップ作成手段と、
前記トライマップの不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域を分割する分割手段と、
を備えることを特徴とする画像処理装置。
(付記2)
前記特定手段は、人物画像における顔領域と背景領域とを分割することを特徴とする付記1記載の画像処理装置。
(付記3)
前記境界適正評価手段は、前記特定手段によって特定された顔領域の画素と背景領域の画素との色差の大きさに応じて、前記評価のための感度に関するパラメータを変更することを特徴とする付記2記載の画像処理装置。
(付記4)
前記境界適正評価手段は、顎と首の境界領域と、顎以外の頭部と背景領域とで、前記評価のための感度に関するパラメータを異なるようにすることを特徴とする付記3記載の画像処理装置。
(付記5)
前記トライマップ作成手段は、前記評価値に応じて、異なる領域毎に前記トライマップの不定領域の幅を異なるように設定することを特徴とする付記1乃至4のいずれか1項に記載の画像処理装置。
(付記6)
前記トライマップ作成手段は、顎と首の境界領域と、顎以外の頭部と背景領域とで、前記トライマップの不定領域の幅を異なるように設定することを特徴とする付記5記載の画像処理装置。
(付記7)
画像において分割する特定領域を特定し、
前記特定手段によって特定された特定領域の境界を、境界らしさを評価する評価値を算出しながら、当該評価値に基づいて境界としての適正を評価し、
前記評価値に基づいて前記境界近傍の不定領域の幅を設定しながら、前記画像に対して前記特定領域、前記特定領域以外の領域、および前記不定領域からなるトライマップを作成し、
前記トライマップの不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域を分割する、
ことを特徴とする画像処理方法。
(付記8)
画像において分割する特定領域を特定するステップと、
前記特定手段によって特定された特定領域の境界を、境界らしさを評価する評価値を算出しながら、当該評価値に基づいて境界としての適正を評価するステップと、
前記評価値に基づいて前記境界近傍の不定領域の幅を設定しながら、前記画像に対して前記特定領域、前記特定領域以外の領域、および前記不定領域からなるトライマップを作成するステップと、
前記トライマップの不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域を分割するステップと、
をコンピュータに実行させるためのプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A specifying means for specifying a specific area to be divided in the image;
Boundary appropriateness evaluation means for evaluating appropriateness as a boundary based on the evaluation value while calculating an evaluation value for evaluating the likelihood of the boundary of the specific area specified by the specifying means;
A trimap creating means for creating a trimap composed of the specific region, a region other than the specific region, and the undefined region for the image while setting a width of the undefined region near the boundary based on the evaluation value When,
A dividing unit that divides the specific region and a region other than the specific region by a graph cut method in an indefinite region of the trimap;
An image processing apparatus comprising:
(Appendix 2)
The image processing apparatus according to claim 1, wherein the specifying unit divides a face area and a background area in a person image.
(Appendix 3)
The boundary appropriate evaluation means changes the sensitivity-related parameters for the evaluation according to the color difference between the face area pixels and the background area pixels specified by the specifying means. 2. The image processing apparatus according to 2.
(Appendix 4)
The image processing according to appendix 3, wherein the boundary appropriateness evaluation means makes the parameter relating to the sensitivity for the evaluation different between a boundary region between a chin and a neck, and a head and a background region other than the chin. apparatus.
(Appendix 5)
The image according to any one of appendices 1 to 4, wherein the trimap creating means sets the width of the indefinite area of the trimap to be different for each different area according to the evaluation value. Processing equipment.
(Appendix 6)
The image according to appendix 5, wherein the tri-map creating means sets the width of the indefinite region of the tri-map to be different between the boundary region between the chin and the neck, and the head and background region other than the chin. Processing equipment.
(Appendix 7)
Identify specific areas to divide in the image,
While calculating the evaluation value that evaluates the likelihood of the boundary of the specific region specified by the specifying means, the suitability as a boundary is evaluated based on the evaluation value,
While setting the width of the indefinite area near the boundary based on the evaluation value, create a trimap consisting of the specific area, the area other than the specific area, and the indefinite area for the image,
Dividing the specific area and the area other than the specific area by a graph cut method in the indefinite area of the trimap,
An image processing method.
(Appendix 8)
Identifying a specific region to be divided in the image;
Evaluating the appropriateness as the boundary based on the evaluation value while calculating the evaluation value for evaluating the likelihood of the boundary of the boundary of the specific area specified by the specifying means;
Creating a trimap consisting of the specific region, a region other than the specific region, and the indefinite region for the image while setting a width of the indefinite region near the boundary based on the evaluation value;
Dividing the specific region and the region other than the specific region by a graph cut method in an indefinite region of the trimap;
A program that causes a computer to execute.

101 顔検出部
102 輪郭取得部
103 トライマップ作成部
104 グラフカット切抜き部
105 輪郭学習部
106 頭部初期輪郭作成部
107 顎初期輪郭作成部
108 頭部輪郭フィッティング部
109 顎輪郭フィッティング部
110 頭部輪郭学習部
111 顎輪郭学習部111
201 CPU
202 ROM
203 RAM
204 外部記憶装置
205 通信インタフェース
206 入力装置
207 出力装置
208 可搬記録媒体駆動装置
209 可搬記録媒体
210 バス
211 撮像装置
DESCRIPTION OF SYMBOLS 101 Face detection part 102 Contour acquisition part 103 Tri map creation part 104 Graph cut cutout part 105 Contour learning part 106 Head initial contour creation part 107 Initial jaw contour creation part 108 Head contour fitting part 109 Jaw contour fitting part 110 Head contour Learning unit 111 Jaw contour learning unit 111
201 CPU
202 ROM
203 RAM
204 External storage device 205 Communication interface 206 Input device 207 Output device 208 Portable recording medium driving device 209 Portable recording medium 210 Bus 211 Imaging device

Claims (11)

画像において前記画像から分割する特定領域を特定する特定手段と、
前記特定手段によって特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価する境界適正評価手段と、
前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するトライマップ作成手段と、
前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割する分割手段と、
を備え
前記境界適正評価手段は、更に、前記特定手段によって特定された前記特定領域の画素と前記特定領域以外の画素との色差の大きさに応じて、評価のための感度に関するパラメータを変更することを特徴とする画像処理装置。
A specifying means for specifying a specific area to be divided from the image in the image;
A boundary appropriate evaluation means for calculating an evaluation value for evaluating the likelihood of the boundary of the boundary of the specific area specified by the specifying means, and evaluating the appropriateness as the boundary based on the evaluation value;
Based on the evaluation value, a width of an indefinite area that is in the vicinity of the boundary and includes the boundary is set, and a trimap that includes the specific area, an area other than the specific area, and the indefinite area for the image Tri-map creation means to create,
A dividing unit that divides the specific region and a region other than the specific region by a graph cut method in the indefinite region of the trimap;
Equipped with a,
The boundary appropriate evaluation means further changes a parameter relating to sensitivity for evaluation according to the magnitude of the color difference between the pixels of the specific area specified by the specifying means and the pixels other than the specific area. A featured image processing apparatus.
前記特定手段は、人物画像において前記人物画像から、前記特定領域としての顔領域と前記特定領域以外の領域としての背景領域とを分割することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the specifying unit divides a face area as the specific area and a background area as an area other than the specific area from the person image in the person image. 前記境界適正評価手段は、顎と首との境界領域と、前記顎以外の頭部と前記背景領域との境界領域と、で評価のための感度に関する前記パラメータを異なるようにすることを特徴とする請求項2記載の画像処理装置。 The boundary appropriate evaluation means is characterized in that the parameter relating to sensitivity for evaluation is different between a boundary region between a chin and a neck and a boundary region between a head other than the chin and the background region. The image processing apparatus according to claim 2. 前記トライマップ作成手段は、前記評価値に応じて、異なる領域毎に前記トライマップの前記不定領域の幅を異なるように設定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。 The tri-map creating means sets the width of the indefinite area of the tri-map to be different for each different area according to the evaluation value. the image processing apparatus. 前記トライマップ作成手段は、顎と首との境界領域と、前記顎以外の頭部と背景領域との境界領域と、で前記トライマップの前記不定領域の幅を異なるように設定することを特徴とする請求項4記載の画像処理装置。 The trimap creating means sets the width of the indefinite region of the trimap to be different between a boundary region between the chin and the neck and a boundary region between the head and the background region other than the chin. The image processing apparatus according to claim 4 . 前記トライマップ作成手段は、前記顎と前記首との境界領域における前記不定領域の幅を、前記顎以外の前記頭部と前記背景領域との境界領域における前記不定領域の幅よりも細く設定することを特徴とする請求項5記載の画像処理装置。 The tri-map creating means sets the width of the indefinite region in the boundary region between the chin and the neck to be narrower than the width of the indefinite region in the boundary region between the head other than the chin and the background region. The image processing apparatus according to claim 5. 画像において前記画像から分割する特定領域を特定し、Identifying a specific area to be divided from the image in the image;
特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価し、Calculating an evaluation value for evaluating the likelihood of the boundary of the specified specific area, and evaluating the appropriateness as the boundary based on the evaluation value;
前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成し、Based on the evaluation value, a width of an indefinite area that is in the vicinity of the boundary and includes the boundary is set, and a trimap that includes the specific area, an area other than the specific area, and the indefinite area for the image make,
前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割し、Dividing the specific region and the region other than the specific region by the graph cut method in the indefinite region of the trimap,
前記境界としての適正の評価は、更に、前記特定領域の画素と前記特定領域以外の画素との色差の大きさに応じて、評価のための感度に関するパラメータを変更することを含むことを特徴とする画像処理方法。The proper evaluation as the boundary further includes changing a parameter relating to the sensitivity for evaluation according to the magnitude of the color difference between the pixel in the specific region and the pixel other than the specific region. Image processing method.
画像において前記画像から分割する特定領域を特定するステップと、Identifying a specific region to be divided from the image in the image;
特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価するステップと、Calculating an evaluation value for evaluating the likelihood of the boundary of the specified specific area, and evaluating the appropriateness as the boundary based on the evaluation value;
前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するステップと、Based on the evaluation value, a width of an indefinite area that is in the vicinity of the boundary and includes the boundary is set, and a trimap that includes the specific area, an area other than the specific area, and the indefinite area for the image A step to create,
前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割するステップと、Dividing the specific region and a region other than the specific region by a graph cut method in the indefinite region of the trimap;
をコンピュータに実行させるとともに、To run on a computer,
前記適正を評価するステップは、前記特定するステップにて特定された前記特定領域の画素と前記特定領域以外の画素との色差の大きさに応じて、評価のための感度に関するパラメータを変更するステップを含むことを特徴とするプログラム。The step of evaluating the appropriateness includes a step of changing a parameter relating to sensitivity for evaluation according to a magnitude of a color difference between the pixel in the specific region specified in the specifying step and a pixel other than the specific region. The program characterized by including.
画像において前記画像から分割する特定領域を特定する特定手段と、A specifying means for specifying a specific area to be divided from the image in the image;
前記特定手段によって特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価する境界適正評価手段と、A boundary appropriate evaluation means for calculating an evaluation value for evaluating the likelihood of the boundary of the boundary of the specific area specified by the specifying means, and evaluating the appropriateness as the boundary based on the evaluation value;
前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するトライマップ作成手段と、Based on the evaluation value, a width of an indefinite area that is in the vicinity of the boundary and includes the boundary is set, and a trimap that includes the specific area, an area other than the specific area, and the indefinite area for the image Tri-map creation means to create,
前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割する分割手段と、A dividing unit that divides the specific region and a region other than the specific region by a graph cut method in the indefinite region of the trimap;
を備え、With
前記画像は人物画像であるとともに、前記特定領域と前記特定領域以外の領域は、夫々、顔画像領域と背景領域であり、The image is a person image, and the specific area and the areas other than the specific area are a face image area and a background area, respectively.
前記トライマップ作成手段は、前記顔画像領域における顎と首との境界領域と、前記顎以外の前記顔画像領域における頭部と前記背景領域との境界領域と、で前記トライマップの前記不定領域の幅を異なるように設定することを特徴とする画像処理装置。The trimap creating means includes the boundary region between the chin and the neck in the face image region, and the boundary region between the head and the background region in the face image region other than the chin, and the indefinite region of the trimap. The image processing apparatus is characterized in that the widths of the images are set differently.
画像において前記画像から分割する特定領域を特定し、Identifying a specific area to be divided from the image in the image;
特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価し、Calculating an evaluation value for evaluating the likelihood of the boundary of the specified specific area, and evaluating the appropriateness as the boundary based on the evaluation value;
前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成し、Based on the evaluation value, a width of an indefinite area that is in the vicinity of the boundary and includes the boundary is set, and a trimap that includes the specific area, an area other than the specific area, and the indefinite area for the image make,
前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割し、更に、Dividing the specific region and the region other than the specific region by the graph cut method in the indefinite region of the trimap,
前記画像は人物画像であるとともに、前記特定領域と前記特定領域以外の領域は、夫々、顔画像領域と背景領域であり、The image is a person image, and the specific area and the areas other than the specific area are a face image area and a background area, respectively.
前記トライマップの作成においては、前記顔画像領域における顎と首との境界領域と、前記顎以外の前記顔画像領域における頭部と前記背景領域との境界領域と、で前記トライマップの前記不定領域の幅を異なるように設定することを含むことを特徴とする画像処理方法。In the creation of the trimap, the indeterminate of the trimap includes a boundary region between the chin and the neck in the face image region and a boundary region between the head and the background region in the face image region other than the chin. An image processing method comprising: setting different widths of regions.
画像において前記画像から分割する特定領域を特定するステップと、Identifying a specific region to be divided from the image in the image;
特定された前記特定領域の境界の前記境界らしさを評価する評価値を算出し、前記評価値に基づいて前記境界としての適正を評価するステップと、Calculating an evaluation value for evaluating the likelihood of the boundary of the specified specific area, and evaluating the appropriateness as the boundary based on the evaluation value;
前記評価値に基づいて、前記境界の近傍であって前記境界を含む不定領域の幅を設定し、前記画像に対して前記特定領域、前記特定領域以外の領域および前記不定領域からなるトライマップを作成するステップと、Based on the evaluation value, a width of an indefinite area that is in the vicinity of the boundary and includes the boundary is set, and a trimap that includes the specific area, an area other than the specific area, and the indefinite area for the image A step to create,
前記トライマップの前記不定領域においてグラフカット法によって前記特定領域と前記特定領域以外の領域とを分割するステップと、Dividing the specific region and a region other than the specific region by a graph cut method in the indefinite region of the trimap;
をコンピュータに実行させるとともに、To run on a computer,
前記画像は人物画像であるとともに、前記特定領域と前記特定領域以外の領域は、夫々、顔画像領域と背景領域であり、The image is a person image, and the specific area and the areas other than the specific area are a face image area and a background area, respectively.
前記トライマップを作成するステップは、前記顔画像領域における顎と首との境界領域と、前記顎以外の前記顔画像領域における頭部と前記背景領域との境界領域と、で前記トライマップの前記不定領域の幅を異なるように設定するステップを含むことを特徴とするプログラム。The step of creating the trimap includes a boundary region between a chin and a neck in the face image region, and a boundary region between the head and the background region in the face image region other than the chin. A program comprising the step of setting the width of the indefinite area to be different.
JP2014169928A 2014-08-22 2014-08-22 Image processing apparatus, image processing method, and program Active JP6467817B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014169928A JP6467817B2 (en) 2014-08-22 2014-08-22 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014169928A JP6467817B2 (en) 2014-08-22 2014-08-22 Image processing apparatus, image processing method, and program

Publications (3)

Publication Number Publication Date
JP2016045744A JP2016045744A (en) 2016-04-04
JP2016045744A5 JP2016045744A5 (en) 2017-09-14
JP6467817B2 true JP6467817B2 (en) 2019-02-13

Family

ID=55636246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014169928A Active JP6467817B2 (en) 2014-08-22 2014-08-22 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6467817B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6611255B2 (en) * 2016-06-09 2019-11-27 日本電信電話株式会社 Image processing apparatus, image processing method, and image processing program
JP7104913B2 (en) * 2018-06-12 2022-07-22 国立大学法人山口大学 Imaging device, imaging program, image determination device, image determination program, and image processing system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8391594B1 (en) * 2009-05-28 2013-03-05 Adobe Systems Incorporated Method and apparatus for generating variable-width border masks
KR100967379B1 (en) * 2009-11-04 2010-07-05 (주)올라웍스 Method, system, and computer-readable recording medium for setting initial value for graph cut
JP5201203B2 (en) * 2010-12-22 2013-06-05 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP3192116U (en) * 2014-03-28 2014-07-31 大日本印刷株式会社 Image processing device

Also Published As

Publication number Publication date
JP2016045744A (en) 2016-04-04

Similar Documents

Publication Publication Date Title
CN107771336B (en) Feature detection and masking in images based on color distribution
US10599914B2 (en) Method and apparatus for human face image processing
US10616475B2 (en) Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium
US8625859B2 (en) Information processing apparatus, information processing method, and program
US20160154993A1 (en) Automatic segmentation of hair in images
CN108463823B (en) Reconstruction method and device of user hair model and terminal
TWI526982B (en) Area segmentation method, computer program product and inspection device
JP4877374B2 (en) Image processing apparatus and program
KR20190028349A (en) Electronic device and method for human segmentation in image
US11720745B2 (en) Detecting occlusion of digital ink
US20190066311A1 (en) Object tracking
CN109034136A (en) Image processing method, device, picture pick-up device and storage medium
JP2012083938A (en) Learning device, learning method, identification device, identification method, and program
JP2017033372A (en) Person recognition device and program therefor
Fried et al. Finding distractors in images
CN108647605B (en) Human eye gaze point extraction method combining global color and local structural features
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
KR20210007276A (en) Image generation apparatus and method thereof
JP6467817B2 (en) Image processing apparatus, image processing method, and program
JP6754717B2 (en) Object candidate area estimation device, object candidate area estimation method, and object candidate area estimation program
JP2012048326A (en) Image processor and program
KR100950138B1 (en) A method for detecting the pupils in a face image
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
KR101592087B1 (en) Method for generating saliency map based background location and medium for recording the same
JP2014197342A (en) Object position detection device, object position detection method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170807

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170807

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181231

R150 Certificate of patent or registration of utility model

Ref document number: 6467817

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150