JPH11169357A - Image processing apparatus - Google Patents

Image processing apparatus

Info

Publication number
JPH11169357A
JPH11169357A JP9341531A JP34153197A JPH11169357A JP H11169357 A JPH11169357 A JP H11169357A JP 9341531 A JP9341531 A JP 9341531A JP 34153197 A JP34153197 A JP 34153197A JP H11169357 A JPH11169357 A JP H11169357A
Authority
JP
Japan
Prior art keywords
shape
model
face
image data
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9341531A
Other languages
Japanese (ja)
Inventor
Shinichi Shinoda
伸一 篠田
Keisuke Nakajima
啓介 中島
Tatsuki Inuzuka
達基 犬塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP9341531A priority Critical patent/JPH11169357A/en
Publication of JPH11169357A publication Critical patent/JPH11169357A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus which can prepare image data which can be seen a little better than the image of the face of a user by subjective evaluation of the user without taking a person's help. SOLUTION: This image processing apparatus is provided with an input part 1 for inputting image signals, a storage means 2 for storing the inputted image as a digital image, a shape extracting means 110 for identifying a shape from the image data read out from the storage means and extracting the region, a model storing means 140 for outputting an appropriate model in accordance with a shape signal for expressing the kind of the shape discriminated by the shape extracting means 110, a transformation means 120 for transforming the shape region discriminated from the image data so as to bring it close to an appropriate model from the model storing means 140 by a certain ratio, a synthesizing means 130 for synthesizing the image data transformed by the transformation means 120 to the original image data and a displaying part 3 for displaying the synthesized image data.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、画像処理装置に係
り、特に、スキャナ,カメラなどから入力された画像デ
ータを目標画像に近付けるように変形しプリンタや表示
部などの出力装置に出力する画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus which transforms image data input from a scanner, a camera or the like so as to approach a target image and outputs the image data to an output device such as a printer or a display unit. It relates to a processing device.

【0002】[0002]

【従来の技術】近年、写真を撮りそれをシールとして出
力する「プリントクラブ(プリクラ)」という装置があ
る。この装置では、一般に低解像度のCCDカメラを使
っている場合が多いので、シールは解像度が低く、画質
が良くない。しかし、女子高校生を中心に、この装置で
写真を撮る人が多い。その理由としては、解像度が低い
ため、顔ににきびなどがあってもそれらが消えてしま
い、実物の顔よりもかえってよく見えるためと推察され
る。
2. Description of the Related Art In recent years, there is an apparatus called "print club (print club)" for taking a photograph and outputting the photograph as a seal. In this device, a low-resolution CCD camera is generally used in many cases, so that the seal has a low resolution and poor image quality. However, many girls, mainly female high school students, take pictures with this device. The reason is presumed to be that, because of the low resolution, even if acne is present on the face, the acne disappears and the face looks better than the real face.

【0003】そこで、写真のように解像度が高い場合に
も、実物の顔写真よりもよく見えるような撮影装置を作
成しようとする場合、読み取った顔の画像データをいわ
ゆる画像編集ツールで編集する必要がある。
[0003] Therefore, in order to create a photographing device that looks better than a real face photograph even when the resolution is high like a photograph, it is necessary to edit the image data of the read face with a so-called image editing tool. There is.

【0004】また、使用目的は異なるが、特開平 6−17
9276号公報に記載のように、目,鼻,口,眉毛などの顔
の各パーツ毎のデータを複数個持ち、それらのいずれか
を選択,拡大,縮小,移動して表示するモンタージュ作
成装置が知られている。この装置では、使用者の目,
鼻,口,眉毛などの顔の各パーツ毎のデータを登録し、
変形して合成すると、使用者の実物の顔の画像よりも使
用者の主観的評価で少しよく見えるような画像データを
作成できる。
Although the purpose of use is different,
As described in Japanese Patent Publication No. 9276, a montage creation device that has a plurality of data for each part of the face such as eyes, nose, mouth, eyebrows, and selects, enlarges, reduces, moves and displays any of them. Are known. In this device, the eyes of the user,
Register the data for each part of the face such as nose, mouth, eyebrows,
When deformed and combined, image data can be created that looks a little better in the subjective evaluation of the user than the image of the real face of the user.

【0005】[0005]

【発明が解決しようとする課題】しかし、いわゆるプリ
ントクラブ装置では、装飾のフレームや画像合成の相手
となる有名人などを選択することはできても、使用者の
実物の画像データを変形することは考慮されていなかっ
た。
However, in a so-called print club apparatus, it is possible to select a decorative frame or a celebrity to be combined with an image, but it is not possible to transform the actual image data of the user. Was not taken into account.

【0006】他方、特開平 6−179276号公報などの従来
例では、目,鼻,口,眉毛などの顔のパーツデータの選
択,拡大,縮小,移動などのコマンドを使用者が一々入
力する必要があり、画像処理の知識をある程度持ってい
ないと、試行錯誤の時間が長くなり、撮影装置の利用回
転率が低下する。
On the other hand, in a conventional example such as Japanese Patent Application Laid-Open No. 6-179276, it is necessary for a user to input commands such as selection, enlargement, reduction, and movement of face part data such as eyes, nose, mouth, and eyebrows. If the user does not have a certain knowledge of image processing, the time required for trial and error becomes longer, and the rotation rate of use of the photographing apparatus decreases.

【0007】本発明の目的は、人手を煩わせることな
く、使用者の実物の顔の画像よりも使用者の主観的評価
で少しよく見える画像データを作成できる画像処理装置
を提供することである。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing apparatus capable of producing image data that is slightly better viewed by a user's subjective evaluation than a real face image of the user without bothering the user. .

【0008】[0008]

【課題を解決するための手段】本発明は、上記目的を達
成するために、画像信号を入力する入力手段と、入力し
た画像をデジタル画像として記憶する記憶手段と、記憶
手段から読み出した画像データから形状を識別しその領
域を抽出する形状抽出手段と、形状抽出手段で識別した
形状の種類を表す形状信号に応じて適切なモデルを出力
するモデル格納手段と、画像データから識別した形状領
域をモデル格納手段からの適切なモデルにある割合で近
付けるように変形する変形手段と、変形手段で変形した
画像データを元の画像データに合成する合成手段と、合
成した画像データを表示する表示部とからなる画像処理
装置を提案する。
To achieve the above object, the present invention provides an input means for inputting an image signal, a storage means for storing the input image as a digital image, and image data read from the storage means. Shape extracting means for identifying a shape from the image and extracting the area, model storage means for outputting an appropriate model according to a shape signal representing the type of the shape identified by the shape extracting means, and a shape area identified from the image data. A deforming means for deforming the appropriate model from the model storing means so as to approach the model at a certain rate; a synthesizing means for synthesizing the image data deformed by the deforming means with the original image data; and a display unit for displaying the synthesized image data. Is proposed.

【0009】本発明は、また、上記目的を達成するため
に、入力した画像データ内の物体の形状を識別する識別
手段と、識別手段で識別する多数の形状に対応するそれ
ぞれ別のモデル形状を予め記憶し画像処理する際に識別
手段で識別した形状に対応するモデル形状を出力する記
憶手段と、記憶手段から出力したモデル形状に識別した
形状を近づける変形手段とからなる画像処理装置を提案
する。
In order to achieve the above object, the present invention also provides an identification means for identifying the shape of an object in input image data, and different model shapes corresponding to a large number of shapes identified by the identification means. The present invention proposes an image processing apparatus including a storage unit that outputs a model shape corresponding to a shape identified by an identification unit when pre-stored and performing image processing, and a deformation unit that approximates the identified shape to the model shape output from the storage unit. .

【0010】本発明は、さらに、上記目的を達成するた
めに、入力した画像データ内の物体の形状を識別する識
別手段と、識別手段で識別する多数の形状に対応するそ
れぞれ別のモデル形状およびその形状が配置される位置
情報を予め記憶し画像処理する際に識別手段で識別した
形状に対応するモデル形状および位置情報を出力する記
憶手段と、識別した形状を記憶手段から出力された理想
形状およびその形状が配置される位置情報に近づける変
形手段とからなる画像処理装置を提案する。
In order to achieve the above object, the present invention further provides identification means for identifying the shape of an object in input image data, and different model shapes each corresponding to a number of shapes identified by the identification means. Storage means for outputting model information and position information corresponding to the shape identified by the identification means when the position information where the shape is arranged is stored in advance and performing image processing; and an ideal shape output from the storage means for the identified shape. And an image processing apparatus comprising a deforming means for bringing the shape closer to position information where the shape is arranged.

【0011】より具体的には、入力した人の顔の画像デ
ータから髪形,顔の輪郭,目,口,鼻,耳,眉毛を識別
する識別手段と、識別手段で識別する多数の髪形の形状
に対応するそれぞれの顔輪郭モデル形状を予め記憶し画
像処理する際に識別手段で識別した髪形の形状に対応す
る顔輪郭モデル形状を出力する記憶手段と、記憶手段か
ら読み出した顔輪郭モデル形状に識別した顔の輪郭形状
を近づける輪郭変形手段と、多数の顔輪郭に対応するそ
れぞれ目,口,鼻,耳,眉毛の位置情報を予め記憶する
記憶手段と、輪郭変形手段を経た顔の輪郭形状に応じて
記憶手段から対応する目,口,鼻,耳,眉毛の位置情報
を取り出し輪郭変形手段を経た顔の輪郭形状に識別した
目,口,鼻,耳,眉毛を位置情報に近付けるように配置
し合成する合成手段と、合成した画像データを出力する
出力手段とからなる画像処理装置である。
More specifically, identification means for identifying hairstyles, face contours, eyes, mouths, nose, ears, and eyebrows from input human face image data, and a number of hairstyle shapes identified by the identification means Storage means for storing in advance a face contour model shape corresponding to the shape of the hairstyle identified by the identification means when the respective face contour model shapes corresponding to are stored in the image processing, and a face contour model shape read from the storage means. Contour deforming means for approaching the contour shape of the identified face, storage means for storing in advance the positional information of eyes, mouth, nose, ears, and eyebrows corresponding to a large number of face contours, and contour shape of the face having passed through the contour deforming means The corresponding eye, mouth, nose, ear, and eyebrows are extracted from the storage means according to the position information of the corresponding eyes, mouth, nose, ears, and eyebrows so that the eyes, mouth, nose, ears, and eyebrows identified by the contour shape of the face through the contour deformation means are brought closer to the position information. Synthetic hands to place and combine When an image processing apparatus comprising a output means for outputting the synthesized image data.

【0012】入力した人の顔の画像データから髪形,顔
の輪郭,目,口,鼻,耳,眉毛を識別する識別手段と、
識別手段で識別する多数の髪形の形状に対応するそれぞ
れの顔輪郭モデル形状を予め記憶し画像処理する際に識
別手段で識別した髪形の形状に対応する顔輪郭モデル形
状を出力する記憶手段と、記憶手段から読み出した顔輪
郭モデル形状に識別した顔の輪郭形状を近づける輪郭変
形手段と、多数の顔輪郭に対応するそれぞれ目,口,
鼻,耳,眉毛の形状および位置情報を予め記憶する記憶
手段と、輪郭変形手段を経た顔の輪郭形状に応じて記憶
手段より対応する目,口,鼻,耳,眉毛の形状および位
置情報を取り出し識別手段で識別した目,口,鼻,耳,
眉毛を記憶手段の目,口,鼻,耳,眉毛の形状に近付け
るように変形する変形手段と、変形手段を経た目,口,
鼻,耳,眉毛の配置を記憶手段からの位置情報に近付け
るように配置し輪郭変形手段を経た顔の輪郭形状ととも
に合成する合成手段と、合成した画像データを出力する
出力手段とからなる画像処理装置とすることもできる。
Identification means for identifying hairstyles, face contours, eyes, mouth, nose, ears, and eyebrows from input human face image data;
A storage unit that outputs a face contour model shape corresponding to the shape of the hairstyle identified by the identification unit when preliminarily storing and performing image processing on each face outline model shape corresponding to a number of hairstyle shapes identified by the identification unit; Contour deforming means for bringing the identified face contour shape closer to the face contour model shape read from the storage means, and eyes, mouths, and mouths corresponding to a large number of face contours, respectively.
The storage means for storing in advance the shape and position information of the nose, ears and eyebrows, and the shape and position information of the eyes, mouth, nose, ears and eyebrows corresponding to the contour shape of the face having passed through the contour deformation means. Eyes, mouth, nose, ears,
Deformation means for deforming the eyebrows so as to approximate the shapes of the eyes, mouth, nose, ears, and eyebrows of the memory means, and eyes, mouths,
Image processing comprising a synthesizing means for arranging the nose, ears and eyebrows so as to approach the position information from the storage means and synthesizing them together with the contour shape of the face having passed through the contour deforming means, and an output means for outputting the synthesized image data It can also be a device.

【0013】いずれの画像処理装置においても、識別手
段または形状抽出手段でモデル形状に合う領域を検出で
きないかまたは使用者の領域選択の意図を反映させた場
合に領域を手動で指定する手段を備えることができる。
In any of the image processing apparatuses, there is provided a means for manually designating an area when the area matching the model shape cannot be detected by the identifying means or the shape extracting means or when the intention of the user to select the area is reflected. be able to.

【0014】さらに、モデル形状に近付けるように変形
する割合を手動で設定する手段を備えることも可能であ
る。
Further, it is possible to provide a means for manually setting the rate of deformation so as to approach the model shape.

【0015】本発明においては、使用者の実物の顔の写
真よりも主観的に少しよく見えるような画像データを作
成する場合、使用者が主観的によいとする特定の多数の
人の顔画像データを入力部から予め入力し、形状領域抽
出手段で髪形,顔の輪郭,目,鼻,口,眉毛などのパー
ツに分離し、識別した形状の種類を表す形状信号をアド
レスとし、セレクタを介して、パーツ毎にモデル格納手
段にモデルとして格納する。
In the present invention, when creating image data that looks a little subjectively better than a photograph of the real face of the user, the face images of a large number of specific persons that the user considers subjectively good Data is input in advance from the input unit, and is separated into parts such as hairstyle, face outline, eyes, nose, mouth, and eyebrows by a shape region extraction means, and a shape signal representing the type of the identified shape is set as an address, and is input via a selector. Then, each part is stored as a model in the model storage means.

【0016】合成対象画像である使用者の顔画像データ
は、形状領域抽出までは、モデル格納時と同様に処理さ
れる。しかし、モデル格納手段は、合成時は、読み出し
処理のみになり、モデル格納手段から変形手段にデータ
が流れるように固定される。そのため、形状領域抽出手
段からの各パーツ毎の形状信号のアドレスに対して、モ
デル格納モード時に格納されたモデルデータがモデル格
納手段から読み出される。モデル格納手段から読み出し
たモデルデータは、変形手段に送られる。
The user's face image data, which is the image to be synthesized, is processed in the same manner as when the model is stored until the shape region is extracted. However, at the time of synthesis, the model storage means performs only read processing, and is fixed so that data flows from the model storage means to the transformation means. Therefore, the model data stored in the model storage mode is read out from the model storage means for the address of the shape signal for each part from the shape area extraction means. The model data read from the model storage means is sent to the deformation means.

【0017】変形手段は、モデル格納手段からのモデル
データに形状領域抽出手段で抽出した形状領域をある割
合で近付けるように変形する。
The deformation means deforms the model data from the model storage means so that the shape area extracted by the shape area extraction means approaches a certain ratio.

【0018】合成手段は、変形手段で変形した画像デー
タを元の画像データと合成し、表示部に合成画像を表示
し、または、合成画像をプリンタに出力する。
The synthesizing means synthesizes the image data deformed by the deforming means with the original image data, displays the synthesized image on the display unit, or outputs the synthesized image to the printer.

【0019】その結果、使用者が主観的によいとする顔
の形状に近づくので、人の手を煩わせることなく、使用
者の実物の顔の画像よりもよく見えるような画像データ
を作成できる。
As a result, the shape of the face which the user subjectively considers to be good is approached, so that image data which can be seen better than the image of the real face of the user can be created without bothering the human hands. .

【0020】[0020]

【発明の実施の形態】次に、図1ないし図8を参照し
て、本発明による画像処理装置の実施例を説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Next, an embodiment of an image processing apparatus according to the present invention will be described with reference to FIGS.

【0021】《実施例1》図1は、本発明による画像処
理装置の実施例1の系統構成を示すブロック図である。
この画像処理装置は、画像信号を入力する入力手段と
1、入力した画像をデジタル画像として記憶する記憶手
段2と、記憶手段2から読み出した画像データから形状
を識別しその領域を抽出する形状抽出手段110と、形
状抽出手段110で識別した形状の種類を表す形状信号
に応じて適切なモデルを出力するモデル格納手段140
と、画像データから識別した形状領域をモデル格納手段
140からの適切なモデルにある割合で近付けるように
変形する変形手段120と、変形手段120で変形した
画像データを元の画像データに合成する合成手段130
と、合成した画像データを表示する表示部3とからな
る。この画像処理装置は、モデル格納モードと合成モー
ドの2つのモードを持つ。
Embodiment 1 FIG. 1 is a block diagram showing a system configuration of Embodiment 1 of an image processing apparatus according to the present invention.
The image processing apparatus includes an input unit for inputting an image signal, a storage unit for storing an input image as a digital image, and a shape extraction for identifying a shape from image data read from the storage unit and extracting a region thereof. Means 110 and a model storage means 140 for outputting an appropriate model in accordance with a shape signal representing the type of shape identified by the shape extraction means 110
And a transforming unit 120 for transforming the shape area identified from the image data so as to approach a suitable model from the model storing unit 140 at a certain ratio, and combining the image data transformed by the transforming unit 120 with the original image data. Means 130
And a display unit 3 for displaying the combined image data. This image processing apparatus has two modes: a model storage mode and a synthesis mode.

【0022】まず、モデル格納モード時の信号の流れを
説明する。例えば、使用者の実物の顔の写真よりも主観
的に少しよく見えるような画像データを作成する場合、
入力部1は、使用者が主観的に良いとする特定の多数の
人の顔画像データをスキャナやカメラなどから取り込
み、アンプで増幅し、AD変換器でディジタル画像に変
換して、記憶手段2に格納する。形状領域抽出手段11
0は、髪形,顔の輪郭,目,鼻,口,眉毛などのパーツ
に分離し、形状信号bすなわち識別した形状の種類を表
す信号をアドレスとして、パーツ毎にモデル格納手段1
40に格納する。モデル格納モードの場合には、形状領
域信号aがモデル格納手段140に格納されるようにセ
レクタが固定されており、モデル格納手段140は、格
納処理のみになる。
First, the flow of signals in the model storage mode will be described. For example, to create image data that looks a little better subjectively than a photograph of the user's real face,
The input unit 1 captures, from a scanner, a camera, or the like, face image data of a specific large number of people who are subjectively good for the user, amplifies the data with an amplifier, converts the data into a digital image with an AD converter, and To be stored. Shape region extraction means 11
Reference numeral 0 designates a model storage unit 1 which is separated into parts such as a hairstyle, a face contour, eyes, a nose, a mouth, and eyebrows, and uses a shape signal b, that is, a signal representing the type of the identified shape, as an address for each part.
40. In the case of the model storage mode, the selector is fixed so that the shape area signal a is stored in the model storage means 140, and the model storage means 140 performs only a storage process.

【0023】次に、合成モード時の信号の流れを説明す
る。合成対象画像である使用者の顔画像データは、形状
領域抽出手段110までは、モデル格納モードと同様に
処理される。しかし、モデル格納手段140は、合成モ
ード時は、読み出し処理のみになり、セレクタもモデル
格納手段140から変形手段120にデータが流れるよ
うに固定される。そのため、形状領域抽出手段110か
らの各パーツ毎の形状信号bのアドレスに対してモデル
格納手段140から、モデル格納モード時に格納された
モデルデータが読み出される。モデル格納手段140か
ら読み出したモデルデータは、セレクタで、変形手段1
20に送られる。
Next, the flow of signals in the combining mode will be described. The face image data of the user, which is the image to be combined, is processed up to the shape region extracting means 110 in the same manner as in the model storage mode. However, the model storage unit 140 performs only the reading process in the synthesis mode, and the selector is fixed so that data flows from the model storage unit 140 to the transformation unit 120. Therefore, the model data stored in the model storage mode is read from the model storage means 140 with respect to the address of the shape signal b for each part from the shape area extraction means 110. The model data read from the model storage means 140 is stored in the selector
20.

【0024】変形手段120は、モデル格納手段140
からのモデルデータに形状領域抽出手段110で抽出し
た形状領域をある割合で近付けるように変形する。
The transforming means 120 includes a model storing means 140
Is deformed so that the shape area extracted by the shape area extraction means 110 approaches the model data from.

【0025】合成手段130は、変形手段120で変形
した画像データを元の画像データと合成し、表示部3に
合成画像を表示する。また、合成画像をプリンタに出力
し、紙にプリントアウトすることもできる。
The synthesizing unit 130 synthesizes the image data deformed by the deforming unit 120 with the original image data, and displays the synthesized image on the display unit 3. Further, the composite image can be output to a printer and printed out on paper.

【0026】図2は、図1の画像処理装置の形状領域抽
出手段110の一実施例の構成を示すブロック図であ
り、図3は、本発明における黒データの連結情報の一例
を示す図である。記憶手段2に格納されている画像デー
タは、エッジ検出手段111に入る。ここでは、画像の
エッジを抽出するため、エッジは黒に、非エッジは白に
2値化される。この2値化データを形状取得手段112
のN×Mの画素マトリクスに格納する。また、形状パタ
ーン格納手段113には、髪形,顔の輪郭,目,鼻,
口,眉毛などの形状を図3のような黒データの連結情報
として予め格納しておき、例えば、髪形,顔の輪郭,
目,鼻,口,眉毛の順番で黒データの連結情報を形状取
得手段112に与える。
FIG. 2 is a block diagram showing the configuration of an embodiment of the shape region extracting means 110 of the image processing apparatus of FIG. 1, and FIG. 3 is a diagram showing an example of black data connection information in the present invention. is there. The image data stored in the storage unit 2 enters the edge detection unit 111. Here, in order to extract the edges of the image, the edges are binarized into black and the non-edges are binarized into white. This binarized data is sent to the shape obtaining unit 112.
In an N × M pixel matrix. The shape pattern storage means 113 stores hairstyles, face outlines, eyes, nose,
The shapes of the mouth, eyebrows, and the like are stored in advance as black data connection information as shown in FIG.
The link information of the black data is given to the shape obtaining means 112 in the order of eyes, nose, mouth, and eyebrows.

【0027】形状取得手段112は、取得した2値デー
タのN×Mの画素マトリクスの黒データの連結情報と形
状パターン格納手段113から与えられた黒データの連
結情報との間でパターンマッチングを実行する。まず、
与えられた髪形の黒データの連結情報を形状取得手段1
12でパターンマッチングして検出した場合、その領域
を領域抽出手段114で抽出し、髪形の形状領域信号a
として変形手段120に渡す。このとき、検出した領域
は、髪形であることを示す形状信号bも同時にモデル格
納手段140に送られる。
The shape obtaining means 112 performs pattern matching between the obtained black data connection information of the N × M pixel matrix of the binary data and the black data connection information provided from the shape pattern storage means 113. I do. First,
The link information of the given hairstyle black data is obtained by the shape obtaining means 1
12, the area is extracted by the area extracting means 114, and the hair shape area signal a
To the deforming means 120. At this time, a shape signal b indicating that the detected area is a hairstyle is also sent to the model storage means 140 at the same time.

【0028】その後、領域抽出手段114で抽出した領
域を送り終えたら、形状パターン格納手段113のアド
レスcを更新し、顔の輪郭の黒データの連結情報を形状
取得手段112に与える。あとは、同様に継続する。
Thereafter, when the area extracted by the area extracting means 114 has been sent, the address c of the shape pattern storing means 113 is updated, and the link information of the black data of the face outline is given to the shape obtaining means 112. The rest continues in the same way.

【0029】ついでアドレスを更新して、目,鼻,口,
眉毛の順番で顔のパーツの領域データ(形状領域信号a)
を変形手段120に与え、その識別信号(形状信号b)を
モデル格納手段140に与える。
Then, the address is updated, and the eyes, nose, mouth,
Area data of face parts in the order of eyebrows (shape area signal a)
Is given to the deformation means 120, and the identification signal (shape signal b) is given to the model storage means 140.

【0030】図4は、図1の画像処理装置におけるエッ
ジ検出手段111の一実施例の構成を示すブロック図で
ある。エッジ検出手段111は、入力された画像データ
について、エッジ検出用の縦横3×3画素マトリクス1
111の画素領域で中心画素Aを処理画素として、周辺
画素の平均値1113(周辺画素の加算値1112/8)
と処理画素Aとで差分1114をとり、差分値の絶対値
を絶対値算出手段1115で求める。所定のしきい値よ
りもその差分の絶対値が大きい場合は、その処理画素A
をエッジとして黒にし、そうでない場合は、非エッジと
して白にして、エッジを検出する。
FIG. 4 is a block diagram showing a configuration of one embodiment of the edge detecting means 111 in the image processing apparatus of FIG. The edge detection unit 111 performs a 3 × 3 pixel matrix 1 for edge detection on the input image data.
With the central pixel A as a processing pixel in the pixel region of 111, the average value 1113 of peripheral pixels (addition value of peripheral pixels 1112/8)
The difference 1114 is obtained between the pixel value and the processing pixel A, and the absolute value of the difference value is obtained by the absolute value calculation unit 1115. If the absolute value of the difference is larger than a predetermined threshold, the processing pixel A
Is black as an edge, otherwise white as a non-edge and edges are detected.

【0031】図5は、図1の画像処理装置における形状
取得手段112の一実施例の構成を示すブロック図であ
る。形状パターン格納手段113から与えられた2値化
データは、画素マトリクス1122に格納される。ま
た、エッジ検出手段111からの2値データは、画素マ
トリクス1121に格納される。比較器1123は、画
素マトリクス1121と画素マトリクス1122のパタ
ーンとの間でパターンマッチングを実行し、マッチング
したら、形状信号bをイネーブルにして出力し、その時
の画像データおよび2値化データを領域抽出手段114
を経て出力する。2値化データを送り終えたら、アドレ
スcを生成するアドレスカウンタをインクリメントし、
更新する。AND回路1124は、アドレスカウンタの
値とマッチングによるイネーブル信号との論理積によ
り、形状信号bを作る。
FIG. 5 is a block diagram showing the configuration of an embodiment of the shape obtaining means 112 in the image processing apparatus of FIG. The binarized data provided from the shape pattern storage unit 113 is stored in the pixel matrix 1122. Further, the binary data from the edge detection unit 111 is stored in the pixel matrix 1121. The comparator 1123 performs pattern matching between the patterns of the pixel matrix 1121 and the pattern of the pixel matrix 1122. When the pattern matching is performed, the shape signal b is enabled and output, and the image data and the binarized data at that time are extracted by the area extracting means. 114
And output. After sending the binary data, the address counter for generating the address c is incremented,
Update. The AND circuit 1124 generates the shape signal b by the logical product of the value of the address counter and the enable signal by matching.

【0032】図2の領域抽出手段114は、セレクタで
実現できる。領域抽出手段114から出力する画像デー
タおよび2値化データは、形状信号bがイネーブルにな
った場合のみ有効となる。
The area extracting means 114 shown in FIG. 2 can be realized by a selector. The image data and the binarized data output from the region extracting means 114 are valid only when the shape signal b is enabled.

【0033】図6は、図1の画像処理装置における変形
手段120の一実施例の構成を示すブロック図であり、
図7は、図6の変形手段によりモデルを用いて実際の目
の画像を変形する様子の一例を示す図である。変形手段
120は、形状領域抽出手段110からの2値化データ
により、まず領域の幅、すなわち、縦方向の最大値と横
方向の最大値とを算出する。この算出結果の基づき、モ
デル格納手段140からのモデル画像データの縦横の幅
を拡大または縮小する。拡大または縮小する方法は、単
純に同じ画素を数画素毎に増やしたり、削ったりして実
行してもよいし、投影法で実行してもよい。
FIG. 6 is a block diagram showing the configuration of an embodiment of the deformation means 120 in the image processing apparatus of FIG.
FIG. 7 is a diagram showing an example of how an actual eye image is deformed using a model by the deforming means of FIG. The deforming means 120 first calculates the width of the area, that is, the maximum value in the vertical direction and the maximum value in the horizontal direction, based on the binarized data from the shape area extracting means 110. Based on the calculation result, the vertical and horizontal widths of the model image data from the model storage unit 140 are enlarged or reduced. The method of enlarging or reducing may be executed by simply increasing or removing the same pixel every several pixels, or may be executed by a projection method.

【0034】まず、形状領域抽出手段110からの2値
化データから追っていく。2値化データおよびモデル画
像データをマトリクスの座標に置いて、各画素毎に2値
化データとモデル画像データとの差分を求める。この差
分結果をある割合、例えば、10%で乗算して2値化デ
ータに乗算した結果を加算し、変形する。次に、変形状
領域形した2値化データの形状になるように、抽出手段
110からの画像データを各行各列毎に拡大または縮小
して変形する。差分結果を乗算する割合は、目,鼻,口
などのパーツによって値を、例えば、5%,15%など
に切り替えてもよい。
First, the process is started from the binarized data from the shape region extracting means 110. The binarized data and the model image data are placed at the coordinates of the matrix, and the difference between the binarized data and the model image data is determined for each pixel. This difference result is multiplied by a certain ratio, for example, 10%, and the result obtained by multiplying the binarized data is added and deformed. Next, the image data from the extracting means 110 is enlarged or reduced for each row and each column so as to be deformed so as to have the shape of the binarized data in the shape of the deformed area. The ratio by which the difference result is multiplied may be changed to a value of, for example, 5% or 15% depending on parts such as eyes, nose, and mouth.

【0035】合成手段130は、変形が終了した画像デ
ータを元の画像データと合成する。合成手段130は、
メモリで実現できる。差分結果を乗算する割合が大きい
と、変形が大きくなり、使用者の実物の顔と似ても似つ
かない顔になり、使用者にとって自分の顔という実感が
沸かないので、わずかの変形に抑さえる必要がある。
The combining means 130 combines the transformed image data with the original image data. The synthesizing means 130
It can be realized with memory. If the ratio of multiplying the difference result is large, the deformation will be large, and the face will not resemble the real face of the user, and the user will not feel the actual face of the user, so it will be suppressed to a slight deformation There is a need.

【0036】《実施例2》図8は、本発明による画像処
理装置の実施例2の系統構成を示すブロック図である。
図1の画像処理装置では、形状領域抽出手段110で顔
のパーツが検出できない場合は、合成画像が不完全にな
ってしまう。そこで、もし、形状領域抽出手段110で
顔のパーツをうまく検出できなかった場合は、使用者か
らのコマンド入力などにより、形状領域抽出手段110
の画像領域と顔パーツとを選択できるようにしてもよ
い。
Embodiment 2 FIG. 8 is a block diagram showing the system configuration of Embodiment 2 of the image processing apparatus according to the present invention.
In the image processing apparatus shown in FIG. 1, when a face part cannot be detected by the shape area extracting unit 110, the synthesized image is incomplete. Therefore, if the face part is not properly detected by the shape area extracting means 110, the shape area extracting means 110
The image area and the face part may be selectable.

【0037】また、変形手段で変形する割合も、特に希
望する使用者がある場合は、使用者からのコマンド入力
により指定できるようにする。
Also, the rate of deformation by the deformation means can be specified by a command input from the user when there is a particular user.

【0038】いずれの実施例においても、入力した画像
データが人のである場合は、目,口,鼻,耳,眉毛など
の細部にこだわって最初に変形し合成するよりも、記憶
手段から読み出した顔輪郭モデル形状に識別した顔の輪
郭形状をまず近づけ、この変形した輪郭形状に応じて記
憶手段から対応する各パーツの位置情報を取り出して、
それに合わせて識別した目,口,鼻,耳,眉毛を配置し
合成する方が、より自然な仕上がりになる。
In any of the embodiments, when the input image data is a person, the image data is read out from the storage means rather than being deformed and synthesized first with particular attention to details such as eyes, mouth, nose, ears, and eyebrows. First, the contour shape of the identified face is brought closer to the face contour model shape, and the position information of each corresponding part is extracted from the storage means according to the deformed contour shape,
It is more natural to arrange and combine the identified eyes, mouth, nose, ears, and eyebrows in accordance with that.

【0039】その際に、目,口,鼻,耳,眉毛などの位
置を変化させるのみならず、それぞれのパーツの画像デ
ータを変形してもよいことは、勿論である。
At this time, not only the positions of the eyes, mouth, nose, ears, eyebrows and the like are changed, but also the image data of each part may be deformed.

【0040】以上の例では、画像処理する対象は、人の
顔の画像であったが、人の顔以外の物体の画像データに
対しても、目標とする画像データをモデル格納手段14
0に格納しておけば、実物の画像データより目標とする
画像データに近付いた画像データを取得できる。
In the above example, the target of image processing is an image of a human face. However, for image data of an object other than a human face, target image data is stored in the model storage unit 14.
If stored in 0, image data that is closer to target image data than real image data can be obtained.

【0041】[0041]

【発明の効果】本発明によれば、人の手を煩わせること
なく、使用者の実物の顔の画像よりも使用者の主観的評
価で少しよく見えるような画像データを作成できる画像
処理装置が得られる。
According to the present invention, there is provided an image processing apparatus which can create image data which can be seen a little better by a subjective evaluation of a user than an image of a real face of the user without bothering humans. Is obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による画像処理装置の実施例1の系統構
成を示すブロック図である。
FIG. 1 is a block diagram illustrating a system configuration of an image processing apparatus according to a first embodiment of the present invention.

【図2】図1の画像処理装置の形状領域抽出手段の一実
施例の構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of an embodiment of a shape region extracting unit of the image processing apparatus of FIG. 1;

【図3】本発明における黒データの連結情報の一例を示
す図である。
FIG. 3 is a diagram showing an example of black data connection information according to the present invention.

【図4】図1の画像処理装置におけるエッジ検出手段の
一実施例の構成を示すブロック図である。
FIG. 4 is a block diagram illustrating a configuration of an embodiment of an edge detecting unit in the image processing apparatus of FIG. 1;

【図5】図1の画像処理装置における形状取得手段一実
施例の構成を示すブロック図である。
FIG. 5 is a block diagram illustrating a configuration of an embodiment of a shape obtaining unit in the image processing apparatus of FIG. 1;

【図6】図1の画像処理装置における変形手段の一実施
例の構成を示すブロック図である。
FIG. 6 is a block diagram illustrating a configuration of an embodiment of a deformation unit in the image processing apparatus of FIG. 1;

【図7】図6の変形手段によりモデルを用いて実際の目
の画像を変形する様子の一例を示す図である。
FIG. 7 is a diagram showing an example of how an actual eye image is deformed using a model by the deforming means of FIG. 6;

【図8】本発明による画像処理装置の実施例2の系統構
成を示すブロック図である。
FIG. 8 is a block diagram illustrating a system configuration of an image processing apparatus according to a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 入力部 2 記憶手段 3 表示部 4 プリンタ 100 画像処理部 110 形状領域抽出手段 120 変形手段 130 合成手段 140 モデル格納手段 111 エッジ検出手段 112 形状取得手段 113 形状パターン格納手段 114 領域抽出手段 121 拡大,縮小処理手段 122 減算器 123 乗算器 124 加算器 125 領域サイズ検出手段 126 領域サイズ検出手段 127 拡大,縮小処理手段 1111 エッジ検出用マトリクス 1112 加算器 1113 平均値算出手段 1114 減算器 1115 絶対値算出手段 1116 しきい値 1117 比較器 1121 画素マトリクス 1122 画素マトリクス 1123 比較器 1124 AND回路 1125 アドレスカウンタ a 形状領域信号 b 形状信号 c 形状パターン格納手段のアドレス DESCRIPTION OF SYMBOLS 1 Input part 2 Storage means 3 Display part 4 Printer 100 Image processing part 110 Shape area extraction means 120 Deformation means 130 Synthesis means 140 Model storage means 111 Edge detection means 112 Shape acquisition means 113 Shape pattern storage means 114 Area extraction means 121 Enlargement, Reduction processing means 122 Subtractor 123 Multiplier 124 Adder 125 Area size detection means 126 Area size detection means 127 Enlargement / reduction processing means 1111 Edge detection matrix 1112 Adder 1113 Average value calculation means 1114 Subtractor 1115 Absolute value calculation means 1116 Threshold value 1117 Comparator 1121 Pixel matrix 1122 Pixel matrix 1123 Comparator 1124 AND circuit 1125 Address counter a Shape area signal b Shape signal c Address of shape pattern storage means Scan

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 画像信号を入力する入力手段と、 入力した画像をデジタル画像として記憶する記憶手段
と、 前記記憶手段から読み出した画像データから形状を識別
しその領域を抽出する形状抽出手段と、 前記形状抽出手段で識別した形状の種類を表す形状信号
に応じて適切なモデルを出力するモデル格納手段と、 画像データから識別した形状領域を前記モデル格納手段
からの適切なモデルにある割合で近付けるように変形す
る変形手段と、 前記変形手段で変形した画像データを元の画像データに
合成する合成手段と、 合成した画像データを表示する表示部とからなる画像処
理装置。
An input unit for inputting an image signal; a storage unit for storing the input image as a digital image; a shape extraction unit for identifying a shape from image data read from the storage unit and extracting a region thereof; A model storage unit that outputs an appropriate model in accordance with a shape signal representing the type of the shape identified by the shape extraction unit; and a shape region identified from the image data is brought closer to the appropriate model from the model storage unit at a certain ratio. An image processing apparatus comprising: a deforming means for deforming the image data as described above; a synthesizing means for synthesizing the image data deformed by the deforming means with the original image data;
【請求項2】 入力した画像データ内の物体の形状を識
別する識別手段と、 前記識別手段で識別する多数の形状に対応するそれぞれ
別のモデル形状を予め記憶し画像処理する際に前記識別
手段で識別した形状に対応するモデル形状を出力する記
憶手段と、 前記記憶手段から出力したモデル形状に前記識別した形
状を近づける変形手段とからなる画像処理装置。
2. An identification means for identifying the shape of an object in input image data, and said identification means for preliminarily storing different model shapes corresponding to a large number of shapes identified by said identification means and performing image processing. An image processing apparatus, comprising: a storage unit that outputs a model shape corresponding to the shape identified in (1), and a deformation unit that approximates the identified shape to the model shape output from the storage unit.
【請求項3】 入力した画像データ内の物体の形状を識
別する識別手段と、 前記識別手段で識別する多数の形状に対応するそれぞれ
別のモデル形状およびその形状が配置される位置情報を
予め記憶し画像処理する際に前記識別手段で識別した形
状に対応するモデル形状および位置情報を出力する記憶
手段と、 前記識別した形状を前記記憶手段から出力された理想形
状およびその形状が配置される位置情報に近づける変形
手段とからなる画像処理装置。
3. An identification means for identifying a shape of an object in input image data, and different model shapes corresponding to a large number of shapes identified by the identification means and position information where the shapes are arranged are stored in advance. Storage means for outputting a model shape and position information corresponding to the shape identified by the identification means at the time of image processing; and an ideal shape output from the storage means for the identified shape and a position where the shape is arranged. An image processing apparatus comprising a deforming unit that approaches information.
【請求項4】 入力した人の顔の画像データから髪形,
顔の輪郭,目,口,鼻,耳,眉毛を識別する識別手段
と、 前記識別手段で識別する多数の髪形の形状に対応するそ
れぞれの顔輪郭モデル形状を予め記憶し画像処理する際
に前記識別手段で識別した髪形の形状に対応する顔輪郭
モデル形状を出力する記憶手段と、 前記記憶手段から読み出した顔輪郭モデル形状に前記識
別した顔の輪郭形状を近づける輪郭変形手段と、 多数の顔輪郭に対応するそれぞれ目,口,鼻,耳,眉毛
の位置情報を予め記憶する記憶手段と、 前記輪郭変形手段を経た顔の輪郭形状に応じて前記記憶
手段から対応する目,口,鼻,耳,眉毛の位置情報を取
り出し前記輪郭変形手段を経た顔の輪郭形状に前記識別
した目,口,鼻,耳,眉毛を前記位置情報に近付けるよ
うに配置し合成する合成手段と、 合成した画像データを出力する出力手段とからなる画像
処理装置。
4. A hairstyle,
Identification means for identifying the outline of the face, eyes, mouth, nose, ears, and eyebrows; and a method for storing the respective face outline model shapes corresponding to a number of hairstyle shapes identified by the identification means in advance and performing image processing. Storage means for outputting a face contour model shape corresponding to the shape of the hairstyle identified by the identification means; contour deformation means for bringing the identified face contour shape closer to the face contour model shape read from the storage means; Storage means for storing in advance the position information of the eyes, mouth, nose, ears and eyebrows corresponding to the contour; and eyes, mouth, nose, and nose corresponding to the contour shape of the face having passed through the contour deformation means. Synthesizing means for extracting positional information of ears and eyebrows, arranging and identifying the identified eyes, mouth, nose, ears, and eyebrows in the contour shape of the face having passed through the contour deforming means so as to approach the positional information; data The image processing apparatus comprising a output means for outputting.
【請求項5】 入力した人の顔の画像データから髪形,
顔の輪郭,目,口,鼻,耳,眉毛を識別する識別手段
と、 前記識別手段で識別する多数の髪形の形状に対応するそ
れぞれの顔輪郭モデル形状を予め記憶し画像処理する際
に前記識別手段で識別した髪形の形状に対応する顔輪郭
モデル形状を出力する記憶手段と、 前記記憶手段から読み出した顔輪郭モデル形状に前記識
別した顔の輪郭形状を近づける輪郭変形手段と、 多数の顔輪郭に対応するそれぞれ目,口,鼻,耳,眉毛
の形状および位置情報を予め記憶する記憶手段と、 前記輪郭変形手段を経た顔の輪郭形状に応じて前記記憶
手段より対応する目,口,鼻,耳,眉毛の形状および位
置情報を取り出し前記識別手段で識別した目,口,鼻,
耳,眉毛を前記記憶手段の目,口,鼻,耳,眉毛の形状
に近付けるように変形する変形手段と、 前記変形手段を経た目,口,鼻,耳,眉毛の配置を前記
記憶手段からの位置情報に近付けるように配置し前記輪
郭変形手段を経た顔の輪郭形状とともに合成する合成手
段と、 合成した画像データを出力する出力手段とからなる画像
処理装置。
5. A hairstyle and a hairstyle from input human face image data.
Identification means for identifying the outline of the face, eyes, mouth, nose, ears, and eyebrows; and a method for storing the respective face outline model shapes corresponding to a number of hairstyle shapes identified by the identification means in advance and performing image processing. Storage means for outputting a face contour model shape corresponding to the shape of the hairstyle identified by the identification means; contour deformation means for bringing the identified face contour shape closer to the face contour model shape read from the storage means; Storage means for storing in advance the shape and position information of the eyes, mouth, nose, ears, and eyebrows corresponding to the contour; and eyes, mouth, and mouth corresponding to the contour shape of the face having passed through the contour deformation means. The eye, mouth, nose,
Deformation means for deforming the ears and eyebrows so as to approximate the shapes of the eyes, mouth, nose, ears, and eyebrows of the storage means; and disposing the eyes, mouth, nose, ears, and eyebrows through the deformation means from the storage means. An image processing apparatus comprising: synthesizing means for arranging the image so as to be close to the position information and synthesizing the image with the contour shape of the face having passed through the outline deforming means; and outputting means for outputting synthesized image data.
【請求項6】 請求項1ないし5のいずれか一項に記載
の画像処理装置において、 前記識別手段または前記形状抽出手段でモデル形状に合
う領域を検出できない場合かまたは使用者の領域選択の
意図を反映させた場合に領域を手動で指定する手段を備
えたことを特徴とする画像処理装置。
6. The image processing apparatus according to claim 1, wherein the identification unit or the shape extraction unit cannot detect a region that matches the model shape, or an intention of the user to select a region. An image processing apparatus comprising means for manually designating an area when the image is reflected.
【請求項7】 請求項1ないし6のいずれか一項に記載
の画像処理装置において、 モデル形状に近付けるように変形する割合を手動で設定
する手段を備えたことを特徴とする画像処理装置。
7. The image processing apparatus according to claim 1, further comprising means for manually setting a rate of deformation so as to approach a model shape.
JP9341531A 1997-12-11 1997-12-11 Image processing apparatus Pending JPH11169357A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9341531A JPH11169357A (en) 1997-12-11 1997-12-11 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9341531A JPH11169357A (en) 1997-12-11 1997-12-11 Image processing apparatus

Publications (1)

Publication Number Publication Date
JPH11169357A true JPH11169357A (en) 1999-06-29

Family

ID=18346797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9341531A Pending JPH11169357A (en) 1997-12-11 1997-12-11 Image processing apparatus

Country Status (1)

Country Link
JP (1) JPH11169357A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7158177B2 (en) 2002-04-04 2007-01-02 Mitsubishi Electric Corporation Apparatus for and method of synthesizing face image

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7158177B2 (en) 2002-04-04 2007-01-02 Mitsubishi Electric Corporation Apparatus for and method of synthesizing face image

Similar Documents

Publication Publication Date Title
JP5463866B2 (en) Image processing apparatus, image processing method, and program
CN109952594B (en) Image processing method, device, terminal and storage medium
WO2019228473A1 (en) Method and apparatus for beautifying face image
JP4862955B1 (en) Image processing apparatus, image processing method, and control program
US7773782B2 (en) Image output apparatus, image output method and image output program
JP5465768B2 (en) Program and makeup simulation device
KR101141643B1 (en) Apparatus and Method for caricature function in mobile terminal using basis of detection feature-point
US7796785B2 (en) Image extracting apparatus, image extracting method, and image extracting program
US20100189357A1 (en) Method and device for the virtual simulation of a sequence of video images
WO2012056744A1 (en) Image-processing device, image-processing method, and control program
JP5191665B2 (en) Makeup simulation system, makeup simulation apparatus, makeup simulation method, and makeup simulation program
US6975763B2 (en) Shade component removing apparatus and shade component removing method for removing shade in image
JP3810943B2 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP2006012062A (en) Image processor and its method, program and imaging device
JPH1091808A (en) Method for converting facial picture information and device therefor
JP2002175538A (en) Device and method for portrait generation, recording medium with portrait generating program recorded thereon, terminal for communication, and communication method by terminal for communication
KR20070060012A (en) Image processing apparatus, image processing method, program, and data configuration
US20140064617A1 (en) Image generation apparatus, image generation method, and recording medium
JP2005242566A (en) Image composition device and method
JP4219521B2 (en) Matching method and apparatus, and recording medium
JP2001209802A (en) Method and device for extracting face, and recording medium
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
JP3983623B2 (en) Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded
JPH11169357A (en) Image processing apparatus
JP2004288082A (en) Portrait creation method, portrait creation device, as well as program