JP2001218020A - Picture processing method - Google Patents
Picture processing methodInfo
- Publication number
- JP2001218020A JP2001218020A JP2000027614A JP2000027614A JP2001218020A JP 2001218020 A JP2001218020 A JP 2001218020A JP 2000027614 A JP2000027614 A JP 2000027614A JP 2000027614 A JP2000027614 A JP 2000027614A JP 2001218020 A JP2001218020 A JP 2001218020A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- face
- image data
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力された画像デ
ータに対して画像処理を施して出力画像データとする画
像処理方法に係り、特に原画像中の人物の顔領域を抽出
し、その領域にふさわしい色調に仕上げる画像処理方法
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method for performing image processing on input image data to obtain output image data, and more particularly, to extracting a face area of a person in an original image and extracting the area. And an image processing method for producing a color tone suitable for the image processing.
【0002】[0002]
【従来の技術】従来、ネガフィルム、リバーサルフィル
ム等の写真フィルム(以下、フィルムとする。)に撮影
された画像の感光材料(印画紙)への焼き付けは、フィ
ルムの画像を感光材料に投影して感光材料を面露光す
る、いわゆる直接露光によって行われている。2. Description of the Related Art Conventionally, printing an image photographed on a photographic film (hereinafter, referred to as a film) such as a negative film or a reversal film onto a photosensitive material (photographic paper) involves projecting an image of the film onto the photosensitive material. This is performed by so-called direct exposure in which the photosensitive material is exposed on the surface.
【0003】これに対し、近年では、デジタル露光を利
用する焼き付け装置、すなわち、フィルムに記録された
画像を光電的に読み取って、読み取った画像をデジタル
信号とした後、種々の画像処理を施して記録用の画像デ
ータとし、この画像データに応じて変調した記録光によ
って感光材料を走査露光して画像(潜像)を記録し、プ
リント(写真)とするデジタルフォトプリンタが実用化
された。On the other hand, in recent years, a printing apparatus using digital exposure, that is, an image recorded on a film is photoelectrically read, the read image is converted into a digital signal, and then various image processing is performed. 2. Description of the Related Art Digital photo printers have been put to practical use in which a photosensitive material is scanned and exposed by recording light modulated according to the image data to record an image (latent image) and print (photograph) the image data for recording.
【0004】デジタルフォトプリンタでは、画像をデジ
タルの画像データとして、画像データ処理によって焼き
付け時の露光条件を決定することができるので、逆光や
ストロボ撮影等に起因する画像の飛びやツブレの補正、
カラーフェリアや濃度フェリアの補正、アンダー露光や
オーバー露光の補正、周辺光量不足の補正、シャープネ
ス(鮮鋭化)処理、濃度ダイナミックレンジの圧縮/伸
長処理(画像データ処理による覆い焼き効果の付与)
等、従来の直接露光では不可能あるいは困難であった各
種の画像処理を、高い自由度で行うことができ、直接露
光に比して非常に高品位なプリントを得る事ができる。
しかも、複数画像の合成や画像分割、さらには文字の合
成等も画像データ処理によって行う事ができ、用途に応
じて自由に編集/処理したプリントも出力可能である。[0004] In a digital photo printer, an image can be converted into digital image data and exposure conditions for printing can be determined by image data processing.
Correction of color feria and density feria, correction of underexposure and overexposure, correction of insufficient peripheral light, sharpness (sharpening) processing, compression / expansion processing of density dynamic range (addition of dodging effect by image data processing)
For example, various types of image processing that were impossible or difficult with conventional direct exposure can be performed with a high degree of freedom, and a very high-quality print can be obtained as compared with direct exposure.
In addition, it is possible to combine a plurality of images, divide an image, combine characters, and the like by image data processing, and output a print that is freely edited / processed according to the intended use.
【0005】また、デジタルフォトプリンタによれば、
画像をプリントとして出力するのみならず、画像データ
をコンピュータ等に供給したり、フロッピーディスク等
の記録媒体に保存しておくこともできるので、画像デー
タを、写真以外の様々な用途に利用することもできる。
このように、デジタルフォトプリンタによれば、画像デ
ータ処理によって、より自由度の高い画像処理を施すこ
とが可能であり、より商品価値の高いプリントを出力す
ることができる。According to a digital photo printer,
In addition to outputting images as prints, image data can be supplied to a computer or the like or stored on a recording medium such as a floppy disk, so use the image data for various purposes other than photography. Can also.
As described above, according to the digital photo printer, it is possible to perform image processing with a higher degree of freedom by image data processing, and it is possible to output a print with higher commercial value.
【0006】ところで、人物写真においては、顔が最も
注目される部位であり、出力画像において人物の顔が適
正に再現される必要がある。そのためには、まず、画像
中から、人物の顔に相当する領域を正確に抽出しなけれ
ばならない。そして、例えば、印画紙等の感光材料に焼
き付ける場合には、人物の顔の色が適正な色に焼き付け
られるように露光量を決定しなければならない。By the way, in a portrait photograph, the face is the most noticeable part, and the face of the person needs to be properly reproduced in the output image. For that purpose, first, an area corresponding to the face of a person must be accurately extracted from the image. For example, when printing on a photosensitive material such as photographic paper, the amount of exposure must be determined so that the color of a person's face is printed in an appropriate color.
【0007】これに対し、本出願人は、既に特開平8−
184925号公報において、画像データを取り込み、
2値化やその他の手法により、画像を複数の領域に分割
し、該複数の領域から、人物の顔に相当する領域である
確度が最も高い領域を抽出し、該抽出した顔領域の顔濃
度が適正となるよう露光量を決定し、画像処理を行うよ
うにする方法を提案している。On the other hand, the present applicant has already disclosed in Japanese Unexamined Patent Publication No.
In Japanese Patent No. 184925, image data is taken in,
The image is divided into a plurality of regions by binarization or another method, and a region having the highest probability, which is a region corresponding to a human face, is extracted from the plurality of regions, and the face density of the extracted face region is extracted. A method has been proposed in which an exposure amount is determined so as to be appropriate and image processing is performed.
【0008】[0008]
【発明が解決しようとする課題】しかしながら、前記特
開平8−184925号公報に開示されたものでは、顔
領域の抽出が正確に行われても、その後の処理で、男女
の差なく、一律に濃度制御を行うようにしているため、
被写体の人物が女性であった場合には、女性の顔として
の再現性において、必ずしも適正な画像が得られず、出
力画像において女性の見栄えを良くするという一般的な
要望を満足するという点で改良の余地がある、という問
題があった。本発明は、前記従来の問題に鑑みてなされ
たものであり、自動処理により、特に、出力画像におけ
る特定の人物の見栄えをよくし、写真の娯楽性を増す画
像処理方法を提供することを課題とする。However, according to the technique disclosed in Japanese Patent Application Laid-Open No. HEI 8-184925, even if the face area is accurately extracted, the subsequent processing is performed uniformly regardless of gender. Because concentration control is performed,
When the subject person is a woman, in terms of reproducibility as a woman's face, an appropriate image is not always obtained, and the general demand for improving the appearance of a woman in an output image is satisfied. There was a problem that there was room for improvement. The present invention has been made in view of the above-described conventional problems, and has as its object to provide an image processing method that improves the appearance of a specific person in an output image and increases the amusement of a photograph by automatic processing. And
【0009】[0009]
【課題を解決するための手段】前記課題を解決するため
に、本発明の第一の態様は、入力された画像データに対
して、画像処理を施し、出力用の画像データとする画像
処理方法であって、入力画像データから、人物の顔に相
当する領域を抽出するとともに、唇部分の領域を検出
し、該唇部分の色味に基づいて、被写体人物の性別を推
定し、該推定結果に基づいて、画像処理を行うことを特
徴とする画像処理方法を提供する。According to a first aspect of the present invention, there is provided an image processing method for performing image processing on input image data to obtain image data for output. And extracting, from the input image data, an area corresponding to the face of the person, detecting the area of the lip portion, estimating the gender of the subject person based on the color of the lip portion, and determining the estimation result. And an image processing method for performing image processing based on the image processing method.
【0010】また、前記推定結果に基づいて、局所的に
肌部を、所定の色味に修正する、または所定の階調に修
正する、または所定の平滑化処理を適用することが好ま
しい。It is preferable that the skin portion is locally corrected to a predetermined color, a predetermined gradation, or a predetermined smoothing process is applied based on the estimation result.
【0011】また、同様に前記課題を解決するために、
本発明の第二の態様は、入力された画像データに対し
て、画像処理を施し、出力用の画像データとする画像処
理方法であって、入力画像データから、人物の顔に相当
する領域を抽出するとともに、顔の各部位を検出し、前
記抽出された顔領域、および前記検出された顔の各部位
から推定される顔の造りに応じて、予め設定された複数
のメイクパターンの中から選択されたメイクパターンに
基づいて、画像処理を行うことを特徴とする画像処理方
法を提供する。[0011] Similarly, in order to solve the above problems,
A second aspect of the present invention is an image processing method for performing image processing on input image data to obtain image data for output, wherein an area corresponding to a face of a person is input from the input image data. Along with the extraction, each part of the face is detected, and the extracted face area and the face structure estimated from each part of the detected face are selected from a plurality of preset makeup patterns. An image processing method is provided wherein image processing is performed based on a selected makeup pattern.
【0012】また、同様に前記課題を解決するために、
本発明の第三の態様は、入力された画像データに対し
て、画像処理を施し、出力用の画像データとする画像処
理方法であって、入力画像データから、人物の顔に相当
する領域を抽出するとともに、該顔領域の中から男女で
差が出る部分の領域を検出し、該男女で差が出る部分の
領域に基づいて、被写体人物の性別を推定し、該推定結
果に基づいて、画像処理を行うことを特徴とする画像処
理方法を提供する。[0012] Similarly, in order to solve the above problems,
A third aspect of the present invention is an image processing method for performing image processing on input image data to generate image data for output, wherein an area corresponding to a person's face is extracted from input image data. Extracting and detecting the area of the part where the difference between male and female appears from the face area, estimating the gender of the subject person based on the area of the part where the difference between male and female appears, based on the estimation result, An image processing method characterized by performing image processing is provided.
【0013】[0013]
【発明の実施の形態】以下、本発明に係る画像処理方法
について、添付の図面に示される好適実施形態を基に、
詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing method according to the present invention will be described based on a preferred embodiment shown in the accompanying drawings.
This will be described in detail.
【0014】図1は、本発明に係る、特定の人物の見栄
えを良くする、画像処理方法を実施する画像処理装置を
含む、デジタルフォトプリンタの概略を示すブロック図
である。図1に示すデジタルフォトプリンタ(以下、フ
ォトプリンタという)10は、フィルムFに撮影された
画像を光電的に読み取るスキャナ(画像読取装置)12
と、このスキャナ12で読み取られた画像データの電子
変倍処理や、画像データのエッジ検出やシャープネス強
調(鮮鋭度強調)、平滑化処理(粒状抑制)などの画像
処理やフォトプリンタ10全体の操作および制御等を行
う画像処理装置14と、この画像処理装置14から出力
された画像データに応じて変調した光ビームで感光材料
(印画紙)を画像露光し、現像処理して(仕上がり)画
像をプリントとして出力する画像記録装置16と、を有
する。また、画像処理装置14には、様々な条件の入
力、設定、処理の選択や指示、色/濃度補正などの指示
等を入力するためのキーボード18aおよびマウス18
bを有する操作系18と、スキャナ12で読み取られた
画像、各種の操作指示、様々な条件の設定/登録画面等
を表示するモニタ20が接続される。FIG. 1 is a block diagram schematically showing a digital photo printer including an image processing apparatus for implementing an image processing method according to the present invention, which enhances the appearance of a specific person. A digital photo printer (hereinafter, referred to as a photo printer) 10 shown in FIG. 1 is a scanner (image reading device) 12 that photoelectrically reads an image photographed on a film F.
And electronic image scaling processing of image data read by the scanner 12, image processing such as edge detection, sharpness enhancement (sharpness enhancement), and smoothing processing (grain suppression) of the image data, and overall operation of the photo printer 10. And an image processing apparatus 14 for performing control and the like, and an image exposure of a photosensitive material (printing paper) with a light beam modulated according to the image data output from the image processing apparatus 14, and a development processing (finished) image is formed. And an image recording device 16 for outputting as a print. The image processing apparatus 14 includes a keyboard 18a and a mouse 18 for inputting various conditions such as input, setting, selection and instruction of processing, and instructions such as color / density correction.
and an operation system 18 having an image b, a monitor 20 for displaying an image read by the scanner 12, various operation instructions, a setting / registration screen for various conditions, and the like.
【0015】スキャナ12は、フィルムF等に撮影され
た画像を1コマずつ光電的に読み取る装置で、光源22
と、可変絞り24と、フィルムFに入射する読取光をフ
ィルムFの面方向で均一にする拡散ボックス26と、フ
ィルムFのキャリア28と、結像レンズユニット30
と、R(赤)、G(緑)およびB(青)の各色画像濃度
の読取に対応する3ラインCCDセンサを有するイメー
ジセンサ32と、アンプ(増幅器)33と、A/D(ア
ナログ/デジタル)変換器34とを有する。The scanner 12 is a device for photoelectrically reading an image photographed on a film F or the like one frame at a time.
A variable aperture 24, a diffusion box 26 for making the reading light incident on the film F uniform in the surface direction of the film F, a carrier 28 of the film F, and an imaging lens unit 30
, An image sensor 32 having a three-line CCD sensor corresponding to reading of image densities of R (red), G (green), and B (blue), an amplifier (amplifier) 33, and an A / D (analog / digital). ) A converter 34.
【0016】フォトプリンタ10においては、スキャナ
12の本体に装着自在な専用のキャリア28が、新写真
システム(Advanced Photo System)や135サイズ
のネガ(あるいはリバーサル)フィルム等のフィルムF
の種類やサイズ、ストリップスやスライド等のフィルム
の形態等に応じて用意されており、キャリア28の交換
によって、各種のフィルムや処理に対応することができ
る。フィルムに撮影され、プリント作成に供される画像
(コマ)は、このキャリア28によって所定の読取位置
に搬送される。また、周知のように、新写真システムの
フィルムには、磁気記録媒体が形成され、カートリッジ
IDやフィルムサイズ、ISO感度等が記録されてお
り、また、撮影時や現像時等に、撮影や現像日時、露出
レベル、カメラや現像機の機種等の各種のデータが記録
可能である。新写真システムのフィルム(カートリッ
ジ)に対応するキャリア28には、この磁気情報の読取
手段が配置されており、フィルムを読取位置に搬送する
際に磁気情報を読み取り、これらの各種の情報が画像処
理装置14に送られる。In the photo printer 10, a dedicated carrier 28 that can be freely mounted on the main body of the scanner 12 includes a film F such as a new photographic system (advanced photo system) or a 135 size negative (or reversal) film.
Are prepared in accordance with the type and size of the film, the form of the film such as strips and slides, and the like, and can be adapted to various films and processes by replacing the carrier 28. An image (frame) photographed on a film and provided for printing is conveyed by the carrier 28 to a predetermined reading position. Also, as is well known, a magnetic recording medium is formed on the film of the new photographic system, and a cartridge ID, a film size, an ISO sensitivity, and the like are recorded. Various data such as date and time, exposure level, model of camera and developing machine can be recorded. The magnetic information reading means is arranged on the carrier 28 corresponding to the film (cartridge) of the new photographic system. The magnetic information is read when the film is transported to the reading position, and the various kinds of information are subjected to image processing. It is sent to the device 14.
【0017】このようなスキャナ12において、フィル
ムFに撮影された画像を読み取る際には、光源22から
射出され、可変絞り24および拡散ボックス26によっ
て光量調整された均一な読取光が、キャリア28によっ
て所定の読取位置に位置されたフィルムFに入射して、
透過することにより、フィルムFに撮影された画像を担
持する投影光を得る。なお、カラー画像信号は、このよ
うにフィルムを透過した光を読み取ることによって入力
されるものには限定されず、反射原稿でもよいし、ある
いはデジタルカメラによって撮影された画像を用いても
よい。すなわち、フィルムの画像を読み取るスキャナ1
2以外にも、デジタルカメラやデジタルビデオカメラ等
の撮像手段、反射原稿の画像を読み取る画像読取装置、
LAN(Local Aera Network)やコンピュータ通信ネッ
トワーク等の通信手段、スマートメディアなどのメモリ
カードやMO(光磁気記録媒体)等のメディア(記録媒
体)等の画像供給源Rから画像(デジタルの画像信号)
を画像処理装置14に入力することもできる。When reading an image photographed on the film F in such a scanner 12, uniform reading light emitted from the light source 22 and adjusted in light amount by the variable aperture 24 and the diffusion box 26 is transmitted by the carrier 28. Incident on the film F located at the predetermined reading position,
By transmitting the light, projection light carrying an image photographed on the film F is obtained. The color image signal is not limited to a signal input by reading the light transmitted through the film as described above, and may be a reflection original or an image captured by a digital camera. That is, a scanner 1 that reads an image on a film
2. In addition to the above, imaging means such as a digital camera and a digital video camera, an image reading device for reading an image of a reflection original,
An image (digital image signal) from an image source R such as a communication means such as a LAN (Local Aera Network) or a computer communication network, a memory card such as a smart media, or a medium (recording medium) such as an MO (magneto-optical recording medium).
Can be input to the image processing apparatus 14.
【0018】図示例のキャリア28は、24枚取りの1
35サイズのフィルムや新写真システムのカートリッジ
等の、長尺なフィルムF(ストリップス)に対応するも
のである。フィルムFは、このキャリア28によって読
取位置に位置されて、RGBの3ラインCCDセンサの
延在方向である主走査方向と直交する副走査方向に搬送
されつつ、読取光を入射される。これにより、結果的
に、フィルムFが2次元的にスリット走査され、フィル
ムFに撮影された各コマの画像が読み取られる。In the illustrated example, the carrier 28 is a 24-sheet carrier.
It corresponds to a long film F (strips) such as a 35-size film or a cartridge of a new photo system. The film F is positioned at the reading position by the carrier 28, and receives the reading light while being conveyed in the sub-scanning direction orthogonal to the main scanning direction, which is the extending direction of the RGB three-line CCD sensor. As a result, the film F is two-dimensionally slit-scanned, and the image of each frame captured on the film F is read.
【0019】フィルムFの投影光は、結像レンズユニッ
ト30によってイメージセンサ32の受光面に結像され
る。イメージセンサ32から出力されたR、GおよびB
の各出力信号は、アンプ33で増幅されて、A/D変換
器34に送られ、A/D変換器34において、それぞ
れ、例えば12bitのRGBデジタル画像データに変
換された後、画像処理装置14に出力される。The projection light of the film F is imaged on the light receiving surface of the image sensor 32 by the imaging lens unit 30. R, G and B output from the image sensor 32
Are amplified by an amplifier 33, sent to an A / D converter 34, and converted into, for example, 12-bit RGB digital image data in the A / D converter 34, respectively. Is output to
【0020】なお、スキャナ12においては、フィルム
Fに撮影された画像を読み取るに際し、低解像度で読み
取るプレスキャン(第1回目の画像読取)と、出力画像
の画像データを得るためのファインスキャン(第2回目
の画像読取)との2回の画像読取を行う。ここで、プレ
スキャンは、スキャナ12が対象とするフィルムFの全
ての画像を、イメージセンサ32が飽和することなく読
み取れるように、予め設定されたプレスキャン読取条件
で行われる。一方、ファインスキャンは、プレスキャン
データから、その画像(コマ)の最低濃度よりも若干低
い濃度でイメージセンサ32が飽和するように、各コマ
毎に設定されたファインスキャンの読取条件で行われ
る。なお、プレスキャンおよびファインスキャン出力画
像信号は、解像度および出力画像信号レベルが異なる以
外は、基本的に同様な画像データである。In the scanner 12, when reading an image photographed on the film F, a prescan (first image reading) for reading at a low resolution and a fine scan (first image reading) for obtaining image data of an output image are performed. (2nd image reading). Here, the pre-scan is performed under preset pre-scan reading conditions so that the image sensor 32 can read all images of the film F to be scanned by the scanner 12 without saturation. On the other hand, the fine scan is performed under the fine scan reading conditions set for each frame from the pre-scan data so that the image sensor 32 is saturated at a density slightly lower than the minimum density of the image (frame). The prescan and fine scan output image signals are basically the same image data except that the resolution and the output image signal level are different.
【0021】なお、フォトプリンタ10に用いられるス
キャナ12は、このようなスリット走査読取を行うもの
に限定されず、1コマのフィルム画像の全面を一度に読
み取る面状読取を行うものであってもよい。この場合に
は、例えばエリアCCDセンサなどのエリアセンサを用
い、光源22とフィルムFとの間にR、GおよびBの各
色フィルタの挿入手段を設け、光源22からの射出光の
光路に挿入して、色フィルタを透過した読取光をフィル
ムF全面に照射して、透過光をエリアCCDセンサに結
像させてフィルム全画像を読み取ることを、R、Gおよ
びBの各色フィルタを切り換えて順次行うことで、フィ
ルムFに撮影された画像を3原色に分解して読み取る。Note that the scanner 12 used in the photo printer 10 is not limited to the one that performs the slit scanning reading, and may be the one that performs the surface reading that reads the entire surface of one frame of the film image at a time. Good. In this case, for example, an area sensor such as an area CCD sensor is used, and means for inserting R, G, and B color filters are provided between the light source 22 and the film F, and inserted into the optical path of the light emitted from the light source 22. The reading light transmitted through the color filters is irradiated onto the entire surface of the film F, and the transmitted light is imaged on the area CCD sensor to read the entire image of the film by sequentially switching the R, G, and B color filters. Accordingly, the image photographed on the film F is separated into three primary colors and read.
【0022】前述したように、スキャナ12から出力さ
れるデジタル画像データ信号は、本発明に係る女性の見
栄えを良くする画像処理方法を実施する画像処理装置1
4に出力される。スキャナ12から画像処理装置14に
入力されたR、GおよびBの画像信号に対して、まずC
CDセンサに起因するRGBデジタル画像データの画素
毎の感度ばらつきや暗電流を補正するために、DCオフ
セット補正、暗時補正、欠陥画素補正、シェーディング
補正等の読取画像データのデータ補正が行われる。その
後画像データは、対数変換処理、階調変換されデジタル
画像濃度データに変換される。As described above, the digital image data signal output from the scanner 12 is used in the image processing apparatus 1 for implementing the image processing method for improving the appearance of a woman according to the present invention.
4 is output. The R, G, and B image signals input from the scanner 12 to the image processing device
Data correction of read image data such as DC offset correction, dark time correction, defective pixel correction, and shading correction is performed to correct the sensitivity variation and dark current of each pixel of RGB digital image data caused by the CD sensor. Thereafter, the image data is subjected to logarithmic conversion processing and gradation conversion, and is converted into digital image density data.
【0023】デジタル画像濃度データは、プレスキャン
画像データ、ファインスキャン画像データそれぞれ別々
に記憶(格納)される。プレスキャン画像データは、所
定の画像処理を施されモニタ20に表示される。また、
プレスキャン画像データから、濃度ヒストグラムの作成
や、平均濃度、LATD(大面積透過濃度)、ハイライ
ト(最低濃度)、シャドー(最高濃度)等の画像特徴量
の算出が行われ、ファインスキャンの読取条件および画
像処理条件が設定される。ファインスキャン画像データ
は、設定された画像処理条件により、通常の画像処理お
よび本発明の女性の見栄えを良くする画像処理等を施さ
れ、カラープリントとして所望の濃度、階調および色調
で、カラーペーパー上に、最適、高品質な画像として画
像記録装置16より出力される。本発明に係る女性の見
栄えを良くする画像処理方法を実施する画像処理装置を
含むデジタルフォトプリンタは、基本的に以上のように
構成される。The digital image density data is separately stored (stored) for each of the pre-scan image data and the fine scan image data. The prescanned image data is subjected to predetermined image processing and displayed on the monitor 20. Also,
From the pre-scan image data, a density histogram is created, and image feature amounts such as average density, LATD (large area transmission density), highlight (lowest density), shadow (highest density), etc. are calculated, and fine scan reading is performed. Conditions and image processing conditions are set. The fine scan image data is subjected to normal image processing and image processing for improving the appearance of a woman according to the present invention according to the set image processing conditions. The image is output from the image recording device 16 as an optimal and high-quality image. The digital photo printer including the image processing apparatus that performs the image processing method for improving the appearance of a woman according to the present invention is basically configured as described above.
【0024】以下、本発明の第一実施形態の作用を説明
する。画像処理装置14において、前述したように、プ
レスキャン画像データに基づいて設定された読取条件に
よって読み込まれたファインスキャン画像データに対し
て、画像データの濃度、色および階調の変換、彩度の変
換、電子変倍等の処理とともに、まず特定の人物の見栄
えを良くする画像処理の前提である、主要被写体抽出に
基づいて被写体の性別の確認を行う。Hereinafter, the operation of the first embodiment of the present invention will be described. As described above, the image processing device 14 converts the density, color and gradation of the image data, and converts the saturation of the fine scan image data read based on the reading conditions set based on the prescan image data. First, the gender of the subject is confirmed based on extraction of the main subject, which is a premise of image processing for improving the appearance of a specific person, along with processing such as conversion and electronic scaling.
【0025】以下、図2のフローチャートを参照し、特
定の人物の見栄えを良くする画像処理について説明す
る。ステップ100において、人物の顔領域の抽出を行
う。まず、画像データを所定の閾値で2値化する。これ
により、原画像は、閾値より高い濃度の領域(黒領域)
と、閾値以下の濃度の領域(白領域)とに分割される。
この黒領域の中から、人物の頭髪部に相当する黒領域を
抽出する。それには、まず複数の黒領域の中から1つを
取り出し、その領域の輪郭をトレースし、輪郭の曲率を
演算する。そして、その演算された曲率に基づいて、人
物の頭部の輪郭を表す形状パターンとして、輪郭に人物
の頭部と顔の境界に相当すると推定される凹部、および
人物の頭頂部に相当すると推定される凸部を備えた黒領
域を抽出する。次に、この凹部および凸部の所定の特徴
量を計算する。そして、この特徴量を用いて、その黒領
域が人物の頭部と判断できるか、すなわち人物の頭部で
ある確度が高いか否か判定する。この判定は、黒領域の
輪郭から各々所定範囲内の前記特徴量をもつ凹部および
凸部が各々抽出され、黒領域の輪郭の周囲長に対する凹
部および凸部の長さの比率が各々所定範囲内にあり、さ
らに、位置および方向より人物の頭部として整合性評価
が高い場合に肯定される。Hereinafter, the image processing for improving the appearance of a specific person will be described with reference to the flowchart of FIG. In step 100, a face area of a person is extracted. First, image data is binarized using a predetermined threshold. As a result, the original image has a higher density area (black area) than the threshold value.
And a region having a density equal to or lower than the threshold (white region).
From this black area, a black area corresponding to the head of a person is extracted. To do this, first, one of the plurality of black areas is taken out, the contour of the area is traced, and the curvature of the contour is calculated. Then, based on the calculated curvature, as a shape pattern representing the contour of the head of the person, it is estimated that the contour corresponds to the concave portion estimated to correspond to the boundary between the head and face of the person and the contour corresponds to the top of the head of the person. A black region having a convex portion to be extracted is extracted. Next, a predetermined characteristic amount of the concave portion and the convex portion is calculated. Then, using this feature amount, it is determined whether or not the black area can be determined to be the head of the person, that is, whether or not the probability that the black area is the head of the person is high. In this determination, the concave portion and the convex portion each having the characteristic amount within the predetermined range are respectively extracted from the outline of the black region, and the ratio of the length of the concave portion and the convex portion to the peripheral length of the outline of the black region is within the predetermined range. And when the consistency evaluation is higher as the head of the person than the position and the direction, the result is affirmative.
【0026】上記判定が肯定された場合には、人物の頭
髪部と顔との境界部分では、頭髪部が凹の形状となって
いる人物がほとんどであることから、黒領域の輪郭の凹
部の大きさ、およびその中心位置を基準とし、凹部に内
接する楕円形状の領域を顔候補領域として設定する。ま
た、前記2値化によって得られた各領域の輪郭を分割し
てラインを得、このラインの中から人物の顔の輪郭を表
す形状パターンとして、人物の顔の側部に対応すると推
定されるラインの対を抽出する。このライン対が人物の
顔の両側部に対応するラインであると判定された場合
に、このライン対によって挟まれた領域に所定の大きさ
の楕円形状の顔候補領域を設定する。When the determination is affirmative, most of the persons have a concave hair shape at the boundary between the human hair part and the face. An elliptical region inscribed in the concave portion is set as a face candidate region based on the size and the center position thereof. Further, it is presumed that a line is obtained by dividing the outline of each region obtained by the binarization, and a shape pattern representing the outline of the person's face corresponds to the side of the person's face from the line. Extract pairs of lines. If it is determined that the line pair is a line corresponding to both sides of the person's face, an elliptical face candidate region having a predetermined size is set in a region sandwiched by the line pair.
【0027】いま設定した顔候補領域に対し符号が正の
重み係数を付与する。次に、顔の内部構造により、顔領
域の設定を行う。これは例えば顔の眼部対に対応すると
推定される黒領域の対を抽出することにより、顔領域と
しての確度をより高めるものである。また、さらに顔領
域であることを確実にするために、胴体の輪郭を表す形
状パターンとして、人物の首から肩、肩から腕部分また
は胴体下部にかけて連続する輪郭に相当すると推定され
るラインの対を抽出する。このような眼部対やライン対
が抽出されるごとに顔候補領域に符号が正の重み係数を
付与し、最終的にこの重み係数により、人物の顔領域で
ある確度が最も高い領域として判定された領域を顔領域
として抽出する。A positive weighting coefficient is assigned to the face candidate area that has just been set. Next, a face area is set based on the internal structure of the face. This is to enhance the accuracy as a face region by extracting, for example, a pair of black regions estimated to correspond to a pair of eyes of the face. Further, in order to further ensure that the face region is a face region, as a shape pattern representing the contour of the torso, a pair of lines estimated to correspond to a contour that is continuous from the neck to the shoulder of the person, from the shoulder to the arm, or to the lower torso. Is extracted. Each time such an eye pair or a line pair is extracted, a positive weighting coefficient is assigned to the face candidate area, and finally the area is determined as the area having the highest probability of being a person's face area by this weighting coefficient. The extracted region is extracted as a face region.
【0028】次に、ステップ110において、口の検出
を行う。これは、上記のようにして顔領域を抽出する際
に、顔領域である確度を高めるために、顔の内部構造で
ある目や口等の顔の各部位の抽出をも同時に行うように
してもよい。例えば、目は、上述したように顔領域内に
おける黒領域の対として抽出され、また、眉毛は、目に
そった黒い線として抽出される。そして、口は、顔領域
内の位置関係、および唇に対する所定の色味探索により
検出される。この唇の色味探索は、性別や人種等様々な
違いを考慮して、多少広めに行う。Next, at step 110, the mouth is detected. This is because, when the face region is extracted as described above, in order to increase the accuracy of the face region, the extraction of each part of the face such as the eyes and the mouth, which is the internal structure of the face, is performed at the same time. Is also good. For example, the eyes are extracted as a pair of black regions in the face region as described above, and the eyebrows are extracted as black lines along the eyes. Then, the mouth is detected by a predetermined color tone search for the positional relationship in the face region and the lips. The search for the color of the lips is performed somewhat broadly in consideration of various differences such as gender and race.
【0029】引き続きステップ120では、唇の色味チ
ェックを行い被写体人物の性別を判定する。すなわち、
本来の唇の色味である標準色より彩度が大であれば、口
紅を使用していると判断し、被写体の人物は女性である
と判定する。ここで、標準色としては、多数の人につい
て、口紅を使用しない本来の唇の色を測定して、その平
均の色味として、予め求めておいたものを用いる。な
お、女性であることの判定は、このように唇の色味だけ
に限定されるものではなく、男女で差が出るものであれ
ば、判定基準あるいは唇の色味に対する補助的な基準と
して利用可能である。例えば、目のまわりの色を検出し
て、アイシャドーを使用しているか否か、やイヤリング
等のアクセサリを着けているか否か等により判定するこ
とが考えられる。あるいは、顔(肌)の色味を用いて化
粧の有無を判定し、これを性別判定の資料に加えてもよ
い。このように、顔領域の中から、男女で差が出る部分
の領域を検出し、該領域に基づいて性別を判定するよう
にしてもよい。In step 120, the lip color is checked to determine the gender of the subject person. That is,
If the saturation is higher than the standard color, which is the original lip color, it is determined that lipstick is used, and the subject person is determined to be a woman. Here, as a standard color, the color of an original lip without using lipstick is measured for a large number of people, and a color obtained in advance as an average color is used. In addition, the judgment of being a woman is not limited to the color of the lips as described above. If there is a difference between men and women, use it as a judgment standard or an auxiliary standard for the color of the lips. It is possible. For example, it is conceivable to detect the color around the eyes and determine based on whether or not an eye shadow is used, whether or not accessories such as earrings are worn, and the like. Alternatively, the presence or absence of makeup may be determined using the color of the face (skin), and this may be added to the gender determination data. As described above, a region where a difference occurs between a man and a woman may be detected from the face region, and the gender may be determined based on the region.
【0030】ステップ120の判定で、被写体が女性で
ないとされた場合には、ステップ140に進み、通常の
画像処理を行う。また、被写体が女性であると判定され
た場合には、ステップ130において、特に人物の見栄
えを良くする処理を行う。If it is determined in step 120 that the subject is not a woman, the flow advances to step 140 to perform normal image processing. When it is determined that the subject is a woman, in step 130, processing for improving the appearance of the person is performed.
【0031】特定の人物(例えば女性)の見栄えを良く
する処理も、特に限定されるものではなく、例えば、肌
をみずみずしく見せたり、皺を消したりする等の処理が
考えられる。肌をみずみずしく見せるためには、例え
ば、図3に示す女性の画像50において、額52や頬5
3のハイライト部を強調して「てかり」感を出したり、
あるいは、頬53を多少ピンク色に染める等の処理が考
えられる。また、特に女性が気にする目尻の皺58につ
いては、平滑化処理により、皺58を目立たないように
する。また、顔の輪郭54や胴体の輪郭56は、鮮鋭化
を強調し、エッジを強調して、輪郭をくっきりさせる。
また、このとき、切り出したエッジの形状に応じてエッ
ジ強調あるいは平滑化強調の強度を変更するようにして
もよい。例えば、顔の輪郭54のように楕円部に対して
は、胴体の輪郭56のような直線部よりもエッジ強調の
度合いを強くすると、顔がよりくっきりする。また、さ
らに、全体を細身仕上げとするとより一層美しく見え
る。このような見栄えを良くする処理により、皺のな
い、肌がきめ細かく滑らかな、しかも輪郭のくっきりし
た美しい写真画像を得ることができる。なお、性別推定
の確度を点数化(例えば連続量として)し、その確度の
大きさに応じて上記各処理を施すようにして、各処理の
程度を中間的な設定とするようにしてもよい。The processing for improving the appearance of a specific person (for example, a woman) is not particularly limited. For example, processing for making the skin look fresh or removing wrinkles can be considered. In order to make the skin look fresh, for example, in the image 50 of the woman shown in FIG.
Emphasize the highlight part of 3 and give a feeling of "tekari",
Alternatively, a process such as dyeing the cheek 53 in a slightly pink color is conceivable. In particular, the wrinkles 58 at the corners of the eyes that women care about are made inconspicuous by a smoothing process. Further, the outline 54 of the face and the outline 56 of the torso emphasize sharpening, emphasize edges, and sharpen the outline.
At this time, the strength of edge enhancement or smoothing enhancement may be changed according to the shape of the cut-out edge. For example, if the degree of edge enhancement is stronger for an elliptical portion such as the contour 54 of the face than for a straight portion such as the contour 56 of the body, the face becomes sharper. Further, when the entire body is made to be slender, it looks even more beautiful. By such a process for improving the appearance, it is possible to obtain a beautiful photographic image with no wrinkles, fine and smooth skin, and a sharp outline. The gender estimation accuracy may be scored (for example, as a continuous amount), and the above-described processes may be performed according to the degree of the accuracy, so that the degree of each process may be set to an intermediate value. .
【0032】なお、上に述べた第一実施形態は、全ての
処理を自動で行っていたが、顧客の要望を受けて、指定
されたコマに対してのみ上記処理を行うようにしてもよ
い。この場合でも、顔抽出以下の処理は自動で行われる
が、オペレータが手動で行ってもかまわない。また、次
コマ以降の処理において、前に抽出した口紅の色を手が
かりにして、顔領域を探索する範囲を絞り込むようにし
てもよい。In the above-described first embodiment, all the processes are automatically performed. However, the above-described processes may be performed only on a designated frame upon request of a customer. . In this case as well, the processing after face extraction is performed automatically, but may be performed manually by an operator. Further, in the processing after the next frame, the range of searching for the face area may be narrowed using the color of the lipstick extracted earlier as a clue.
【0033】次に、本発明に係る画像処理方法の第二実
施形態について説明する。本第二実施形態は、被写体が
特定の人物、例えば女性の場合には、その顔にメイクを
施そうというものである。以下、図4のフローチャート
に沿って本実施形態の処理を説明する。まず、ステップ
200において、顔領域の抽出、ステップ210におい
て、目、口等の検出を行う。これらは、前述した第一実
施形態における顔領域抽出処理と同様である。フローチ
ャートでは、第一実施形態と同様に、2つのステップに
分けているが、実際の処理においては、前述したよう
に、顔領域の抽出精度を高めるために、顔の中の部位と
して、目、口、頬の輪郭線等の検出も、顔領域の抽出と
同時に行うようにすると効率が良い。Next, a second embodiment of the image processing method according to the present invention will be described. In the second embodiment, when the subject is a specific person, for example, a woman, makeup is applied to the face. Hereinafter, the processing of this embodiment will be described with reference to the flowchart of FIG. First, in step 200, a face region is extracted, and in step 210, eyes, a mouth, and the like are detected. These are the same as the face area extraction processing in the first embodiment described above. In the flowchart, as in the first embodiment, the steps are divided into two steps. However, in the actual processing, as described above, in order to enhance the extraction accuracy of the face area, the eyes, It is efficient to detect the contour lines of the mouth and cheek simultaneously with the extraction of the face area.
【0034】次に、ステップ220において、被写体の
性別を判定する。この判定方法は特に限定されるもので
はなく、例えば、第一実施形態における判定と同様に、
唇の色味によって行えばよい。判定の結果、女性ではな
いとされた場合には、ステップ240において、通常の
画像処理を行う。また、判定の結果、女性であると判定
された場合には、ステップ230において、メイクアッ
プ処理を行う。また、被写体人物を男性と判断した場合
には、男性らしさを強調する処理、例えば、より日焼け
した肌の色味にする等の処理を適用するようにしてもよ
い。なお、被写体人物の性別に応じた処理において、そ
の人物の国や地域性に応じて、処理内容の設定を変更で
きるようにすると、さらに好ましい。Next, in step 220, the gender of the subject is determined. This determination method is not particularly limited. For example, similar to the determination in the first embodiment,
It can be done according to the color of the lips. If the result of the determination is that it is not a woman, normal image processing is performed in step 240. If it is determined that the person is a woman, a makeup process is performed in step 230. When the subject person is determined to be a male, a process of emphasizing the masculineness, for example, a process of increasing the color of tanned skin may be applied. In the processing according to the gender of the subject person, it is more preferable that the setting of the processing content can be changed according to the country and regionality of the person.
【0035】メイクアップ処理を行うためには、予め、
複数のメイクパターンをデータベース等に保持してお
き、顔の輪郭や目の大きさあるいは唇の形等の顔の造り
に基づいて、自動的に上記複数のメイクパターンの中か
らメイクパターンを選択する。あるいは、顧客自身が、
メイクパターンを選択するようにしてもよい。メイクパ
ターンを選択する際の基準となる、顔の造りとしては、
上記のような各顔の部位単独の特徴、例えば、大きさ、
縦横比、色味等が挙げられるが、この他、両目間の距
離、両目中央と口との距離、顎から額までの距離、およ
び頬の輪郭のカーブ特性等の組み合わせに基づいてメイ
クパターンを選択するようにしてもよい。In order to perform a makeup process,
A plurality of makeup patterns are stored in a database or the like, and a makeup pattern is automatically selected from the plurality of makeup patterns based on a face structure such as a face contour, eye size, or lip shape. . Alternatively, the customer himself
A makeup pattern may be selected. As a criterion for selecting a makeup pattern, as a face structure,
Characteristics of each face part alone as described above, for example, size,
Aspect ratio, color, etc. can be cited.In addition, the makeup pattern is determined based on a combination of the distance between the eyes, the distance between the center of both eyes and the mouth, the distance from the chin to the forehead, and the curve characteristics of the cheek outline. You may make it select.
【0036】メイクパターンとしては、例えば、アイシ
ャドー、睫毛、眉毛等の目の設定に関するもの、口紅の
色、光沢等の口紅の設定に関するもの、その他、頬紅、
ファンデーション、髪形等について、それぞれ各種の設
定ができるものとする。また、これらのパターンをいく
つか組み合わせた、加重平均としても良い。なお、特殊
なケースとして、有名な某美容師によるメイクパターン
のようなモードも設定可能としてもよい。The makeup patterns include, for example, those relating to the setting of eyes such as eye shadow, eyelashes, eyebrows, etc., those relating to the setting of lipsticks such as lipstick color, gloss, etc.
Various settings can be made for the foundation, hairstyle, and the like. Also, a weighted average combining some of these patterns may be used. As a special case, a mode such as a makeup pattern by a famous hairdresser may be settable.
【0037】さらに、特殊なケースとして、歌舞伎の隈
取り、あるいはプロレスのペイントレスラーの顔のよう
な遊びの要素を取り入れた設定も可能である。また、さ
らに、眼鏡を掛けたり、ピアスやイアリング等のアクセ
サリを着ける等の業務用に用いることも可能である。ま
た、本発明の方法をいわゆるプリクラの画像に応用する
ことも可能である。Further, as a special case, a setting incorporating a play element such as a kabuki shade or a professional wrestling paint wrestler's face is also possible. Further, it can also be used for business purposes such as wearing glasses or wearing accessories such as piercings and earrings. It is also possible to apply the method of the present invention to so-called Purikura images.
【0038】以上、詳しく説明したように、本実施形態
によれば、人物写真において、被写体人物の性別に応じ
た処理を行うことにより、その人物に応じた美しさをよ
り引き立たせることができるとともに、好みに応じたメ
イクを画像上で自由に行うことができ、写真の娯楽性を
大いに増すことができる。As described above in detail, according to the present embodiment, by performing processing according to the gender of the subject person in the portrait, it is possible to further enhance the beauty corresponding to the person. In addition, the user can freely make makeup according to his / her preference on the image, thereby greatly increasing the recreational value of the photograph.
【0039】以上、本発明の画像処理方法について詳細
に説明したが、本発明は、以上の実施形態には限定され
ず、本発明の要旨を逸脱しない範囲において、各種の改
良や変更を行ってもよいのはもちろんである。Although the image processing method of the present invention has been described in detail above, the present invention is not limited to the above-described embodiment, and various improvements and changes are made without departing from the gist of the present invention. Of course it is good.
【0040】[0040]
【発明の効果】以上、説明した通り、本発明によれば、
人物写真において、被写体人物の性別に応じた処理を行
うことにより、その人物に応じた美しさをより引き立た
せることができるとともに、好みに応じたメイクを画像
上で自由に行うことができ、写真の娯楽性を大いに増す
ことができる。As described above, according to the present invention,
By performing processing according to the gender of the subject person in the portrait, it is possible to enhance the beauty according to the person more, and to freely make the desired makeup on the image, Can greatly increase the entertainment.
【図1】 本発明に係る画像処理方法を実施する画像処
理装置を含むデジタルフォトプリンタの概略を示すブロ
ック図である。FIG. 1 is a block diagram schematically illustrating a digital photo printer including an image processing apparatus that performs an image processing method according to the present invention.
【図2】 本発明の第一実施形態の処理の流れを示すフ
ローチャートである。FIG. 2 is a flowchart showing a flow of processing according to the first embodiment of the present invention.
【図3】 同じく第一実施形態の画像処理を受ける画像
の例を示す説明図である。FIG. 3 is an explanatory diagram showing an example of an image subjected to image processing according to the first embodiment.
【図4】 本発明の第二実施形態の処理の流れを示すフ
ローチャートである。FIG. 4 is a flowchart showing a flow of processing according to a second embodiment of the present invention.
10 デジタルフォトプリンタ 12 スキャナ 14 (画像)処理装置 16 画像記録装置 18 操作系 18a キーボード 18b マウス 20 モニタ 22 光源 24 可変絞り 26 拡散ボックス 28 キャリア 30 結像レンズユニット 32 イメージセンサ 34 A/D変換器 50 人物の画像 DESCRIPTION OF SYMBOLS 10 Digital photo printer 12 Scanner 14 (Image) processing device 16 Image recording device 18 Operation system 18a Keyboard 18b Mouse 20 Monitor 22 Light source 24 Variable aperture 26 Diffusion box 28 Carrier 30 Imaging lens unit 32 Image sensor 34 A / D converter 50 Person image
フロントページの続き Fターム(参考) 5B057 AA20 BA19 BA26 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE05 CE09 CE11 CE17 DA08 DB02 DB06 DB09 DC16 DC22 DC25 5C076 AA26 BA06 5C077 LL16 LL19 MM03 MP08 PP02 PP15 PP19 PP32 PP37 PP52 PP53 SS01 SS02 SS05 SS06 TT02 TT09 Continued on the front page F-term (reference) 5B057 AA20 BA19 BA26 CA01 CA08 CA12 CA16 CB01 CB08 CB12 CB16 CC01 CE05 CE09 CE11 CE17 DA08 DB02 DB06 DB09 DC16 DC22 DC25 5C076 AA26 BA06 5C077 LL16 LL19 LL19 MM03 MP08 PP02 PP15 PP19 SS SS05 SS06 TT02 TT09
Claims (4)
を施し、出力用の画像データとする画像処理方法であっ
て、 入力画像データから、人物の顔に相当する領域を抽出す
るとともに、唇部分の領域を検出し、 該唇部分の色味に基づいて、被写体人物の性別を推定
し、 該推定結果に基づいて、画像処理を行うことを特徴とす
る画像処理方法。1. An image processing method for performing image processing on input image data to obtain image data for output, wherein an area corresponding to a face of a person is extracted from the input image data. An image processing method, comprising: detecting an area of a lip portion; estimating the gender of a subject person based on the color of the lip portion; and performing image processing based on the estimation result.
を、所定の色味に修正する、または所定の階調に修正す
る、または所定の平滑化処理を適用する請求項1に記載
の画像処理方法。2. The method according to claim 1, wherein the skin portion is locally corrected to a predetermined color, a predetermined gradation, or a predetermined smoothing process based on the estimation result. Image processing method.
を施し、出力用の画像データとする画像処理方法であっ
て、 入力画像データから、人物の顔に相当する領域を抽出す
るとともに、顔の各部位を検出し、 前記抽出された顔領域、および前記検出された顔の各部
位から推定される顔の造りに応じて、予め設定された複
数のメイクパターンの中から選択されたメイクパターン
に基づいて、画像処理を行うことを特徴とする画像処理
方法。3. An image processing method for performing image processing on input image data to obtain image data for output, wherein an area corresponding to a face of a person is extracted from the input image data. Detecting each part of the face, according to the extracted face area, and the makeup of the face estimated from each part of the detected face, a makeup selected from a plurality of preset makeup patterns An image processing method comprising performing image processing based on a pattern.
を施し、出力用の画像データとする画像処理方法であっ
て、 入力画像データから、人物の顔に相当する領域を抽出す
るとともに、該顔領域の中から男女で差が出る部分の領
域を検出し、 該男女で差が出る部分の領域に基づいて、被写体人物の
性別を推定し、 該推定結果に基づいて、画像処理を行うことを特徴とす
る画像処理方法。4. An image processing method for performing image processing on input image data to obtain image data for output, wherein an area corresponding to a person's face is extracted from the input image data. Detecting an area of a difference between the male and female from the face area, estimating the gender of the subject person based on the area of the difference between the male and female, and performing image processing based on the estimation result An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000027614A JP2001218020A (en) | 2000-02-04 | 2000-02-04 | Picture processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000027614A JP2001218020A (en) | 2000-02-04 | 2000-02-04 | Picture processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001218020A true JP2001218020A (en) | 2001-08-10 |
Family
ID=18553162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000027614A Withdrawn JP2001218020A (en) | 2000-02-04 | 2000-02-04 | Picture processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001218020A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004042481A (en) * | 2002-07-12 | 2004-02-12 | Make Softwear:Kk | Printer, photographic print forming device, printing method, and method for forming photographic print |
JP2004147288A (en) * | 2002-10-25 | 2004-05-20 | Reallusion Inc | Facial image correction method |
WO2004068408A1 (en) * | 2003-01-31 | 2004-08-12 | Sony Corporation | Image processing device and image processing method, and imaging device |
JP2006031195A (en) * | 2004-07-13 | 2006-02-02 | Atlus Co Ltd | Image processing program, image processor and automatic photographing device |
US7440013B2 (en) | 2003-08-14 | 2008-10-21 | Fujifilm Corporation | Image pickup device with facial region detector and method of synthesizing image including facial region |
JP2009017591A (en) * | 2008-09-18 | 2009-01-22 | Canon Inc | Imaging apparatus and image processing method |
JP2010220211A (en) * | 2010-03-12 | 2010-09-30 | Furyu Kk | Photograph seal creating apparatus, photograph seal creating method, and program |
US8013906B2 (en) | 2005-06-20 | 2011-09-06 | Canon Kabushiki Kaisha | Image sensing apparatus and image processing method |
US9147106B2 (en) | 2003-04-15 | 2015-09-29 | Nikon Corporation | Digital camera system |
-
2000
- 2000-02-04 JP JP2000027614A patent/JP2001218020A/en not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004042481A (en) * | 2002-07-12 | 2004-02-12 | Make Softwear:Kk | Printer, photographic print forming device, printing method, and method for forming photographic print |
JP2004147288A (en) * | 2002-10-25 | 2004-05-20 | Reallusion Inc | Facial image correction method |
WO2004068408A1 (en) * | 2003-01-31 | 2004-08-12 | Sony Corporation | Image processing device and image processing method, and imaging device |
US9147106B2 (en) | 2003-04-15 | 2015-09-29 | Nikon Corporation | Digital camera system |
US7440013B2 (en) | 2003-08-14 | 2008-10-21 | Fujifilm Corporation | Image pickup device with facial region detector and method of synthesizing image including facial region |
JP2006031195A (en) * | 2004-07-13 | 2006-02-02 | Atlus Co Ltd | Image processing program, image processor and automatic photographing device |
US8013906B2 (en) | 2005-06-20 | 2011-09-06 | Canon Kabushiki Kaisha | Image sensing apparatus and image processing method |
JP2009017591A (en) * | 2008-09-18 | 2009-01-22 | Canon Inc | Imaging apparatus and image processing method |
JP4726251B2 (en) * | 2008-09-18 | 2011-07-20 | キヤノン株式会社 | Imaging apparatus and image processing method |
JP2010220211A (en) * | 2010-03-12 | 2010-09-30 | Furyu Kk | Photograph seal creating apparatus, photograph seal creating method, and program |
JP4715964B2 (en) * | 2010-03-12 | 2011-07-06 | フリュー株式会社 | Photo sticker creation apparatus, photo sticker creation method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4291963B2 (en) | Image processing method | |
JP3657769B2 (en) | Image processing method and image processing apparatus | |
US10304166B2 (en) | Eye beautification under inaccurate localization | |
US8520089B2 (en) | Eye beautification | |
US8681241B2 (en) | Automatic face and skin beautification using face detection | |
US6798903B2 (en) | Image processing method, image processing device, recording medium, and transmission medium | |
JP2007193824A (en) | Image processing method | |
JP4368513B2 (en) | Image processing method and apparatus, and recording medium | |
JP2001218020A (en) | Picture processing method | |
JP3576025B2 (en) | Main subject extraction method and apparatus | |
JP2004240622A (en) | Image processing method, image processor and image processing program | |
JP4043708B2 (en) | Image processing method and apparatus | |
JP4795988B2 (en) | Image processing method | |
JP2001155174A (en) | Method and device for image processing | |
JP2005128600A (en) | Image processing method and object photographing system | |
JP3575976B2 (en) | Main subject extraction method | |
JP2001103304A (en) | Method and system for extracting specific object | |
JP2001211315A (en) | Output image area adjusting method | |
JPH11205583A (en) | Image processor | |
JP2001177728A (en) | Edge detection method and image processing method | |
JP2001069334A (en) | Method and device for processing photograph and recording medium | |
JP2001075183A (en) | Index print forming method | |
JP2001069333A (en) | Method and device for processing photograph and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070501 |