JP2005078158A - Image processing device, image processing method, program and recording medium - Google Patents

Image processing device, image processing method, program and recording medium Download PDF

Info

Publication number
JP2005078158A
JP2005078158A JP2003304593A JP2003304593A JP2005078158A JP 2005078158 A JP2005078158 A JP 2005078158A JP 2003304593 A JP2003304593 A JP 2003304593A JP 2003304593 A JP2003304593 A JP 2003304593A JP 2005078158 A JP2005078158 A JP 2005078158A
Authority
JP
Japan
Prior art keywords
image
range
area
image processing
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003304593A
Other languages
Japanese (ja)
Other versions
JP4372494B2 (en
Inventor
Asuka Iwakoshi
Takao Mito
Sannashi Miyama
敬雄 三戸
三奈子 宮間
明日香 岩越
Original Assignee
Dainippon Printing Co Ltd
大日本印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Printing Co Ltd, 大日本印刷株式会社 filed Critical Dainippon Printing Co Ltd
Priority to JP2003304593A priority Critical patent/JP4372494B2/en
Publication of JP2005078158A publication Critical patent/JP2005078158A/en
Application granted granted Critical
Publication of JP4372494B2 publication Critical patent/JP4372494B2/en
Application status is Expired - Fee Related legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device and the like for quickly, precisely and easily recognizing an area, based on an original image. <P>SOLUTION: An image processing device 101, when an operator specifies a square guide line position (step 801), sets a processing area inside a square guide line (step 802). In the processing area, the device 101 recognizes an area (flesh) (step 803). Next, the device 101 sets a processing area outside the area (flesh) (step 805), and recognizes an area (hair) in the processing area (step 806). Then, the device 101 sets a processing area within other than the already recognized areas (step 808) and recognizes area (others) in the processing area (step 809). The device 101 generates mask image data by performing a prescribed process to pixel data in the recognized area to store it to a storage part (step 10). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、原画像の所定の領域に画像を合成して合成画像を作成する画像処理装置等に関する。 The present invention relates to an image processing apparatus such as to create a composite image by combining the image in a predetermined area of ​​the original image. より詳細には、原画像に基づいて合成領域を認識した上で画像合成を行う画像処理装置等に関する。 And more particularly to an image processing apparatus that performs image synthesis In recognition synthesis regions on the basis of the original image.

近年、化粧品のメイクパレットには様々な色が存在し、各種ポイントメイクを組み合わせるとバリエーションは多数に及ぶ。 Recently, the makeup palette cosmetics there are various colors, variations combine various points makeup spans many. 全てのパターンを試すことは困難であり、化粧品の購入者からは、手軽に多くのパターンを試しながら好みの色を探す手段が求められている。 To try all of the pattern is difficult, from the purchaser of cosmetics, a means to find a favorite color while trying to ease a lot of pattern has been demanded. そして、この要求実現を図るべく、画像合成技術が用いられたりする。 Then, in order to achieve this demand realization, image synthesis techniques or used.

従来、原画像の所定の領域に対して合成用のテクスチャ画像を合成し、合成画像を作成する画像合成装置が提案されている(例えば、[特許文献1]参照。)。 Conventionally, a texture image for synthesis for a given area of ​​the original image is synthesized, the image synthesizing apparatus for generating a composite image has been proposed (e.g., Patent Literature 1 reference.).
また、化粧を施した合成画像を作成することにより、メークアップシミュレーションを行う画像処理方法が提案されている(例えば、「特許文献2」、「特許文献3」参照。)。 Further, by creating a composite image subjected to makeup it has been proposed an image processing method for performing makeup simulation (e.g., "Patent Document 2", see "Patent Document 3".).

[特許文献1]が示す技術は、商品の施工例等の原画像に対して商品見本画像等のテクスチャ画像を合成する場合に、特別な経験や勘がなくとも、違和感のない合成画像を容易に作成するものである。 Techniques indicated [Patent Document 1], when synthesizing the texture image, such as a product sample image on the original image, such as a construction example of the product, without the special experience and intuition, facilitates free composite image incongruity it is intended to be created.
[特許文献2]が示す技術は、顔画像から目、唇等の部位を抽出し、これらの部位に化粧を施した画像を合成するものである。 Techniques indicated [Patent Document 2] extracts the eye, a site such as the lips from the face image, and synthesizing an image subjected to makeup at these sites. この場合、ユーザは、部位毎に矩形枠を用いて部位の抽出を行う。 In this case, the user, to extract the site using a rectangular frame for each site.
[特許文献3]が示す技術は、化粧を施した画像合成を動画像により行い、表情を変化させつつ化粧の効果を確認するものである。 [Patent Document 3] indicates technique, an image synthesis subjected to decorative performed by the moving picture is intended to confirm the effect of the cosmetic while changing the facial expression.

特開2000−293667号公報 JP 2000-293667 JP 特開2000−151985号公報 JP 2000-151985 JP 特開2003−44837号公報 JP 2003-44837 JP

しかしながら、[特許文献1]の技術では、合成領域を示すマスクデータを予め用意する必要がある([特許文献1]の段落番号[0017]参照。)。 However, in the technique of Patent Literature 1, it is necessary to prepare the mask data indicating a combining region in advance (paragraph number [0017] of [Patent Document 1] reference.). 原画像に基づいてマスクデータを作成する場合、合成領域を手作業により指定する必要があり、労力的負担が増加すると共に正確性に欠けるという問題点がある 例えば、この技術を化粧を施した画像合成処理に適用する場合、髪の毛先まで輪郭を指定することは困難であるので、画像合成処理を行う際、髪の毛と肌の境界付近が不自然になるという問題点がある。 When creating the mask data on the basis of the original image, it is necessary to specify the combining region manually, there is a problem of a lack of accuracy with labor burden increases example, an image which has been subjected to cosmetic this technology when applied to the synthesis process, since it is difficult to specify the contour to hair destination, when the image combining process, near the hair and the boundary of the skin is a problem that becomes unnatural.

また、[特許文献2]の技術では、画像合成処理を行う度に、ユーザが指定した矩形枠の領域において、合成領域を認識するので、処理負担が増大するという問題点がある。 In the technique [Patent Document 2], every time performing image synthesis processing, in the region of the rectangular frame specified by the user, since recognizing the combining region, there is a problem that processing load is increased. さらに、ユーザは、部位毎に、画像合成を行う度毎に、矩形枠の大きさ、形状等を調整しながらその部位を囲んで選択する必要があるので、労力的負担が増大するという問題点がある。 Further, the user, for each site, the time every time to perform image synthesis, the rectangular frame size, it is necessary to select enclose the site while adjusting the shape, etc., a problem that labor burden increases there is.

また、[特許文献3]の技術では、化粧シミュレーション装置は、目の位置を基準に目、眉、唇等の輪郭を認識する。 In the technique [Patent Document 3], makeup simulation apparatus, the eyes on the basis of the position of the eyes, eyebrows, recognizes the outline of such lips. そして、人の表情の変化に応じて、目、眉、唇等の輪郭の認識と共に、動画像作成のためにこれらを追跡する必要がある。 Then, in response to changes in the human facial expressions, eyes, eyebrows, with recognition of the contour of such lips, it is necessary to track them for creating moving images. 従って、認識精度、安定性、処理速度の面で問題点がある。 Therefore, recognition accuracy, stability, there is a problem in terms of processing speed.

本発明は、以上の問題点に鑑みてなされたものであり、原画像に基づいて、迅速、高精度、かつ、簡便に領域認識等を行うことを可能とする、画像処理装置等を提供することを目的とする。 The present invention has been made in view of the above problems, on the basis of the original image, rapid, accurate and makes it possible to perform easily area recognition, etc., to provide an image processing apparatus such as a and an object thereof.

前述した目的を達成するために第1の発明は、原画像に対して画像処理を施す画像処理装置であって、処理範囲を指定する処理範囲指定手段と、属性範囲を指定する属性範囲指定手段と、前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識手段と、を具備することを特徴とする画像処理装置である。 The first invention to achieve the above object, an image processing apparatus which performs image processing on the original image, and processing range specifying means for specifying processing range, attribute range designating means for designating a range of attributes When an image processing apparatus characterized by comprising: a recognizing region recognizing means the region by extracting pixels belonging to the range of attributes in the processing range of the original image.

第1の発明では、画像処理装置は、処理範囲及び属性範囲を指定し、原画像の当該処理範囲において当該属性範囲に属する画素を抽出して領域を認識する。 In the first invention, the image processing apparatus, specifies the processing range and the attribute range, recognizes the region by extracting pixels belonging to the range of attributes in the processing range of the original image.
尚、画像処理装置は、認識済の領域に追加領域を加え、新たに1の領域として認識することができる。 The image processing apparatus, an additional area in addition to the recognition already in the region, can be recognized as a new first region.

処理範囲は、処理対象の画素データの位置範囲を示す。 Processing range indicates the position range of the pixel data to be processed. 画像処理装置は、この処理範囲内に位置する画素に対して領域に属する画素であるか否か等の判断、処理を行い、処理範囲外に位置する画素に対しては、判断対象、処理対象から除外する。 The image processing apparatus, determination as to whether a pixel belongs to the area for the pixel located within the processing range, the processing performed on the pixel located outside the processing range, determination target, processed excluded from.
処理範囲の指定は、画像処理装置の操作者が表示装置に表示された原画像に対して、形状可変及び大きさ可変の矩形ガイドライン等を用いて、原画像の所定の範囲を囲むことにより行うことができる。 Specifying processing range, to the operator display device in the displayed original image of the image processing apparatus, by using a variable shape and size variable rectangular guidelines like, carried out by enclosing a predetermined range of the original image be able to. また、画像処理装置は、認識済の領域外を処理範囲として自動的に設定することもできる。 The image processing device can also automatically set the region outside of recognized as a processing range.
このように、処理範囲を指定することにより、処理負担の軽減、処理時間の短縮を図ることができる。 Thus, by specifying a processing range, reduce the processing load, it is possible to shorten the processing time.

属性範囲は、領域に属する画素の属性(色階調、輝度、色相、明度、彩度等)の範囲を示す。 Attribute range indicates attributes of the pixels belonging to the region (color gradation, brightness, hue, brightness, saturation, etc.) the scope of the. 画像処理装置は、当該属性範囲に該当する原画像の画素の位置・範囲を領域と認識する。 The image processing apparatus recognizes a region the position and range of pixels of the original image corresponding to the attribute range.
属性範囲の指定は、色範囲、例えば、3原色(RGB)色空間において基準色及び当該基準色からの距離を指定することにより行うことができる。 Specified attribute range, color range, for example, can be done by specifying the distance from the reference color and the reference color in the three primary colors (RGB) color space. 基準色の指定は、画像処理装置の操作者が表示装置に表示された原画像のいずれかの画素をマウス等のポインティングデバイス等により指定することにより行うようにしてもよい。 Specifying reference color, one of the pixels of the original image by the operator of the image processing apparatus is displayed on the display device may be performed by specifying a pointing device such as a mouse or the like.

画像処理装置は、顔を示す原画像の所定の範囲を囲むことにより処理範囲を指定して肌の領域を認識し、その後、認識済の肌の領域外を処理範囲に設定して髪の領域を認識する。 The image processing apparatus recognizes the area of ​​the skin by specifying a processing range by enclosing the predetermined range of the original image showing the face, then the area of ​​the hair to set the area outside of recognized skin processing range recognize.
この場合、画像処理装置は、処理範囲を限定して肌の領域の認識処理を行い、その後、認識済の肌の領域の外側を処理範囲として髪の毛の領域を認識するので、髪の毛の領域と眉、瞳等の領域とを互いに誤認識することがなく、また、所定の範囲を囲むことによる処理範囲の指定は、1度だけであり、処理の迅速性を損なうこともない。 In this case, the image processing apparatus, by limiting the processing range performs recognition processing of the skin region, then since recognizing the area of ​​hair outside the recognition already skin area as a processing range, hair area and eyebrow , without erroneous recognition and a region of the pupil such each other, the designation of the processing range by surrounding a predetermined range, only once, nor impair the rapidity of processing.

画像処理装置は、認識済の領域に所定の処理を施して記憶部に保持する(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))としてマスク画像を作成する。)。 The image processing apparatus, the recognition already area by performing a predetermined processing stored in the storage unit (for example, the color white ((R component, G component, B component) = (255, 255, 255)) as a mask image to create a.).
また、画像処理装置は、合成用の画像(例えば、化粧を施した画像、テクスチャ画像)を記憶部に保持する。 The image processing apparatus holds the image for synthesis (e.g., image subjected to makeup, texture image) to the storage unit.

画像処理装置は、領域及び合成用の画像を指定されると、領域に係るデータ、合成用の画像に係るデータを記憶部から呼び出し、原画像の領域に合成用の画像を合成し、合成画像を作成・表示する。 The image processing apparatus, when the specified image area and synthetic, call data according to the area, the data relating to images for synthesis from the storage unit, an image for synthesis was synthesized in the area of ​​the original image, the composite image to create and display. 例えば、画像処理装置は、肌の領域にメイクを施した画像を合成して表示する。 For example, the image processing apparatus, and displays the synthesized image subjected to makeup to the skin area.
この場合、モデル、化粧品購入者自身の顔の画像データをベースに、リアルタイムに、簡易かつ高精細、現実感のあるメイクアップを仮想的に実現することができる。 In this case, the model, based on the image data of the face of cosmetics buyers themselves, in real time, it is possible to realize a simple and high-definition, a make-up with reality in a virtual manner.

第2の発明は、原画像に対して画像処理を施す画像処理方法であって、処理範囲を指定する処理範囲指定工程と、属性範囲を指定する属性範囲指定工程と、前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識工程と、を具備することを特徴とする画像処理方法である。 The second invention is an image processing method for performing image processing on the original image, and processing range designation step of designating the processing range, and attribute range specification step of specifying a range of attributes, the processing of the original image an image processing method characterized by comprising a recognizing region recognition step the region by extracting pixels belonging to the range of attributes in a range.
第2の発明は、第1の発明における画像処理装置が実行する画像処理方法に関する発明である。 The second invention is an invention relating to an image processing method for an image processing apparatus in the first aspect of the present invention is executed.

第3の発明は、コンピュータを第1の発明の画像処理装置として機能させるプログラムである。 A third invention is a program causing a computer to function as the image processing apparatus of the first invention.
第4の発明は、コンピュータを第1の発明の画像処理装置として機能させるプログラムを記録したコンピュータ読取可能な記録媒体である。 A fourth invention is a computer readable recording medium storing a program to function as the image processing apparatus of the computer the first invention.
上述のプログラムをCD−ROM等の記録媒体に保持させて流通させてもよいし、このプログラムを通信回線を介して送受することもできる。 May be caused to flow by holding the above-mentioned program on a recording medium such as a CD-ROM, it may be transmitted and received through a communication line the program.

本発明によれば、原画像に基づいて、迅速、高精度、かつ、簡便に領域認識等を行うことを可能とする、画像処理装置等を提供することができる。 According to the present invention, based on the original image, rapid, accurate and conveniently makes it possible to perform area recognition, etc., it is possible to provide an image processing apparatus or the like.

以下、添付図面を参照しながら、本発明に係る画像処理装置等の好適な実施形態について詳細に説明する。 Hereinafter, with reference to the accompanying drawings, it will be described in detail preferred embodiments of such an image processing apparatus according to the present invention. なお、以下の説明及び添付図面において、略同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。 In the following description and the accompanying drawings, components having substantially the same functional configuration will be omitted the duplicate description by referring to the figures.

最初に、図1を参照しながら、本発明の実施の形態に係る画像処理装置101の構成について説明する。 First, referring to FIG. 1, the configuration of the image processing apparatus 101 according to an embodiment of the present invention.
図1は、本発明の実施の形態に係る画像処理装置101のハードウェア構成図である。 Figure 1 is a hardware configuration diagram of an image processing apparatus 101 according to an embodiment of the present invention.
図1に示すように画像処理装置101は、制御部102、入力部103、表示部104、入出力部105、記憶部106、通信部107等がシステムバス108を介して互いに接続される。 The image processing apparatus 101 as shown in FIG. 1, the control unit 102, input unit 103, display unit 104, input unit 105, a storage unit 106, such as communication unit 107 are connected to each other via a system bus 108. 尚、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。 The hardware configuration of Figure 1 is an example, applications can adopt various configurations according to the purpose.

制御部102は、CPU(Central Processing Unit )、ROM(Read Only Memory )、RAM(Random Access Memory)等を有する。 Control unit 102 includes a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory) or the like.

CPUは、記憶部、ROM、記録媒体等に格納される実行プログラム、OS(オペレーションシステム)のプログラム等をRAM上のワークメモリ領域に呼び出して実行し、演算処理(四則演算や比較演算等)、ハードウェアやソフトウェアの動作制御等を行い、後述する各種機能(図7〜図9、図14等参照。)を実現する。 The CPU memory unit, ROM, executes a program stored in the recording medium or the like, OS program or the like (operation system) calls and executes the work memory area of ​​the RAM, processing (arithmetic operations and comparison operations, etc.), It performs hardware and software operation control of, implementing the various functions described below (FIGS. 7 to 9, see Figure 14, etc..).

ROMは、不揮発性メモリであり、プログラム、データ等を恒久的に保持し、例えば、OSと協働してハードディスク等への入出力を司るBIOS(Basic Input Output System)等を記憶する。 ROM is a nonvolatile memory, a program, and permanently storing data or the like, for example, in cooperation with the OS storing BIOS (Basic Input Output System) or the like which controls the output to the hard disk or the like.
RAMは、揮発性メモリであり、プログラム、データ等を一時的に保持する。 RAM is a volatile memory, a program, temporarily holds data.

入力部103は、データの入力を行い、例えば、マウス等のポインティングデバイス、キーボード、テンキー等の入力装置を有する。 Input unit 103 performs input of data, for example, with a pointing device such as a mouse, a keyboard, an input device such as a numeric keypad.
操作者は、入力部103を介して、画像処理装置101に対して、操作指示、動作指示、データ入力、維持管理等を行うことができる。 Operator, via the input unit 103, the image processing apparatus 101, the operation instruction, the operation instruction, the data input, it is possible to perform maintenance or the like.

表示部104は、CRTモニタ、液晶パネル等の表示装置(ディスプレイ装置)、表示装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。 Display unit 104 has a CRT monitor, a display device such as a liquid crystal panel (display device), a logic circuit for implementing the video function of the computer in conjunction with the display device or the like (video adapter, etc.). ビデオアダプタは、表示装置に出力する画像信号を生成する。 Video adapter generates an image signal to be output to the display device.
尚、表示装置は、画像処理装置101と一体として構成してもよいし、独立して構成し、画像処理装置101と接続するようにしてもよい。 The display device may be constituted integrally with the image processing apparatus 101, constructed independently, may be connected to the image processing apparatus 101.

入出力部105は、データの入出力を行い、例えば、フロッピディスクドライブ、PDドライブ、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW、−RAM等)、MOドライブ等のメディア入出力装置等を有する。 Output unit 105 performs input and output of data, for example, a floppy disk drive, PD drive, CD drive (-ROM, -R, -RW, etc.), DVD drive (-ROM, -R, -RW, -RAM etc.), with the media input and output devices such as MO drive.
尚、操作者は、入出力部105を介して、画像処理装置101に対して、CPUが実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等を入力することができ、記憶媒体を装着してアプリケーションプログラム等をハードディスクにインストールしたりする。 Incidentally, the operator, via the input unit 105, the image processing apparatus 101, programs executed by the CPU, program data required for execution, it is possible to enter the OS (Operating System) or the like, a storage medium the wearing or install the application program or the like to the hard disk.

記憶部106は、データを記憶する装置であり、ハードディスク、メモリ等を有する。 Storage unit 106 is a device for storing data, a hard disk, a memory, or the like. 記憶部106には、CPUが実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。 The storage unit 106, programs executed by the CPU, data necessary for program execution, OS (Operating System) or the like are stored.

通信部107は、画像処理装置101と接続線110を介して接続される撮像装置109(デジタルカメラ等)との通信を媒介する通信インタフェースであり、通信アダプタ等の通信制御装置、通信ポート等を有する。 The communication unit 107 is a communication interface that mediates communication with the imaging apparatus 109 connected via the connection line 110 and the image processing apparatus 101 (digital camera), the communication control device, such as a communications adapter, a communication port, etc. a.
尚、画像処理装置101と端末装置とをインターネット、LAN等のネットワークを介して接続して各種データの授受を行う場合、通信部107には、ネットワークアダプタ、LANアダプタ等が設けられる。 In the case where the a terminal device the image processing apparatus 101 Internet, and exchanges various data by connecting through a network such as a LAN, the communication unit 107, a network adapter, LAN adapter or the like is provided. ネットワークアダプタ、LANアダプタは、CPUによって制御されるOSの通信プログラムと協働して外部との通信を行う。 Network adapter, LAN adapter communicates with the outside in cooperation with the communication program of the OS is controlled by the CPU.
システムバス108は、各部、各装置間の制御信号、データ信号等の授受を媒介する経路である。 System bus 108 is a path that mediate various parts, control signals between the devices, the exchange of such data signals.

また、プリンタ装置等を有する出力部(図示しない)等を設け、画像処理装置101の維持管理等に用いるようにしてもよい。 The output unit having a printer device or the like (not shown) or the like is provided, may be used in maintenance or the like of the image processing apparatus 101.
尚、同様の構成を採るコンピュータ等を画像処理装置101として用いることができる。 Incidentally, it is possible to use a computer or the like to the same configuration as the image processing apparatus 101.

撮像装置109は、被写体111の撮像を行い、その画像データを取得する装置であり、例えば、デジタルカメラ等である。 Imaging device 109 captures an image of the object 111, a device for acquiring the image data, for example, a digital camera or the like. 撮像装置109により取得した画像データは、接続線110、通信部107を介して、あるいは、記録媒体112、入出力部105を介して、画像処理装置101に入力される。 Image data obtained by the imaging device 109, connecting line 110, via the communication unit 107, or through a recording medium 112, input unit 105 is input to the image processing apparatus 101.

次に、図1及び図2〜図6を参照しながら、画像処理装置101の記憶部106が保持する情報について説明する 図1に示すように、画像処理装置101の記憶部106には、原画像データ121、マスク画像データ122、テクスチャ画像データ123、合成画像データ124、実行プログラム125、OS126等が保持される。 Next, with reference to FIGS. 1 and FIGS. 2 to 6, the storage unit 106 of the image processing apparatus 101 will be described information held as shown in FIG. 1, the storage unit 106 of the image processing apparatus 101, the original image data 121, mask image data 122, the texture image data 123, the synthesized image data 124, execution program 125, OS 126 or the like is maintained.

原画像データ121は、原画像の表示データを画素毎に保持する。 Original image data 121 holds display data of the original image for each pixel. 原画像は、画像合成の元となる画像であり、例えば、撮像装置109により被写体111を撮像した画像、記録媒体112により入力される画像である。 Original image is the underlying image in the image synthesis, for example, an image that is an input image obtained by imaging the subject 111, the recording medium 112 by the imaging device 109.
マスク画像データ122は、マスク画像の表示データを画素毎に保持する。 Mask image data 122 holds display data of the mask image for each pixel. マスク画像は、画像合成を行う領域を示す画像であり、当該領域においてテクスチャ画像が合成される。 Mask image is an image showing a region for performing image synthesis texture image is synthesized in the area. 尚、後に詳述するが、マスク画像は、原画像に基づいて作成される。 Although described later in detail, the mask image is created based on the original image.

テクスチャ画像データ123は、テクスチャ画像の表示データを画素毎に保持する。 Texture image data 123 holds display data of a texture image for each pixel. テクスチャ画像は、原画像に対して合成する画像データであり、例えば、色彩、模様等に関するデータである。 Texture image is an image data to be synthesized on the original image, for example, color, and data related to the pattern or the like. テクスチャ画像については、必ずしも形状、位置等を特定する必要はない。 For texture image is not necessarily shape, you need to locate the like.
合成画像データ124は、合成画像の表示データを画素毎に保持する。 Composite image data 124 holds display data of the composite image for each pixel. 合成画像は、原画像にテクスチャ画像を合成した画像であり、例えば、原画像の特定の領域の色彩、模様等をテクスチャ画像の色彩、模様等に置き換えた画像である。 Composite image is an image obtained by synthesizing the texture image to the original image, for example, an image obtained by replacing colors of a particular region of the original image, a pattern or the like color of the texture image, the pattern or the like.

図2は、画素データの一態様を示す図である。 Figure 2 is a diagram illustrating an embodiment of the pixel data.
図2に示す画素データ201は、位置211、R成分212、G成分213、B成分214の等の各フィールドを有する。 Pixel data 201 shown in FIG. 2 has fields such as a position 211, R component 212, G component 213, B component 214. 尚、画素データは、種々の構成が可能である。 The pixel data may be variously configured.
原画像データ121、マスク画像データ122、テクスチャ画像データ123、合成画像データ124は、画素毎に表示データ(画素データ)を保持する。 Original image data 121, mask image data 122, the texture image data 123, the composite image data 124, and hold the display data (pixel data) for each pixel.

位置211は、画素位置を示し、例えば、XY平面における座標位置(0,0)である。 Position 211 indicates the pixel position, for example, a coordinate position in the XY plane (0,0).
R成分212、G成分213、B成分214は、それぞれ、色空間における3原色のR成分(赤)、G成分(緑)、B成分(青)の値を示し、例えば、8ビットの場合「128」、「10」、「50」である。 The R component 212, G component 213, B component 214, respectively, indicate the value of the R component of three primary in the color space (red), G component (green), B component (Blue), for example, in the case of 8-bit " 128 "," 10 "," 50 ".

尚、マスク画像データ122は、画像合成を行う領域内にある画素を抽出したものである。 The mask image data 122 is obtained by extracting the pixels within a region that performs image synthesis. マスク画像データ122のR成分212、G成分213、B成分214の値は、画像処理装置101における合成処理の態様に基づいて保持されるが、例えば、画像合成領域を白く塗り潰したものをマスク画像データ122とする場合、R成分212、G成分213、B成分214の値は、それぞれ、「255」、「255」、「255」とされる。 The value of the R component 212, G component 213, B component 214 of the mask image data 122 is held on the basis of the embodiment of the synthesis process in the image processing apparatus 101, for example, a mask image that filled white image combining region If the data 122, the value of the R component 212, G component 213, B component 214, respectively, "255", "255", are "255".

図3は、原画像データ121に基づいて展開、表示される原画像301の一態様を示す図である。 Figure 3 is developed based on the original image data 121 is a diagram showing an embodiment of the original image 301 to be displayed. 原画像301のデータ(原画像データ)は、画素302毎に表示データ(画素データ)を保持する。 The original image data 301 (original image data) holds the display data (pixel data) for each pixel 302.
図4は、マスク画像データ122に基づいて展開、表示されるマスク画像401の一態様を示す図である。 Figure 4 is a development based on the mask image data 122 is a diagram showing an embodiment of the mask image 401 to be displayed. マスク画像401のデータ(マスク画像データ)は、画素402毎に表示データ(画素データ)を保持する。 Data of the mask image 401 (mask image data), and hold the display data (pixel data) for each pixel 402.
図5は、テクスチャ画像データ123に基づいて展開、表示されるテクスチャ画像501の一態様を示す図である。 Figure 5 is developed based on the texture image data 123 is a diagram showing an embodiment of a texture image 501 that is displayed. テクスチャ画像501のデータ(テクスチャ画像データ)は、画素502毎に表示データ(画素データ)を保持する。 Data of texture image 501 (texture image data), and hold the display data (pixel data) for each pixel 502.
図6は、合成画像データ124に基づいて展開、表示される合成画像601の一態様を示す図である。 Figure 6 is developed based on the synthesized image data 124 is a diagram showing an embodiment of the composite image 601 to be displayed. 合成画像601のデータ(合成画像データ)は、画素602毎に表示データ(画素データ)を保持する。 Data of the composite image 601 (combined image data), and hold the display data (pixel data) for each pixel 602.

次に、図7を参照しながら、画像処理装置101の全体的な動作について説明する。 Next, referring to FIG. 7, the overall operation of the image processing apparatus 101 will be described.
図7は、画像処理装置101の全体的な動作を示すフローチャートである。 Figure 7 is a flow chart showing the overall operation of the image processing apparatus 101.

画像処理装置101(制御部102)は、入力された原画像データを記憶部106に保持する(ステップ701)。 The image processing apparatus 101 (control unit 102) holds the input original image data in the storage unit 106 (step 701). 原画像データの入力は、撮像装置109により撮像した原画像データを接続線110を介して入力するようにしてもよいし、記録媒体112に記録した原画像データを入出力部105を介して入力するようにしてもよい。 Input of the original image data may be input via a connection line 110 to the original image data captured by the imaging apparatus 109, the recorded original image data in the recording medium 112 via the input-output unit 105 inputs it may be.
画像処理装置101(制御部102)は、原画像データに基づいて領域を示すマスク画像データを作成し、記憶部106に保持する(ステップ702)。 The image processing apparatus 101 (control unit 102) creates a mask image data indicating the area on the basis of the original image data is stored in the storage unit 106 (step 702).

画像処理装置101(制御部102)は、原画像に合成する領域(合成領域)が指定されると、当該領域を示すマスク画像データを記憶部106から抽出し(ステップ703)、合成用のテクスチャ画像が指定されると、指定されたテクスチャ画像データを記憶部106から抽出し(ステップ704)、マスク画像データが示す合成領域において、原画像データとテクスチャ画像データを合成して合成画像データを作成して記憶部106に保持すると共に、合成画像を表示する(ステップ705)。 The image processing apparatus 101 (control unit 102), the region to be combined with the original image (combined area) is specified, extracts mask image data indicating the area from the storage unit 106 (step 703), the texture for synthesis creating the image is designated, to extract the specified texture image data from the storage unit 106 (step 704), in the synthesis area indicated by the mask image data, the synthetic image data by synthesizing the original image data and texture image data while held in the storage unit 106, displays the composite image (step 705).

図17は、画像合成処理等(図7:ステップ703〜ステップ705)における、画像処理装置101が表示する操作画面1700の一態様を示す図である。 17, the image synthesizing processing, etc. (FIG. 7: Step 703~ step 705) in a diagram showing an embodiment of an operation screen 1700 of the image processing apparatus 101 is displayed.
操作者が、画面1700を介して、合成領域として領域(肌)1701を指定し、合成するテクスチャ画像としてテクスチャ画像1702を指定すると、画像処理装置101は、領域(肌)1701にテクスチャ画像1702を合成し、合成画像1703を表示する。 Operator, via the screen 1700, to specify an area (skin) 1701 as synthesis region, specifying the texture image 1702 as a texture image to be combined, the image processing apparatus 101, the texture image 1702 in a region (skin) 1701 synthesized, and displays the synthesized image 1703.

次に、図8を参照しながら、マスク画像データ作成処理(図7:ステップ702)における、画像処理装置101の動作について説明する。 Next, referring to FIG. 8, the mask image data creation processing (FIG. 7: Step 702) in, the operation of the image processing apparatus 101 will be described.
図8は、マスク画像データ作成処理における、画像処理装置101の動作を示すフローチャートである。 8, in the mask image data creation processing is a flowchart showing the operation of the image processing apparatus 101.

まず、画像処理装置101は、原画像データに基づいて、肌の領域を示す画像データ(マスク画像データ(肌))の作成処理を行う。 First, the image processing apparatus 101, based on the original image data, performs a process of generating image data indicating an area of ​​the skin (the mask image data (skin)).
画像処理装置101(制御部102)は、操作者が矩形ガイドライン位置を指定すると(ステップ801)、処理範囲を矩形ガイドラインの内側に設定する(ステップ802)。 The image processing apparatus 101 (control unit 102), when the operator designates a rectangular guidelines position (step 801), sets the processing range inside the rectangular Guidelines (Step 802).

尚、処理範囲は、処理対象の画素データの位置範囲を示す。 Note that the processing range indicates the position range of the pixel data to be processed. 画像処理装置101は、この処理範囲内に位置する画素データに対して領域に属する画素であるか否か等の判断、処理を行い、処理範囲外に位置する画素データに対しては、判断対象、処理対象から除外する。 The image processing apparatus 101, the processing range determination as to whether a pixel belongs to the area for the pixel data located within the process performed on the pixel data located outside the processing range is determined subject , excluded from the processing target.

画像処理装置101(制御部102)は、上記処理範囲において、領域(肌)の認識を行い(ステップ803)、原画像データから当該領域(肌)に属する画素データを抽出し、所定の処理(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))とする。)を施してマスク画像データ(肌)を作成し、記憶部106に保持する(ステップ804)。 The image processing apparatus 101 (control unit 102), in the processing range, performs a recognition area (skin) (step 803), extracts the pixel data belonging to the region (the skin) from the original image data, predetermined processing ( for example, the color white ((R component, G component, B component) = (255, 255, 255)) and.) subjected to create a mask image data (skin), is held in the storage unit 106 (step 804).
尚、領域認識処理(ステップ803)については、後述する。 Note that the region recognition processing (step 803), described below.

続いて、画像処理装置101は、原画像データに基づいて、髪の領域を示す画像データ(マスク画像データ(髪))の作成処理を行う。 Subsequently, the image processing apparatus 101, based on the original image data, performs a process of generating image data indicating an area of ​​the hair (mask image data (hair)).
画像処理装置101は、処理範囲を認識済の領域(肌)の外側に設定する(ステップ805)。 The image processing apparatus 101 sets the processing range on the outside of the recognition already in the area (skin) (step 805).

画像処理装置101(制御部102)は、上記処理範囲において、領域(髪)の認識を行い(ステップ806)、原画像データから当該領域(髪)に属する画素データを抽出し、所定の処理(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))とする。)を施してマスク画像データ(髪)を作成し、記憶部106に保持する(ステップ807)。 The image processing apparatus 101 (control unit 102), in the processing range, performs a recognition area (hair) (step 806), extracts the pixel data belonging to the region (hair) from the original image data, predetermined processing ( for example, the color white ((R component, G component, B component) = (255, 255, 255)) and.) subjected to create a mask image data (the hair), held in the storage unit 106 (step 807).
尚、領域認識処理(ステップ806)については、後述する。 Note that the region recognition processing (step 806), described below.

続いて、画像処理装置101は、原画像データに基づいて、その他領域(目の領域、唇の領域、眉の領域等)を示す画像データ(マスク画像データ(その他))の作成処理を行う。 Subsequently, the image processing apparatus 101, based on the original image data, other regions (eye region, the lip region, area or the like of the eyebrow) a process of generating image data indicating the (mask image data (Others)) performed.
画像処理装置101は、処理範囲を認識済の領域以外に設定する(ステップ808)。 The image processing apparatus 101 sets the processing range in addition to the recognition already areas (step 808).

画像処理装置101(制御部102)は、上記処理範囲において、領域(その他)の認識を行い(ステップ809)、原画像データから当該領域(その他)に属する画素データを抽出し、所定の処理(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))とする。)を施してマスク画像データ(その他)を作成し、記憶部106に保持する(ステップ810)。 The image processing apparatus 101 (control unit 102), in the processing range, region (other) recognizes performed in (step 809), extracts the pixel data belonging to the region from the original image data (Other), predetermined processing ( for example, to create a mask image data (Others) subjected to the color white ((R component, G component, B component) = (255, 255, 255)) and.), held in the storage unit 106 (step 810).
尚、領域認識処理(ステップ809)については、後述する。 Note that the region recognition processing (step 809), described below.

次に、図9を参照しながら、領域認識処理(図8:ステップ803、ステップ806、ステップ809)における、画像処理装置101の動作について説明する。 Next, referring to FIG. 9, the area recognizing process (FIG. 8: step 803, step 806, step 809) in, the operation of the image processing apparatus 101 will be described.
図9は、領域認識処理における、画像処理装置101の動作を示すフローチャートである。 9, in the area recognizing process is a flowchart showing the operation of the image processing apparatus 101.

画像処理装置101(制御部102)は、領域として抽出する画素の色範囲が指定されると(ステップ901)、上記処理範囲内において、原画像データから指定された色範囲にある画素データを抽出することにより、領域を取得する(ステップ902)。 The image processing apparatus 101 (control unit 102), the color range of the pixel to be extracted as an area is designated (step 901), extracted in the above process range, the pixel data in the color range specified by the original image data it allows to obtain the region (step 902).

領域を追加する場合(ステップ903のYes)、画像処理装置101(制御部102)は、ステップ901〜ステップ902の処理を繰り返す。 When adding area (Yes in step 903), the image processing apparatus 101 (control unit 102) repeats the processing of step 901 to step 902.
領域を追加しない場合(ステップ903のNo)、画像処理装置101(制御部102)は、抜け領域の修正を行い(ステップ904)、領域を決定する(ステップ905)。 If you do not add region (No in step 903), the image processing apparatus 101 (control unit 102) performs the correction of the background region (step 904), determines the region (step 905).

図10は、抜け領域修正処理(図9:ステップ904)についての説明図である。 Figure 10 is irradiated region correction processing (Fig. 9: 904) is an explanatory diagram of.
上記領域取得処理において(図9:ステップ901〜ステップ903等)、原画像データの撮影時の照明等の影響により、領域として認識されるべき部分が領域として認識されず、抜け領域を生ずる場合がある。 The area obtained in the process (Fig. 9: step 901 to step 903, etc.), due to the influence of illumination, etc. at the time of photographing of the original image data, the part to be recognized as an area is not recognized as a region, it may result in missing region is there.

図10に示すように、抜け領域修正処理前の取得領域(髪)1001は、その内側に抜け領域1002を生じている。 As shown in FIG. 10, exit area correction processing before the acquisition region (hair) 1001 occurs a background region 1002 inside thereof. この場合、画像処理装置101は、当該抜け領域1002を領域(髪)として修正し、領域(髪)1003とする。 In this case, the image processing apparatus 101 modifies the background region 1002 as an area (the hair), the area (the hair) 1003.
例えば、画像処理装置101は、領域(髪)1001と抜け領域1002の面積比を算出し、抜け領域1002の割合が所定の割合に満たない場合、当該抜け領域1002を領域(髪)として修正する。 For example, the image processing apparatus 101 calculates the area ratio of the region (the hair) 1001 and irradiated region 1002, if the ratio of the irradiated region 1002 is less than the predetermined ratio, corrects the background region 1002 as an area (hair) .

次に、図11〜図13を参照しながら、画像処理装置101の操作及び処理の流れについて説明する。 Next, with reference to FIGS. 11 to 13, the flow of operations and processing of the image processing apparatus 101 will be described.

図11は、原画像データ入力処理(図7:ステップ701)において、画像処理装置101が表示する画面1100の一態様を示す図である。 11, the original image data input process (FIG. 7: Step 701) in a diagram showing an embodiment of a screen 1100 that the image processing apparatus 101 is displayed.
操作者(被写体111等)は、画面1100を介して、撮像装置109により被写体111を撮影し、原画像データを画像処理装置101に入力する。 Operator (object 111, etc.) via the screen 1100, photographing the subject 111 by the imaging device 109, inputs the original image data to the image processing apparatus 101.

操作者は、被写体111の顔部分が画像表示枠1101に収まっているかを確認した後、ボタン1102(「撮影」)を押下する。 Operator, after the face portion of the object 111 to confirm whether the fits to the image display frame 1101, the user presses the button 1102 ( "shooting"). 撮像装置109は、被写体111の顔部分を撮影し、画像処理装置101は、撮像装置109から送られた画像データを原画像データとして記憶部106に保持する。 Imaging device 109 photographs the face portion of the subject 111, the image processing apparatus 101 held in the storage unit 106 the image data sent from the image pickup device 109 as an original image data.

図12は、マスク画像データ(肌)作成処理(図7:ステップ702、図8ステップ801〜ステップ804、図9:ステップ901〜ステップ905)において、画像処理装置101が表示する画面1200の一態様を示す図である。 12, the mask image data (skin) generation process (FIG. 7: Step 702, FIG. 8 step 801 step 804, Fig. 9: step 901 to step 905) In one embodiment of the screen 1200 by the image processing apparatus 101 displays is a diagram illustrating a.

操作者は、画面1200上で、肌の領域が収まるように矩形ガイドライン1201の位置、大きさ、形状等を調整し(ステップ801)、原画像データから領域(肌)として抽出する画素データの色範囲を指定し(ステップ901)、ボタン1204(「領域(肌)取得」)を押下する。 Operator, on the screen 1200, the position of the rectangular Guidelines 1201 as the skin region falls, size, and adjusting the shape or the like (step 801), the pixel data to be extracted as a region (the skin) from the original image data color Specifies the range (step 901), presses the button 1204 ( "area (skin) acquisition").
画像処理装置101は、領域(肌)1205を取得する(ステップ902)。 The image processing apparatus 101 acquires the area (skin) 1205 (step 902).

色範囲の指定は、基準色指定ポインタ1202及び範囲長指定バー1203により行うことができる。 Designation of the color range can be carried out by standard color designation pointer 1202 and the range length specifying bar 1203. 基準色指定ポインタ1202は、色範囲の基準となる色彩を指定するものであり、ポイント、クリック等された画素の色彩が基準色となる。 Reference color designating pointer 1202, which specifies the color to be a reference color range, point, the color of the pixel that was clicked or the like is a reference color. 範囲長指定バー1203は、色範囲の大きさ等を指定するものであり、例えば、色空間における基準色からの隔たりの限界を示す。 Range Length Specifies bar 1203, which specifies the size of the color range, for example, it shows a limit of distance from the reference color in the color space.

図16は、色範囲1601の一態様を示す図である。 Figure 16 is a diagram illustrating an embodiment of the color range 1601.
色範囲1601は、RGB色空間において、中心を基準色1602(R 、G 、B )、半径を範囲長1603(L)とする球により定められる。 Color range 1601, the RGB color space, the reference color 1602 center (R 0, G 0, B 0), is defined by a sphere in a range length 1603 (L) the radius.
基準色指定ポインタ1202によりポイント、クリック等された画素の色彩を基準色(R 、G 、B )、範囲長指定バー1203により指定された値を範囲長(L)とすると、色範囲は、[式1]を満たすRGB空間内の色彩値をとる画素の集合となる。 Point by the reference color designation pointer 1202, color the reference color of the pixel clicked like (R 0, G 0, B 0), when the specified value range length (L) and the range length specifying bar 1203, color range is a set of pixels taking the color values ​​of the RGB space that satisfies expression 1].
〔(R−R +(G−G +(B−B (1/2) ≦L…[式1] [(R-R 0) 2 + (G-G 0) 2 + (B-B 0) 2 ] (1/2) ≦ L ... [Equation 1]

例えば、R、G、Bそれぞれ8ビット値(0〜255)で示される色空間において、基準色((R 、G 、B )=(214、165、144))、範囲長(L=30)の場合、R:184〜244、G:135〜195、B:114〜174であって、かつ、上記[式1]を満たすR、G、Bの値をもつ画素が領域内の画素として抽出される。 For example, R, G, and in a color space represented by each 8-bit value B (0 to 255), the reference color ((R 0, G 0, B 0) = (214,165,144)), the range length (L = 30) for, R: 184~244, G: 135~195, B: a 114 to 174, and the satisfying the expression 1] R, G, pixels having the value of B is in the area It is extracted as a pixel.

図13は、領域追加処理(図9:ステップ903)において、画像処理装置101が表示する画面1300の一態様を示す図である。 13, area addition processing (FIG. 9: step 903) in a diagram showing an embodiment of a screen 1300 that the image processing apparatus 101 is displayed.

操作者は、肌の領域を追加する場合(ステップ903のYes)、基準色指定ポインタ1302、範囲長指定バー1303により、追加領域(肌)として抽出する画素データの色範囲を指定し(ステップ901)、ボタン1304(「領域(肌)追加」)を押下する。 Operator, to add a region of skin (Yes in step 903), the reference color designating pointer 1302, the range length specifying bar 1303, specifies the color range of the pixel data to be extracted as an additional area (skin) (step 901 ), the user presses the button 1304 ( "area (skin) Add").
画像処理装置101は、追加領域(肌)1305を取得する(ステップ902)。 The image processing apparatus 101 acquires an additional area (skin) 1305 (step 902).
尚、操作者は、画面1300上で、矩形ガイドライン1301により、領域追加処理に係る処理範囲を改めて指定するようにしてもよい。 Note that the operator, on the screen 1300, the rectangular guidelines 1301 may be again specify the processing range of the area addition processing.

操作者は、肌の領域を決定する場合(ステップ903のNo)、ボタン1306(「領域(肌)決定」)を押下する。 Operator, (No in Step 903) When determining the area of ​​the skin, presses the button 1306 ( "area (skin) decision"). 画像処理装置101は、領域認識、領域追加等の処理を経て、最終的に、領域(肌)を決定する。 The image processing apparatus 101, area recognition, through a process such as area addition, ultimately, to determine the area (skin).

尚、領域(髪)の取得についての操作は、上記領域(肌)の取得についての操作と同様であるが、画像処理装置101が処理範囲を領域(肌)の外側に設定するので(図8:ステップ805)、操作者は、矩形ガイドラインについての操作(処理範囲の指定)を行う必要はない。 The operation for obtaining the region (the hair) is similar to the operation for obtaining the region (the skin), the image processing apparatus 101 sets the processing range in the outer area (skin) (FIG. 8 : step 805), the operator need not perform an operation for rectangular guidelines (specified processing range).
また、領域(その他)の取得についての操作は、上記領域(肌)の取得についての操作と同様であるが、画像処理装置101が処理範囲を認識済の領域以外の範囲に設定するので(図8:ステップ808)、操作者は、矩形ガイドラインについての操作(処理範囲の指定)を行う必要はない。 The operation for obtaining the region (other) is similar to the operation for obtaining the region (the skin), the image processing apparatus 101 is set in a range other than the region of the already recognizes processing range (Fig. 8: step 808), the operator need not perform an operation for rectangular guidelines (specified processing range).

以上の過程を経て、画像処理装置101は、矩形ガイドラインの内側を処理範囲として領域(肌)を認識し、次に、当該領域(肌)の外側を処理範囲として領域(髪)を認識し、その後、領域(その他)を認識する。 Through these processes, the image processing apparatus 101 recognizes the area (skin) the inner rectangular guidelines as processing range, then recognizes the region (hair) outside of the area (skin) as a processing range, then, recognizing the area (other). 画像処理装置101は、認識した領域の画素データに所定の処理を施してマスク画像データを作成し、記憶部に保持する。 The image processing apparatus 101 creates a mask image data by performing predetermined processing on the pixel data of the recognized area, held in the storage unit.

髪の毛と眉、瞳等とは色彩等が近似していることもあり、領域認識が困難となる場合があるが、画像処理装置101は、処理範囲を限定して肌の領域の認識処理を行い、その後、認識済の肌の領域の外側を処理範囲として髪の毛の領域を認識するので、髪の毛の領域と眉、瞳等の領域とを互いに誤認識することがない。 Hair and eyebrows, the eyes, etc. Sometimes color and the like are similar, there is a case where area recognition becomes difficult, the image processing apparatus 101 performs the recognition processing for the skin area by limiting the processing range , then since recognizing the area of ​​hair outside the recognition already skin area as a processing range, never be erroneously recognized hair region and eyebrows, and an area of ​​the pupil, etc. to each other. また、矩形ガイドラインによる処理範囲の指定は、1度だけであり、処理の迅速性を損なうこともない。 Further, designation of the processing range by the rectangle guideline is only once, nor damaging the rapidity of processing.

次に、図14及び図15を参照しながら、図9に示す手順と異なる領域認識処理における、画像処理装置101の動作について説明する。 Next, with reference to FIGS. 14 and 15, the procedure different regions recognition process shown in FIG. 9, the operation of the image processing apparatus 101.
図14は、図9に示す手順と異なる領域認識処理における、画像処理装置101の動作を示すフローチャートである。 14, the procedure different regions recognition process shown in FIG. 9 is a flowchart showing the operation of the image processing apparatus 101.
図15は、図9に示す手順と異なる領域認識処理の流れを示す図である。 Figure 15 is a diagram showing a flow of steps with different regions recognition process shown in FIG.

図9に示す領域認識処理では、画像処理装置101は、処理範囲内の全ての画素データについて、所定の色範囲に属するか否かを判断するものとして説明したが、図14に示す領域認識処理では、画像処理装置101は、少なくとも1の境界画素(領域の境界上の画素)を検出した後は、当該境界画素近傍を処理範囲と設定して、新たな境界画素の検出を行う。 The area recognizing process shown in FIG. 9, the image processing apparatus 101, for all the pixel data in the processing range has been described as determining whether belongs to a predetermined color range, area recognition process shown in FIG. 14 in the image processing apparatus 101, after detecting the at least one boundary pixel (pixel on the boundary of the region), and set the processing range of the boundary pixel neighborhood, to detect a new boundary pixel.

画像処理装置101(制御部102)は、色範囲が指定されると(ステップ1401)、少なくとも1の境界画素(領域の境界上の画素)を検出する(ステップ1402)。 The image processing apparatus 101 (control unit 102), the color range is specified (step 1401), detecting at least one boundary pixel (pixel on the boundary of the area) (step 1402).
画像処理装置101(制御部102)は、境界画素の近傍を新たな処理範囲に設定し(ステップ1403)、当該処理範囲内の画素データについて、新たな境界画素を検出する(ステップ1404)。 The image processing apparatus 101 (control unit 102), in the vicinity of the boundary pixels is set to a new processing range (step 1403), the pixel data in the processing range, detects the new boundary pixel (step 1404).

画像処理装置101(制御部102)は、検出済の境界画素が閉じた領域を形成しない場合(ステップ1405のNo)、ステップ1403〜ステップ1404の処理を繰り返し、検出済の境界画素が閉じた領域を形成する場合(ステップ1405のYes)、当該閉じた領域を認識領域として決定する(ステップ1406)。 The image processing apparatus 101 (control unit 102), (No in Step 1405) When not form a region boundary pixel detected already closed, repeats the processing in step 1403~ step 1404, a region boundary pixel detected already closed when forming a (Yes in step 1405), to determine the enclosed area as a recognition area (step 1406).

図15に示すように、領域(髪)の認識処理を行う場合、画像処理装置101は、原画像1501の点Aから点Bへ向かって、境界画素を探索し、1の境界画素1502を検出し、当該境界画素1502の近傍(例えば、当該境界画素から所定の距離以下の範囲。)を処理範囲1503とし、当該処理範囲1503内において、新たな境界画素1504を検出し、境界画素が閉じた領域を形成したら、これを領域(髪)1505と決定する。 As shown in FIG. 15, when performing recognition processing areas (the hair), the image processing apparatus 101 comprises, from the point A of the original image 1501 to point B, to explore the boundary pixels, detecting a boundary pixel 1502 and, the vicinity of the boundary pixels 1502 (e.g., a range from the boundary pixel following a predetermined distance.) and processing range 1503, within the processing range 1503 to detect a new boundary pixel 1504, the boundary pixels are closed After forming the region, which determines the region (the hair) 1505.

このように、図14に示す領域認識処理では、処理範囲が境界画素近傍に限定されるので、画像処理装置101の処理負担が軽減される。 Thus, the area recognizing process shown in FIG. 14, since the processing range is limited to the vicinity of the boundary pixels, the processing load of the image processing apparatus 101 is reduced. また、境界画素が閉じた領域を形成したらこれを認識領域として決定するので、抜け領域が生じるおそれがない。 Moreover, since this is determined as the recognition area After forming a region boundary pixel is closed, there is no risk of omission region occurs.

以上説明したように、本発明の実施の形態によれば、画像処理装置は、処理範囲を限定して肌の領域の認識処理を行い、その後、認識済の肌の領域の外側を処理範囲として髪の毛の領域を認識するので、髪の毛の領域と眉、瞳等の領域とを互いに誤認識することがない。 As described above, according to the embodiment of the present invention, the image processing apparatus, by limiting the processing range performs recognition processing of the skin area, then, as the processing range outside the recognition already skin area since recognizing areas of hair, hair regions and eyebrows, never be erroneously recognized each other and an area of ​​the pupil, and the like. また、操作者の操作による処理範囲の指定は、1回でよく、処理の迅速性を損なうこともない。 Further, the specification of the processing range by the operation of the operator, nor impair good, the rapidity of the process at a time.
また、処理範囲を限定することにより、画像処理装置における処理負担の軽減、処理時間の短縮を図ることができる。 Further, by limiting the processing range, reduce the processing load in the image processing apparatus, it is possible to shorten the processing time.
尚、上述の実施の形態では、操作者による処理範囲の指定は、矩形ガイドラインを用いるものとして説明したが、矩形のガイドラインのみならず、種々の手順によることができる。 In the embodiment described above, the specified processing range by the operator has been described as using a rectangular guidelines not only rectangular guidelines can be by a variety of procedures. 例えば、形状、大きさが共に可変の楕円状のガイドライン、自由曲線によるガイドライン等を用いることができる。 For example, it is possible to use shape, both the size variable elliptical guidelines guidelines due free curves.

また、画像処理装置は、原画像に基づいて、画素単位で合成領域を認識するので、画像合成を行った際、領域の境界付近についても自然な画像表示を行うことができる。 Further, the image processing apparatus, based on the original image, since recognizing the combining region in pixel units, time of image synthesis, it is possible to perform a natural image displayed on the vicinity of the boundary of the region. 例えば、髪の毛先についても領域認識することにより、髪の毛と肌の境界付近をより自然な態様で表示することができる。 For example, by region also recognize hair destination, can be displayed near the boundary of the hair and skin in a more natural manner.
従って、装置(パーソナルコンピュータ等)上に取り込んだモデル、化粧品購入者自身の顔をベースに、リアルタイムに、簡易かつ高精細、現実感のあるメイクアップを仮想的に実現することができる。 Thus, the device model captured on (personal computer or the like), based on the face of cosmetics buyers themselves, in real time, it is possible to realize a simple and high-definition, a make-up with reality in a virtual manner.

また、画像処理装置は、画像合成処理を行う前に、原画像データに基づいて必要な合成領域を全て認識し、マスク画像データとして記憶部に保持するので、画像合成処理を行う度に、合成領域の認識処理を行う必要がなく、画像合成処理を迅速に行うことができる。 Further, the image processing apparatus, before performing the image combining process to recognize all of the necessary synthesis area on the basis of the original image data, since stored in the storage unit as the mask image data, every time performing image synthesis processing, synthesis it is not necessary to perform recognition processing area, the image composition processing can be quickly performed.
さらに、操作者は、合成領域を指定する際、認識済の領域を選択するだけでよく、操作負担が軽減される。 Furthermore, the operator, when specifying the combining region, need only select the recognition already region, the operation load is reduced. 例えば、画像合成を行いたい部位毎に、画像合成を行う度毎に、矩形枠の大きさ、形状等を調整しながらその部位を囲んで選択したりする必要はない。 For example, for each region to be subjected to image synthesis, the time every time to perform image synthesis, the size of the rectangular frame, there is no need or select enclose the site while adjusting the shape.

尚、合成領域、マスク画像等の指定は、マウス等により原画像の所望の領域内の1点を指定することにより行うことができる。 Incidentally, combining region, designation of the mask image may be performed by specifying a point within a desired region of the original image by a mouse or the like. 例えば、領域(肌)を指定する場合、操作者は、原画像の顔の頬部をマウスでクリックし、画像処理装置は、記憶部からマスク画像データ(肌)を呼び出す。 For example, to specify an area (skin), the operator, the cheek of the face of the original image by clicking with a mouse, the image processing apparatus calls the mask image data (skin) from the storage unit. この場合、画像処理装置は、記憶部において、クリック位置にある画素位置を領域に含むマスク画像データを検索することにより、マスク画像データ(肌)を呼び出すことができる。 In this case, the image processing apparatus, the storage unit, the pixel position in the click position by searching the mask image data including the region can be called the mask image data (skin).
さらに、画像処理装置は、画像合成処理を行う前に、原画像データに基づいて必要な領域を全て認識し、マスク画像データとして記憶部に保持するので、認識領域、マスク画像データの一覧(図示しない)を表示するようにしてもよい。 Further, the image processing apparatus, before performing the image combining process, recognizes all regions required on the basis of the original image data, since stored in the storage unit as the mask image data, recognition area, a list of the mask image data (shown do not) may be displayed. この場合、操作者は、この一覧から合成領域、マスク画像等を選択することができる。 In this case, the operator can select the synthetic region, the mask image or the like from the list.

尚、領域認識処理に関しては、各領域の特性に応じて種々の手順を用いることができる。 With respect to the region recognition processing, it is possible to use various procedures, depending on the characteristics of each region. 例えば、目の領域の上方3画素分をアイラインの領域としてもよいし、唇の領域の認識処理においては、顔の下部1/3を処理範囲とすることにより、画像処理装置の処理負担の軽減を図るようにしてもよい。 For example, the upper three pixels eye region may be a region of the eye lines, in the recognition processing of the lip region, by the processing range of the lower third of the face, the processing load of the image processing apparatus it may be achieved reduced.

また、画像処理装置は、領域認識に関する処理、画像合成に関する処理等を行うものとして説明したが、専ら領域認識に関する処理等を行う装置(領域認識装置等)、専ら画像合成に関する処理等を行う装置(画像合成装置等)をそれぞれ独立させて構成するようにしてもよいし、上述の実施の形態に示すように、これらを一体の装置(画像処理装置等)として構成するようにしてもよい。 Further, the image processing apparatus, processing related area recognition, it has been described that performs processing related to the image synthesizing exclusively apparatus for performing processing concerning area recognition (region recognition device, etc.), exclusively apparatus for performing processing concerning image synthesis it (image synthesizing device, etc.) may be configured by each is independently, as shown in the above embodiments, it may be configured as an integrated device (image processing apparatus).

また、原画像の撮影、入力時、被写体の背景をブルーバックにすることにより、領域認識の正確性、迅速性の向上を図るようにしてもよい。 The photographing of the original image, input, by the background of the subject on a blue back, may be achieved accuracy, improving the rapidity of region recognition.
また、上述の実施の形態では、色範囲の指定は、3原色の各成分(R、G、B)について行ったが、これに限られない。 Further, in the above embodiment, the specified color range, each component of three primary colors (R, G, B) have been performed on, but not limited thereto. 例えば、輝度、色相、明度、彩度等を考慮するようにしてもよい。 For example, luminance, hue, lightness, may be taken into consideration the saturation or the like.

次に、図18を参照しながら、本発明の他の実施の形態について説明する。 Next, referring to FIG. 18, a description of another embodiment of the present invention.
図18は、本発明の他の実施の形態に係る画像処理システム1800の概略構成図である。 Figure 18 is a schematic configuration diagram of an image processing system 1800 according to another embodiment of the present invention.

図18に示すように画像処理システム1800は、画像処理装置1801、端末装置1802等が、ネットワーク1803により接続されて構成される。 Image processing system 1800 as shown in FIG. 18, the image processing apparatus 1801, the terminal device 1802 or the like, constructed are connected by a network 1803. 通常、複数の端末装置1802がネットワーク1803に接続される。 Usually, a plurality of terminal devices 1802 are connected to the network 1803.
画像処理装置1801〜端末装置1802間では、ネットワーク1803を介して相互に通信可能である。 In between the image processing apparatus 1801~ terminal device 1802 can communicate with each other via a network 1803.

画像処理装置1801は、上述の実施の形態における画像処理装置101と同様のものである。 The image processing apparatus 1801 is the same as the image processing apparatus 101 in the above embodiment.
端末装置1802は、ネットワーク1803を介して画像処理装置1801と各種データの授受を行う装置であり、例えば、パーソナルコンピュータ、情報携帯端末、携帯電話等である。 Terminal 1802 is a device that exchanges the image processing apparatus 1801 and various data through the network 1803, for example, a personal computer, personal digital assistant, a cellular phone or the like.

ネットワーク1803は、インターネット等のネットワークであり、有線、無線を問わない。 Network 1803 is a network such as the Internet, be wired or wireless. また、安全かつ円滑な通信を担保するため、インターネット等の公衆が利用可能なネットワークではなく、専用線、OBN(Open Business Network)、インターネットVPN(Virtual Private Network)等を利用するようにしてもよい。 Further, in order to ensure safe and smooth communications, rather than the public available network such as the Internet, a dedicated line, OBN (Open Business Network), may be the Internet VPN (Virtual Private Network), etc. .

先述の実施の形態では、原画像データは、撮像装置から接続線を介して、あるいは、記録媒体を介して、画像処理装置に入力され、合成画像は、当該画像処理装置に設けられる表示装置に表示されるものとして説明したが、図18に示す他の実施の形態では、インターネット等のネットワーク1803を介して、端末装置1802から画像処理装置1801に対して原画像データの送信を行い、画像処理装置1801から端末装置1802に対して合成画像データの返信を行い、端末装置1802は、合成画像を表示する。 In the embodiment described earlier, the original image data, via the connection line from the imaging device, or via a recording medium, is input to the image processing apparatus, the composite image is a display device provided in the image processing apparatus It has been described as being displayed, in another embodiment shown in FIG. 18, through the network 1803 such as the Internet, performs transmission of the original image data to the image processing apparatus 1801 from the terminal apparatus 1802, the image processing carried a reply composite image data from the device 1801 to the terminal device 1802, the terminal device 1802 displays the composite image.

この場合、画像処理システム1800の利用者(端末装置1802の操作者)は、画像処理装置1801が設置されている店舗等に出向くことなく、端末装置1802上で合成画像をみることができる。 In this case, the user of the image processing system 1800 (the operator of the terminal device 1802) is without going to the store or the like by the image processing apparatus 1801 is installed, you can see the composite image on the terminal device 1802. また、画像処理システム1800は、同時かつ複数の利用者に対応可能であるので、短時間でより多くのシステム利用者に対して効率的に購買意欲の促進を図ることができ、さらに、設備導入に係る負担も軽減することができる。 The image processing system 1800, since it is possible to cope simultaneously and a plurality of users, it is possible to promote the efficient willingness to more system user in a short period of time, further, introduction of equipment can burden to reduce according to the.

以上、添付図面を参照しながら、本発明にかかる画像処理装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。 Above, with reference to the accompanying drawings, has been described with respect to certain preferred embodiments, such an image processing apparatus according to the present invention, the present invention is not limited to such an example. 当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。 Those skilled in the art within the scope of the technical idea disclosed in this application, it would be appreciated by the can conceive modifications, combinations, and belong to the technical scope of the present invention as for their It is understood.

本発明の実施の形態に係る画像処理装置101の概略構成図 Schematic block diagram of an image processing apparatus 101 according to an embodiment of the present invention 画素データの一態様を示す図 It illustrates one embodiment of pixel data 原画像301の一態様を示す図 Diagram illustrating one form of the original image 301 マスク画像401の一態様を示す図 Diagram illustrating one form of the mask image 401 テクスチャ画像501の一態様を示す図 Diagram illustrating one form of the texture image 501 合成画像601の一態様を示す図 Diagram illustrating one form of the composite image 601 画像処理装置101の全体的な動作を示すフローチャート Flow chart illustrating the overall operation of the image processing apparatus 101 マスク画像データ作成処理における、画像処理装置101の動作を示すフローチャート In the mask image data creation processing, the flow chart showing the operation of the image processing apparatus 101 領域認識処理における、画像処理装置101の動作を示すフローチャート In the area recognizing process flow chart showing an operation of the image processing apparatus 101 抜け領域修正処理についての説明図 Explanatory view of irradiated region correction processing 原画像データ入力処理において、画像処理装置101が表示する画面1100の一態様を示す図 In the original image data input process, diagram illustrating one embodiment of a screen 1100 that the image processing apparatus 101 displays マスク画像データ(肌)作成処理において、画像処理装置101が表示する画面1200の一態様を示す図 In creation processing mask image data (skin), illustrates an embodiment of a screen 1200 that the image processing apparatus 101 displays 領域追加処理において、画像処理装置101が表示する画面1300の一態様を示す図 In the region adding process, diagram illustrating one embodiment of a screen 1300 that the image processing apparatus 101 displays 図9に示す手順と異なる領域認識処理における、画像処理装置101の動作を示すフローチャート In the procedure different from region recognition processing shown in FIG. 9, a flow chart showing an operation of the image processing apparatus 101 図9に示す手順と異なる領域認識処理の流れを示す図 Diagram showing the flow of steps with different regions recognition process shown in FIG. 9 色範囲1601の一態様を示す図 It illustrates an embodiment of a color range 1601 画像合成処理における、画像処理装置101が表示する操作画面1700の一態様を示す図 The image synthesizing processing, shows an embodiment of an operation screen 1700 of the image processing apparatus 101 displays 本発明の他の実施の形態に係る画像処理システム1800の概略構成図 A schematic configuration diagram of an image processing system 1800 according to another embodiment of the present invention

符号の説明 DESCRIPTION OF SYMBOLS

101………画像処理装置 102………制御部 103………入力部 104………表示部 105………入出力部 106………記憶部 107………通信部 109………撮像装置 111………被写体 201………画素データ 301………原画像 401………マスク画像 501………テクスチャ画像 601………合成画像 1201………矩形ガイドライン 1202………基準色指定ポインタ 1203………範囲長指定バー 1601………色範囲 1602………基準色(R 、G 、B 101 ......... image processing apparatus 102 ......... controller 103 ......... input unit 104 ......... display unit 105 ......... output unit 106 ......... storage unit 107 ......... communication unit 109 ......... imaging apparatus 111 ......... object 201 ......... pixel data 301 ......... original image 401 ......... mask image 501 ......... texture image 601 ......... composite image 1201 ......... rectangular Guidelines 1202 ......... reference color designating pointer 1203 ......... range length designation bar 1601 ......... color range 1602 ......... reference color (R 0, G 0, B 0)
1603………範囲長(L) 1603 ......... range length (L)

Claims (14)

  1. 原画像に対して画像処理を施す画像処理装置であって、 An image processing apparatus for performing image processing on the original image,
    処理範囲を指定する処理範囲指定手段と、 And processing range specifying means for specifying processing range,
    属性範囲を指定する属性範囲指定手段と、 And attribute range specification means for specifying a range of attributes,
    前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識手段と、 A region recognizing means for recognizing a region by extracting pixels belonging to the range of attributes in the processing range of the original image,
    を具備することを特徴とする画像処理装置。 The image processing apparatus characterized by comprising a.
  2. 前記属性範囲指定手段は、色空間において基準色及び前記基準色からの距離を指定することを特徴とする請求項1に記載の画像処理装置。 Said attribute range specifying means, the image processing apparatus according to claim 1, wherein the specifying the distance from the reference color and the reference color in the color space.
  3. 前記処理範囲指定手段は、前記原画像の所定の範囲を囲むことにより前記処理範囲を指定することを特徴とする請求項1に記載の画像処理装置。 The processing area specifying means, the image processing apparatus according to claim 1, characterized in that designating the processing range by enclosing the predetermined range of the original image.
  4. 前記処理範囲指定手段は、認識済の領域外を処理範囲に設定することを特徴とする請求項1に記載の画像処理装置。 The processing area specifying means, the image processing apparatus according to claim 1, characterized in that sets a region outside of recognized the processing range.
  5. 顔を示す原画像の所定の範囲を囲むことにより前記処理範囲を指定して肌の領域を認識し、その後、認識済の前記肌の領域外を前記処理範囲に設定して髪の領域を認識することを特徴とする請求項1に記載の画像処理装置。 Specifying the processing range by enclosing the predetermined range of the original image showing the face recognizing an area of ​​skin, then recognizes the region of the hair is set to the processing range area outside of the skin of recognized the image processing apparatus according to claim 1, characterized in that.
  6. 前記領域及び合成用の画像を保持する保持手段と、 Holding means for holding the image for the region and combining,
    前記原画像の前記領域に前記合成用の画像を合成する画像合成手段と、 An image synthesizing means for synthesizing the images for the synthesis to the area of ​​the original image,
    を具備することを特徴とする請求項1から請求項5までのいずれかに記載の画像処理装置。 The image processing apparatus according to claim 1, characterized in that it comprises up to claim 5.
  7. 原画像に対して画像処理を施す画像処理方法であって、 An image processing method for performing image processing on the original image,
    処理範囲を指定する処理範囲指定工程と、 And processing range designation step of designating a processing range,
    属性範囲を指定する属性範囲指定工程と、 And attribute range designation step of designating a range of attributes,
    前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識工程と、 A region recognition step of recognizing a region by extracting pixels belonging to the range of attributes in the processing range of the original image,
    を具備することを特徴とする画像処理方法。 An image processing method characterized by comprising the.
  8. 前記属性範囲指定工程は、色空間において基準色及び前記基準色からの距離を指定することを特徴とする請求項7に記載の画像処理方法。 The attribute range specification step, the image processing method according to claim 7, wherein specifying the distance from the reference color and the reference color in the color space.
  9. 前記処理範囲指定工程は、前記原画像の所定の範囲を囲むことにより前記処理範囲を指定することを特徴とする請求項7に記載の画像処理方法。 The processing range designated process, the image processing method according to claim 7, characterized in that designating the processing range by enclosing the predetermined range of the original image.
  10. 前記処理範囲指定工程は、認識済の領域外を処理範囲に設定することを特徴とする請求項7に記載の画像処理方法。 The processing range designated process, the image processing method according to claim 7, characterized in that sets a region outside of recognized the processing range.
  11. 顔を示す原画像の所定の範囲を囲むことにより前記処理範囲を指定して肌の領域を認識し、その後、認識済の前記肌の領域外を前記処理範囲に設定して髪の領域を認識することを特徴とする請求項7に記載の画像処理方法。 Specifying the processing range by enclosing the predetermined range of the original image showing the face recognizing an area of ​​skin, then recognizes the region of the hair is set to the processing range area outside of the skin of recognized the image processing method according to claim 7, characterized in that.
  12. 前記領域及び合成用の画像を保持する保持工程と、 A holding step of holding the image for the region and combining,
    前記原画像の前記領域に前記合成用の画像を合成する画像合成工程と、 An image synthesizing step of synthesizing the images for the synthesis to the area of ​​the original image,
    を具備することを特徴とする請求項7から請求項11までのいずれかに記載の画像処理方法。 The image processing method according to any one of up to claims 11 claim 7, characterized in that it comprises a.
  13. コンピュータを請求項1から請求項6までのいずれかに記載の画像処理装置として機能させるプログラム。 Program to function as the image processing apparatus according to computer to any one of claims 1 to 6.
  14. コンピュータを請求項1から請求項6までのいずれかに記載の画像処理装置として機能させるプログラムを記録したコンピュータ読取可能な記録媒体。 Computer readable recording medium recording a program to function as the image processing apparatus according to any one of claims 1 to 6 computer.

JP2003304593A 2003-08-28 2003-08-28 Image processing apparatus, image processing method, a program, a recording medium Expired - Fee Related JP4372494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003304593A JP4372494B2 (en) 2003-08-28 2003-08-28 Image processing apparatus, image processing method, a program, a recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003304593A JP4372494B2 (en) 2003-08-28 2003-08-28 Image processing apparatus, image processing method, a program, a recording medium

Publications (2)

Publication Number Publication Date
JP2005078158A true JP2005078158A (en) 2005-03-24
JP4372494B2 JP4372494B2 (en) 2009-11-25

Family

ID=34408237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003304593A Expired - Fee Related JP4372494B2 (en) 2003-08-28 2003-08-28 Image processing apparatus, image processing method, a program, a recording medium

Country Status (1)

Country Link
JP (1) JP4372494B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545052A (en) * 2006-07-25 2009-12-17 ヒューマンアイズ テクノロジーズ リミテッド Interactive segmentation of the image by a single scribble
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium
CN102375977A (en) * 2010-08-23 2012-03-14 东芝泰格有限公司 Store system and sales registration method
JP2012528506A (en) * 2009-05-29 2012-11-12 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッドDigitaloptics Corporation Europe Limited Method and apparatus for separating the top portion of the foreground from the background
JP2013229058A (en) * 2010-08-23 2013-11-07 Toshiba Tec Corp Store system and program
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
JP2015130589A (en) * 2014-01-07 2015-07-16 株式会社メイクソフトウェア Image editing apparatus, an image editing method, and control program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545052A (en) * 2006-07-25 2009-12-17 ヒューマンアイズ テクノロジーズ リミテッド Interactive segmentation of the image by a single scribble
US8594428B2 (en) 2006-07-25 2013-11-26 Humaneyes Technologies Ltd. Interactive segmentation of images with single scribbles
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
JP2012528506A (en) * 2009-05-29 2012-11-12 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッドDigitaloptics Corporation Europe Limited Method and apparatus for separating the top portion of the foreground from the background
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium
US8977056B2 (en) 2010-07-26 2015-03-10 Fotonation Limited Face detection using division-generated Haar-like features for illumination invariance
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
CN102375977A (en) * 2010-08-23 2012-03-14 东芝泰格有限公司 Store system and sales registration method
US8856035B2 (en) 2010-08-23 2014-10-07 Toshiba Tec Kabushiki Kaisha Store system and sales registration method
JP2013229058A (en) * 2010-08-23 2013-11-07 Toshiba Tec Corp Store system and program
JP2015130589A (en) * 2014-01-07 2015-07-16 株式会社メイクソフトウェア Image editing apparatus, an image editing method, and control program

Also Published As

Publication number Publication date
JP4372494B2 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
JP4291963B2 (en) Image processing method
CN100468463C (en) Method and apparatua for processing image
US20110181621A1 (en) Image Processor, Image Processing Method, Recording Medium, Computer Program And Semiconductor Device
JP2918499B2 (en) Facial image information converting method and a face image information converting device
US20040075744A1 (en) Automatic tone mapping for images
US7110595B2 (en) Method of and apparatus for image processing, and computer product
CN1475969B (en) Method and system for intensify human image pattern
JP3880553B2 (en) Image processing method and apparatus
JP4421761B2 (en) Image processing method and apparatus and a recording medium
JP4762827B2 (en) Electronic album generating apparatus, an electronic album generating method, and its program
US20070019882A1 (en) Makeup simulation program, makeup simulation device, and makeup simulation method
WO2004084142A1 (en) Image processing device
CN1691740A (en) Magnified display apparatus and magnified image control apparatus
US6927874B1 (en) Image processing method, apparatus and storage medium therefor
US7747074B2 (en) Selection of decorative picture suitable for input picture
JP2000030040A (en) Image processor and computer readable recording medium
KR20040029258A (en) Image editing method, image editing apparatus, program for implementing image editing method and recording medium recording program
CN106919911A (en) Automatic face and skin beautification using face detection
JP2005527880A (en) User-definable image reference point
JPH07200774A (en) Image processing method and device
JP2004112694A (en) Color control method, color control apparatus, color conversion definition editing apparatus, image processing apparatus, program, and storage medium
KR20000064110A (en) Device and method for automatic character generation based on a facial image
JPH07262410A (en) Method and device for synthesizing picture
US9142054B2 (en) System and method for changing hair color in digital images
JP3779570B2 (en) Makeup simulation device, makeup simulation control method, makeup simulation program and computer readable recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090901

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090902

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees