JP2005078158A - Image processing device, image processing method, program and recording medium - Google Patents

Image processing device, image processing method, program and recording medium Download PDF

Info

Publication number
JP2005078158A
JP2005078158A JP2003304593A JP2003304593A JP2005078158A JP 2005078158 A JP2005078158 A JP 2005078158A JP 2003304593 A JP2003304593 A JP 2003304593A JP 2003304593 A JP2003304593 A JP 2003304593A JP 2005078158 A JP2005078158 A JP 2005078158A
Authority
JP
Japan
Prior art keywords
image
range
region
image processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003304593A
Other languages
Japanese (ja)
Other versions
JP4372494B2 (en
Inventor
Sannashi Miyama
三奈子 宮間
Takao Mito
敬雄 三戸
Asuka Iwakoshi
明日香 岩越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2003304593A priority Critical patent/JP4372494B2/en
Publication of JP2005078158A publication Critical patent/JP2005078158A/en
Application granted granted Critical
Publication of JP4372494B2 publication Critical patent/JP4372494B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device and the like for quickly, precisely and easily recognizing an area, based on an original image. <P>SOLUTION: An image processing device 101, when an operator specifies a square guide line position (step 801), sets a processing area inside a square guide line (step 802). In the processing area, the device 101 recognizes an area (flesh) (step 803). Next, the device 101 sets a processing area outside the area (flesh) (step 805), and recognizes an area (hair) in the processing area (step 806). Then, the device 101 sets a processing area within other than the already recognized areas (step 808) and recognizes area (others) in the processing area (step 809). The device 101 generates mask image data by performing a prescribed process to pixel data in the recognized area to store it to a storage part (step 10). <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、原画像の所定の領域に画像を合成して合成画像を作成する画像処理装置等に関する。より詳細には、原画像に基づいて合成領域を認識した上で画像合成を行う画像処理装置等に関する。   The present invention relates to an image processing apparatus that synthesizes an image with a predetermined region of an original image to create a composite image. More specifically, the present invention relates to an image processing apparatus that performs image composition after recognizing a composition area based on an original image.

近年、化粧品のメイクパレットには様々な色が存在し、各種ポイントメイクを組み合わせるとバリエーションは多数に及ぶ。全てのパターンを試すことは困難であり、化粧品の購入者からは、手軽に多くのパターンを試しながら好みの色を探す手段が求められている。そして、この要求実現を図るべく、画像合成技術が用いられたりする。   In recent years, there are various colors in cosmetic makeup palettes, and there are many variations when combining various point makeups. It is difficult to try out all patterns, and cosmetic purchasers are demanding a means of searching for a favorite color while easily trying many patterns. In order to realize this requirement, an image composition technique is used.

従来、原画像の所定の領域に対して合成用のテクスチャ画像を合成し、合成画像を作成する画像合成装置が提案されている(例えば、[特許文献1]参照。)。
また、化粧を施した合成画像を作成することにより、メークアップシミュレーションを行う画像処理方法が提案されている(例えば、「特許文献2」、「特許文献3」参照。)。
2. Description of the Related Art Conventionally, an image synthesizing apparatus that synthesizes a texture image for synthesis with a predetermined region of an original image and creates a synthesized image has been proposed (see, for example, [Patent Document 1]).
In addition, an image processing method for performing makeup simulation by creating a composite image with makeup has been proposed (see, for example, “Patent Document 2” and “Patent Document 3”).

[特許文献1]が示す技術は、商品の施工例等の原画像に対して商品見本画像等のテクスチャ画像を合成する場合に、特別な経験や勘がなくとも、違和感のない合成画像を容易に作成するものである。
[特許文献2]が示す技術は、顔画像から目、唇等の部位を抽出し、これらの部位に化粧を施した画像を合成するものである。この場合、ユーザは、部位毎に矩形枠を用いて部位の抽出を行う。
[特許文献3]が示す技術は、化粧を施した画像合成を動画像により行い、表情を変化させつつ化粧の効果を確認するものである。
The technology shown in [Patent Document 1] facilitates a composite image without a sense of incongruity without special experience or intuition when a texture image such as a product sample image is synthesized with an original image such as a product construction example. To create.
The technique disclosed in [Patent Document 2] extracts parts such as eyes and lips from a face image and synthesizes an image in which makeup is applied to these parts. In this case, the user extracts a part using a rectangular frame for each part.
The technique shown in [Patent Document 3] performs image composition with makeup using a moving image, and confirms the effect of makeup while changing facial expressions.

特開2000−293667号公報JP 2000-293667 A 特開2000−151985号公報JP 2000-151985 特開2003−44837号公報JP 2003-44837 A

しかしながら、[特許文献1]の技術では、合成領域を示すマスクデータを予め用意する必要がある([特許文献1]の段落番号[0017]参照。)。原画像に基づいてマスクデータを作成する場合、合成領域を手作業により指定する必要があり、労力的負担が増加すると共に正確性に欠けるという問題点がある
例えば、この技術を化粧を施した画像合成処理に適用する場合、髪の毛先まで輪郭を指定することは困難であるので、画像合成処理を行う際、髪の毛と肌の境界付近が不自然になるという問題点がある。
However, in the technique of [Patent Document 1], it is necessary to prepare mask data indicating a synthesis area in advance (see paragraph [0017] of [Patent Document 1]). When creating mask data based on the original image, it is necessary to manually specify the synthesis area, which increases the labor burden and lacks accuracy. When applied to the synthesis process, it is difficult to specify the contour up to the tip of the hair. Therefore, when performing the image synthesis process, there is a problem that the vicinity of the boundary between the hair and the skin becomes unnatural.

また、[特許文献2]の技術では、画像合成処理を行う度に、ユーザが指定した矩形枠の領域において、合成領域を認識するので、処理負担が増大するという問題点がある。さらに、ユーザは、部位毎に、画像合成を行う度毎に、矩形枠の大きさ、形状等を調整しながらその部位を囲んで選択する必要があるので、労力的負担が増大するという問題点がある。   Further, the technique of [Patent Document 2] has a problem that the processing load increases because the synthesis area is recognized in the rectangular frame area designated by the user each time the image synthesis process is performed. Furthermore, each time the user performs image composition for each part, the user needs to surround and select the part while adjusting the size, shape, etc. of the rectangular frame, which increases the labor burden. There is.

また、[特許文献3]の技術では、化粧シミュレーション装置は、目の位置を基準に目、眉、唇等の輪郭を認識する。そして、人の表情の変化に応じて、目、眉、唇等の輪郭の認識と共に、動画像作成のためにこれらを追跡する必要がある。従って、認識精度、安定性、処理速度の面で問題点がある。   In the technique of [Patent Document 3], the makeup simulation apparatus recognizes the contours of eyes, eyebrows, lips, and the like based on the position of the eyes. Then, in accordance with changes in the facial expression of the person, it is necessary to track the contours of the eyes, eyebrows, lips, etc., in order to create a moving image. Therefore, there are problems in terms of recognition accuracy, stability, and processing speed.

本発明は、以上の問題点に鑑みてなされたものであり、原画像に基づいて、迅速、高精度、かつ、簡便に領域認識等を行うことを可能とする、画像処理装置等を提供することを目的とする。   The present invention has been made in view of the above-described problems, and provides an image processing apparatus and the like that can perform region recognition and the like quickly, highly accurately, and simply based on an original image. For the purpose.

前述した目的を達成するために第1の発明は、原画像に対して画像処理を施す画像処理装置であって、処理範囲を指定する処理範囲指定手段と、属性範囲を指定する属性範囲指定手段と、前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識手段と、を具備することを特徴とする画像処理装置である。   In order to achieve the above object, a first invention is an image processing apparatus that performs image processing on an original image, and includes a processing range specifying means for specifying a processing range and an attribute range specifying means for specifying an attribute range. And an area recognition means for recognizing the area by extracting pixels belonging to the attribute range in the processing range of the original image.

第1の発明では、画像処理装置は、処理範囲及び属性範囲を指定し、原画像の当該処理範囲において当該属性範囲に属する画素を抽出して領域を認識する。
尚、画像処理装置は、認識済の領域に追加領域を加え、新たに1の領域として認識することができる。
In the first invention, the image processing apparatus designates a processing range and an attribute range, extracts pixels belonging to the attribute range in the processing range of the original image, and recognizes the region.
The image processing apparatus can add an additional area to the recognized area and newly recognize it as one area.

処理範囲は、処理対象の画素データの位置範囲を示す。画像処理装置は、この処理範囲内に位置する画素に対して領域に属する画素であるか否か等の判断、処理を行い、処理範囲外に位置する画素に対しては、判断対象、処理対象から除外する。
処理範囲の指定は、画像処理装置の操作者が表示装置に表示された原画像に対して、形状可変及び大きさ可変の矩形ガイドライン等を用いて、原画像の所定の範囲を囲むことにより行うことができる。また、画像処理装置は、認識済の領域外を処理範囲として自動的に設定することもできる。
このように、処理範囲を指定することにより、処理負担の軽減、処理時間の短縮を図ることができる。
The processing range indicates the position range of pixel data to be processed. The image processing apparatus determines and processes whether or not the pixel located within the processing range is a pixel belonging to the region, and determines whether the pixel located outside the processing range is subject to determination or processing. Exclude from
The processing range is specified by surrounding the predetermined range of the original image by using the shape-variable and size-variable rectangular guidelines for the original image displayed on the display device by the operator of the image processing apparatus. be able to. The image processing apparatus can also automatically set the outside of the recognized area as the processing range.
Thus, by specifying the processing range, it is possible to reduce the processing load and the processing time.

属性範囲は、領域に属する画素の属性(色階調、輝度、色相、明度、彩度等)の範囲を示す。画像処理装置は、当該属性範囲に該当する原画像の画素の位置・範囲を領域と認識する。
属性範囲の指定は、色範囲、例えば、3原色(RGB)色空間において基準色及び当該基準色からの距離を指定することにより行うことができる。基準色の指定は、画像処理装置の操作者が表示装置に表示された原画像のいずれかの画素をマウス等のポインティングデバイス等により指定することにより行うようにしてもよい。
The attribute range indicates a range of attributes (color gradation, luminance, hue, brightness, saturation, etc.) of pixels belonging to the region. The image processing apparatus recognizes the position / range of the pixel of the original image corresponding to the attribute range as a region.
The attribute range can be designated by designating a reference color and a distance from the reference color in a color range, for example, three primary color (RGB) color spaces. The reference color may be specified by the operator of the image processing apparatus specifying any pixel of the original image displayed on the display device with a pointing device such as a mouse.

画像処理装置は、顔を示す原画像の所定の範囲を囲むことにより処理範囲を指定して肌の領域を認識し、その後、認識済の肌の領域外を処理範囲に設定して髪の領域を認識する。
この場合、画像処理装置は、処理範囲を限定して肌の領域の認識処理を行い、その後、認識済の肌の領域の外側を処理範囲として髪の毛の領域を認識するので、髪の毛の領域と眉、瞳等の領域とを互いに誤認識することがなく、また、所定の範囲を囲むことによる処理範囲の指定は、1度だけであり、処理の迅速性を損なうこともない。
The image processing apparatus recognizes a skin area by specifying a processing area by surrounding a predetermined area of the original image showing the face, and then sets the outside of the recognized skin area as the processing area Recognize
In this case, the image processing apparatus performs the recognition process of the skin region by limiting the processing range, and then recognizes the hair region using the outside of the recognized skin region as the processing range. The region such as the pupil is not misrecognized from each other, and the processing range is specified only once by surrounding the predetermined range, and the speed of processing is not impaired.

画像処理装置は、認識済の領域に所定の処理を施して記憶部に保持する(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))としてマスク画像を作成する。)。
また、画像処理装置は、合成用の画像(例えば、化粧を施した画像、テクスチャ画像)を記憶部に保持する。
The image processing apparatus performs predetermined processing on the recognized area and holds it in the storage unit (for example, a mask image with the color set to white ((R component, G component, B component) = (255, 255, 255)). Create.)
Further, the image processing apparatus holds an image for composition (for example, an image with makeup or a texture image) in the storage unit.

画像処理装置は、領域及び合成用の画像を指定されると、領域に係るデータ、合成用の画像に係るデータを記憶部から呼び出し、原画像の領域に合成用の画像を合成し、合成画像を作成・表示する。例えば、画像処理装置は、肌の領域にメイクを施した画像を合成して表示する。
この場合、モデル、化粧品購入者自身の顔の画像データをベースに、リアルタイムに、簡易かつ高精細、現実感のあるメイクアップを仮想的に実現することができる。
When the region and the image for synthesis are designated, the image processing apparatus calls the data related to the region and the data related to the image for synthesis from the storage unit, synthesizes the image for synthesis in the region of the original image, Create and display. For example, the image processing apparatus synthesizes and displays an image in which makeup is applied to the skin region.
In this case, simple, high-definition, and realistic makeup can be virtually realized in real time on the basis of image data of the model and the purchaser's own face.

第2の発明は、原画像に対して画像処理を施す画像処理方法であって、処理範囲を指定する処理範囲指定工程と、属性範囲を指定する属性範囲指定工程と、前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識工程と、を具備することを特徴とする画像処理方法である。
第2の発明は、第1の発明における画像処理装置が実行する画像処理方法に関する発明である。
A second invention is an image processing method for performing image processing on an original image, the processing range specifying step for specifying a processing range, the attribute range specifying step for specifying an attribute range, and the processing of the original image A region recognition step of recognizing a region by extracting pixels belonging to the attribute range in the range.
The second invention relates to an image processing method executed by the image processing apparatus according to the first invention.

第3の発明は、コンピュータを第1の発明の画像処理装置として機能させるプログラムである。
第4の発明は、コンピュータを第1の発明の画像処理装置として機能させるプログラムを記録したコンピュータ読取可能な記録媒体である。
上述のプログラムをCD−ROM等の記録媒体に保持させて流通させてもよいし、このプログラムを通信回線を介して送受することもできる。
A third invention is a program for causing a computer to function as the image processing apparatus of the first invention.
A fourth invention is a computer-readable recording medium on which a program for causing a computer to function as the image processing apparatus of the first invention is recorded.
The above-mentioned program may be held and distributed on a recording medium such as a CD-ROM, or the program can be transmitted and received via a communication line.

本発明によれば、原画像に基づいて、迅速、高精度、かつ、簡便に領域認識等を行うことを可能とする、画像処理装置等を提供することができる。   According to the present invention, it is possible to provide an image processing apparatus or the like that enables quick, high-precision, and simple area recognition based on an original image.

以下、添付図面を参照しながら、本発明に係る画像処理装置等の好適な実施形態について詳細に説明する。なお、以下の説明及び添付図面において、略同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略することにする。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of an image processing apparatus and the like according to the invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the same reference numerals are given to components having substantially the same functional configuration, and redundant description will be omitted.

最初に、図1を参照しながら、本発明の実施の形態に係る画像処理装置101の構成について説明する。
図1は、本発明の実施の形態に係る画像処理装置101のハードウェア構成図である。
図1に示すように画像処理装置101は、制御部102、入力部103、表示部104、入出力部105、記憶部106、通信部107等がシステムバス108を介して互いに接続される。尚、図1のハードウェア構成は一例であり、用途、目的に応じて様々な構成を採ることが可能である。
First, the configuration of the image processing apparatus 101 according to the embodiment of the present invention will be described with reference to FIG.
FIG. 1 is a hardware configuration diagram of an image processing apparatus 101 according to an embodiment of the present invention.
As shown in FIG. 1, in the image processing apparatus 101, a control unit 102, an input unit 103, a display unit 104, an input / output unit 105, a storage unit 106, a communication unit 107 and the like are connected to each other via a system bus 108. Note that the hardware configuration in FIG. 1 is an example, and various configurations can be adopted depending on the application and purpose.

制御部102は、CPU(Central Processing Unit )、ROM(Read Only Memory )、RAM(Random Access Memory)等を有する。   The control unit 102 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like.

CPUは、記憶部、ROM、記録媒体等に格納される実行プログラム、OS(オペレーションシステム)のプログラム等をRAM上のワークメモリ領域に呼び出して実行し、演算処理(四則演算や比較演算等)、ハードウェアやソフトウェアの動作制御等を行い、後述する各種機能(図7〜図9、図14等参照。)を実現する。   The CPU calls and executes an execution program stored in a storage unit, ROM, recording medium, etc., an OS (operation system) program, etc., in a work memory area on the RAM, and performs arithmetic processing (four arithmetic operations, comparison operations, etc.) It performs operation control of hardware and software, and implements various functions described later (see FIGS. 7 to 9, FIG. 14, etc.).

ROMは、不揮発性メモリであり、プログラム、データ等を恒久的に保持し、例えば、OSと協働してハードディスク等への入出力を司るBIOS(Basic Input Output System)等を記憶する。
RAMは、揮発性メモリであり、プログラム、データ等を一時的に保持する。
The ROM is a non-volatile memory, and permanently stores programs, data, and the like, and stores, for example, a BIOS (Basic Input Output System) that controls input / output to a hard disk or the like in cooperation with the OS.
The RAM is a volatile memory, and temporarily stores programs, data, and the like.

入力部103は、データの入力を行い、例えば、マウス等のポインティングデバイス、キーボード、テンキー等の入力装置を有する。
操作者は、入力部103を介して、画像処理装置101に対して、操作指示、動作指示、データ入力、維持管理等を行うことができる。
The input unit 103 inputs data and includes an input device such as a pointing device such as a mouse, a keyboard, and a numeric keypad.
An operator can perform operation instructions, operation instructions, data input, maintenance management, and the like for the image processing apparatus 101 via the input unit 103.

表示部104は、CRTモニタ、液晶パネル等の表示装置(ディスプレイ装置)、表示装置と連携してコンピュータのビデオ機能を実現するための論理回路等(ビデオアダプタ等)を有する。ビデオアダプタは、表示装置に出力する画像信号を生成する。
尚、表示装置は、画像処理装置101と一体として構成してもよいし、独立して構成し、画像処理装置101と接続するようにしてもよい。
The display unit 104 includes a display device (display device) such as a CRT monitor and a liquid crystal panel, and a logic circuit (video adapter or the like) for realizing a video function of a computer in cooperation with the display device. The video adapter generates an image signal to be output to the display device.
The display device may be configured integrally with the image processing apparatus 101 or may be configured independently and connected to the image processing apparatus 101.

入出力部105は、データの入出力を行い、例えば、フロッピディスクドライブ、PDドライブ、CDドライブ(−ROM、−R、−RW等)、DVDドライブ(−ROM、−R、−RW、−RAM等)、MOドライブ等のメディア入出力装置等を有する。
尚、操作者は、入出力部105を介して、画像処理装置101に対して、CPUが実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等を入力することができ、記憶媒体を装着してアプリケーションプログラム等をハードディスクにインストールしたりする。
The input / output unit 105 performs data input / output, for example, a floppy disk drive, a PD drive, a CD drive (-ROM, -R, -RW, etc.), a DVD drive (-ROM, -R, -RW, -RAM). Etc.) and media input / output devices such as MO drives.
The operator can input a program executed by the CPU, data necessary for program execution, an OS (Operating System), and the like to the image processing apparatus 101 via the input / output unit 105. And install application programs on the hard disk.

記憶部106は、データを記憶する装置であり、ハードディスク、メモリ等を有する。記憶部106には、CPUが実行するプログラム、プログラム実行に必要なデータ、OS(Operating System)等が格納される。   The storage unit 106 is a device that stores data, and includes a hard disk, a memory, and the like. The storage unit 106 stores a program executed by the CPU, data necessary for program execution, an OS (Operating System), and the like.

通信部107は、画像処理装置101と接続線110を介して接続される撮像装置109(デジタルカメラ等)との通信を媒介する通信インタフェースであり、通信アダプタ等の通信制御装置、通信ポート等を有する。
尚、画像処理装置101と端末装置とをインターネット、LAN等のネットワークを介して接続して各種データの授受を行う場合、通信部107には、ネットワークアダプタ、LANアダプタ等が設けられる。ネットワークアダプタ、LANアダプタは、CPUによって制御されるOSの通信プログラムと協働して外部との通信を行う。
システムバス108は、各部、各装置間の制御信号、データ信号等の授受を媒介する経路である。
The communication unit 107 is a communication interface that mediates communication with the image capturing apparatus 109 (such as a digital camera) connected to the image processing apparatus 101 via the connection line 110, and includes a communication control device such as a communication adapter, a communication port, and the like. Have.
Note that when the image processing apparatus 101 and the terminal apparatus are connected via a network such as the Internet or a LAN to exchange various data, the communication unit 107 is provided with a network adapter, a LAN adapter, and the like. The network adapter and the LAN adapter communicate with the outside in cooperation with the OS communication program controlled by the CPU.
The system bus 108 is a path that mediates transmission and reception of control signals, data signals, and the like between each unit and each device.

また、プリンタ装置等を有する出力部(図示しない)等を設け、画像処理装置101の維持管理等に用いるようにしてもよい。
尚、同様の構成を採るコンピュータ等を画像処理装置101として用いることができる。
Further, an output unit (not shown) having a printer device or the like may be provided and used for maintenance and management of the image processing apparatus 101.
Note that a computer or the like having the same configuration can be used as the image processing apparatus 101.

撮像装置109は、被写体111の撮像を行い、その画像データを取得する装置であり、例えば、デジタルカメラ等である。撮像装置109により取得した画像データは、接続線110、通信部107を介して、あるいは、記録媒体112、入出力部105を介して、画像処理装置101に入力される。   The imaging device 109 is a device that captures an image of the subject 111 and acquires the image data, and is, for example, a digital camera. Image data acquired by the imaging device 109 is input to the image processing apparatus 101 via the connection line 110 and the communication unit 107, or via the recording medium 112 and the input / output unit 105.

次に、図1及び図2〜図6を参照しながら、画像処理装置101の記憶部106が保持する情報について説明する
図1に示すように、画像処理装置101の記憶部106には、原画像データ121、マスク画像データ122、テクスチャ画像データ123、合成画像データ124、実行プログラム125、OS126等が保持される。
Next, information stored in the storage unit 106 of the image processing apparatus 101 will be described with reference to FIGS. 1 and 2 to 6. As shown in FIG. Image data 121, mask image data 122, texture image data 123, composite image data 124, execution program 125, OS 126, and the like are stored.

原画像データ121は、原画像の表示データを画素毎に保持する。原画像は、画像合成の元となる画像であり、例えば、撮像装置109により被写体111を撮像した画像、記録媒体112により入力される画像である。
マスク画像データ122は、マスク画像の表示データを画素毎に保持する。マスク画像は、画像合成を行う領域を示す画像であり、当該領域においてテクスチャ画像が合成される。尚、後に詳述するが、マスク画像は、原画像に基づいて作成される。
The original image data 121 holds display data of the original image for each pixel. The original image is an image that is a source of image synthesis, and is, for example, an image obtained by imaging the subject 111 by the imaging device 109 or an image input by the recording medium 112.
The mask image data 122 holds display data of the mask image for each pixel. The mask image is an image indicating a region where image synthesis is performed, and a texture image is synthesized in the region. As will be described in detail later, the mask image is created based on the original image.

テクスチャ画像データ123は、テクスチャ画像の表示データを画素毎に保持する。テクスチャ画像は、原画像に対して合成する画像データであり、例えば、色彩、模様等に関するデータである。テクスチャ画像については、必ずしも形状、位置等を特定する必要はない。
合成画像データ124は、合成画像の表示データを画素毎に保持する。合成画像は、原画像にテクスチャ画像を合成した画像であり、例えば、原画像の特定の領域の色彩、模様等をテクスチャ画像の色彩、模様等に置き換えた画像である。
The texture image data 123 holds texture image display data for each pixel. The texture image is image data to be synthesized with the original image, for example, data relating to colors, patterns, and the like. It is not always necessary to specify the shape, position, etc. for the texture image.
The composite image data 124 holds display data of the composite image for each pixel. The synthesized image is an image obtained by synthesizing the texture image with the original image. For example, the synthesized image is an image obtained by replacing the color and pattern of a specific area of the original image with the color and pattern of the texture image.

図2は、画素データの一態様を示す図である。
図2に示す画素データ201は、位置211、R成分212、G成分213、B成分214の等の各フィールドを有する。尚、画素データは、種々の構成が可能である。
原画像データ121、マスク画像データ122、テクスチャ画像データ123、合成画像データ124は、画素毎に表示データ(画素データ)を保持する。
FIG. 2 is a diagram illustrating an aspect of pixel data.
The pixel data 201 illustrated in FIG. 2 includes fields such as a position 211, an R component 212, a G component 213, and a B component 214. The pixel data can have various configurations.
The original image data 121, the mask image data 122, the texture image data 123, and the composite image data 124 hold display data (pixel data) for each pixel.

位置211は、画素位置を示し、例えば、XY平面における座標位置(0,0)である。
R成分212、G成分213、B成分214は、それぞれ、色空間における3原色のR成分(赤)、G成分(緑)、B成分(青)の値を示し、例えば、8ビットの場合「128」、「10」、「50」である。
A position 211 indicates a pixel position, for example, a coordinate position (0, 0) on the XY plane.
The R component 212, the G component 213, and the B component 214 indicate the values of the R component (red), G component (green), and B component (blue) of the three primary colors in the color space, respectively. 128 ”,“ 10 ”, and“ 50 ”.

尚、マスク画像データ122は、画像合成を行う領域内にある画素を抽出したものである。マスク画像データ122のR成分212、G成分213、B成分214の値は、画像処理装置101における合成処理の態様に基づいて保持されるが、例えば、画像合成領域を白く塗り潰したものをマスク画像データ122とする場合、R成分212、G成分213、B成分214の値は、それぞれ、「255」、「255」、「255」とされる。   Note that the mask image data 122 is obtained by extracting pixels in a region where image composition is performed. The values of the R component 212, the G component 213, and the B component 214 of the mask image data 122 are held based on the mode of the synthesis process in the image processing apparatus 101. For example, the mask image obtained by painting the image synthesis area white In the case of the data 122, the values of the R component 212, the G component 213, and the B component 214 are “255”, “255”, and “255”, respectively.

図3は、原画像データ121に基づいて展開、表示される原画像301の一態様を示す図である。原画像301のデータ(原画像データ)は、画素302毎に表示データ(画素データ)を保持する。
図4は、マスク画像データ122に基づいて展開、表示されるマスク画像401の一態様を示す図である。マスク画像401のデータ(マスク画像データ)は、画素402毎に表示データ(画素データ)を保持する。
図5は、テクスチャ画像データ123に基づいて展開、表示されるテクスチャ画像501の一態様を示す図である。テクスチャ画像501のデータ(テクスチャ画像データ)は、画素502毎に表示データ(画素データ)を保持する。
図6は、合成画像データ124に基づいて展開、表示される合成画像601の一態様を示す図である。合成画像601のデータ(合成画像データ)は、画素602毎に表示データ(画素データ)を保持する。
FIG. 3 is a diagram illustrating an aspect of the original image 301 that is developed and displayed based on the original image data 121. The data (original image data) of the original image 301 holds display data (pixel data) for each pixel 302.
FIG. 4 is a diagram illustrating an aspect of the mask image 401 developed and displayed based on the mask image data 122. The data of the mask image 401 (mask image data) holds display data (pixel data) for each pixel 402.
FIG. 5 is a diagram showing an aspect of a texture image 501 developed and displayed based on the texture image data 123. The texture image 501 data (texture image data) holds display data (pixel data) for each pixel 502.
FIG. 6 is a diagram showing an aspect of a composite image 601 developed and displayed based on the composite image data 124. The data of the composite image 601 (composite image data) holds display data (pixel data) for each pixel 602.

次に、図7を参照しながら、画像処理装置101の全体的な動作について説明する。
図7は、画像処理装置101の全体的な動作を示すフローチャートである。
Next, the overall operation of the image processing apparatus 101 will be described with reference to FIG.
FIG. 7 is a flowchart showing the overall operation of the image processing apparatus 101.

画像処理装置101(制御部102)は、入力された原画像データを記憶部106に保持する(ステップ701)。原画像データの入力は、撮像装置109により撮像した原画像データを接続線110を介して入力するようにしてもよいし、記録媒体112に記録した原画像データを入出力部105を介して入力するようにしてもよい。
画像処理装置101(制御部102)は、原画像データに基づいて領域を示すマスク画像データを作成し、記憶部106に保持する(ステップ702)。
The image processing apparatus 101 (control unit 102) holds the input original image data in the storage unit 106 (step 701). The input of the original image data may be the input of the original image data captured by the imaging device 109 via the connection line 110, or the input of the original image data recorded on the recording medium 112 via the input / output unit 105. You may make it do.
The image processing apparatus 101 (control unit 102) creates mask image data indicating a region based on the original image data, and holds it in the storage unit 106 (step 702).

画像処理装置101(制御部102)は、原画像に合成する領域(合成領域)が指定されると、当該領域を示すマスク画像データを記憶部106から抽出し(ステップ703)、合成用のテクスチャ画像が指定されると、指定されたテクスチャ画像データを記憶部106から抽出し(ステップ704)、マスク画像データが示す合成領域において、原画像データとテクスチャ画像データを合成して合成画像データを作成して記憶部106に保持すると共に、合成画像を表示する(ステップ705)。   When a region to be synthesized with the original image (synthesized region) is designated, the image processing apparatus 101 (control unit 102) extracts mask image data indicating the region from the storage unit 106 (step 703), and a texture for synthesis. When an image is designated, the designated texture image data is extracted from the storage unit 106 (step 704), and the original image data and the texture image data are synthesized in the synthesis area indicated by the mask image data to create synthesized image data. The image is held in the storage unit 106 and a composite image is displayed (step 705).

図17は、画像合成処理等(図7:ステップ703〜ステップ705)における、画像処理装置101が表示する操作画面1700の一態様を示す図である。
操作者が、画面1700を介して、合成領域として領域(肌)1701を指定し、合成するテクスチャ画像としてテクスチャ画像1702を指定すると、画像処理装置101は、領域(肌)1701にテクスチャ画像1702を合成し、合成画像1703を表示する。
FIG. 17 is a diagram illustrating an aspect of an operation screen 1700 displayed by the image processing apparatus 101 in image composition processing or the like (FIG. 7: Steps 703 to 705).
When the operator designates an area (skin) 1701 as a synthesis area and designates a texture image 1702 as a texture image to be synthesized via the screen 1700, the image processing apparatus 101 assigns the texture image 1702 to the area (skin) 1701. The synthesized image 1703 is displayed.

次に、図8を参照しながら、マスク画像データ作成処理(図7:ステップ702)における、画像処理装置101の動作について説明する。
図8は、マスク画像データ作成処理における、画像処理装置101の動作を示すフローチャートである。
Next, the operation of the image processing apparatus 101 in the mask image data creation process (FIG. 7: step 702) will be described with reference to FIG.
FIG. 8 is a flowchart showing the operation of the image processing apparatus 101 in the mask image data creation process.

まず、画像処理装置101は、原画像データに基づいて、肌の領域を示す画像データ(マスク画像データ(肌))の作成処理を行う。
画像処理装置101(制御部102)は、操作者が矩形ガイドライン位置を指定すると(ステップ801)、処理範囲を矩形ガイドラインの内側に設定する(ステップ802)。
First, the image processing apparatus 101 creates image data (mask image data (skin)) indicating a skin region based on the original image data.
When the operator designates the rectangular guideline position (step 801), the image processing apparatus 101 (control unit 102) sets the processing range inside the rectangular guideline (step 802).

尚、処理範囲は、処理対象の画素データの位置範囲を示す。画像処理装置101は、この処理範囲内に位置する画素データに対して領域に属する画素であるか否か等の判断、処理を行い、処理範囲外に位置する画素データに対しては、判断対象、処理対象から除外する。   The processing range indicates the position range of the pixel data to be processed. The image processing apparatus 101 determines and processes whether or not the pixel data located within the processing range is a pixel belonging to the region, and the pixel data located outside the processing range is subject to determination. Excluded from processing.

画像処理装置101(制御部102)は、上記処理範囲において、領域(肌)の認識を行い(ステップ803)、原画像データから当該領域(肌)に属する画素データを抽出し、所定の処理(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))とする。)を施してマスク画像データ(肌)を作成し、記憶部106に保持する(ステップ804)。
尚、領域認識処理(ステップ803)については、後述する。
The image processing apparatus 101 (control unit 102) recognizes a region (skin) in the processing range (step 803), extracts pixel data belonging to the region (skin) from the original image data, and performs predetermined processing ( For example, the color is set to white ((R component, G component, B component) = (255, 255, 255))) to create mask image data (skin) and hold it in the storage unit 106 (step 804).
The area recognition process (step 803) will be described later.

続いて、画像処理装置101は、原画像データに基づいて、髪の領域を示す画像データ(マスク画像データ(髪))の作成処理を行う。
画像処理装置101は、処理範囲を認識済の領域(肌)の外側に設定する(ステップ805)。
Subsequently, the image processing apparatus 101 performs processing for creating image data (mask image data (hair)) indicating a hair region based on the original image data.
The image processing apparatus 101 sets the processing range outside the recognized area (skin) (step 805).

画像処理装置101(制御部102)は、上記処理範囲において、領域(髪)の認識を行い(ステップ806)、原画像データから当該領域(髪)に属する画素データを抽出し、所定の処理(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))とする。)を施してマスク画像データ(髪)を作成し、記憶部106に保持する(ステップ807)。
尚、領域認識処理(ステップ806)については、後述する。
The image processing apparatus 101 (control unit 102) recognizes a region (hair) within the processing range (step 806), extracts pixel data belonging to the region (hair) from the original image data, and performs predetermined processing ( For example, the color is set to white ((R component, G component, B component) = (255, 255, 255))) to create mask image data (hair) and hold it in the storage unit 106 (step 807).
The area recognition process (step 806) will be described later.

続いて、画像処理装置101は、原画像データに基づいて、その他領域(目の領域、唇の領域、眉の領域等)を示す画像データ(マスク画像データ(その他))の作成処理を行う。
画像処理装置101は、処理範囲を認識済の領域以外に設定する(ステップ808)。
Subsequently, the image processing apparatus 101 creates image data (mask image data (others)) indicating other regions (eye region, lip region, eyebrow region, etc.) based on the original image data.
The image processing apparatus 101 sets the processing range other than the recognized area (step 808).

画像処理装置101(制御部102)は、上記処理範囲において、領域(その他)の認識を行い(ステップ809)、原画像データから当該領域(その他)に属する画素データを抽出し、所定の処理(例えば、色彩を白((R成分、G成分、B成分)=(255、255、255))とする。)を施してマスク画像データ(その他)を作成し、記憶部106に保持する(ステップ810)。
尚、領域認識処理(ステップ809)については、後述する。
The image processing apparatus 101 (control unit 102) recognizes a region (other) in the processing range (step 809), extracts pixel data belonging to the region (other) from the original image data, and performs predetermined processing ( For example, the color is set to white ((R component, G component, B component) = (255, 255, 255))) to create mask image data (others), which is held in the storage unit 106 (step 810).
The area recognition process (step 809) will be described later.

次に、図9を参照しながら、領域認識処理(図8:ステップ803、ステップ806、ステップ809)における、画像処理装置101の動作について説明する。
図9は、領域認識処理における、画像処理装置101の動作を示すフローチャートである。
Next, the operation of the image processing apparatus 101 in the region recognition process (FIG. 8: step 803, step 806, step 809) will be described with reference to FIG.
FIG. 9 is a flowchart showing the operation of the image processing apparatus 101 in the area recognition process.

画像処理装置101(制御部102)は、領域として抽出する画素の色範囲が指定されると(ステップ901)、上記処理範囲内において、原画像データから指定された色範囲にある画素データを抽出することにより、領域を取得する(ステップ902)。   When the color range of a pixel to be extracted as a region is designated (step 901), the image processing apparatus 101 (control unit 102) extracts pixel data in the designated color range from the original image data within the processing range. Thus, an area is acquired (step 902).

領域を追加する場合(ステップ903のYes)、画像処理装置101(制御部102)は、ステップ901〜ステップ902の処理を繰り返す。
領域を追加しない場合(ステップ903のNo)、画像処理装置101(制御部102)は、抜け領域の修正を行い(ステップ904)、領域を決定する(ステップ905)。
When adding an area (Yes in step 903), the image processing apparatus 101 (control unit 102) repeats the processes in steps 901 to 902.
When an area is not added (No in step 903), the image processing apparatus 101 (control unit 102) corrects the missing area (step 904) and determines the area (step 905).

図10は、抜け領域修正処理(図9:ステップ904)についての説明図である。
上記領域取得処理において(図9:ステップ901〜ステップ903等)、原画像データの撮影時の照明等の影響により、領域として認識されるべき部分が領域として認識されず、抜け領域を生ずる場合がある。
FIG. 10 is an explanatory diagram of the missing area correction process (FIG. 9: step 904).
In the region acquisition process (FIG. 9: Step 901 to Step 903, etc.), a portion that should be recognized as a region may not be recognized as a region due to the influence of illumination at the time of photographing the original image data, resulting in a missing region. is there.

図10に示すように、抜け領域修正処理前の取得領域(髪)1001は、その内側に抜け領域1002を生じている。この場合、画像処理装置101は、当該抜け領域1002を領域(髪)として修正し、領域(髪)1003とする。
例えば、画像処理装置101は、領域(髪)1001と抜け領域1002の面積比を算出し、抜け領域1002の割合が所定の割合に満たない場合、当該抜け領域1002を領域(髪)として修正する。
As shown in FIG. 10, the acquisition region (hair) 1001 before the missing region correction processing has a missing region 1002 inside thereof. In this case, the image processing apparatus 101 corrects the missing region 1002 as a region (hair) to obtain a region (hair) 1003.
For example, the image processing apparatus 101 calculates the area ratio between the region (hair) 1001 and the missing region 1002, and corrects the missing region 1002 as a region (hair) when the proportion of the missing region 1002 is less than a predetermined rate. .

次に、図11〜図13を参照しながら、画像処理装置101の操作及び処理の流れについて説明する。   Next, the operation of the image processing apparatus 101 and the flow of processing will be described with reference to FIGS.

図11は、原画像データ入力処理(図7:ステップ701)において、画像処理装置101が表示する画面1100の一態様を示す図である。
操作者(被写体111等)は、画面1100を介して、撮像装置109により被写体111を撮影し、原画像データを画像処理装置101に入力する。
FIG. 11 is a diagram showing an aspect of a screen 1100 displayed by the image processing apparatus 101 in the original image data input process (FIG. 7: step 701).
An operator (subject 111 or the like) photographs the subject 111 with the imaging device 109 via the screen 1100 and inputs original image data to the image processing device 101.

操作者は、被写体111の顔部分が画像表示枠1101に収まっているかを確認した後、ボタン1102(「撮影」)を押下する。撮像装置109は、被写体111の顔部分を撮影し、画像処理装置101は、撮像装置109から送られた画像データを原画像データとして記憶部106に保持する。   The operator confirms whether the face portion of the subject 111 is within the image display frame 1101 and then presses the button 1102 (“shoot”). The imaging device 109 captures the face portion of the subject 111, and the image processing device 101 holds the image data sent from the imaging device 109 in the storage unit 106 as original image data.

図12は、マスク画像データ(肌)作成処理(図7:ステップ702、図8ステップ801〜ステップ804、図9:ステップ901〜ステップ905)において、画像処理装置101が表示する画面1200の一態様を示す図である。   FIG. 12 shows one aspect of a screen 1200 displayed by the image processing apparatus 101 in the mask image data (skin) creation processing (FIG. 7: Step 702, FIG. 8 Steps 801 to 804, FIG. 9: Steps 901 to 905). FIG.

操作者は、画面1200上で、肌の領域が収まるように矩形ガイドライン1201の位置、大きさ、形状等を調整し(ステップ801)、原画像データから領域(肌)として抽出する画素データの色範囲を指定し(ステップ901)、ボタン1204(「領域(肌)取得」)を押下する。
画像処理装置101は、領域(肌)1205を取得する(ステップ902)。
The operator adjusts the position, size, shape, and the like of the rectangular guideline 1201 on the screen 1200 so that the skin area can be accommodated (step 801), and the color of the pixel data extracted as the area (skin) from the original image data A range is designated (step 901), and a button 1204 ("Acquire region (skin)") is pressed.
The image processing apparatus 101 acquires a region (skin) 1205 (step 902).

色範囲の指定は、基準色指定ポインタ1202及び範囲長指定バー1203により行うことができる。基準色指定ポインタ1202は、色範囲の基準となる色彩を指定するものであり、ポイント、クリック等された画素の色彩が基準色となる。範囲長指定バー1203は、色範囲の大きさ等を指定するものであり、例えば、色空間における基準色からの隔たりの限界を示す。   The color range can be specified using the reference color specifying pointer 1202 and the range length specifying bar 1203. The reference color designation pointer 1202 designates a color that becomes the reference of the color range, and the color of the pixel that has been pointed or clicked becomes the reference color. The range length designation bar 1203 designates the size of the color range and the like, and indicates, for example, the limit of the distance from the reference color in the color space.

図16は、色範囲1601の一態様を示す図である。
色範囲1601は、RGB色空間において、中心を基準色1602(R、G、B)、半径を範囲長1603(L)とする球により定められる。
基準色指定ポインタ1202によりポイント、クリック等された画素の色彩を基準色(R、G、B)、範囲長指定バー1203により指定された値を範囲長(L)とすると、色範囲は、[式1]を満たすRGB空間内の色彩値をとる画素の集合となる。
〔(R−R+(G−G+(B−B(1/2)≦L…[式1]
FIG. 16 is a diagram illustrating an aspect of the color range 1601.
The color range 1601 is defined by a sphere whose center is a reference color 1602 (R 0 , G 0 , B 0 ) and whose radius is a range length 1603 (L) in the RGB color space.
If the color of the pixel pointed or clicked by the reference color designation pointer 1202 is the reference color (R 0 , G 0 , B 0 ) and the value designated by the range length designation bar 1203 is the range length (L), the color range Is a set of pixels having color values in the RGB space that satisfy [Equation 1].
[(R−R 0 ) 2 + (G−G 0 ) 2 + (B−B 0 ) 2 ] (1/2) ≦ L (1)

例えば、R、G、Bそれぞれ8ビット値(0〜255)で示される色空間において、基準色((R、G、B)=(214、165、144))、範囲長(L=30)の場合、R:184〜244、G:135〜195、B:114〜174であって、かつ、上記[式1]を満たすR、G、Bの値をもつ画素が領域内の画素として抽出される。 For example, in a color space represented by 8-bit values (0 to 255) for each of R, G, and B, a reference color ((R 0 , G 0 , B 0 ) = (214, 165, 144)), a range length (L = 30), R: 184 to 244, G: 135 to 195, B: 114 to 174, and pixels having values of R, G, and B that satisfy the above [Expression 1] Extracted as a pixel.

図13は、領域追加処理(図9:ステップ903)において、画像処理装置101が表示する画面1300の一態様を示す図である。   FIG. 13 is a diagram showing an aspect of a screen 1300 displayed by the image processing apparatus 101 in the region addition processing (FIG. 9: Step 903).

操作者は、肌の領域を追加する場合(ステップ903のYes)、基準色指定ポインタ1302、範囲長指定バー1303により、追加領域(肌)として抽出する画素データの色範囲を指定し(ステップ901)、ボタン1304(「領域(肌)追加」)を押下する。
画像処理装置101は、追加領域(肌)1305を取得する(ステップ902)。
尚、操作者は、画面1300上で、矩形ガイドライン1301により、領域追加処理に係る処理範囲を改めて指定するようにしてもよい。
When adding an area of skin (Yes in Step 903), the operator designates a color range of pixel data to be extracted as an additional area (skin) by using a reference color designation pointer 1302 and a range length designation bar 1303 (Step 901). ), And a button 1304 ("Add region (skin)") is pressed.
The image processing apparatus 101 acquires an additional region (skin) 1305 (step 902).
Note that the operator may designate the processing range related to the region addition processing anew on the screen 1300 using the rectangular guideline 1301.

操作者は、肌の領域を決定する場合(ステップ903のNo)、ボタン1306(「領域(肌)決定」)を押下する。画像処理装置101は、領域認識、領域追加等の処理を経て、最終的に、領域(肌)を決定する。   When determining the skin region (No in step 903), the operator presses a button 1306 ("region (skin) determination"). The image processing apparatus 101 finally determines a region (skin) through processing such as region recognition and region addition.

尚、領域(髪)の取得についての操作は、上記領域(肌)の取得についての操作と同様であるが、画像処理装置101が処理範囲を領域(肌)の外側に設定するので(図8:ステップ805)、操作者は、矩形ガイドラインについての操作(処理範囲の指定)を行う必要はない。
また、領域(その他)の取得についての操作は、上記領域(肌)の取得についての操作と同様であるが、画像処理装置101が処理範囲を認識済の領域以外の範囲に設定するので(図8:ステップ808)、操作者は、矩形ガイドラインについての操作(処理範囲の指定)を行う必要はない。
The operation for acquiring the region (hair) is the same as the operation for acquiring the region (skin), but the image processing apparatus 101 sets the processing range outside the region (skin) (FIG. 8). : Step 805), the operator does not need to perform an operation on the rectangular guideline (designation of the processing range).
The operation for acquiring the region (other) is the same as the operation for acquiring the region (skin), but the image processing apparatus 101 sets the processing range to a range other than the recognized region (see FIG. 8: Step 808), the operator does not need to perform an operation on the rectangular guideline (designation of the processing range).

以上の過程を経て、画像処理装置101は、矩形ガイドラインの内側を処理範囲として領域(肌)を認識し、次に、当該領域(肌)の外側を処理範囲として領域(髪)を認識し、その後、領域(その他)を認識する。画像処理装置101は、認識した領域の画素データに所定の処理を施してマスク画像データを作成し、記憶部に保持する。   Through the above process, the image processing apparatus 101 recognizes the region (skin) using the inside of the rectangular guideline as the processing range, and then recognizes the region (hair) using the outside of the region (skin) as the processing range, Then, the area (others) is recognized. The image processing apparatus 101 performs predetermined processing on the pixel data in the recognized area to create mask image data, and stores the mask image data in the storage unit.

髪の毛と眉、瞳等とは色彩等が近似していることもあり、領域認識が困難となる場合があるが、画像処理装置101は、処理範囲を限定して肌の領域の認識処理を行い、その後、認識済の肌の領域の外側を処理範囲として髪の毛の領域を認識するので、髪の毛の領域と眉、瞳等の領域とを互いに誤認識することがない。また、矩形ガイドラインによる処理範囲の指定は、1度だけであり、処理の迅速性を損なうこともない。   The color of the hair and eyebrows, pupils, etc. may be similar, and region recognition may be difficult. However, the image processing apparatus 101 performs skin region recognition processing with a limited processing range. Then, since the hair region is recognized using the outside of the recognized skin region as the processing range, the hair region and the eyebrow and pupil regions are not erroneously recognized. In addition, the processing range specified by the rectangular guideline is only once, and the speed of processing is not impaired.

次に、図14及び図15を参照しながら、図9に示す手順と異なる領域認識処理における、画像処理装置101の動作について説明する。
図14は、図9に示す手順と異なる領域認識処理における、画像処理装置101の動作を示すフローチャートである。
図15は、図9に示す手順と異なる領域認識処理の流れを示す図である。
Next, the operation of the image processing apparatus 101 in the area recognition process different from the procedure shown in FIG. 9 will be described with reference to FIGS.
FIG. 14 is a flowchart showing the operation of the image processing apparatus 101 in a region recognition process different from the procedure shown in FIG.
FIG. 15 is a diagram showing a flow of region recognition processing different from the procedure shown in FIG.

図9に示す領域認識処理では、画像処理装置101は、処理範囲内の全ての画素データについて、所定の色範囲に属するか否かを判断するものとして説明したが、図14に示す領域認識処理では、画像処理装置101は、少なくとも1の境界画素(領域の境界上の画素)を検出した後は、当該境界画素近傍を処理範囲と設定して、新たな境界画素の検出を行う。   In the area recognition process shown in FIG. 9, the image processing apparatus 101 has been described as determining whether or not all pixel data in the processing range belong to a predetermined color range. However, the area recognition process shown in FIG. Then, after detecting at least one boundary pixel (a pixel on the boundary of the region), the image processing apparatus 101 sets a vicinity of the boundary pixel as a processing range and detects a new boundary pixel.

画像処理装置101(制御部102)は、色範囲が指定されると(ステップ1401)、少なくとも1の境界画素(領域の境界上の画素)を検出する(ステップ1402)。
画像処理装置101(制御部102)は、境界画素の近傍を新たな処理範囲に設定し(ステップ1403)、当該処理範囲内の画素データについて、新たな境界画素を検出する(ステップ1404)。
When the color range is designated (step 1401), the image processing apparatus 101 (control unit 102) detects at least one boundary pixel (a pixel on the boundary of the region) (step 1402).
The image processing apparatus 101 (control unit 102) sets the vicinity of the boundary pixel as a new processing range (step 1403), and detects a new boundary pixel in the pixel data within the processing range (step 1404).

画像処理装置101(制御部102)は、検出済の境界画素が閉じた領域を形成しない場合(ステップ1405のNo)、ステップ1403〜ステップ1404の処理を繰り返し、検出済の境界画素が閉じた領域を形成する場合(ステップ1405のYes)、当該閉じた領域を認識領域として決定する(ステップ1406)。   If the detected boundary pixel does not form a closed region (No in step 1405), the image processing apparatus 101 (control unit 102) repeats the processing in steps 1403 to 1404, and the detected boundary pixel is closed. (Yes in step 1405), the closed area is determined as a recognition area (step 1406).

図15に示すように、領域(髪)の認識処理を行う場合、画像処理装置101は、原画像1501の点Aから点Bへ向かって、境界画素を探索し、1の境界画素1502を検出し、当該境界画素1502の近傍(例えば、当該境界画素から所定の距離以下の範囲。)を処理範囲1503とし、当該処理範囲1503内において、新たな境界画素1504を検出し、境界画素が閉じた領域を形成したら、これを領域(髪)1505と決定する。   As shown in FIG. 15, when performing region (hair) recognition processing, the image processing apparatus 101 searches for boundary pixels from point A to point B in the original image 1501 and detects one boundary pixel 1502. Then, the vicinity of the boundary pixel 1502 (for example, a range equal to or less than a predetermined distance from the boundary pixel) is set as a processing range 1503, and a new boundary pixel 1504 is detected in the processing range 1503, and the boundary pixel is closed. When the region is formed, this is determined as a region (hair) 1505.

このように、図14に示す領域認識処理では、処理範囲が境界画素近傍に限定されるので、画像処理装置101の処理負担が軽減される。また、境界画素が閉じた領域を形成したらこれを認識領域として決定するので、抜け領域が生じるおそれがない。   As described above, in the area recognition process shown in FIG. 14, the processing range is limited to the vicinity of the boundary pixel, so that the processing load on the image processing apparatus 101 is reduced. In addition, if an area where the boundary pixels are closed is formed, it is determined as a recognition area, so there is no possibility that a missing area will occur.

以上説明したように、本発明の実施の形態によれば、画像処理装置は、処理範囲を限定して肌の領域の認識処理を行い、その後、認識済の肌の領域の外側を処理範囲として髪の毛の領域を認識するので、髪の毛の領域と眉、瞳等の領域とを互いに誤認識することがない。また、操作者の操作による処理範囲の指定は、1回でよく、処理の迅速性を損なうこともない。
また、処理範囲を限定することにより、画像処理装置における処理負担の軽減、処理時間の短縮を図ることができる。
尚、上述の実施の形態では、操作者による処理範囲の指定は、矩形ガイドラインを用いるものとして説明したが、矩形のガイドラインのみならず、種々の手順によることができる。例えば、形状、大きさが共に可変の楕円状のガイドライン、自由曲線によるガイドライン等を用いることができる。
As described above, according to the embodiment of the present invention, the image processing apparatus limits the processing range to perform the skin area recognition process, and then sets the outside of the recognized skin area as the processing range. Since the hair region is recognized, the hair region and the eyebrow and pupil regions are not erroneously recognized. Further, the processing range can be designated by the operator's operation only once, and the speed of processing is not impaired.
Further, by limiting the processing range, it is possible to reduce the processing load and the processing time in the image processing apparatus.
In the above-described embodiment, the processing range specified by the operator is described as using the rectangular guideline. However, not only the rectangular guideline but also various procedures can be used. For example, an elliptical guideline having a variable shape and size, a guideline based on a free curve, and the like can be used.

また、画像処理装置は、原画像に基づいて、画素単位で合成領域を認識するので、画像合成を行った際、領域の境界付近についても自然な画像表示を行うことができる。例えば、髪の毛先についても領域認識することにより、髪の毛と肌の境界付近をより自然な態様で表示することができる。
従って、装置(パーソナルコンピュータ等)上に取り込んだモデル、化粧品購入者自身の顔をベースに、リアルタイムに、簡易かつ高精細、現実感のあるメイクアップを仮想的に実現することができる。
In addition, since the image processing apparatus recognizes the synthesis area in units of pixels based on the original image, it is possible to perform natural image display even near the boundary of the area when image synthesis is performed. For example, by recognizing the region of the hair tip, the vicinity of the boundary between the hair and the skin can be displayed in a more natural manner.
Therefore, simple, high-definition, and realistic makeup can be virtually realized in real time based on the model captured on the apparatus (personal computer or the like) and the face of the cosmetic purchaser himself.

また、画像処理装置は、画像合成処理を行う前に、原画像データに基づいて必要な合成領域を全て認識し、マスク画像データとして記憶部に保持するので、画像合成処理を行う度に、合成領域の認識処理を行う必要がなく、画像合成処理を迅速に行うことができる。
さらに、操作者は、合成領域を指定する際、認識済の領域を選択するだけでよく、操作負担が軽減される。例えば、画像合成を行いたい部位毎に、画像合成を行う度毎に、矩形枠の大きさ、形状等を調整しながらその部位を囲んで選択したりする必要はない。
In addition, the image processing apparatus recognizes all necessary synthesis areas based on the original image data before performing the image synthesis process, and stores them in the storage unit as mask image data. It is not necessary to perform region recognition processing, and image composition processing can be performed quickly.
Furthermore, the operator only has to select a recognized area when designating the composite area, and the operation burden is reduced. For example, it is not necessary to surround and select the rectangular frame while adjusting the size, shape, etc. of each part for which image synthesis is to be performed and each time image synthesis is performed.

尚、合成領域、マスク画像等の指定は、マウス等により原画像の所望の領域内の1点を指定することにより行うことができる。例えば、領域(肌)を指定する場合、操作者は、原画像の顔の頬部をマウスでクリックし、画像処理装置は、記憶部からマスク画像データ(肌)を呼び出す。この場合、画像処理装置は、記憶部において、クリック位置にある画素位置を領域に含むマスク画像データを検索することにより、マスク画像データ(肌)を呼び出すことができる。
さらに、画像処理装置は、画像合成処理を行う前に、原画像データに基づいて必要な領域を全て認識し、マスク画像データとして記憶部に保持するので、認識領域、マスク画像データの一覧(図示しない)を表示するようにしてもよい。この場合、操作者は、この一覧から合成領域、マスク画像等を選択することができる。
The composite area, the mask image, etc. can be designated by designating one point in a desired area of the original image with a mouse or the like. For example, when designating a region (skin), the operator clicks the cheek part of the face of the original image with the mouse, and the image processing apparatus calls the mask image data (skin) from the storage unit. In this case, the image processing apparatus can call up the mask image data (skin) by searching for the mask image data including the pixel position at the click position in the area in the storage unit.
Furthermore, since the image processing apparatus recognizes all necessary areas based on the original image data and stores them in the storage unit as mask image data before performing the image composition process, a list of recognition areas and mask image data (illustrated) May not be displayed. In this case, the operator can select a composite area, a mask image, and the like from this list.

尚、領域認識処理に関しては、各領域の特性に応じて種々の手順を用いることができる。例えば、目の領域の上方3画素分をアイラインの領域としてもよいし、唇の領域の認識処理においては、顔の下部1/3を処理範囲とすることにより、画像処理装置の処理負担の軽減を図るようにしてもよい。   Regarding the area recognition processing, various procedures can be used according to the characteristics of each area. For example, the upper three pixels of the eye area may be set as the eyeline area. In the lip area recognition process, the processing range of the image processing apparatus is reduced by setting the lower third of the face as the processing range. You may make it aim at reduction.

また、画像処理装置は、領域認識に関する処理、画像合成に関する処理等を行うものとして説明したが、専ら領域認識に関する処理等を行う装置(領域認識装置等)、専ら画像合成に関する処理等を行う装置(画像合成装置等)をそれぞれ独立させて構成するようにしてもよいし、上述の実施の形態に示すように、これらを一体の装置(画像処理装置等)として構成するようにしてもよい。   In addition, the image processing apparatus has been described as performing processing relating to area recognition, processing relating to image synthesis, and the like. (Image synthesizing apparatus or the like) may be configured independently of each other, or may be configured as an integrated apparatus (image processing apparatus or the like) as shown in the above-described embodiment.

また、原画像の撮影、入力時、被写体の背景をブルーバックにすることにより、領域認識の正確性、迅速性の向上を図るようにしてもよい。
また、上述の実施の形態では、色範囲の指定は、3原色の各成分(R、G、B)について行ったが、これに限られない。例えば、輝度、色相、明度、彩度等を考慮するようにしてもよい。
In addition, when capturing and inputting an original image, the background of the subject may be set to a blue background to improve the accuracy and speed of area recognition.
In the above-described embodiment, the color range is specified for each of the three primary color components (R, G, B), but is not limited thereto. For example, brightness, hue, brightness, saturation, etc. may be taken into consideration.

次に、図18を参照しながら、本発明の他の実施の形態について説明する。
図18は、本発明の他の実施の形態に係る画像処理システム1800の概略構成図である。
Next, another embodiment of the present invention will be described with reference to FIG.
FIG. 18 is a schematic configuration diagram of an image processing system 1800 according to another embodiment of the present invention.

図18に示すように画像処理システム1800は、画像処理装置1801、端末装置1802等が、ネットワーク1803により接続されて構成される。通常、複数の端末装置1802がネットワーク1803に接続される。
画像処理装置1801〜端末装置1802間では、ネットワーク1803を介して相互に通信可能である。
As shown in FIG. 18, the image processing system 1800 is configured by connecting an image processing device 1801, a terminal device 1802, and the like via a network 1803. Usually, a plurality of terminal devices 1802 are connected to the network 1803.
The image processing apparatus 1801 to the terminal apparatus 1802 can communicate with each other via the network 1803.

画像処理装置1801は、上述の実施の形態における画像処理装置101と同様のものである。
端末装置1802は、ネットワーク1803を介して画像処理装置1801と各種データの授受を行う装置であり、例えば、パーソナルコンピュータ、情報携帯端末、携帯電話等である。
The image processing apparatus 1801 is the same as the image processing apparatus 101 in the above-described embodiment.
The terminal device 1802 is a device that exchanges various data with the image processing device 1801 via the network 1803, and is, for example, a personal computer, an information portable terminal, a cellular phone, or the like.

ネットワーク1803は、インターネット等のネットワークであり、有線、無線を問わない。また、安全かつ円滑な通信を担保するため、インターネット等の公衆が利用可能なネットワークではなく、専用線、OBN(Open Business Network)、インターネットVPN(Virtual Private Network)等を利用するようにしてもよい。   The network 1803 is a network such as the Internet, and may be wired or wireless. Moreover, in order to ensure safe and smooth communication, a dedicated line, OBN (Open Business Network), Internet VPN (Virtual Private Network), etc. may be used instead of a network that can be used by the public such as the Internet. .

先述の実施の形態では、原画像データは、撮像装置から接続線を介して、あるいは、記録媒体を介して、画像処理装置に入力され、合成画像は、当該画像処理装置に設けられる表示装置に表示されるものとして説明したが、図18に示す他の実施の形態では、インターネット等のネットワーク1803を介して、端末装置1802から画像処理装置1801に対して原画像データの送信を行い、画像処理装置1801から端末装置1802に対して合成画像データの返信を行い、端末装置1802は、合成画像を表示する。   In the above-described embodiment, the original image data is input from the imaging device to the image processing device via a connection line or a recording medium, and the composite image is input to a display device provided in the image processing device. In the other embodiment shown in FIG. 18, the original image data is transmitted from the terminal device 1802 to the image processing device 1801 via the network 1803 such as the Internet to display the image. The composite image data is returned from the device 1801 to the terminal device 1802, and the terminal device 1802 displays the composite image.

この場合、画像処理システム1800の利用者(端末装置1802の操作者)は、画像処理装置1801が設置されている店舗等に出向くことなく、端末装置1802上で合成画像をみることができる。また、画像処理システム1800は、同時かつ複数の利用者に対応可能であるので、短時間でより多くのシステム利用者に対して効率的に購買意欲の促進を図ることができ、さらに、設備導入に係る負担も軽減することができる。   In this case, the user of the image processing system 1800 (the operator of the terminal device 1802) can view the composite image on the terminal device 1802 without going to a store or the like where the image processing device 1801 is installed. Further, since the image processing system 1800 can handle a plurality of users at the same time, it is possible to efficiently promote purchase willingness for a larger number of system users in a short time. Can also reduce the burden.

以上、添付図面を参照しながら、本発明にかかる画像処理装置等の好適な実施形態について説明したが、本発明はかかる例に限定されない。当業者であれば、本願で開示した技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   The preferred embodiments of the image processing apparatus and the like according to the present invention have been described above with reference to the accompanying drawings, but the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes or modifications can be conceived within the scope of the technical idea disclosed in the present application, and these are naturally within the technical scope of the present invention. Understood.

本発明の実施の形態に係る画像処理装置101の概略構成図1 is a schematic configuration diagram of an image processing apparatus 101 according to an embodiment of the present invention. 画素データの一態様を示す図The figure which shows the one aspect | mode of pixel data 原画像301の一態様を示す図The figure which shows the one aspect | mode of the original image 301 マスク画像401の一態様を示す図The figure which shows the one aspect | mode of the mask image 401 テクスチャ画像501の一態様を示す図The figure which shows the one aspect | mode of the texture image 501 合成画像601の一態様を示す図The figure which shows the one aspect | mode of the synthesized image 601. 画像処理装置101の全体的な動作を示すフローチャートA flowchart showing the overall operation of the image processing apparatus 101 マスク画像データ作成処理における、画像処理装置101の動作を示すフローチャートA flowchart showing the operation of the image processing apparatus 101 in the mask image data creation process 領域認識処理における、画像処理装置101の動作を示すフローチャートA flowchart showing the operation of the image processing apparatus 101 in the area recognition process. 抜け領域修正処理についての説明図Explanatory drawing about missing area correction processing 原画像データ入力処理において、画像処理装置101が表示する画面1100の一態様を示す図The figure which shows the one aspect | mode of the screen 1100 which the image processing apparatus 101 displays in original image data input processing マスク画像データ(肌)作成処理において、画像処理装置101が表示する画面1200の一態様を示す図The figure which shows the one aspect | mode of the screen 1200 which the image processing apparatus 101 displays in mask image data (skin) creation processing. 領域追加処理において、画像処理装置101が表示する画面1300の一態様を示す図The figure which shows the one aspect | mode of the screen 1300 which the image processing apparatus 101 displays in an area | region addition process. 図9に示す手順と異なる領域認識処理における、画像処理装置101の動作を示すフローチャートThe flowchart which shows operation | movement of the image processing apparatus 101 in the area | region recognition process different from the procedure shown in FIG. 図9に示す手順と異なる領域認識処理の流れを示す図The figure which shows the flow of the area | region recognition process different from the procedure shown in FIG. 色範囲1601の一態様を示す図The figure which shows the one aspect | mode of the color range 1601 画像合成処理における、画像処理装置101が表示する操作画面1700の一態様を示す図The figure which shows the one aspect | mode of the operation screen 1700 which the image processing apparatus 101 displays in an image compositing process. 本発明の他の実施の形態に係る画像処理システム1800の概略構成図Schematic configuration diagram of an image processing system 1800 according to another embodiment of the present invention.

符号の説明Explanation of symbols

101………画像処理装置
102………制御部
103………入力部
104………表示部
105………入出力部
106………記憶部
107………通信部
109………撮像装置
111………被写体
201………画素データ
301………原画像
401………マスク画像
501………テクスチャ画像
601………合成画像
1201………矩形ガイドライン
1202………基準色指定ポインタ
1203………範囲長指定バー
1601………色範囲
1602………基準色(R、G、B
1603………範囲長(L)
DESCRIPTION OF SYMBOLS 101 ......... Image processing apparatus 102 ......... Control part 103 ......... Input part 104 ......... Display part 105 ......... Input / output part 106 ......... Storage part 107 ......... Communication part 109 ......... Imaging device 111... Subject 201. ......... Range length designation bar 1601 ......... Color range 1602 ......... Standard colors (R 0 , G 0 , B 0 )
1603 ......... Range length (L)

Claims (14)

原画像に対して画像処理を施す画像処理装置であって、
処理範囲を指定する処理範囲指定手段と、
属性範囲を指定する属性範囲指定手段と、
前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識手段と、
を具備することを特徴とする画像処理装置。
An image processing apparatus that performs image processing on an original image,
A processing range specification means for specifying a processing range;
An attribute range specifying means for specifying an attribute range;
Region recognition means for recognizing a region by extracting pixels belonging to the attribute range in the processing range of the original image;
An image processing apparatus comprising:
前記属性範囲指定手段は、色空間において基準色及び前記基準色からの距離を指定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the attribute range specifying unit specifies a reference color and a distance from the reference color in a color space. 前記処理範囲指定手段は、前記原画像の所定の範囲を囲むことにより前記処理範囲を指定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processing range specifying unit specifies the processing range by surrounding a predetermined range of the original image. 前記処理範囲指定手段は、認識済の領域外を処理範囲に設定することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the processing range designating unit sets the outside of the recognized region as a processing range. 顔を示す原画像の所定の範囲を囲むことにより前記処理範囲を指定して肌の領域を認識し、その後、認識済の前記肌の領域外を前記処理範囲に設定して髪の領域を認識することを特徴とする請求項1に記載の画像処理装置。   Specify the processing range by surrounding the predetermined range of the original image showing the face to recognize the skin region, and then set the processing region outside the recognized skin region to recognize the hair region The image processing apparatus according to claim 1, wherein: 前記領域及び合成用の画像を保持する保持手段と、
前記原画像の前記領域に前記合成用の画像を合成する画像合成手段と、
を具備することを特徴とする請求項1から請求項5までのいずれかに記載の画像処理装置。
Holding means for holding the region and the image for synthesis;
Image combining means for combining the image for combining with the region of the original image;
The image processing apparatus according to claim 1, further comprising:
原画像に対して画像処理を施す画像処理方法であって、
処理範囲を指定する処理範囲指定工程と、
属性範囲を指定する属性範囲指定工程と、
前記原画像の前記処理範囲において前記属性範囲に属する画素を抽出して領域を認識する領域認識工程と、
を具備することを特徴とする画像処理方法。
An image processing method for performing image processing on an original image,
A process range specification process for specifying a process range;
An attribute range specification process for specifying an attribute range;
A region recognition step of recognizing a region by extracting pixels belonging to the attribute range in the processing range of the original image;
An image processing method comprising:
前記属性範囲指定工程は、色空間において基準色及び前記基準色からの距離を指定することを特徴とする請求項7に記載の画像処理方法。   The image processing method according to claim 7, wherein the attribute range specifying step specifies a reference color and a distance from the reference color in a color space. 前記処理範囲指定工程は、前記原画像の所定の範囲を囲むことにより前記処理範囲を指定することを特徴とする請求項7に記載の画像処理方法。   The image processing method according to claim 7, wherein the processing range specifying step specifies the processing range by surrounding a predetermined range of the original image. 前記処理範囲指定工程は、認識済の領域外を処理範囲に設定することを特徴とする請求項7に記載の画像処理方法。   The image processing method according to claim 7, wherein in the processing range specifying step, a region outside the recognized region is set as a processing range. 顔を示す原画像の所定の範囲を囲むことにより前記処理範囲を指定して肌の領域を認識し、その後、認識済の前記肌の領域外を前記処理範囲に設定して髪の領域を認識することを特徴とする請求項7に記載の画像処理方法。   Specify the processing range by surrounding the predetermined range of the original image showing the face to recognize the skin region, and then set the processing region outside the recognized skin region to recognize the hair region The image processing method according to claim 7. 前記領域及び合成用の画像を保持する保持工程と、
前記原画像の前記領域に前記合成用の画像を合成する画像合成工程と、
を具備することを特徴とする請求項7から請求項11までのいずれかに記載の画像処理方法。
Holding step for holding the region and the image for synthesis;
An image synthesis step of synthesizing the image for synthesis with the region of the original image;
The image processing method according to claim 7, further comprising:
コンピュータを請求項1から請求項6までのいずれかに記載の画像処理装置として機能させるプログラム。   A program that causes a computer to function as the image processing apparatus according to any one of claims 1 to 6. コンピュータを請求項1から請求項6までのいずれかに記載の画像処理装置として機能させるプログラムを記録したコンピュータ読取可能な記録媒体。

A computer-readable recording medium on which a program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 6 is recorded.

JP2003304593A 2003-08-28 2003-08-28 Image processing apparatus, image processing method, program, and recording medium Expired - Fee Related JP4372494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003304593A JP4372494B2 (en) 2003-08-28 2003-08-28 Image processing apparatus, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003304593A JP4372494B2 (en) 2003-08-28 2003-08-28 Image processing apparatus, image processing method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005078158A true JP2005078158A (en) 2005-03-24
JP4372494B2 JP4372494B2 (en) 2009-11-25

Family

ID=34408237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003304593A Expired - Fee Related JP4372494B2 (en) 2003-08-28 2003-08-28 Image processing apparatus, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP4372494B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
JP2009545052A (en) * 2006-07-25 2009-12-17 ヒューマンアイズ テクノロジーズ リミテッド Interactive segmentation of images with a single scribble
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium
CN102375977A (en) * 2010-08-23 2012-03-14 东芝泰格有限公司 Store system and sales registration method
JP2012528506A (en) * 2009-05-29 2012-11-12 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド Method and apparatus for separating the top of the foreground from the background
JP2013229058A (en) * 2010-08-23 2013-11-07 Toshiba Tec Corp Store system and program
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
JP2015130589A (en) * 2014-01-07 2015-07-16 株式会社メイクソフトウェア image editing apparatus, image editing method, and control program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545052A (en) * 2006-07-25 2009-12-17 ヒューマンアイズ テクノロジーズ リミテッド Interactive segmentation of images with a single scribble
US8594428B2 (en) 2006-07-25 2013-11-26 Humaneyes Technologies Ltd. Interactive segmentation of images with single scribbles
JP2008131405A (en) * 2006-11-21 2008-06-05 Sony Corp Imaging unit, image processing unit, image processing methods for the units, and program making computer execute the method
JP2012528506A (en) * 2009-05-29 2012-11-12 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド Method and apparatus for separating the top of the foreground from the background
US8633999B2 (en) 2009-05-29 2014-01-21 DigitalOptics Corporation Europe Limited Methods and apparatuses for foreground, top-of-the-head separation from background
US8605955B2 (en) 2009-06-29 2013-12-10 DigitalOptics Corporation Europe Limited Methods and apparatuses for half-face detection
JP2011097538A (en) * 2009-11-02 2011-05-12 Sharp Corp Image processing apparatus, program, recording medium
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
US8977056B2 (en) 2010-07-26 2015-03-10 Fotonation Limited Face detection using division-generated Haar-like features for illumination invariance
CN102375977A (en) * 2010-08-23 2012-03-14 东芝泰格有限公司 Store system and sales registration method
US8856035B2 (en) 2010-08-23 2014-10-07 Toshiba Tec Kabushiki Kaisha Store system and sales registration method
JP2013229058A (en) * 2010-08-23 2013-11-07 Toshiba Tec Corp Store system and program
JP2015130589A (en) * 2014-01-07 2015-07-16 株式会社メイクソフトウェア image editing apparatus, image editing method, and control program

Also Published As

Publication number Publication date
JP4372494B2 (en) 2009-11-25

Similar Documents

Publication Publication Date Title
US10599914B2 (en) Method and apparatus for human face image processing
WO2021169307A1 (en) Makeup try-on processing method and apparatus for face image, computer device, and storage medium
JP3779570B2 (en) Makeup simulation apparatus, makeup simulation control method, and computer-readable recording medium recording makeup simulation program
TWI325567B (en) Method and system for enhancing portrait images that are processed in a batch mode
KR101733512B1 (en) Virtual experience system based on facial feature and method therefore
EP1847968A1 (en) Generating a three dimensional model of a face from a single two-dimensional image: adaption of a generic hair model
JP2010507854A (en) Method and apparatus for virtual simulation of video image sequence
KR20200027030A (en) Facial Expression Synthesis Methods and Devices, Electronic Devices, and Storage Media
WO2009093617A1 (en) Makeup method, makeup simulation device, and makeup simulation program
JP2004228994A (en) Image editor, image trimming method, and program
JP2014146300A (en) Image processing device and image processing program
KR20190043925A (en) Method, system and non-transitory computer-readable recording medium for providing hair styling simulation service
CN112308944A (en) Augmented reality display method of simulated lip makeup
JP4372494B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP2021144582A (en) Makeup simulation device, makeup simulation method and program
KR20170046635A (en) Virtual experience system based on facial feature and method therefore
JPH1125253A (en) Method for drawing eyebrow
US20180365878A1 (en) Facial model editing method and apparatus
JP2007053543A (en) Image processor and image processing method
JP2015511339A (en) Hair coloring device and method
US8971636B2 (en) Image creating device, image creating method and recording medium
KR100422470B1 (en) Method and apparatus for replacing a model face of moving image
KR20000047609A (en) Portrait imaging and printing system and its process
KR20010102873A (en) Method and system for generating an avatar of real-picture using finite image templates
CN113610723A (en) Image processing method and related device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090901

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090902

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120911

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130911

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees