JP2007133599A - Image processing apparatus - Google Patents

Image processing apparatus Download PDF

Info

Publication number
JP2007133599A
JP2007133599A JP2005325205A JP2005325205A JP2007133599A JP 2007133599 A JP2007133599 A JP 2007133599A JP 2005325205 A JP2005325205 A JP 2005325205A JP 2005325205 A JP2005325205 A JP 2005325205A JP 2007133599 A JP2007133599 A JP 2007133599A
Authority
JP
Japan
Prior art keywords
information
image
color
processing apparatus
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005325205A
Other languages
Japanese (ja)
Inventor
Kenji Kojima
健司 小嶋
Yasuhiro Taniguchi
泰弘 谷口
Akiko Nakajima
朗子 中島
Tsuyoshi Morino
剛志 森野
Gokou Hatano
吾紅 波多野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Consumer Marketing Corp
Original Assignee
Toshiba Corp
Toshiba Consumer Marketing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Consumer Marketing Corp filed Critical Toshiba Corp
Priority to JP2005325205A priority Critical patent/JP2007133599A/en
Publication of JP2007133599A publication Critical patent/JP2007133599A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To present an accurate simulation image by combining an image on the basis of the information of a base image and the information of a decorative image to be superposed to the base image. <P>SOLUTION: The image processing apparatus is provided with: an image input means 7 for inputting an image of an object; an analysis means 8b for analyzing the positional information of portions of the object, irregularity information and color information on the basis of the image information from the image input means 7; a selection means 8c for selecting a specific portion of the object from the inputted image information; an information storage means 8e for storing information concerned with a decoration for decorating the selected portion; an image composition means 8d for combining an image for the selected portion on the basis of the base color information of the object which is analyzed by the analysis means 8b and color information selected from the information concerned with the decoration which is stored in the information storage means 8e; and an image display means 2 for displaying the image combined by the image composition means 8d. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、画像を合成する画像処理装置に関する。   The present invention relates to an image processing apparatus that synthesizes images.

従来より、保持する画像に別の画像を付け加えて合成された画像を表示する画像表示装置が提案されている(特許文献1参照)。この特許文献に記載されている発明によれば、入力された画像に対して、顔領域と顔部品の大きさ、位置を検出し、所定の図形を検出された顔部品の位置に応じて、相対的に位置、大きさを変え、入力画像と共に重ね合わせた表示、加工をする。これにより、表示された内容は、認識対象となった人物があたかも瞬時に変装したかのように見せることができる。
特開2000−322588号公報
Conventionally, there has been proposed an image display device that displays an image synthesized by adding another image to a held image (see Patent Document 1). According to the invention described in this patent document, the size and position of a face area and a facial part are detected for an input image, and a predetermined figure is detected according to the detected position of the facial part. The position and size are relatively changed, and the image is displayed and processed with the input image. As a result, the displayed content can be shown as if the person to be recognized is disguised instantly.
JP 2000-322588 A

しかしながら、上述の提案では、入力画像の上に所定の図形を共に重ね合わせて表示していることから、重なり合った部分の下に位置する入力画像は、上から重ねられた所定の図形によって隠されてしまっている。すなわち、一方の画像の上に他方の画像を重ねた場合、上から重ねた他方の画像を見ることはできるが、その画像の下敷きとなった一方の画像は他方の画像に隠れて見ることはできない。   However, in the above proposal, since the predetermined graphic is displayed on the input image together, the input image located under the overlapped portion is hidden by the predetermined graphic superimposed from above. It has been. In other words, when the other image is superimposed on one image, the other image superimposed from above can be seen, but one image underlying that image is hidden behind the other image. Can not.

例えば、帽子やコート等の一部の衣装のように、体にまとうことになるこれら衣装の下になる体の画像を見る必要がないような場合は、体の画像の上にこれら衣装の画像をそのまま被せることで、衣装をまとった状態を把握することでたりる。一方、衣装の中でも透ける素材(シースルーの素材)でできた衣装や化粧品等のように、下地となる素材(例えば、衣装や唇)の色によって重ねた素材(透ける素材の衣装や口紅)の色が変化する場合には、上述の提案では上に重ねた素材の色しか見ることができず、合成された画像が表現する色は実際に衣装をまとったり口紅をつけた場合とは異なる色となってしまう。これでは、複数の画像を合成することによる的確なシミュレーション画像を得ることができる場合が制限されることになる。   For example, if you do not need to see an image of the body underneath these costumes, such as some costumes such as hats and coats, the images of these costumes above the body image It is possible to grasp the state of wearing a costume by putting on as it is. On the other hand, the color of materials (transparent costumes and lipsticks) that are layered with the color of the underlying material (for example, costumes and lips), such as costumes and cosmetics made of transparent materials (see-through materials). In the above proposal, only the color of the material superimposed on the above proposal can be seen, and the color represented by the synthesized image is different from the actual color when wearing a costume or lipstick. turn into. This restricts the case where an accurate simulation image can be obtained by combining a plurality of images.

また、例えば、口紅の購入に当たっては、衛生面他の理由から一般的に実際に購入希望の口紅を唇に塗ってその色合いを確かめることはできない。多くは、例えば手の甲に試し塗りをしてその色合いを確認しているが、手の甲の色と唇の色は異なることも多く、試し塗りの結果口紅を購入しても実際に唇に塗ってみると印象が大きく異なる、ということも多々ある。同様に、例えば透ける素材でできた衣装の購入に当たっても、試着する日に着ているインナーの色によってこの衣装の色合いは大きく異なり、試着の度にインナーを着替えるのは手間である。   In addition, for example, when purchasing lipstick, it is generally not possible to confirm the color of the lipstick by actually applying it to the lips for hygiene and other reasons. In many cases, for example, the color of the back of the hand and the color of the lips are confirmed by trial coating on the back of the hand, but the color of the back of the hand and the color of the lips are often different. There are many cases where the impression differs greatly. Similarly, even when purchasing a costume made of transparent material, for example, the color of the costume varies greatly depending on the color of the inner worn on the day of trying on, and it is troublesome to change the inner each time it is tried on.

本発明は上記課題を解決するためになされたものであり、本発明の目的は、基となる画像の情報とその基となる画像の上に重ねる装飾品の画像の情報とに基づいて画像を合成することで、的確なシミュレーション画像を提示することのできる画像処理装置を提供することである。   The present invention has been made to solve the above-described problems, and an object of the present invention is to display an image based on information on a base image and information on an image of a decorative item superimposed on the base image. An object of the present invention is to provide an image processing apparatus capable of presenting an appropriate simulation image by combining.

本発明の実施の形態に係る特徴は、被写体の画像を入力する画像入力手段と、画像入力手段からの画像情報に基づいて被写体の部位の位置情報、凹凸情報、色情報を解析する解析手段と、入力された画像情報の中から被写体の特定の部位を選択する選択手段と、選択された部位を装飾する装飾品に関する情報を格納する情報格納手段と、選択された部位について、解析手段により解析された基調となる被写体の色情報と情報格納手段内に格納されている装飾品に関する情報の中から選択された色情報とに基づいて画像を合成する手段と、画像合成手段により合成された画像を表示する画像表示手段とを備える。   The feature according to the embodiment of the present invention is that image input means for inputting an image of a subject, analysis means for analyzing position information, unevenness information, and color information of a part of the subject based on image information from the image input means, A selection means for selecting a specific part of the subject from the input image information, an information storage means for storing information relating to an ornament that decorates the selected part, and an analysis means for analyzing the selected part Means for synthesizing an image on the basis of the color information of the subject to be the basic tone and the color information selected from the information on the ornament stored in the information storage means, and the image synthesized by the image synthesizing means And image display means for displaying.

本発明によれば、基となる画像の情報とその基となる画像の上に重ねる装飾品の画像の情報とに基づいて画像を合成することで、的確なシミュレーション画像を提示することのできる画像処理装置を提供することができる。   According to the present invention, an image capable of presenting an accurate simulation image by synthesizing an image based on information on a base image and information on an image of a decorative item superimposed on the base image. A processing device can be provided.

以下、本発明の実施の形態について図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(第1の実施の形態)
本発明の第1の実施の形態における画像処理装置1は、図1に示すように、合成された画像等を表示する画像表示手段2と、画像表示手段2に表示された指示に従って各種情報を入力する情報入力手段3と、装飾品のサンプルを展示するショーケース4と、合成された画像を印刷した場合にその印刷物が排出される排出口5と、画像処理装置1内の各構成機器を制御する制御装置8とを備える。
(First embodiment)
As shown in FIG. 1, the image processing apparatus 1 according to the first embodiment of the present invention displays an image display unit 2 that displays a synthesized image and the like, and various information according to instructions displayed on the image display unit 2. An information input means 3 for inputting, a showcase 4 for displaying a sample of ornaments, a discharge port 5 through which a printed product is discharged when a synthesized image is printed, and each component device in the image processing apparatus 1 And a control device 8 for controlling.

また、図2はこの画像処理装置1の使用態様の一例を示すものである。例えば、一般的な化粧品ショーケースAの横に画像処理装置1が配置され、画像処理装置1における排出口5の前には、椅子Bが置かれている。画像処理装置1の使用者は、画像表示手段2に対向するように椅子Bに着席し、被写体となる。   FIG. 2 shows an example of how the image processing apparatus 1 is used. For example, the image processing apparatus 1 is arranged beside a general cosmetic showcase A, and a chair B is placed in front of the discharge port 5 in the image processing apparatus 1. A user of the image processing apparatus 1 sits on the chair B so as to face the image display means 2 and becomes a subject.

図3は、図1のA−A線における画像処理装置1の切断断面図である。画像表示手段2は、第1のハーフミラー2aと第2のハーフミラー2bと、液晶モニター2cから構成される。液晶モニター2cが駆動されていない場合には、液晶モニター2cのバックライトに電源が入っていないので、使用者は第1のハーフミラー2aに写った自分の姿が見える。一方、液晶モニター2cのバックライトがONの場合は、液晶モニター2cに表示された画像がハーフミラー2b、ハーフミラー2aを通して見える。なお、後述する制御装置8による制御により、液晶モニター2cに表示される画像等を拡大したり、視野角の違いによる歪みを補正して見やすくして表示することが可能である。   3 is a cross-sectional view of the image processing apparatus 1 taken along line AA in FIG. The image display means 2 includes a first half mirror 2a, a second half mirror 2b, and a liquid crystal monitor 2c. When the liquid crystal monitor 2c is not driven, since the power of the backlight of the liquid crystal monitor 2c is not turned on, the user can see his / her appearance in the first half mirror 2a. On the other hand, when the backlight of the liquid crystal monitor 2c is ON, the image displayed on the liquid crystal monitor 2c can be seen through the half mirror 2b and the half mirror 2a. Note that, by the control by the control device 8 to be described later, it is possible to enlarge an image or the like displayed on the liquid crystal monitor 2c, or to correct distortion due to a difference in viewing angle and display it for easy viewing.

情報入力手段3は、画像処理装置1に対して各種指示や情報を入力するものである。図1ないし図3においてはいわゆるマウスが描かれているが、このほかにも、例えばキーボードや各種ポインティングデバイス、或いはタッチパネルによるものであっても良い。   The information input unit 3 inputs various instructions and information to the image processing apparatus 1. In FIG. 1 to FIG. 3, a so-called mouse is drawn. However, for example, a keyboard, various pointing devices, or a touch panel may be used.

ショーケース4には、装飾品のサンプルが展示されている。ここに展示されている装飾品のサンプルとしては、例えば、口紅、ファンデーション、アイシャドー等の化粧品を挙げることができるが、その他にイヤリング、ピアス等の貴金属等を展示してもよい。なお、本発明の実施の形態において「装飾品」とは、化粧品、貴金属、服飾品等、身体に身につけるもの全てを指す。   In the showcase 4, samples of ornaments are displayed. Examples of the decorative products displayed here include cosmetics such as lipsticks, foundations, and eye shadows, but may also display precious metals such as earrings and earrings. In the embodiment of the present invention, “decorative items” refer to all items worn on the body, such as cosmetics, precious metals, clothing items and the like.

排出口5は、印刷手段6によって印刷された合成画像が排出される部分である。なお、印刷手段6はモノクロ印刷以外に当然にカラー印刷が可能とされている。   The discharge port 5 is a portion from which the composite image printed by the printing unit 6 is discharged. The printing means 6 is naturally capable of color printing in addition to monochrome printing.

画像入力手段7は、例えばビデオカメラ、或いはカメラであって、第1のハーフミラー2aで透過した使用者の像を第2のハーフミラー2bで反射させて撮影する。なお、画像入力手段7は最初に使用者の撮影を行うだけではなく、使用者が画像処理装置1の使用を終了するまで連続して撮影を行っている。   The image input means 7 is, for example, a video camera or a camera, and captures an image of a user that has been transmitted through the first half mirror 2a and reflected by the second half mirror 2b. Note that the image input means 7 not only captures the user first, but also continuously captures until the user finishes using the image processing apparatus 1.

制御装置8は、図3及び図4に示すように、通信ケーブルを通じて画像処理装置1を構成する例えば、画像表示手段2、情報入力手段3、印刷手段6、画像入力手段7と接続されている。   As shown in FIGS. 3 and 4, the control device 8 is connected to, for example, an image display unit 2, an information input unit 3, a printing unit 6, and an image input unit 7 that constitute the image processing apparatus 1 through a communication cable. .

制御手段8aは、使用者が情報入力手段3を用いて入力した情報を受けて画像処理装置1の各構成機器及び制御装置8内の各処理手段を制御している。制御手段8aは、また、画像入力手段7を制御して使用者を被写体として撮影するとともに、撮影された映像情報を取得して解析手段8b及び選択手段8cへ送信する。   The control unit 8 a receives information input by the user using the information input unit 3 and controls each component device of the image processing apparatus 1 and each processing unit in the control device 8. The control means 8a also controls the image input means 7 to photograph the user as a subject, acquires the photographed video information, and transmits it to the analysis means 8b and the selection means 8c.

解析手段8bは送信されてきた映像情報を3Dモデリング解析するが、画像入力手段7が連続して撮影していることから、これらの映像情報をリアルタイムで解析することができる。解析手段8bにおいては、被写体である使用者の部位の位置情報、凹凸情報、色情報が解析される。例えば、椅子Bに使用者が座り、使用者の撮影の対象が顔となった場合、目、鼻、唇、耳等それぞれが顔の中でどの位置にあり、その凹凸の状態、色の状態、といった情報を解析する。具体的には、撮影された顔の画像における明るさや色を、例えば複数に分割された要素ごとに赤(R)、緑(G)、青(B)の三原色に数値化し、その情報を基に三次元にマッピングして顔の部位を解析する。   The analysis unit 8b performs 3D modeling analysis on the transmitted video information. Since the image input unit 7 continuously captures the video information, the video information can be analyzed in real time. In the analysis means 8b, position information, unevenness information, and color information of the part of the user who is the subject are analyzed. For example, when the user sits on the chair B and the user's object to be photographed is a face, the position of each of the eyes, nose, lips, ears, etc. in the face, the uneven state, the color state Analyzing information such as. Specifically, the brightness and color in the captured face image are digitized into, for example, the three primary colors of red (R), green (G), and blue (B) for each of the divided elements, and the information is used as the basis. Analyzing the facial part by mapping in three dimensions.

選択手段8cは、画像入力手段7が撮影した使用者(被写体)の映像の中から、例えば、唇、耳や顔全体等特定の部位を選択し特定する。また、情報格納手段8eに予め格納されている装飾品に関する情報から画像の合成に必要な化粧品や貴金属等の装飾品の情報を選択する。なお、この特定部位或いは装飾品の選択に当たっては、使用者が情報入力手段3を用いて選択することができるのはもちろん、例えば、口紅の販売コーナーにおいては唇及び口紅を選択するように、使用状況によって必ず特定の部位或いは装飾品を選択するようにされていてもよい。   The selection unit 8c selects and specifies a specific part such as lips, ears, or the entire face from the video of the user (subject) taken by the image input unit 7. In addition, information on decorative items such as cosmetics and precious metals necessary for image synthesis is selected from information on decorative items stored in advance in the information storage unit 8e. In addition, in selecting this specific part or decoration, the user can select using the information input means 3 and, of course, it can be used to select lips and lipsticks in the lipstick sales corner, for example. Depending on the situation, a specific part or an ornament may be selected.

解析手段8b及び選択手段8cで解析され選択特定された特定部位の情報及び装飾品の情報は、画像合成手段8dに送信される。画像合成手段8dでは、これらの被写体からの情報と情報格納手段8eに格納されている装飾品の情報に基づいて画像を合成する。   The information on the specific part analyzed and selected and specified by the analyzing unit 8b and the selecting unit 8c and the information on the ornament are transmitted to the image combining unit 8d. The image synthesizing unit 8d synthesizes an image based on the information from these subjects and the information on the ornaments stored in the information storage unit 8e.

合成された画像は、画像表示手段2に送信され表示されるとともに、情報記憶手段8fに格納され、印刷制御手段8gが制御する印刷手段6によって印刷される。   The synthesized image is transmitted to and displayed on the image display means 2 and is stored in the information storage means 8f and printed by the printing means 6 controlled by the print control means 8g.

次に、実際に画像処理が行われる流れを図5に示すフローチャートを用いて説明する。なお、ここでは撮影範囲は使用者の顔を含む頭部全体であることを前提とする。   Next, the flow of actual image processing will be described with reference to the flowchart shown in FIG. Here, it is assumed that the shooting range is the entire head including the user's face.

まず、画像処理装置1の使用者が図2に示す椅子Bに着席して画像表示手段2に向き合うと、画像表示手段2に使用者の顔の画像(実体像)を取り込む旨のメッセ−ジを表示し、撮影を始める(ST1)。画像入力手段7は被写体である使用者を画像処理装置1の使用が終了するまで撮影し続ける。撮影された画像は制御装置8内の制御手段8aを介して画像処理装置1内に取り込まれ(ST2)、解析手段8bで解析される(ST3)。ここではまず撮影された頭部全体の輪郭が特定され、さらに3Dモデリング解析がすすむにつれて部位の位置情報、凹凸情報、色情報から顔を構成する各部位が特定される(ST4)。そして一旦解析され特定された画像の情報を情報記憶手段8fに記憶させておくとともに画像表示手段2で表示する(ST5)。   First, when the user of the image processing apparatus 1 sits on the chair B shown in FIG. 2 and faces the image display means 2, a message that the image of the user's face (substance image) is taken into the image display means 2. Is displayed and shooting starts (ST1). The image input means 7 continues to photograph the user who is the subject until the use of the image processing apparatus 1 is finished. The captured image is taken into the image processing apparatus 1 via the control means 8a in the control apparatus 8 (ST2) and analyzed by the analysis means 8b (ST3). Here, the outline of the entire imaged head is first identified, and each part constituting the face is identified from the position information, unevenness information, and color information of the part as the 3D modeling analysis proceeds (ST4). The information of the image once analyzed and specified is stored in the information storage means 8f and displayed on the image display means 2 (ST5).

使用者は表示された自分の頭部の画像を見て、例えば、唇、目或いは耳というように自分が装飾品の画像と合成した画像を見たい部位を選択する。この場合、使用者の選択は情報入力手段3を介して行われ、選択手段8cにおいて表示部位の中で選択された部位を特定する(ST6)。次に、選択手段8cは、選択された部位に応じた装飾品の情報を情報格納手段8eから呼び出して画像表示手段2に表示する。例えば、唇が選択された場合は口紅のサンプルを表示する。使用者は、画像表示手段2に表示された装飾品の中から利用したい装飾品を選択し入力する。なお、使用者は装飾品のサンプルは画像表示手段2に表示するとともにショーケース4に展示してある装飾品のサンプルから選択しても良い。使用者が選択した装飾品は選択手段8cにおいて選択、特定される(ST8)。装飾品が選択、特定されると、情報記憶手段8fに記憶されていた選択された部位に関する情報とが対応付けられ(ST9)、画像合成手段8dにおいて画像が合成される(ST10)。   The user looks at the displayed image of his / her head, and selects a region where he / she wants to see an image synthesized with the image of the ornament such as lips, eyes or ears. In this case, the user is selected through the information input means 3, and the part selected in the display part is specified by the selection means 8c (ST6). Next, the selection means 8c calls the information on the ornament according to the selected part from the information storage means 8e and displays it on the image display means 2. For example, when a lip is selected, a lipstick sample is displayed. The user selects and inputs an ornament to be used from among the ornaments displayed on the image display means 2. It should be noted that the user may display the ornamental sample on the image display means 2 and select from the ornamental sample displayed on the showcase 4. The ornament selected by the user is selected and specified by the selection means 8c (ST8). When the ornament is selected and specified, information on the selected part stored in the information storage unit 8f is associated (ST9), and an image is synthesized by the image synthesis unit 8d (ST10).

ここで、画像の合成について、具体的に選択し特定された被写体の部位が唇、選択された装飾品が口紅であり、唇の上に口紅を塗った場合を例にとって説明する。なお、この情報格納手段8eに格納されている装飾品の情報とは、例えば、化粧品の色の情報である。この色情報も予め装飾品ごとに明るさや色を、例えば赤(R)、緑(G)、青(B)の三原色に数値化され格納されているものである。   Here, the composition of the image will be described by taking as an example a case where the part of the subject that is specifically selected and specified is the lip, the selected ornament is the lipstick, and the lipstick is applied on the lip. The information on the decorative product stored in the information storage unit 8e is, for example, information on the color of the cosmetic product. This color information is also stored in advance by digitizing brightness and color for each ornament, for example, into three primary colors of red (R), green (G), and blue (B).

一般的に、薄いピンク系統の口紅を唇の色の赤味が少ない人がその唇に塗った場合、塗った後の色合いは口紅の色合いとほぼ同じくなる。一方で、同じ口紅を唇の色の赤或いは紫色が強い人がその唇に塗った場合、塗った後の色合いは口紅本来の色よりも濃い色として表現される。これは、口紅を唇に塗ることで口紅の色は唇の色と混ざり合って新たな色を発色するからである。決して口紅の色がそのまま塗った唇の上で表現されるわけではない。そこで、本実施の形態においては、実際に唇に口紅を塗った場合の塗った後の口紅の色合いを忠実に再現するべく、演算により数値化された唇の色情報と口紅の色情報とに基づいて唇に口紅を塗った後の色を求める。その演算結果を画像表示手段2へ送信し画像表示手段2に表示をする(ST11)。なお、本発明の実施の形態においては、画像の合成を各色情報の演算することにより行うこととしたが、例えば、マトリクス化された被写体の色情報と装飾品の色情報を情報格納手段8eに格納し、これらの各色情報を用いて合成した画像を求める方法等、他の方法で合成した画像を求めても良い。   In general, when a person with little reddish lip color paints a thin pink lipstick on the lips, the color after painting is almost the same as the color of the lipstick. On the other hand, when a person with strong red or purple lip color paints the same lipstick on the lips, the color after painting is expressed as a darker color than the original color of the lipstick. This is because when the lipstick is applied to the lips, the color of the lipstick mixes with the color of the lips to produce a new color. The color of the lipstick is never expressed on the painted lips. Therefore, in the present embodiment, the lip color information and the lipstick color information, which are digitized by calculation, are faithfully reproduced in order to faithfully reproduce the color of the lipstick after the lipstick is applied to the lips. Based on this, find the color after applying lipstick to the lips. The calculation result is transmitted to the image display means 2 and displayed on the image display means 2 (ST11). In the embodiment of the present invention, the composition of the image is performed by calculating each color information. For example, the information storage means 8e stores the color information of the subject and the color information of the ornament in a matrix form. You may obtain | require the image synthesize | combined by other methods, such as the method of storing and calculating | requiring the image synthesized using each color information.

合成された画像は、画像表示手段2に表示され、使用者は実際に口紅を唇に塗らなくても塗った状態を画面上で確認することができる。そして、この表示された画像を印刷手段6により印刷することができる(ST12)。また、その後再度画像の合成を行う場合は、上述した特定された画像の中から部位を選択し特定する工程(ST6)、或いは実体像の撮影(ST1)まで戻る。   The synthesized image is displayed on the image display means 2, and the user can confirm the painted state on the screen without actually painting the lipstick on the lips. The displayed image can be printed by the printing means 6 (ST12). If the images are to be combined again thereafter, the process returns to the step of selecting and specifying a part from the above-described specified images (ST6) or the photographing of the real image (ST1).

このように、基となる画像の情報(選択された部位(唇)の色情報)とその基となる画像の上に重ねる装飾品の画像の情報(口紅の色情報)とに基づいて唇に口紅を塗った後の色を求め、その情報に基づいて画像を合成することで、実際に唇に口紅を塗ったのと同じ色合いを簡単、的確なシミュレーション画像として提示することのできる画像処理装置を提供することができる。   As described above, based on the information on the base image (color information on the selected part (lip)) and the information on the image of the decorative item (lip color information on the lipstick) superimposed on the base image, Image processing device that can present the same color as the actual lipstick on the lips as a simple and accurate simulation image by obtaining the color after applying the lipstick and synthesizing the image based on that information Can be provided.

(第2の実施の形態)
次に本発明における第2の実施の形態について説明する。なお、第2の実施の形態において、上述の第1の実施の形態において説明した構成要素と同一の構成要素には同一の符号を付し、同一の構成要素の説明は重複するので省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. Note that, in the second embodiment, the same components as those described in the first embodiment are denoted by the same reference numerals, and the description of the same components is omitted because it is duplicated.

第2の実施の形態においては、図6のフローチャートに示すように、画像の合成に当たって装飾品の情報に加えて装飾品を使用する環境の情報までも加味する点に特徴がある。   As shown in the flowchart of FIG. 6, the second embodiment is characterized in that in addition to the information on the decorative product, the information on the environment in which the decorative product is used is taken into account when combining the images.

図6に示すように、選択手段8cが使用者により選択された部位に応じた装飾品の情報を情報格納手段8eから呼び出して画像表示手段2に表示し、使用者が選択した装飾品は選択手段8cにおいて選択、特定される(ST8)。その後、さらにこの選択された装飾品の使用環境が画像表示手段2に表示され(ST8a)、使用者により使用環境が選択される。選択された使用環境の情報は選択手段8cで特定される(ST8b)。   As shown in FIG. 6, the selection means 8c calls the information of the ornament according to the part selected by the user from the information storage means 8e and displays it on the image display means 2, and the ornament selected by the user is selected. The means 8c is selected and specified (ST8). Thereafter, the usage environment of the selected ornament is further displayed on the image display means 2 (ST8a), and the usage environment is selected by the user. Information on the selected use environment is specified by the selection means 8c (ST8b).

これは、同じ色の口紅を付けたとしても晴天の屋外、電灯がついている屋内、照明を落とした屋内等、その口紅が使用される環境によりその色の見え方は大きく異なる。例えば、顔の左側から光が当たっている場合、唇の左側は光に照らされて色が白っぽくなり、唇の右側は陰になって黒っぽい色に見える。このような状態で、薄いピンク色の口紅を唇に塗ると、唇の左側は口紅に近い色合いが出、唇の右側は口紅の色よりも濃い色合いとなる。また、濃い赤色の口紅を唇に塗ると、唇の左側は口紅の色よりも薄い色合いとなり、反対に唇の右側は口紅の色に近い色合いが出る。情報格納手段8eには様々な環境の下での使用を考慮して、屋外、屋内、天候等における光線の加減、及び光線の向きを数値化した環境情報が予め格納されており、画像の合成にあたってはこれらの環境情報も加味する。   Even if a lipstick of the same color is attached, the appearance of the color varies greatly depending on the environment in which the lipstick is used, such as outdoors on a sunny day, indoors with electric lights, or indoors with reduced lighting. For example, when light is shining from the left side of the face, the left side of the lips is illuminated with light and the color becomes whitish, and the right side of the lips is shaded and looks dark. In such a state, when a light pink lipstick is applied to the lips, the left side of the lips has a hue close to that of the lipstick, and the right side of the lips has a darker hue than the color of the lipstick. In addition, when a dark red lipstick is applied to the lips, the left side of the lips becomes lighter than the color of the lipstick, and on the contrary, the right side of the lips has a color close to the color of the lipstick. The information storage means 8e stores in advance environmental information in which the amount of light in the outdoors, indoors, weather, etc., and the direction of the light are quantified, considering use in various environments. At the same time, these environmental information is taken into account.

このように、基となる画像の情報とその基となる画像の上に重ねる装飾品の画像の情報及び各使用環境に応じた光線の具合についての情報とに基づいて唇に口紅を塗った後の色を求め、その情報に基づいて画像を合成することで、実際に唇に口紅を塗り使用される環境と同じ色合いを簡単、的確なシミュレーション画像として提示することのできる画像処理装置を提供することができる。   After applying the lipstick on the lips based on the information on the base image, the information on the image of the decorative item superimposed on the base image, and the information on the condition of the light according to each use environment An image processing apparatus capable of simply and accurately presenting the same color as the environment in which lipstick is actually applied to the lips by synthesizing an image based on the information is obtained. be able to.

(第3の実施の形態)
次に本発明における第3の実施の形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.

第3の実施の形態においては、画像処理装置1を利用する使用者の動きに合わせて合成された画像もリアルタイムに追随して動く点に特徴がある。   The third embodiment is characterized in that the image synthesized in accordance with the movement of the user who uses the image processing apparatus 1 also moves following the movement in real time.

画像入力手段7は、最初に使用者の画像を構成するために撮影をした後、使用者が画像処理装置1を利用している間、継続して使用者を撮影し続けている。そこで、この常に撮影している画像の情報を高速演算処理することで、使用者の実際の動きに合成する画像の動きを同期させることができる。   The image input unit 7 continuously captures the user while the user is using the image processing apparatus 1 after first capturing the user's image. Therefore, the motion of the image to be synthesized can be synchronized with the actual motion of the user by performing high-speed arithmetic processing on the information of the constantly photographed image.

このようにすることで、使用者が画像処理装置1の前で動くことによってできる影や色の変化を忠実に再現することが可能となり、これらの情報に基づいて装飾品の情報や環境情報を加味して画像を合成することで、実際に装飾品を使用した場合と同じ状態を簡単、的確なシミュレーション画像として提示することのできる画像処理装置を提供することができる。   By doing so, it becomes possible to faithfully reproduce changes in shadows and colors caused by the user moving in front of the image processing apparatus 1, and based on these pieces of information, information on ornaments and environmental information can be obtained. By combining the images with consideration, it is possible to provide an image processing apparatus capable of presenting the same state as when an ornament is actually used as a simple and accurate simulation image.

なお、この発明は、上述実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。上述した各実施の形態においては、化粧品売り場での例を挙げて説明したが、その他に、例えば、プリクラ(登録商標)、例えば、透ける素材でできた衣装或いは複数の小孔が空いていたり透明な部分のある髪飾りやネックレス等の貴金属を身につける場合にシミュレーション画像を提示する店舗のショーウインドー、家庭の洗面台等に組み込んで実施することが可能である。また、情報記憶手段8fには合成された画像を格納する機能をがあるが、この画像を保持しておくことで顧客情報として管理し、次回また同じ使用者が画像処理装置1を使用した場合に過去の履歴情報として提示することも可能である。さらに、画像処理装置1を使用する使用者が自らの情報、例えば、夏に日焼けした自分の顔の色情報や自分の所有する装飾品に関する情報をCD−R等の記憶媒体に記憶させておき、これらの情報を画像処理装置1内に取り込み、使用者に関する情報を補正或いは追加できるようにしても良い。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In each of the above-described embodiments, an example at a cosmetics department has been described. In addition, for example, Purikura (registered trademark), for example, a costume made of a transparent material or a plurality of small holes are vacant or transparent When wearing precious metals such as hair ornaments and necklaces with various parts, it can be implemented by incorporating them into a show window of a store that presents a simulation image, a washbasin at home, and the like. Further, the information storage means 8f has a function of storing the synthesized image. However, when this image is held, it is managed as customer information, and the same user uses the image processing apparatus 1 next time. It is also possible to present it as past history information. Further, a user who uses the image processing apparatus 1 stores his / her information, for example, information on the color of his / her face that has been tanned in the summer and information on decorations owned by the user in a storage medium such as a CD-R. These pieces of information may be taken into the image processing apparatus 1 so that information about the user can be corrected or added.

上記実施の形態に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、例えば、本発明の実施の形態に係る画像処理装置1にインターネット端末を備え、装飾品の情報を適宜更新し、常に最新の装飾品の情報を具備するようにする等、異なる実施の形態に亘る構成要素を適宜組み合わせてもよい。   Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, for example, the image processing apparatus 1 according to the embodiment of the present invention is provided with an Internet terminal, and the information on the ornaments is appropriately updated so that the latest ornament information is always provided. These constituent elements may be combined as appropriate.

本発明の第1の実施の形態に係る画像処理装置を示す構成図である。1 is a configuration diagram illustrating an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る画像処理装置の一使用態様を示す構成図である。It is a block diagram which shows the usage condition of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る画像処理装置の内部構成を示す切断断面図である。1 is a cross-sectional view showing an internal configuration of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1の実施の形態に係る画像処理装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing which concerns on the 1st Embodiment of this invention. 本発明の第2の実施の形態に係る画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing which concerns on the 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 画像処理装置
2 画像表示手段
3 情報入力手段
6 印刷手段
7 画像入力手段
8 制御装置
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Image display means 3 Information input means 6 Printing means 7 Image input means 8 Control apparatus

Claims (6)

被写体の画像を入力する画像入力手段と、
前記画像入力手段からの画像情報に基づいて前記被写体の部位の位置情報、凹凸情報、色情報を解析する解析手段と、
前記入力された画像情報の中から前記被写体の特定の部位を選択する選択手段と、
前記選択された部位を装飾する装飾品に関する情報を格納する情報格納手段と、
前記選択された部位について、前記解析手段により解析された基調となる前記被写体の色情報と前記情報格納手段内に格納されている装飾品に関する情報の中から選択された色情報とに基づいて画像を合成する手段と、
前記画像合成手段により合成された画像を表示する画像表示手段と、
を備えることを特徴とする画像処理装置。
An image input means for inputting an image of a subject;
Analysis means for analyzing position information of the part of the subject, unevenness information, and color information based on image information from the image input means;
Selection means for selecting a specific part of the subject from the input image information;
Information storage means for storing information relating to an ornament that decorates the selected part;
An image of the selected portion based on the color information of the subject to be analyzed and the color information selected from the information on the ornament stored in the information storage unit is analyzed by the analysis unit. Means for synthesizing
Image display means for displaying the image synthesized by the image synthesis means;
An image processing apparatus comprising:
前記情報格納手段内に格納される装飾品に関する情報は、化粧品に関する情報であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the information related to the decorative product stored in the information storage unit is information related to cosmetics. 前記情報格納手段内に格納される装飾品に関する情報は、服飾品に関する情報であることを特徴とする請求項1または請求項2のいずれかに記載の画像処理装置。   3. The image processing apparatus according to claim 1, wherein the information related to the ornament stored in the information storage unit is information related to the accessory. 4. 前記情報格納手段内に格納される情報には、屋内及び屋外での光線の加減を数値化した環境情報が含まれることを特徴とする請求項1ないし請求項3のいずれかに記載の画像処理装置。   The image processing according to any one of claims 1 to 3, wherein the information stored in the information storage means includes environmental information in which the amount of light inside and outside is digitized. apparatus. 前記画像表示手段に表示される前記被写体の画像の色情報は、前記被写体の部位の色情報に、前記情報格納手段に格納される装飾品に関する情報の中の色情報若しくは前記環境情報または双方の情報を演算で合成することにより決定されることを特徴とする請求項1ないし請求項4のいずれかに記載の画像処理装置。   The color information of the image of the subject displayed on the image display means includes color information in the information relating to the ornament stored in the information storage means, color information in the information stored in the information storage means, or both of the environmental information. 5. The image processing apparatus according to claim 1, wherein the image processing apparatus is determined by combining information by calculation. 前記画像表示手段により表示される合成画像は、被写体の動きに追随して動かす機能を備えることを特徴とする請求項1ないし請求項5のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the composite image displayed by the image display unit has a function of moving following the movement of the subject.
JP2005325205A 2005-11-09 2005-11-09 Image processing apparatus Withdrawn JP2007133599A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005325205A JP2007133599A (en) 2005-11-09 2005-11-09 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005325205A JP2007133599A (en) 2005-11-09 2005-11-09 Image processing apparatus

Publications (1)

Publication Number Publication Date
JP2007133599A true JP2007133599A (en) 2007-05-31

Family

ID=38155214

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005325205A Withdrawn JP2007133599A (en) 2005-11-09 2005-11-09 Image processing apparatus

Country Status (1)

Country Link
JP (1) JP2007133599A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065269A (en) * 2007-09-04 2009-03-26 Olympus Imaging Corp Image processor and image processing method
US9881402B2 (en) 2013-04-09 2018-01-30 Sony Corporation Image processor and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009065269A (en) * 2007-09-04 2009-03-26 Olympus Imaging Corp Image processor and image processing method
US9881402B2 (en) 2013-04-09 2018-01-30 Sony Corporation Image processor and storage medium

Similar Documents

Publication Publication Date Title
JP6250390B2 (en) Display and lighting device for fitting room
US9449412B1 (en) Adaptive, calibrated simulation of cosmetic products on consumer devices
JP2017216732A (en) Hair consultation tool arrangement and method
JP5324031B2 (en) Beauty simulation system
US20190026954A1 (en) Virtually trying cloths on realistic body model of user
JP2005010356A (en) Display device and image processing system
KR20010050697A (en) Method for selecting cosmetics
JP6448869B2 (en) Image processing apparatus, image processing system, and program
US20160212314A1 (en) Computer display vanity lighting
JP2016184864A (en) Image synthesizer and image synthesizing method
JP2007133599A (en) Image processing apparatus
US20170085690A1 (en) Mobile communication terminal and mehtod therefore
US20170270969A1 (en) Real time computer display modification
Kao Hybrid body craft: toward culturally and socially inclusive design for on-skin interfaces
KR20210081526A (en) Virtual beauty cosmetic apparatus
JP2010094536A (en) Makeup simulation method
US20050074739A1 (en) Makeup set with simulation mirror and accessories
EP4181071A1 (en) Image generation method and image generation device
JP4487961B2 (en) Makeup simulation method
Cheng et al. Chromirror: a real-time interactive mirror for chromatic and color-harmonic dressing
CN110168323B (en) System for manufacturing and providing a product of a specific color or texture selected by a subject and product obtained by such a system
KR20160001967A (en) Web-based jewelry design method
Winfield Painting as Paradigmatic Graphic Fine Art
US20100029174A1 (en) Image representation viewer and method of viewing
US20240169414A1 (en) Smart mirror styling system and method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20080328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081020

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100217