JP2007133599A - Image processing apparatus - Google Patents
Image processing apparatus Download PDFInfo
- Publication number
- JP2007133599A JP2007133599A JP2005325205A JP2005325205A JP2007133599A JP 2007133599 A JP2007133599 A JP 2007133599A JP 2005325205 A JP2005325205 A JP 2005325205A JP 2005325205 A JP2005325205 A JP 2005325205A JP 2007133599 A JP2007133599 A JP 2007133599A
- Authority
- JP
- Japan
- Prior art keywords
- information
- image
- color
- processing apparatus
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
Description
本発明は、画像を合成する画像処理装置に関する。 The present invention relates to an image processing apparatus that synthesizes images.
従来より、保持する画像に別の画像を付け加えて合成された画像を表示する画像表示装置が提案されている(特許文献1参照)。この特許文献に記載されている発明によれば、入力された画像に対して、顔領域と顔部品の大きさ、位置を検出し、所定の図形を検出された顔部品の位置に応じて、相対的に位置、大きさを変え、入力画像と共に重ね合わせた表示、加工をする。これにより、表示された内容は、認識対象となった人物があたかも瞬時に変装したかのように見せることができる。
しかしながら、上述の提案では、入力画像の上に所定の図形を共に重ね合わせて表示していることから、重なり合った部分の下に位置する入力画像は、上から重ねられた所定の図形によって隠されてしまっている。すなわち、一方の画像の上に他方の画像を重ねた場合、上から重ねた他方の画像を見ることはできるが、その画像の下敷きとなった一方の画像は他方の画像に隠れて見ることはできない。 However, in the above proposal, since the predetermined graphic is displayed on the input image together, the input image located under the overlapped portion is hidden by the predetermined graphic superimposed from above. It has been. In other words, when the other image is superimposed on one image, the other image superimposed from above can be seen, but one image underlying that image is hidden behind the other image. Can not.
例えば、帽子やコート等の一部の衣装のように、体にまとうことになるこれら衣装の下になる体の画像を見る必要がないような場合は、体の画像の上にこれら衣装の画像をそのまま被せることで、衣装をまとった状態を把握することでたりる。一方、衣装の中でも透ける素材(シースルーの素材)でできた衣装や化粧品等のように、下地となる素材(例えば、衣装や唇)の色によって重ねた素材(透ける素材の衣装や口紅)の色が変化する場合には、上述の提案では上に重ねた素材の色しか見ることができず、合成された画像が表現する色は実際に衣装をまとったり口紅をつけた場合とは異なる色となってしまう。これでは、複数の画像を合成することによる的確なシミュレーション画像を得ることができる場合が制限されることになる。 For example, if you do not need to see an image of the body underneath these costumes, such as some costumes such as hats and coats, the images of these costumes above the body image It is possible to grasp the state of wearing a costume by putting on as it is. On the other hand, the color of materials (transparent costumes and lipsticks) that are layered with the color of the underlying material (for example, costumes and lips), such as costumes and cosmetics made of transparent materials (see-through materials). In the above proposal, only the color of the material superimposed on the above proposal can be seen, and the color represented by the synthesized image is different from the actual color when wearing a costume or lipstick. turn into. This restricts the case where an accurate simulation image can be obtained by combining a plurality of images.
また、例えば、口紅の購入に当たっては、衛生面他の理由から一般的に実際に購入希望の口紅を唇に塗ってその色合いを確かめることはできない。多くは、例えば手の甲に試し塗りをしてその色合いを確認しているが、手の甲の色と唇の色は異なることも多く、試し塗りの結果口紅を購入しても実際に唇に塗ってみると印象が大きく異なる、ということも多々ある。同様に、例えば透ける素材でできた衣装の購入に当たっても、試着する日に着ているインナーの色によってこの衣装の色合いは大きく異なり、試着の度にインナーを着替えるのは手間である。 In addition, for example, when purchasing lipstick, it is generally not possible to confirm the color of the lipstick by actually applying it to the lips for hygiene and other reasons. In many cases, for example, the color of the back of the hand and the color of the lips are confirmed by trial coating on the back of the hand, but the color of the back of the hand and the color of the lips are often different. There are many cases where the impression differs greatly. Similarly, even when purchasing a costume made of transparent material, for example, the color of the costume varies greatly depending on the color of the inner worn on the day of trying on, and it is troublesome to change the inner each time it is tried on.
本発明は上記課題を解決するためになされたものであり、本発明の目的は、基となる画像の情報とその基となる画像の上に重ねる装飾品の画像の情報とに基づいて画像を合成することで、的確なシミュレーション画像を提示することのできる画像処理装置を提供することである。 The present invention has been made to solve the above-described problems, and an object of the present invention is to display an image based on information on a base image and information on an image of a decorative item superimposed on the base image. An object of the present invention is to provide an image processing apparatus capable of presenting an appropriate simulation image by combining.
本発明の実施の形態に係る特徴は、被写体の画像を入力する画像入力手段と、画像入力手段からの画像情報に基づいて被写体の部位の位置情報、凹凸情報、色情報を解析する解析手段と、入力された画像情報の中から被写体の特定の部位を選択する選択手段と、選択された部位を装飾する装飾品に関する情報を格納する情報格納手段と、選択された部位について、解析手段により解析された基調となる被写体の色情報と情報格納手段内に格納されている装飾品に関する情報の中から選択された色情報とに基づいて画像を合成する手段と、画像合成手段により合成された画像を表示する画像表示手段とを備える。 The feature according to the embodiment of the present invention is that image input means for inputting an image of a subject, analysis means for analyzing position information, unevenness information, and color information of a part of the subject based on image information from the image input means, A selection means for selecting a specific part of the subject from the input image information, an information storage means for storing information relating to an ornament that decorates the selected part, and an analysis means for analyzing the selected part Means for synthesizing an image on the basis of the color information of the subject to be the basic tone and the color information selected from the information on the ornament stored in the information storage means, and the image synthesized by the image synthesizing means And image display means for displaying.
本発明によれば、基となる画像の情報とその基となる画像の上に重ねる装飾品の画像の情報とに基づいて画像を合成することで、的確なシミュレーション画像を提示することのできる画像処理装置を提供することができる。 According to the present invention, an image capable of presenting an accurate simulation image by synthesizing an image based on information on a base image and information on an image of a decorative item superimposed on the base image. A processing device can be provided.
以下、本発明の実施の形態について図面を参照して詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(第1の実施の形態)
本発明の第1の実施の形態における画像処理装置1は、図1に示すように、合成された画像等を表示する画像表示手段2と、画像表示手段2に表示された指示に従って各種情報を入力する情報入力手段3と、装飾品のサンプルを展示するショーケース4と、合成された画像を印刷した場合にその印刷物が排出される排出口5と、画像処理装置1内の各構成機器を制御する制御装置8とを備える。
(First embodiment)
As shown in FIG. 1, the
また、図2はこの画像処理装置1の使用態様の一例を示すものである。例えば、一般的な化粧品ショーケースAの横に画像処理装置1が配置され、画像処理装置1における排出口5の前には、椅子Bが置かれている。画像処理装置1の使用者は、画像表示手段2に対向するように椅子Bに着席し、被写体となる。
FIG. 2 shows an example of how the
図3は、図1のA−A線における画像処理装置1の切断断面図である。画像表示手段2は、第1のハーフミラー2aと第2のハーフミラー2bと、液晶モニター2cから構成される。液晶モニター2cが駆動されていない場合には、液晶モニター2cのバックライトに電源が入っていないので、使用者は第1のハーフミラー2aに写った自分の姿が見える。一方、液晶モニター2cのバックライトがONの場合は、液晶モニター2cに表示された画像がハーフミラー2b、ハーフミラー2aを通して見える。なお、後述する制御装置8による制御により、液晶モニター2cに表示される画像等を拡大したり、視野角の違いによる歪みを補正して見やすくして表示することが可能である。
3 is a cross-sectional view of the
情報入力手段3は、画像処理装置1に対して各種指示や情報を入力するものである。図1ないし図3においてはいわゆるマウスが描かれているが、このほかにも、例えばキーボードや各種ポインティングデバイス、或いはタッチパネルによるものであっても良い。
The
ショーケース4には、装飾品のサンプルが展示されている。ここに展示されている装飾品のサンプルとしては、例えば、口紅、ファンデーション、アイシャドー等の化粧品を挙げることができるが、その他にイヤリング、ピアス等の貴金属等を展示してもよい。なお、本発明の実施の形態において「装飾品」とは、化粧品、貴金属、服飾品等、身体に身につけるもの全てを指す。 In the showcase 4, samples of ornaments are displayed. Examples of the decorative products displayed here include cosmetics such as lipsticks, foundations, and eye shadows, but may also display precious metals such as earrings and earrings. In the embodiment of the present invention, “decorative items” refer to all items worn on the body, such as cosmetics, precious metals, clothing items and the like.
排出口5は、印刷手段6によって印刷された合成画像が排出される部分である。なお、印刷手段6はモノクロ印刷以外に当然にカラー印刷が可能とされている。
The
画像入力手段7は、例えばビデオカメラ、或いはカメラであって、第1のハーフミラー2aで透過した使用者の像を第2のハーフミラー2bで反射させて撮影する。なお、画像入力手段7は最初に使用者の撮影を行うだけではなく、使用者が画像処理装置1の使用を終了するまで連続して撮影を行っている。
The image input means 7 is, for example, a video camera or a camera, and captures an image of a user that has been transmitted through the
制御装置8は、図3及び図4に示すように、通信ケーブルを通じて画像処理装置1を構成する例えば、画像表示手段2、情報入力手段3、印刷手段6、画像入力手段7と接続されている。
As shown in FIGS. 3 and 4, the
制御手段8aは、使用者が情報入力手段3を用いて入力した情報を受けて画像処理装置1の各構成機器及び制御装置8内の各処理手段を制御している。制御手段8aは、また、画像入力手段7を制御して使用者を被写体として撮影するとともに、撮影された映像情報を取得して解析手段8b及び選択手段8cへ送信する。
The
解析手段8bは送信されてきた映像情報を3Dモデリング解析するが、画像入力手段7が連続して撮影していることから、これらの映像情報をリアルタイムで解析することができる。解析手段8bにおいては、被写体である使用者の部位の位置情報、凹凸情報、色情報が解析される。例えば、椅子Bに使用者が座り、使用者の撮影の対象が顔となった場合、目、鼻、唇、耳等それぞれが顔の中でどの位置にあり、その凹凸の状態、色の状態、といった情報を解析する。具体的には、撮影された顔の画像における明るさや色を、例えば複数に分割された要素ごとに赤(R)、緑(G)、青(B)の三原色に数値化し、その情報を基に三次元にマッピングして顔の部位を解析する。
The
選択手段8cは、画像入力手段7が撮影した使用者(被写体)の映像の中から、例えば、唇、耳や顔全体等特定の部位を選択し特定する。また、情報格納手段8eに予め格納されている装飾品に関する情報から画像の合成に必要な化粧品や貴金属等の装飾品の情報を選択する。なお、この特定部位或いは装飾品の選択に当たっては、使用者が情報入力手段3を用いて選択することができるのはもちろん、例えば、口紅の販売コーナーにおいては唇及び口紅を選択するように、使用状況によって必ず特定の部位或いは装飾品を選択するようにされていてもよい。
The
解析手段8b及び選択手段8cで解析され選択特定された特定部位の情報及び装飾品の情報は、画像合成手段8dに送信される。画像合成手段8dでは、これらの被写体からの情報と情報格納手段8eに格納されている装飾品の情報に基づいて画像を合成する。
The information on the specific part analyzed and selected and specified by the analyzing
合成された画像は、画像表示手段2に送信され表示されるとともに、情報記憶手段8fに格納され、印刷制御手段8gが制御する印刷手段6によって印刷される。 The synthesized image is transmitted to and displayed on the image display means 2 and is stored in the information storage means 8f and printed by the printing means 6 controlled by the print control means 8g.
次に、実際に画像処理が行われる流れを図5に示すフローチャートを用いて説明する。なお、ここでは撮影範囲は使用者の顔を含む頭部全体であることを前提とする。 Next, the flow of actual image processing will be described with reference to the flowchart shown in FIG. Here, it is assumed that the shooting range is the entire head including the user's face.
まず、画像処理装置1の使用者が図2に示す椅子Bに着席して画像表示手段2に向き合うと、画像表示手段2に使用者の顔の画像(実体像)を取り込む旨のメッセ−ジを表示し、撮影を始める(ST1)。画像入力手段7は被写体である使用者を画像処理装置1の使用が終了するまで撮影し続ける。撮影された画像は制御装置8内の制御手段8aを介して画像処理装置1内に取り込まれ(ST2)、解析手段8bで解析される(ST3)。ここではまず撮影された頭部全体の輪郭が特定され、さらに3Dモデリング解析がすすむにつれて部位の位置情報、凹凸情報、色情報から顔を構成する各部位が特定される(ST4)。そして一旦解析され特定された画像の情報を情報記憶手段8fに記憶させておくとともに画像表示手段2で表示する(ST5)。
First, when the user of the
使用者は表示された自分の頭部の画像を見て、例えば、唇、目或いは耳というように自分が装飾品の画像と合成した画像を見たい部位を選択する。この場合、使用者の選択は情報入力手段3を介して行われ、選択手段8cにおいて表示部位の中で選択された部位を特定する(ST6)。次に、選択手段8cは、選択された部位に応じた装飾品の情報を情報格納手段8eから呼び出して画像表示手段2に表示する。例えば、唇が選択された場合は口紅のサンプルを表示する。使用者は、画像表示手段2に表示された装飾品の中から利用したい装飾品を選択し入力する。なお、使用者は装飾品のサンプルは画像表示手段2に表示するとともにショーケース4に展示してある装飾品のサンプルから選択しても良い。使用者が選択した装飾品は選択手段8cにおいて選択、特定される(ST8)。装飾品が選択、特定されると、情報記憶手段8fに記憶されていた選択された部位に関する情報とが対応付けられ(ST9)、画像合成手段8dにおいて画像が合成される(ST10)。
The user looks at the displayed image of his / her head, and selects a region where he / she wants to see an image synthesized with the image of the ornament such as lips, eyes or ears. In this case, the user is selected through the information input means 3, and the part selected in the display part is specified by the selection means 8c (ST6). Next, the selection means 8c calls the information on the ornament according to the selected part from the information storage means 8e and displays it on the image display means 2. For example, when a lip is selected, a lipstick sample is displayed. The user selects and inputs an ornament to be used from among the ornaments displayed on the image display means 2. It should be noted that the user may display the ornamental sample on the image display means 2 and select from the ornamental sample displayed on the showcase 4. The ornament selected by the user is selected and specified by the selection means 8c (ST8). When the ornament is selected and specified, information on the selected part stored in the information storage unit 8f is associated (ST9), and an image is synthesized by the
ここで、画像の合成について、具体的に選択し特定された被写体の部位が唇、選択された装飾品が口紅であり、唇の上に口紅を塗った場合を例にとって説明する。なお、この情報格納手段8eに格納されている装飾品の情報とは、例えば、化粧品の色の情報である。この色情報も予め装飾品ごとに明るさや色を、例えば赤(R)、緑(G)、青(B)の三原色に数値化され格納されているものである。
Here, the composition of the image will be described by taking as an example a case where the part of the subject that is specifically selected and specified is the lip, the selected ornament is the lipstick, and the lipstick is applied on the lip. The information on the decorative product stored in the
一般的に、薄いピンク系統の口紅を唇の色の赤味が少ない人がその唇に塗った場合、塗った後の色合いは口紅の色合いとほぼ同じくなる。一方で、同じ口紅を唇の色の赤或いは紫色が強い人がその唇に塗った場合、塗った後の色合いは口紅本来の色よりも濃い色として表現される。これは、口紅を唇に塗ることで口紅の色は唇の色と混ざり合って新たな色を発色するからである。決して口紅の色がそのまま塗った唇の上で表現されるわけではない。そこで、本実施の形態においては、実際に唇に口紅を塗った場合の塗った後の口紅の色合いを忠実に再現するべく、演算により数値化された唇の色情報と口紅の色情報とに基づいて唇に口紅を塗った後の色を求める。その演算結果を画像表示手段2へ送信し画像表示手段2に表示をする(ST11)。なお、本発明の実施の形態においては、画像の合成を各色情報の演算することにより行うこととしたが、例えば、マトリクス化された被写体の色情報と装飾品の色情報を情報格納手段8eに格納し、これらの各色情報を用いて合成した画像を求める方法等、他の方法で合成した画像を求めても良い。 In general, when a person with little reddish lip color paints a thin pink lipstick on the lips, the color after painting is almost the same as the color of the lipstick. On the other hand, when a person with strong red or purple lip color paints the same lipstick on the lips, the color after painting is expressed as a darker color than the original color of the lipstick. This is because when the lipstick is applied to the lips, the color of the lipstick mixes with the color of the lips to produce a new color. The color of the lipstick is never expressed on the painted lips. Therefore, in the present embodiment, the lip color information and the lipstick color information, which are digitized by calculation, are faithfully reproduced in order to faithfully reproduce the color of the lipstick after the lipstick is applied to the lips. Based on this, find the color after applying lipstick to the lips. The calculation result is transmitted to the image display means 2 and displayed on the image display means 2 (ST11). In the embodiment of the present invention, the composition of the image is performed by calculating each color information. For example, the information storage means 8e stores the color information of the subject and the color information of the ornament in a matrix form. You may obtain | require the image synthesize | combined by other methods, such as the method of storing and calculating | requiring the image synthesized using each color information.
合成された画像は、画像表示手段2に表示され、使用者は実際に口紅を唇に塗らなくても塗った状態を画面上で確認することができる。そして、この表示された画像を印刷手段6により印刷することができる(ST12)。また、その後再度画像の合成を行う場合は、上述した特定された画像の中から部位を選択し特定する工程(ST6)、或いは実体像の撮影(ST1)まで戻る。 The synthesized image is displayed on the image display means 2, and the user can confirm the painted state on the screen without actually painting the lipstick on the lips. The displayed image can be printed by the printing means 6 (ST12). If the images are to be combined again thereafter, the process returns to the step of selecting and specifying a part from the above-described specified images (ST6) or the photographing of the real image (ST1).
このように、基となる画像の情報(選択された部位(唇)の色情報)とその基となる画像の上に重ねる装飾品の画像の情報(口紅の色情報)とに基づいて唇に口紅を塗った後の色を求め、その情報に基づいて画像を合成することで、実際に唇に口紅を塗ったのと同じ色合いを簡単、的確なシミュレーション画像として提示することのできる画像処理装置を提供することができる。 As described above, based on the information on the base image (color information on the selected part (lip)) and the information on the image of the decorative item (lip color information on the lipstick) superimposed on the base image, Image processing device that can present the same color as the actual lipstick on the lips as a simple and accurate simulation image by obtaining the color after applying the lipstick and synthesizing the image based on that information Can be provided.
(第2の実施の形態)
次に本発明における第2の実施の形態について説明する。なお、第2の実施の形態において、上述の第1の実施の形態において説明した構成要素と同一の構成要素には同一の符号を付し、同一の構成要素の説明は重複するので省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. Note that, in the second embodiment, the same components as those described in the first embodiment are denoted by the same reference numerals, and the description of the same components is omitted because it is duplicated.
第2の実施の形態においては、図6のフローチャートに示すように、画像の合成に当たって装飾品の情報に加えて装飾品を使用する環境の情報までも加味する点に特徴がある。 As shown in the flowchart of FIG. 6, the second embodiment is characterized in that in addition to the information on the decorative product, the information on the environment in which the decorative product is used is taken into account when combining the images.
図6に示すように、選択手段8cが使用者により選択された部位に応じた装飾品の情報を情報格納手段8eから呼び出して画像表示手段2に表示し、使用者が選択した装飾品は選択手段8cにおいて選択、特定される(ST8)。その後、さらにこの選択された装飾品の使用環境が画像表示手段2に表示され(ST8a)、使用者により使用環境が選択される。選択された使用環境の情報は選択手段8cで特定される(ST8b)。 As shown in FIG. 6, the selection means 8c calls the information of the ornament according to the part selected by the user from the information storage means 8e and displays it on the image display means 2, and the ornament selected by the user is selected. The means 8c is selected and specified (ST8). Thereafter, the usage environment of the selected ornament is further displayed on the image display means 2 (ST8a), and the usage environment is selected by the user. Information on the selected use environment is specified by the selection means 8c (ST8b).
これは、同じ色の口紅を付けたとしても晴天の屋外、電灯がついている屋内、照明を落とした屋内等、その口紅が使用される環境によりその色の見え方は大きく異なる。例えば、顔の左側から光が当たっている場合、唇の左側は光に照らされて色が白っぽくなり、唇の右側は陰になって黒っぽい色に見える。このような状態で、薄いピンク色の口紅を唇に塗ると、唇の左側は口紅に近い色合いが出、唇の右側は口紅の色よりも濃い色合いとなる。また、濃い赤色の口紅を唇に塗ると、唇の左側は口紅の色よりも薄い色合いとなり、反対に唇の右側は口紅の色に近い色合いが出る。情報格納手段8eには様々な環境の下での使用を考慮して、屋外、屋内、天候等における光線の加減、及び光線の向きを数値化した環境情報が予め格納されており、画像の合成にあたってはこれらの環境情報も加味する。 Even if a lipstick of the same color is attached, the appearance of the color varies greatly depending on the environment in which the lipstick is used, such as outdoors on a sunny day, indoors with electric lights, or indoors with reduced lighting. For example, when light is shining from the left side of the face, the left side of the lips is illuminated with light and the color becomes whitish, and the right side of the lips is shaded and looks dark. In such a state, when a light pink lipstick is applied to the lips, the left side of the lips has a hue close to that of the lipstick, and the right side of the lips has a darker hue than the color of the lipstick. In addition, when a dark red lipstick is applied to the lips, the left side of the lips becomes lighter than the color of the lipstick, and on the contrary, the right side of the lips has a color close to the color of the lipstick. The information storage means 8e stores in advance environmental information in which the amount of light in the outdoors, indoors, weather, etc., and the direction of the light are quantified, considering use in various environments. At the same time, these environmental information is taken into account.
このように、基となる画像の情報とその基となる画像の上に重ねる装飾品の画像の情報及び各使用環境に応じた光線の具合についての情報とに基づいて唇に口紅を塗った後の色を求め、その情報に基づいて画像を合成することで、実際に唇に口紅を塗り使用される環境と同じ色合いを簡単、的確なシミュレーション画像として提示することのできる画像処理装置を提供することができる。 After applying the lipstick on the lips based on the information on the base image, the information on the image of the decorative item superimposed on the base image, and the information on the condition of the light according to each use environment An image processing apparatus capable of simply and accurately presenting the same color as the environment in which lipstick is actually applied to the lips by synthesizing an image based on the information is obtained. be able to.
(第3の実施の形態)
次に本発明における第3の実施の形態について説明する。
(Third embodiment)
Next, a third embodiment of the present invention will be described.
第3の実施の形態においては、画像処理装置1を利用する使用者の動きに合わせて合成された画像もリアルタイムに追随して動く点に特徴がある。
The third embodiment is characterized in that the image synthesized in accordance with the movement of the user who uses the
画像入力手段7は、最初に使用者の画像を構成するために撮影をした後、使用者が画像処理装置1を利用している間、継続して使用者を撮影し続けている。そこで、この常に撮影している画像の情報を高速演算処理することで、使用者の実際の動きに合成する画像の動きを同期させることができる。
The image input unit 7 continuously captures the user while the user is using the
このようにすることで、使用者が画像処理装置1の前で動くことによってできる影や色の変化を忠実に再現することが可能となり、これらの情報に基づいて装飾品の情報や環境情報を加味して画像を合成することで、実際に装飾品を使用した場合と同じ状態を簡単、的確なシミュレーション画像として提示することのできる画像処理装置を提供することができる。
By doing so, it becomes possible to faithfully reproduce changes in shadows and colors caused by the user moving in front of the
なお、この発明は、上述実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。上述した各実施の形態においては、化粧品売り場での例を挙げて説明したが、その他に、例えば、プリクラ(登録商標)、例えば、透ける素材でできた衣装或いは複数の小孔が空いていたり透明な部分のある髪飾りやネックレス等の貴金属を身につける場合にシミュレーション画像を提示する店舗のショーウインドー、家庭の洗面台等に組み込んで実施することが可能である。また、情報記憶手段8fには合成された画像を格納する機能をがあるが、この画像を保持しておくことで顧客情報として管理し、次回また同じ使用者が画像処理装置1を使用した場合に過去の履歴情報として提示することも可能である。さらに、画像処理装置1を使用する使用者が自らの情報、例えば、夏に日焼けした自分の顔の色情報や自分の所有する装飾品に関する情報をCD−R等の記憶媒体に記憶させておき、これらの情報を画像処理装置1内に取り込み、使用者に関する情報を補正或いは追加できるようにしても良い。
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In each of the above-described embodiments, an example at a cosmetics department has been described. In addition, for example, Purikura (registered trademark), for example, a costume made of a transparent material or a plurality of small holes are vacant or transparent When wearing precious metals such as hair ornaments and necklaces with various parts, it can be implemented by incorporating them into a show window of a store that presents a simulation image, a washbasin at home, and the like. Further, the information storage means 8f has a function of storing the synthesized image. However, when this image is held, it is managed as customer information, and the same user uses the
上記実施の形態に開示されている複数の構成要素を適宜組み合わせることにより種々の発明を形成できる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、例えば、本発明の実施の形態に係る画像処理装置1にインターネット端末を備え、装飾品の情報を適宜更新し、常に最新の装飾品の情報を具備するようにする等、異なる実施の形態に亘る構成要素を適宜組み合わせてもよい。
Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, for example, the
1 画像処理装置
2 画像表示手段
3 情報入力手段
6 印刷手段
7 画像入力手段
8 制御装置
DESCRIPTION OF
Claims (6)
前記画像入力手段からの画像情報に基づいて前記被写体の部位の位置情報、凹凸情報、色情報を解析する解析手段と、
前記入力された画像情報の中から前記被写体の特定の部位を選択する選択手段と、
前記選択された部位を装飾する装飾品に関する情報を格納する情報格納手段と、
前記選択された部位について、前記解析手段により解析された基調となる前記被写体の色情報と前記情報格納手段内に格納されている装飾品に関する情報の中から選択された色情報とに基づいて画像を合成する手段と、
前記画像合成手段により合成された画像を表示する画像表示手段と、
を備えることを特徴とする画像処理装置。 An image input means for inputting an image of a subject;
Analysis means for analyzing position information of the part of the subject, unevenness information, and color information based on image information from the image input means;
Selection means for selecting a specific part of the subject from the input image information;
Information storage means for storing information relating to an ornament that decorates the selected part;
An image of the selected portion based on the color information of the subject to be analyzed and the color information selected from the information on the ornament stored in the information storage unit is analyzed by the analysis unit. Means for synthesizing
Image display means for displaying the image synthesized by the image synthesis means;
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005325205A JP2007133599A (en) | 2005-11-09 | 2005-11-09 | Image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005325205A JP2007133599A (en) | 2005-11-09 | 2005-11-09 | Image processing apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007133599A true JP2007133599A (en) | 2007-05-31 |
Family
ID=38155214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005325205A Withdrawn JP2007133599A (en) | 2005-11-09 | 2005-11-09 | Image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007133599A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009065269A (en) * | 2007-09-04 | 2009-03-26 | Olympus Imaging Corp | Image processor and image processing method |
US9881402B2 (en) | 2013-04-09 | 2018-01-30 | Sony Corporation | Image processor and storage medium |
-
2005
- 2005-11-09 JP JP2005325205A patent/JP2007133599A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009065269A (en) * | 2007-09-04 | 2009-03-26 | Olympus Imaging Corp | Image processor and image processing method |
US9881402B2 (en) | 2013-04-09 | 2018-01-30 | Sony Corporation | Image processor and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6250390B2 (en) | Display and lighting device for fitting room | |
US9449412B1 (en) | Adaptive, calibrated simulation of cosmetic products on consumer devices | |
JP2017216732A (en) | Hair consultation tool arrangement and method | |
JP5324031B2 (en) | Beauty simulation system | |
US20190026954A1 (en) | Virtually trying cloths on realistic body model of user | |
JP2005010356A (en) | Display device and image processing system | |
KR20010050697A (en) | Method for selecting cosmetics | |
JP6448869B2 (en) | Image processing apparatus, image processing system, and program | |
US20160212314A1 (en) | Computer display vanity lighting | |
JP2016184864A (en) | Image synthesizer and image synthesizing method | |
JP2007133599A (en) | Image processing apparatus | |
US20170085690A1 (en) | Mobile communication terminal and mehtod therefore | |
US20170270969A1 (en) | Real time computer display modification | |
Kao | Hybrid body craft: toward culturally and socially inclusive design for on-skin interfaces | |
KR20210081526A (en) | Virtual beauty cosmetic apparatus | |
JP2010094536A (en) | Makeup simulation method | |
US20050074739A1 (en) | Makeup set with simulation mirror and accessories | |
EP4181071A1 (en) | Image generation method and image generation device | |
JP4487961B2 (en) | Makeup simulation method | |
Cheng et al. | Chromirror: a real-time interactive mirror for chromatic and color-harmonic dressing | |
CN110168323B (en) | System for manufacturing and providing a product of a specific color or texture selected by a subject and product obtained by such a system | |
KR20160001967A (en) | Web-based jewelry design method | |
Winfield | Painting as Paradigmatic Graphic Fine Art | |
US20100029174A1 (en) | Image representation viewer and method of viewing | |
US20240169414A1 (en) | Smart mirror styling system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20080328 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081020 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20100217 |