JP6902780B2 - Makeup instruction device, makeup instruction program, and makeup instruction system - Google Patents

Makeup instruction device, makeup instruction program, and makeup instruction system Download PDF

Info

Publication number
JP6902780B2
JP6902780B2 JP2017094194A JP2017094194A JP6902780B2 JP 6902780 B2 JP6902780 B2 JP 6902780B2 JP 2017094194 A JP2017094194 A JP 2017094194A JP 2017094194 A JP2017094194 A JP 2017094194A JP 6902780 B2 JP6902780 B2 JP 6902780B2
Authority
JP
Japan
Prior art keywords
image
make
instruction
alignment
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017094194A
Other languages
Japanese (ja)
Other versions
JP2018189894A (en
Inventor
陽平 石黒
陽平 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Momotani Juntenkan KK
Original Assignee
Momotani Juntenkan KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Momotani Juntenkan KK filed Critical Momotani Juntenkan KK
Priority to JP2017094194A priority Critical patent/JP6902780B2/en
Publication of JP2018189894A publication Critical patent/JP2018189894A/en
Application granted granted Critical
Publication of JP6902780B2 publication Critical patent/JP6902780B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Image Processing (AREA)

Description

本発明は、メイクの指導を受けるためのメイク指導装置、メイク指導プログラム、及びメイク指導システムに関する。 The present invention relates to a make-up instruction device, a make-up instruction program, and a make-up instruction system for receiving make-up instruction.

メイクは流行性に富むため、日々様々な手法や化粧品、道具等が編み出されている。これらの手法、化粧品、及び道具等をユーザへ伝えるために、メイク教室等においてメイクの指導がなされている。メイク教室での指導は、フェイスチャートでコンセプトに合わせてメイクをデッサンし、生徒同士で互いの顔に又は生徒が自身の顔に実際にメイクを施した後に、生徒によるメイクの出来栄えを確認した指導者が、言葉やジェスチャーで意図を説明しながら、メイクを修正して見せるという手順が一般的である。 Since makeup is very fashionable, various methods, cosmetics, tools, etc. are devised every day. In order to convey these methods, cosmetics, tools, etc. to users, make-up instruction is given in make-up classes and the like. In the makeup class, the students draw makeup according to the concept on the face chart, and after the students actually apply makeup to each other's face or to their own face, the students confirm the makeup performance. The general procedure is for a person to correct and show their makeup while explaining their intentions with words and gestures.

メイク技術を学ぶ手法としてメイク教室以外にも、流行のメイクをするためのアドバイスをするサービスや、ユーザが所望する画像に近づけるようなメイクを補助する装置が知られている(例えば、特許文献1を参照)。 In addition to the make-up class, as a method for learning make-up techniques, a service that gives advice for making fashionable make-up and a device that assists make-up to bring the user closer to a desired image are known (for example, Patent Document 1). See).

特許文献1には、予め専門家の化粧手順を記号化して格納されたものに基づいて、利用者の希望に応じた化粧手順を表示したり、あるいは化粧をしたい顔写真をそのような化粧手順で化粧した場合のシミュレーション画像等を表示したりする化粧アドバイス装置が開示されている。 In Patent Document 1, based on what is stored in advance by symbolizing the makeup procedure of an expert, the makeup procedure according to the user's wishes is displayed, or a face photograph for which makeup is desired is displayed as such a makeup procedure. A makeup advice device for displaying a simulation image or the like when the makeup is applied is disclosed.

特開2002−123585号公報Japanese Unexamined Patent Publication No. 2002-123585

メイク教室では、メイクの修正についても生徒自らが行う方が練習になるが、指導者側の意図を正確に示すために、指導者による修正の実演が必要であった。特許文献1の化粧アドバイス装置は、事前に撮影した利用者の顔写真と利用者の理想とする顔写真とを比較し、その差異に基づいて導き出された化粧の手順を表示するものであるため、メイク教室において、特許文献1の化粧アドバイス装置を用いたとしても、メイク中に指導者の意図通りにメイクできているかを確認することはできない。 In the make-up class, it is more practice for the students to make their own make-up corrections, but in order to accurately show the instructor's intentions, it was necessary for the instructor to demonstrate the corrections. This is because the makeup advice device of Patent Document 1 compares a user's face photograph taken in advance with the user's ideal face photograph and displays a makeup procedure derived based on the difference. Even if the makeup advice device of Patent Document 1 is used in the makeup class, it is not possible to confirm whether or not the makeup is performed as intended by the instructor during makeup.

本発明は、上記問題点に鑑みてなされたものであり、指導者の意図するメイクの位置・形状を正確に読み取ってメイクをトレーニングすることが可能なメイク指導装置、メイク指導プログラム、及びメイク指導システムを提供することを目的とする。 The present invention has been made in view of the above problems, and is a make-up instruction device, a make-up instruction program, and a make-up instruction capable of accurately reading the position and shape of the make-up intended by the instructor to train the make-up. The purpose is to provide a system.

上記課題を解決するための本発明に係るメイク指導装置の特徴構成は、
ユーザの顔をリアルタイムで撮像する撮像手段と、
前記撮像手段によりある時点で撮像されたユーザの顔の少なくとも一部を含む静止画像を外部機器へ送信し、前記静止画像に対するメイク指導を示すメイク指導画像を前記外部機器から受信する通信手段と、
前記静止画像から成分の一部を低減させた位置合せ画像を生成する位置合せ画像生成手段と、
前記メイク指導画像よりも前記位置合せ画像の透過率が大きくなるように、これらの画像を前記撮像手段により撮像されるユーザのリアルタイム画像に合成する合成手段と、
前記合成手段による合成画像を表示する表示手段と、
を有することにある。
The characteristic configuration of the makeup instruction device according to the present invention for solving the above problems is
An imaging means that captures the user's face in real time,
A communication means that transmits a still image including at least a part of the user's face captured at a certain time by the imaging means to an external device, and receives a make-up instruction image indicating make-up instruction for the still image from the external device.
An alignment image generation means for generating an alignment image in which a part of components is reduced from the still image, and an alignment image generation means.
A compositing means for synthesizing these images with a user's real-time image captured by the imaging means so that the transmittance of the aligned image is larger than that of the make-up instruction image.
A display means for displaying a composite image by the composite means and
To have.

本構成のメイク指導装置によれば、合成画像において位置合せ画像に由来する成分が半透過で表示されるため、リアルタイム画像に由来する成分と位置合せ画像に由来する成分とが重なるようにユーザが位置合せすることが容易であり、さらにメイク中にリアルタイム画像に由来する成分の色味を正確に確認することができる。また、位置合せ画像に由来する成分の透過度がメイク指導画像に由来する成分の透過度よりも大きくなるため、メイク指導画像に由来する成分により示されるメイクの指導の目印線等を視認しやすくなる。そのため、指導者の意図するメイクの位置・形状を正確に読み取ってメイクをトレーニングすることが可能となる。 According to the make-up instruction device of this configuration, the component derived from the alignment image is displayed semi-transparently in the composite image, so that the user can overlap the component derived from the real-time image and the component derived from the alignment image. It is easy to align, and it is possible to accurately confirm the color of the components derived from the real-time image during makeup. In addition, since the transparency of the component derived from the alignment image is larger than the transparency of the component derived from the makeup instruction image, it is easy to visually recognize the mark line of the makeup instruction indicated by the component derived from the makeup instruction image. Become. Therefore, it is possible to accurately read the position and shape of the makeup intended by the instructor and train the makeup.

本発明に係るメイク指導装置において、
前記合成手段は、前記撮像手段により撮像されるユーザのリアルタイム画像に、前記位置合せ画像を半透過で合成するとともに、前記メイク指導画像を不透過で合成することが好ましい。
In the make-up instruction device according to the present invention
It is preferable that the compositing means synthesizes the alignment image semi-transparently with the real-time image of the user captured by the imaging means, and also synthesizes the make-up instruction image non-transparently.

本構成のメイク指導装置によれば、メイク指導画像に由来する成分が不透過で表示されるため、メイクの指導の目印線等をより明確に確認することができる。 According to the make-up instruction device of this configuration, since the components derived from the make-up instruction image are opaquely displayed, the mark line of the make-up instruction can be confirmed more clearly.

本発明に係るメイク指導装置において、
前記メイク指導画像は、前記静止画像に対する相対位置を指定したベクタ形式の画像であり、
前記合成手段は、前記メイク指導画像を、前記位置合せ画像に対して位置決めすることが好ましい。
In the make-up instruction device according to the present invention
The make-up instruction image is an image in a vector format in which a relative position with respect to the still image is specified.
The synthesis means preferably positions the make-up instruction image with respect to the alignment image.

本構成のメイク指導装置によれば、合成画像においてメイク指導画像に由来する成分の目印線等の位置・形状等が、位置合せ画像に由来する成分に対してずれることなく、位置・形状等を正確に示すようになる。これにより、ユーザは、メイク指導画像に由来する成分が示す目印線の位置・形状を正確に読み取りながら、リアルタイム画像に由来する成分を見てメイクの出来栄えを視認可能な状態でメイクをトレーニングすることができる。 According to the make-up instruction device of this configuration, the position, shape, etc. of the component derived from the make-up instruction image, such as the mark line, do not deviate from the component derived from the alignment image in the composite image. It will be shown accurately. As a result, the user can accurately read the position and shape of the mark line indicated by the component derived from the makeup instruction image, and train the makeup in a state in which the result of the makeup can be visually recognized by looking at the component derived from the real-time image. Can be done.

本発明に係るメイク指導装置において、
前記位置合せ画像は、前記静止画像におけるユーザの顔の輪郭が抽出された画像であることが好ましい。
In the make-up instruction device according to the present invention
The alignment image is preferably an image in which the contour of the user's face in the still image is extracted.

本構成のメイク指導装置によれば、位置合せ画像に由来する成分である輪郭線と、リアルタイム画像に由来する成分とが重なるようにユーザが位置合せすることがさらに容易になる。さらに、位置合せ画像に由来する成分として輪郭線だけが表示されることで、メイク中にリアルタイム画像に由来する成分の色味を正確に確認することがさらに容易になる。 According to the make-up instruction device of this configuration, it becomes easier for the user to align the contour line, which is a component derived from the alignment image, so that the component derived from the real-time image overlaps. Further, since only the contour line is displayed as the component derived from the alignment image, it becomes easier to accurately confirm the color tone of the component derived from the real-time image during makeup.

本発明に係るメイク指導装置において、
前記位置合せ画像生成手段は、DoGフィルタ、フーリエ変換、及びウェーブレット変換の何れかにより、前記静止画像から低周波成分を低減させることが好ましい。
In the make-up instruction device according to the present invention
The alignment image generation means preferably reduces low frequency components from the still image by any of a DoG filter, a Fourier transform, and a wavelet transform.

本構成のメイク指導装置によれば、上述の適切な画像処理を用いることで、静止画像におけるユーザの顔の輪郭を位置合せ画像として抽出することができる。 According to the make-up instruction device of this configuration, the contour of the user's face in the still image can be extracted as the aligned image by using the above-mentioned appropriate image processing.

本発明に係るメイク指導装置において、
前記位置合せ画像生成手段は、前記静止画像から所定の色成分を除去することにより、前記位置合せ画像を生成し、
前記合成手段は、前記撮像手段により撮像された画像から前記所定の色成分とは異なる色成分を除去した画像を前記リアルタイム画像として使用し、前記位置合せ画像及び前記メイク指導画像との合成を実行することが好ましい。
In the make-up instruction device according to the present invention
The alignment image generation means generates the alignment image by removing a predetermined color component from the still image.
The synthesizing means uses an image obtained by removing a color component different from the predetermined color component from the image captured by the imaging means as the real-time image, and synthesizes the alignment image and the make-up instruction image. It is preferable to do so.

本構成のメイク指導装置によれば、合成画像において、リアルタイム画像に由来する成分と位置合せ画像に由来する成分とを、それぞれの色合いの違いにより容易に識別することができる。 According to the make-up instruction device of this configuration, in the composite image, the component derived from the real-time image and the component derived from the aligned image can be easily identified by the difference in their respective shades.

本発明に係るメイク指導装置において、
前記合成手段は、前記メイク指導画像の合成位置を含む領域での透過度が、他の領域での透過度よりも大きくなるように、前記位置合せ画像を合成することが好ましい。
In the make-up instruction device according to the present invention
It is preferable that the compositing means synthesizes the aligned image so that the transparency in the region including the compositing position of the make-up instruction image is larger than the transparency in the other region.

本構成のメイク指導装置によれば、表示手段に表示された合成画像を見ながらの位置合せが容易であることは変わることなく、合成画像においてメイク指導画像に由来する成分の周辺では、リアルタイム画像に由来する成分の色味が視認しやすくなる。 According to the make-up instruction device of this configuration, the alignment while looking at the composite image displayed on the display means is still easy, and the real-time image is around the component derived from the make-up instruction image in the composite image. It becomes easier to visually recognize the color of the components derived from.

本発明に係るメイク指導装置において、
前記合成手段は、前記リアルタイム画像、前記位置合せ画像、及び前記メイク指導画像として、各画像の鏡像を用いることが好ましい。
In the make-up instruction device according to the present invention
It is preferable that the synthesis means uses a mirror image of each image as the real-time image, the alignment image, and the make-up instruction image.

本構成のメイク指導装置によれば、鏡と同様の使用感でメイク指導装置を使用することができる。 According to the make-up instruction device of this configuration, the make-up instruction device can be used with a feeling of use similar to that of a mirror.

上記課題を解決するための本発明に係るメイク指導プログラムの特徴構成は、
撮像手段と、通信手段と、表示手段とを有する端末を制御するコンピュータに、
前記撮像手段によりある時点で撮像されたユーザの顔の少なくとも一部を含む静止画像から成分の一部を低減させた位置合せ画像を生成する位置合せ画像生成ステップと、
前記通信手段に、前記静止画像を外部機器へ送信させ、前記静止画像に対するメイク指導を示すメイク指導画像を前記外部機器から受信させる送受信ステップと、
前記メイク指導画像よりも前記位置合せ画像の透過率が大きくなるように、これらの画像を前記撮像手段により撮像されるユーザのリアルタイム画像に合成する合成ステップと、
前記合成ステップにおける合成画像を表示手段に表示させる表示ステップと、
を実行させることにある。
The characteristic structure of the makeup instruction program according to the present invention for solving the above problems is
A computer that controls a terminal having an imaging means, a communication means, and a display means.
A alignment image generation step of generating an alignment image in which a part of components is reduced from a still image including at least a part of the user's face imaged at a certain time by the imaging means.
A transmission / reception step of causing the communication means to transmit the still image to an external device and receive a make-up instruction image indicating make-up instruction for the still image from the external device.
A compositing step of synthesizing these images with a user's real-time image captured by the imaging means so that the transmittance of the aligned image is larger than that of the make-up instruction image.
A display step for displaying the composite image in the composite step on the display means,
Is to be executed.

本構成のメイク指導プログラムによれば、表示ステップにおいて位置合せ画像に由来する成分が半透過で表示されるため、リアルタイム画像に由来する成分と位置合せ画像に由来する成分とが重なるようにユーザが位置合せすることが容易であり、さらにメイク中にリアルタイム画像に由来する成分の色味を正確に確認することができる。また、位置合せ画像に由来する成分の透過度がメイク指導画像に由来する成分の透過度よりも大きくなるため、メイク指導画像に由来する成分により示されるメイクの指導の目印線等を視認しやすくなる。そのため、指導者の意図するメイクの位置・形状を正確に読み取ってメイクをトレーニングすることが可能となる。 According to the makeup instruction program of this configuration, the components derived from the alignment image are displayed semi-transparently in the display step, so that the user can overlap the components derived from the real-time image and the components derived from the alignment image. It is easy to align, and it is possible to accurately confirm the color of the components derived from the real-time image during makeup. In addition, since the transparency of the component derived from the alignment image is larger than the transparency of the component derived from the makeup instruction image, it is easy to visually recognize the mark line of the makeup instruction indicated by the component derived from the makeup instruction image. Become. Therefore, it is possible to accurately read the position and shape of the makeup intended by the instructor and train the makeup.

上記課題を解決するための本発明に係るメイク指導システムの特徴構成は、
第1端末と第2端末とを含むメイク指導システムであって、
前記第1端末は、
ユーザの顔をリアルタイムで撮像する撮像手段と、
前記撮像手段によりある時点で撮像されたユーザの顔の少なくとも一部を含む静止画像を前記第2端末へ送信する第1通信手段と、
前記静止画像から成分の一部を低減させた位置合せ画像を生成する位置合せ画像生成手段と、
前記撮像手段により撮像されるユーザのリアルタイム画像に、前記位置合せ画像を半透過で合成する合成手段と、
前記合成手段による合成画像を表示する第1表示手段と、
を有し、
前記第2端末は、
前記第1端末から前記静止画像を受信する第2通信手段と、
受信した前記静止画像を表示する第2表示手段と、
前記静止画像に対するメイク指導の入力を受け付ける入力手段と、
前記入力からメイク指導画像を生成するメイク指導画像生成手段と、
を有し、
前記第2通信手段はさらに、前記第1端末へ前記メイク指導画像を送信し、
前記第1通信手段はさらに、前記第2端末から前記メイク指導画像を受信し、
前記合成手段は、前記リアルタイム画像に前記位置合せ画像を半透過で合成したものに、さらに前記メイク指導画像を前記位置合せ画像よりも透過率が小さくなるように合成することにある。
The characteristic configuration of the makeup instruction system according to the present invention for solving the above problems is
A make-up instruction system that includes a first terminal and a second terminal.
The first terminal is
An imaging means that captures the user's face in real time,
A first communication means for transmitting a still image including at least a part of a user's face imaged at a certain time by the image pickup means to the second terminal.
An alignment image generation means for generating an alignment image in which a part of components is reduced from the still image, and an alignment image generation means.
A compositing means for semi-transparently synthesizing the alignment image with a user's real-time image captured by the imaging means.
The first display means for displaying the composite image by the composite means and
Have,
The second terminal is
A second communication means for receiving the still image from the first terminal, and
A second display means for displaying the received still image, and
An input means for accepting input of makeup instruction for the still image and
A make-up instruction image generation means for generating a make-up instruction image from the above input,
Have,
The second communication means further transmits the make-up instruction image to the first terminal.
The first communication means further receives the make-up instruction image from the second terminal, and receives the make-up instruction image.
The synthesizing means is to synthesize the alignment image with the real-time image in a semi-transparent manner, and further synthesize the make-up instruction image so that the transmittance is smaller than that of the alignment image.

本構成のメイクアップ指導システムによれば、第1端末において、合成画像において位置合せ画像に由来する成分が半透過で表示されるため、リアルタイム画像に由来する成分と位置合せ画像に由来する成分とが重なるようにユーザが位置合せすることが容易であり、さらにメイク中にリアルタイム画像に由来する成分の色味を正確に確認することができる。また、第1端末において、位置合せ画像に由来する成分の透過度がメイク指導画像に由来する成分の透過度よりも大きくなるため、メイク指導画像に由来する成分により示されるメイクの指導の目印線等を視認しやすくなる。そのため、指導者の意図するメイクの位置・形状を正確に読み取ってメイクをトレーニングすることが可能となる。 According to the make-up instruction system of this configuration, in the first terminal, the components derived from the aligned image are displayed semi-transparently in the composite image, so that the components derived from the real-time image and the components derived from the aligned image are displayed. It is easy for the user to align the colors so that they overlap, and it is possible to accurately confirm the color of the components derived from the real-time image during makeup. Further, in the first terminal, since the transmittance of the component derived from the alignment image is larger than the transmittance of the component derived from the make-up instruction image, the mark line of the make-up instruction indicated by the component derived from the make-up instruction image. Etc. are easy to see. Therefore, it is possible to accurately read the position and shape of the makeup intended by the instructor and train the makeup.

図1は、本発明の実施形態に係るメイク指導システムのシステム構成図である。FIG. 1 is a system configuration diagram of a make-up instruction system according to an embodiment of the present invention. 図2は、第1端末の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the first terminal. 図3は、第1端末において用いる各種画像の説明図である。FIG. 3 is an explanatory diagram of various images used in the first terminal. 図4は、第2端末の構成を示すブロック図である。FIG. 4 is a block diagram showing the configuration of the second terminal. 図5は、メイク指導画像の生成についての説明図である。FIG. 5 is an explanatory diagram for generating a make-up instruction image. 図6は、第1端末における制御手順を示すフローチャートである。FIG. 6 is a flowchart showing a control procedure in the first terminal. 図7は、第2端末における制御手順を示すフローチャートである。FIG. 7 is a flowchart showing a control procedure in the second terminal.

以下、本発明に係るメイク指導システム、メイク指導装置、及びメイク指導プログラムに関する実施形態について図面を参照して説明する。なお、本発明は、以下に説明する実施形態や図面に記載される構成に限定されることを意図しない。 Hereinafter, embodiments relating to the make-up instruction system, the make-up instruction device, and the make-up instruction program according to the present invention will be described with reference to the drawings. The present invention is not intended to be limited to the configurations described in the embodiments and drawings described below.

<メイク指導システム>
図1は、本発明の実施形態に係るメイク指導システム100のシステム構成図である。メイク指導システム100は、第1端末1と第2端末2とがルータ3を介して通信可能に構成されている。第1端末1は、メイク教室等において生徒が使用する端末であり、本発明のメイク指導装置を構成する。第2端末2は、メイク教室等において指導者が使用する端末であり、第1端末1へのメイク指導の入力に用いられる装置である。第1端末1及び第2端末2には、例えば、タッチパネルディスプレイを有するタブレットコンピュータ、スマートフォン、及びPC等を用いることができる。以下では、第1端末1を使用する生徒、及び、第2端末2を使用する指導者を、それぞれの端末のユーザとして説明する。図1では、メイク指導システム100が3台の第1端末1を含む構成としたが、メイク指導システム100は、第1端末1を少なくとも1台含む構成であればよい。また、図1では、第1端末1及び第2端末2が、LAN内に含まれる同一のルータ3と直接通信する構成を示したが、例えば、第1端末1と第2端末2とが、インターネット4を介して通信する構成であってもよい。
<Makeup instruction system>
FIG. 1 is a system configuration diagram of a make-up instruction system 100 according to an embodiment of the present invention. The make-up instruction system 100 is configured so that the first terminal 1 and the second terminal 2 can communicate with each other via the router 3. The first terminal 1 is a terminal used by students in a make-up classroom or the like, and constitutes the make-up instruction device of the present invention. The second terminal 2 is a terminal used by an instructor in a make-up classroom or the like, and is a device used for inputting make-up instruction to the first terminal 1. For the first terminal 1 and the second terminal 2, for example, a tablet computer having a touch panel display, a smartphone, a PC, or the like can be used. In the following, a student who uses the first terminal 1 and an instructor who uses the second terminal 2 will be described as users of the respective terminals. In FIG. 1, the make-up instruction system 100 is configured to include three first terminals 1, but the make-up instruction system 100 may be configured to include at least one first terminal 1. Further, FIG. 1 shows a configuration in which the first terminal 1 and the second terminal 2 directly communicate with the same router 3 included in the LAN. For example, the first terminal 1 and the second terminal 2 have a configuration in which the first terminal 1 and the second terminal 2 communicate directly with the same router 3. It may be configured to communicate via the Internet 4.

<第1端末(メイク指導装置)>
図2は、第1端末1の構成を示すブロック図である。図3は、第1端末1において用いる各種画像の説明図である。第1端末1は、撮像手段11、表示手段12a、通信手段13、及び制御部15を備え、さらに追加の構成として、入力手段12b、及びストレージ14を備える。
<Terminal 1 (makeup instruction device)>
FIG. 2 is a block diagram showing the configuration of the first terminal 1. FIG. 3 is an explanatory diagram of various images used in the first terminal 1. The first terminal 1 includes an image pickup means 11, a display means 12a, a communication means 13, and a control unit 15, and further includes an input means 12b and a storage 14 as additional configurations.

撮像手段11は、CCD等の撮像素子を備えた画像データを生成するカメラであり、ユーザの顔をリアルタイムで撮像する。ここでリアルタイムとは、メイク前からメイク後までに亘るあらゆる個々の瞬間の時点をいう。撮影手段11は、メイク中にユーザの画像をリアルタイムで連続的に取得することができるため、ユーザがメイク塗布具を持ち、塗布部を顔上に付置し、動かす一連の動作の画像を連続的に取得可能である。このように連続的に取得される画像を利用して表示手段12aで表示する画像が随時更新されることによって、ユーザは意図する位置・形状通りに付置・動作できているかを常に確認しながらメイクすることができる。また、ユーザのリアルタイム画像には、撮像手段11により撮像されたそのままの画像を用いてもよいが、好ましくは、撮像手段11により撮像された画像を左右に反転した鏡像を用いる。メイク指導システム100では、撮像手段11により撮像されたユーザの画像を基に様々な画像を生成し、ユーザは表示手段12aに表示したこれらの画像を見ながらメイクを行うという使用形態を想定しているため、撮像手段11により撮像された画像の鏡像をリアルタイム画像としてストレージ14に格納して、これを他の画像の生成に用いることで、鏡と同様の使用感でメイク指導システム100を使用することができる。 The image pickup means 11 is a camera including an image pickup device such as a CCD that generates image data, and captures a user's face in real time. Here, real-time refers to the time point of every individual moment from before make-up to after make-up. Since the photographing means 11 can continuously acquire the user's image in real time during makeup, the user holds the makeup coating tool, attaches the coating portion on the face, and continuously captures images of a series of movements. Can be obtained at. By updating the image displayed by the display means 12a as needed using the images continuously acquired in this way, the user always confirms whether the image can be attached and operated according to the intended position and shape. can do. Further, as the real-time image of the user, the image as it is captured by the imaging means 11 may be used, but preferably, a mirror image obtained by flipping the image captured by the imaging means 11 left and right is used. The make-up instruction system 100 assumes a usage pattern in which various images are generated based on the user's image captured by the image pickup means 11, and the user performs make-up while looking at these images displayed on the display means 12a. Therefore, the mirror image of the image captured by the imaging means 11 is stored in the storage 14 as a real-time image, and this is used to generate another image, so that the makeup instruction system 100 is used with the same usability as a mirror. be able to.

表示手段12aは、メイク指導システム100における第1表示手段であり、画像の表示に用いられる液晶ディスプレイ、有機ELディスプレイ等のディスプレイである。 The display means 12a is the first display means in the make-up instruction system 100, and is a display such as a liquid crystal display or an organic EL display used for displaying an image.

入力手段12bは、ユーザによる入力を受け付けるタッチパネル等であり、表示手段12aとともにタッチパネルディスプレイ12を構成することが好ましい。 The input means 12b is a touch panel or the like that accepts input by the user, and it is preferable that the touch panel display 12 is configured together with the display means 12a.

通信手段13は、メイク指導システム100における第1通信手段であり、例えば、無線LANモジュールである。通信手段13は、ルータ3を介して第2端末2と通信する。 The communication means 13 is the first communication means in the make-up instruction system 100, and is, for example, a wireless LAN module. The communication means 13 communicates with the second terminal 2 via the router 3.

ストレージ14は、HDD、SSD等のストレージであり、第1端末1としての機能を実現するためのプログラムである本発明のメイク指導プログラムが格納されているとともに、画像のデータの一時保存等に用いられる。 The storage 14 is a storage for an HDD, SSD, etc., and stores the make instruction program of the present invention, which is a program for realizing the function as the first terminal 1, and is used for temporary storage of image data and the like. Be done.

制御部15は、CPU、RAM等からなり、ストレージ14に記録されたメイク指導プログラムをRAMに読み出してCPUにおいて実行することにより、位置合せ画像生成手段18、及び合成手段19の各機能を実現し、さらに、追加の構成として静止画像取得手段16、及び送受信手段17の各機能を実現する。 The control unit 15 is composed of a CPU, a RAM, and the like, and realizes each function of the alignment image generation means 18 and the synthesis means 19 by reading the make instruction program recorded in the storage 14 into the RAM and executing the make instruction program in the CPU. Further, as an additional configuration, each function of the still image acquisition means 16 and the transmission / reception means 17 is realized.

静止画像取得手段16は、入力手段12bを介したユーザの指示に応じて、静止画像101を取得する。静止画像101は、ユーザによる指示入力時点で撮像手段11において撮像された画像データであって、図3の(a)に示すように、顔の全域が写っているものが好ましいが、少なくともユーザがメイクしたい領域が写っていればよく、必ずしも顔の全域が写っていなくてもよい。静止画像取得手段16は、ユーザによる指示入力時点で撮像された画像を表示手段12aに表示させ、表示中の画像にユーザの顔の少なくとも一部が含まれていることの確認をユーザに求め、含まれていることがユーザにより確認された場合に、表示に用いた画像を静止画像101として取得するよう構成してもよい。 The still image acquisition means 16 acquires the still image 101 in response to a user's instruction via the input means 12b. The still image 101 is image data captured by the imaging means 11 at the time of inputting an instruction by the user, and as shown in FIG. 3A, it is preferable that the entire face is captured, but at least the user It suffices to show the area you want to make, and not necessarily the entire face. The still image acquisition means 16 causes the display means 12a to display the image captured at the time of inputting the instruction by the user, and asks the user to confirm that the displayed image includes at least a part of the user's face. When the user confirms that the image is included, the image used for display may be acquired as the still image 101.

送受信手段17は、通信手段13を介したデータの送受信を制御する機能ブロックであって、静止画像取得手段16において静止画像101が取得された場合に取得された静止画像101を第2端末2へ送信し、第2端末2からメイク指導画像103を受信する。メイク指導画像103は、図3の(c)のように、静止画像101に対するメイク指導として、メイクの位置・形状等を示す目印線等の画像であり、例えば、静止画像101に対する相対位置が指定されたベクタ形式の画像であることが好ましい。 The transmission / reception means 17 is a functional block that controls transmission / reception of data via the communication means 13, and transfers the still image 101 acquired when the still image 101 is acquired by the still image acquisition means 16 to the second terminal 2. It transmits and receives the make-up instruction image 103 from the second terminal 2. As shown in FIG. 3C, the make-up instruction image 103 is an image such as a mark line indicating the position and shape of the make-up as the make-up instruction for the still image 101. For example, the relative position with respect to the still image 101 is designated. It is preferable that the image is in the vector format.

位置合せ画像生成手段18は、静止画像101から一部の画像成分を低減させることにより位置合せ画像102を生成する。位置合せ画像生成手段18による位置合せ画像102の生成では、例えば、DoGフィルタ、フーリエ変換、及びウェーブレット変換等を単独で、又は二つ以上を組み合わせて構成したハイパスフィルタを用いて静止画像101の低周波成分を低減させることによって、図3の(b)のように、静止画像101からエッジ部分となる画素を抽出した位置合せ画像102を生成することが好ましい。図3の(a)に示す静止画像101は、全ての画素において色情報を有するが、静止画像101からエッジ部分となる画素を抽出した位置合せ画像102では、図3の(b)において破線で示す画素、及びその近傍の画素だけが色情報を有し、それ以外の画素は色情報を有していない透過画素となる。静止画像101では特にユーザの顔の輪郭線等がエッジ部分となるため、静止画像101からエッジ部分となる画素を抽出した場合、位置合せ画像102は、静止画像101におけるユーザの顔の輪郭が抽出された画像となる。また、位置合せ画像102は、静止画像101と同サイズの画像であることが好ましい。 The alignment image generation means 18 generates the alignment image 102 by reducing some image components from the still image 101. In the generation of the alignment image 102 by the alignment image generation means 18, for example, the low-pass filter of the still image 101 is used by using a high-pass filter composed of a DoG filter, a Fourier transform, a wavelet transform, or the like alone or in combination of two or more. By reducing the frequency component, it is preferable to generate an alignment image 102 in which pixels to be edge portions are extracted from the still image 101 as shown in FIG. 3B. The still image 101 shown in FIG. 3 (a) has color information in all the pixels, but in the aligned image 102 in which the pixels to be the edge portions are extracted from the still image 101, the broken lines are shown in FIG. 3 (b). Only the indicated pixel and the pixels in the vicinity thereof have color information, and the other pixels are transparent pixels having no color information. In the still image 101, the contour line of the user's face is particularly the edge portion. Therefore, when the pixels to be the edge portion are extracted from the still image 101, the contour of the user's face in the still image 101 is extracted in the alignment image 102. It becomes the image that was made. Further, the alignment image 102 is preferably an image having the same size as the still image 101.

合成手段19は、撮像手段11により撮像されるユーザのリアルタイム画像に、位置合せ画像102、及びメイク指導画像103を合成した合成画像104を生成する。生成された合成画像104は、表示手段12aに表示される。合成手段19による合成画像104の生成では、メイク指導画像103よりも位置合せ画像102の透過率が大きくなるように、これらの画像を撮像手段11により撮像されるユーザのリアルタイム画像に合成する。特に、合成手段19は、撮像手段11により撮像されるユーザのリアルタイム画像に、位置合せ画像102を半透過で合成するとともに、メイク指導画像103を不透過で合成することが好ましい。このように合成することで、合成画像104は、図3の(d)のように、リアルタイム画像に由来する成分104a上に位置合せ画像102に由来する成分104bが半透過で表示され、さらにメイク指導画像103に由来する成分104cが不透過で表示される画像となる。さらに、静止画像101、及び位置合せ画像102が同サイズの画像であり、さらに、メイク指導画像103が静止画像101に対する相対位置が指定されたベクタ形式の画像である場合、合成手段19は、メイク指導画像103を位置合せ画像102に対して位置決めすることが好ましい。このように合成することで、合成画像104は、図3の(d)のように、位置合せ画像102に由来する半透過の成分104bに対して、メイク指導画像103に由来する不透過の成分104cがメイクの目印線として位置・形状等を正確に示すようになる。一方、リアルタイム画像は、撮像手段11により連続的に取得され、ユーザの動きに連動して変化するため、合成画像104においてメイク指導画像103に由来する成分104cは、リアルタイム画像に由来する成分104aに対して位置、及び大きさ等がずれる場合がある。しかし、ユーザは、表示手段12aに表示されている合成画像104に含まれる半透過の位置合せ画像102の成分104bに、リアルタイム画像の成分104aが一致するように前後左右等に移動することで、リアルタイム画像に由来する成分104aに対して、メイク指導画像103に由来する不透過の成分104cの位置、及び大きさを一致させることができる。これにより、第1端末1のユーザは、メイク指導画像103が示す目印線の意図する位置・形状を正確に読み取りながら、リアルタイム画像に由来する成分104aを見てメイクの出来栄えを視認可能な状態でメイクをトレーニングすることができる。特に、位置合せ画像102にユーザの顔の輪郭が抽出された画像を用いる場合、位置合せ画像102は図3の(b)において破線で示した輪郭等の部分以外に色情報を有していないため、図3の(d)の合成画像104において位置合せ画像102に由来する輪郭部分等(成分104b)と、メイク指導画像103に由来する不透過の目印線等(成分104c)とを除いたその他の全ての部分で、ユーザは、リアルタイム画像そのままの色を参照することができる。 The synthesizing means 19 generates a synthesizing image 104 in which the alignment image 102 and the make-up instruction image 103 are combined with the real-time image of the user captured by the imaging means 11. The generated composite image 104 is displayed on the display means 12a. In the generation of the composite image 104 by the compositing means 19, these images are combined with the real-time image of the user captured by the imaging means 11 so that the transmittance of the alignment image 102 is larger than that of the make-up instruction image 103. In particular, it is preferable that the compositing means 19 synthesizes the alignment image 102 semi-transparently and the make-up instruction image 103 non-transparently with the real-time image of the user captured by the imaging means 11. By synthesizing in this way, as shown in FIG. 3D, in the composite image 104, the component 104b derived from the alignment image 102 is semi-transparently displayed on the component 104a derived from the real-time image, and further, the makeup is further formed. An image in which the component 104c derived from the instruction image 103 is opaquely displayed is displayed. Further, when the still image 101 and the alignment image 102 are images of the same size, and the makeup instruction image 103 is a vector format image in which the relative position with respect to the still image 101 is specified, the compositing means 19 is made. It is preferable to position the instruction image 103 with respect to the alignment image 102. By synthesizing in this way, the composite image 104 has a translucent component 104b derived from the alignment image 102 and an opaque component derived from the makeup instruction image 103, as shown in FIG. 3D. 104c will accurately indicate the position, shape, etc. as a mark line for makeup. On the other hand, since the real-time image is continuously acquired by the imaging means 11 and changes in conjunction with the movement of the user, the component 104c derived from the make-up instruction image 103 in the composite image 104 becomes the component 104a derived from the real-time image. On the other hand, the position, size, etc. may shift. However, the user moves back and forth, left and right, and the like so that the component 104a of the real-time image matches the component 104b of the semitransparent alignment image 102 included in the composite image 104 displayed on the display means 12a. The position and size of the opaque component 104c derived from the make-up instruction image 103 can be matched with the component 104a derived from the real-time image. As a result, the user of the first terminal 1 can accurately read the intended position and shape of the mark line shown by the make-up instruction image 103, and can visually recognize the result of the make-up by looking at the component 104a derived from the real-time image. You can train your makeup. In particular, when an image in which the contour of the user's face is extracted is used as the alignment image 102, the alignment image 102 does not have color information other than the contour and the like shown by the broken line in FIG. 3B. Therefore, in the composite image 104 of FIG. 3D, the contour portion and the like (component 104b) derived from the alignment image 102 and the opaque marker line and the like (component 104c) derived from the makeup instruction image 103 are excluded. In all other parts, the user can see the color of the real-time image as it is.

<第2端末>
図4は、第2端末2の構成を示すブロック図である。第2端末2は、表示手段22a、入力手段22b、通信手段23、及び制御部25を備え、さらに追加の構成として、ストレージ24を備える。
<Second terminal>
FIG. 4 is a block diagram showing the configuration of the second terminal 2. The second terminal 2 includes a display means 22a, an input means 22b, a communication means 23, and a control unit 25, and further includes a storage 24 as an additional configuration.

表示手段22aは、メイク指導システム100における第2表示手段であり、画像の表示に用いられる液晶ディスプレイ、有機ELディスプレイ等のディスプレイである。表示手段22aは、第1端末1から受信された静止画像101を表示する。 The display means 22a is a second display means in the make-up instruction system 100, and is a display such as a liquid crystal display or an organic EL display used for displaying an image. The display means 22a displays the still image 101 received from the first terminal 1.

入力手段22bは、ユーザによる入力を受け付けるタッチパネル等であり、メイクの指導の入力を受け付ける。メイクの指導の入力とは、例えば、表示手段22aに静止画像101が表示された状態において、タッチパネル等を用いて画面上の位置を指定する描画操作の入力である。表示手段22aと入力手段22bとは、タッチパネルディスプレイ22を構成することが好ましい。 The input means 22b is a touch panel or the like that accepts input by the user, and accepts input for makeup instruction. The input of the makeup instruction is, for example, an input of a drawing operation for designating a position on the screen using a touch panel or the like in a state where the still image 101 is displayed on the display means 22a. It is preferable that the display means 22a and the input means 22b form a touch panel display 22.

通信手段23は、メイク指導システム100における第2通信手段であり、例えば、無線LANモジュールである。通信手段23は、ルータ3を介して第1端末1と通信する。 The communication means 23 is a second communication means in the make-up instruction system 100, and is, for example, a wireless LAN module. The communication means 23 communicates with the first terminal 1 via the router 3.

ストレージ24は、HDD、SSD等のストレージであり、第2端末2としての機能を実現するためのプログラムが格納されているとともに、画像のデータの一時保存等に用いられる。 The storage 24 is a storage for an HDD, an SSD, or the like, and is used for temporarily storing image data and the like as well as storing a program for realizing the function as the second terminal 2.

制御部25は、CPU、RAM等からなり、ストレージ24に記録されたプログラムをRAMに読み出してCPUにおいて実行することにより、メイク指導画像生成手段26の機能を実現し、さらに、追加の構成として送受信手段27の機能を実現する。 The control unit 25 is composed of a CPU, a RAM, and the like, reads a program recorded in the storage 24 into the RAM, executes the program in the CPU, realizes the function of the make-up instruction image generation means 26, and further transmits and receives as an additional configuration. The function of the means 27 is realized.

メイク指導画像生成手段26は、入力手段22bにおけるタッチ操作により入力された描画操作に応じて、メイク指導画像103を生成する。メイク指導画像生成手段26は、例えば、ベクタ形式の画像を公知の手法を用いて生成する機能を有することが好ましい。図5は、メイク指導画像の生成についての説明図である。第2端末2では、第1端末1から静止画像101が受信されると、図5の(a)に示すように、表示手段22aに静止画像101を表示する。図5の(b)に示すように、第2端末2のユーザである指導者が、静止画像101が表示された表示手段22a上を指201でなぞる等の描画操作により、入力手段22bを介してメイクの位置・形状の指導を入力した場合、メイク指導画像生成手段26は、描画操作に応じてメイク指導画像103を生成し、生成したメイク指導画像103を表示手段22aに表示させる。このときメイク指導画像生成手段26は、描画操作がなされた位置と表示手段22aに表示している静止画像101の位置とを対応づけることにより、静止画像101に対する相対位置情報を含むメイク指導画像103を生成する。そのため、図5の(b)のように、描画操作時に表示手段22aにおいて静止画像101の一部を拡大して表示していたとしても、図5の(c)のように、生成後のメイク指導画像103は、表示手段22aに全画面表示した静止画像101に対して、メイクの目印線の位置・形状がずれることがない。 The make-up instruction image generation means 26 generates the make-up instruction image 103 in response to the drawing operation input by the touch operation in the input means 22b. The make-up instruction image generation means 26 preferably has, for example, a function of generating an image in a vector format by using a known method. FIG. 5 is an explanatory diagram for generating a make-up instruction image. When the still image 101 is received from the first terminal 1, the second terminal 2 displays the still image 101 on the display means 22a as shown in FIG. 5A. As shown in FIG. 5B, an instructor who is a user of the second terminal 2 performs a drawing operation such as tracing the display means 22a on which the still image 101 is displayed with a finger 201 through the input means 22b. When the instruction of the position and shape of the make-up is input, the make-up instruction image generation means 26 generates the make-up instruction image 103 according to the drawing operation, and causes the display means 22a to display the generated make-up instruction image 103. At this time, the make-up instruction image generating means 26 associates the position where the drawing operation is performed with the position of the still image 101 displayed on the display means 22a, so that the make-up instruction image 103 includes the relative position information with respect to the still image 101. To generate. Therefore, even if a part of the still image 101 is enlarged and displayed by the display means 22a during the drawing operation as shown in FIG. 5 (b), the make-up after generation is shown as shown in FIG. 5 (c). The instruction image 103 does not deviate from the position and shape of the mark line of the make-up with respect to the still image 101 displayed in full screen on the display means 22a.

送受信手段27は、通信手段23を介したデータの送受信を制御する機能ブロックであって、第1端末1から静止画像101を受信し、メイク指導画像生成手段26においてメイク指導画像103が生成された場合にメイク指導画像103を第1端末1へ送信する。 The transmission / reception means 27 is a functional block that controls transmission / reception of data via the communication means 23. A still image 101 is received from the first terminal 1, and a make-up instruction image 103 is generated by the make-up instruction image generation means 26. In this case, the make-up instruction image 103 is transmitted to the first terminal 1.

<メイク指導プログラム>
以下に、第1端末1及び第2端末2を制御するプログラムについて説明する。
<Makeup instruction program>
The program that controls the first terminal 1 and the second terminal 2 will be described below.

図6は、第1端末1における制御手順を示すフローチャートである。第1端末1では、制御部15がプログラム(メイク指導プログラム)を実行することで、メイクの終了の通知操作がなされるまで、ステップS1〜ステップS10の各処理を繰り返すように制御される。まず、ステップS1で、撮像手段11にユーザの画像を撮像させ、撮像した画像の鏡像をリアルタイム画像としてストレージ14に格納する。次に、ステップS2で、入力手段12bを介して静止画像の取得を指示する操作が入力されたかを判定する。静止画像の取得を指示する操作が入力されている場合(ステップS2:Yes)、ステップS1でストレージに格納したリアルタイム画像を、静止画像101として取得してストレージ14に格納する(ステップS3)。さらに、ステップS3で取得した静止画像101から成分の一部を低減させることにより位置合せ画像102を生成してストレージ14に格納するとともに(ステップS4)、生成した位置合せ画像102を、通信手段13を介して第2端末2へ送信する(ステップS5)。位置合せ画像102の送信後、第2端末2からメイク指導画像103を受信したかを判定する(ステップS6)。第2端末2からメイク指導画像103を受信した場合(ステップS6:Yes)、受信したメイク指導画像103をストレージ14に格納する(ステップS7)。その後、リアルタイム画像、位置合せ画像102、及びメイク指導画像103をストレージ14から読み出し、メイク指導画像103よりも位置合せ画像102の透過率が大きくなるように、これらの画像をリアルタイム画像に合成することで、合成画像104を生成し(ステップS8)、生成した合成画像104を表示手段12aに表示させる(ステップS9)。ステップS9において合成画像104を表示させた後、入力手段12bを介してメイクの終了を通知する操作がユーザによって入力されたかを判定する(ステップS10)。メイクの終了を通知する操作が入力されていない場合(ステップS10:No)はステップS1に処理を戻し、メイクの終了を通知する操作が入力されている場合(ステップS10:Yes)は処理を終了する。 FIG. 6 is a flowchart showing a control procedure in the first terminal 1. In the first terminal 1, by executing the program (makeup instruction program), the control unit 15 is controlled to repeat each process of steps S1 to S10 until the notification operation of the end of make-up is performed. First, in step S1, the imaging means 11 images the user's image, and the mirror image of the captured image is stored in the storage 14 as a real-time image. Next, in step S2, it is determined whether or not the operation instructing the acquisition of the still image has been input via the input means 12b. When the operation for instructing the acquisition of the still image is input (step S2: Yes), the real-time image stored in the storage in step S1 is acquired as the still image 101 and stored in the storage 14 (step S3). Further, the alignment image 102 is generated by reducing a part of the components from the still image 101 acquired in step S3 and stored in the storage 14 (step S4), and the generated alignment image 102 is stored in the communication means 13. Is transmitted to the second terminal 2 via (step S5). After transmitting the alignment image 102, it is determined whether or not the make-up instruction image 103 has been received from the second terminal 2 (step S6). When the make-up instruction image 103 is received from the second terminal 2 (step S6: Yes), the received make-up instruction image 103 is stored in the storage 14 (step S7). After that, the real-time image, the alignment image 102, and the makeup instruction image 103 are read out from the storage 14, and these images are combined with the real-time image so that the transparency of the alignment image 102 is larger than that of the makeup instruction image 103. Then, the composite image 104 is generated (step S8), and the generated composite image 104 is displayed on the display means 12a (step S9). After displaying the composite image 104 in step S9, it is determined whether or not the operation of notifying the end of make-up has been input by the user via the input means 12b (step S10). If the operation for notifying the end of make-up is not input (step S10: No), the process returns to step S1, and if the operation for notifying the end of make-up is input (step S10: Yes), the process ends. To do.

なお、ステップS2において静止画像の取得を指示する操作が入力されなかった場合(ステップS2:No)、及びステップS6においてメイク指導画像103が受信されなかった場合(ステップS6:No)には、処理をステップS8まで進める。そのため、ステップS8における合成処理の実行時にストレージ14に位置合せ画像102、メイク指導画像103が格納されていないことがあるが、その場合は、ストレージ14に格納されていなかった画像を用いずに合成処理を実行する。 If the operation for instructing the acquisition of the still image is not input in step S2 (step S2: No), or if the make-up instruction image 103 is not received in step S6 (step S6: No), the process is processed. To step S8. Therefore, the alignment image 102 and the make-up instruction image 103 may not be stored in the storage 14 when the compositing process in step S8 is executed. In that case, the compositing is performed without using the image not stored in the storage 14. Execute the process.

また、ステップS1〜ステップS10のループ処理を既に繰り返し実行しており、リアルタイム画像、静止画像101、位置合せ画像102、及びメイク指導画像103をストレージ14に格納しようとした場合に、以前のループ処理においてこれらの画像がストレージ14に既に格納されている場合には、それらを最新のものに更新する。 Further, when the loop processing of steps S1 to S10 has already been repeatedly executed and the real-time image, the still image 101, the alignment image 102, and the makeup instruction image 103 are to be stored in the storage 14, the previous loop processing is performed. If these images are already stored in the storage 14, they are updated to the latest ones.

図7は、第2端末2における制御手順を示すフローチャートである。第2端末2では、制御部25がプログラムを実行することで、メイク指導の終了の通知操作がなされるまで、ステップS11〜ステップS16の各処理を繰り返すように制御される。まず、ステップS11で、通信手段23において第1端末1から静止画像101を受信したかを判定する(ステップS11)。第1端末1から静止画像101を受信していない場合(ステップS11:No)、ステップS11の処理を繰り返して静止画像101の受信を待ち受ける。第1端末1から静止画像101を受信した場合(ステップS11:Yes)、静止画像101を表示手段22aに表示させる(ステップS12)。次に、ステップS13で、入力手段22bを介してメイクの指導を示す描画操作が入力されたかを判定する。描画操作が入力されていない場合(ステップS13:No)、ステップS13の処理を繰り返して描画操作の入力を待ち受ける。描画操作が入力されている場合(ステップS13:Yes)、描画操作に応じたメイク指導画像103を生成し(ステップS14)、生成したメイク指導画像103を、通信手段23を介して第1端末1へ送信する(ステップS15)。ステップS15においてメイク指導画像103を送信させた後、入力手段22bを介してメイクの指導の終了を通知する操作がユーザによって入力されたかを判定する(ステップS16)。メイクの指導の終了を通知する操作が入力されていない場合(ステップS16:No)はステップS11に処理を戻して次の静止画像101が受信されるのを待ち受け、メイクの指導の終了を通知する操作が入力されている場合(ステップS16:Yes)は処理を終了する。 FIG. 7 is a flowchart showing a control procedure in the second terminal 2. In the second terminal 2, the control unit 25 is controlled to repeat each process of steps S11 to S16 until the notification operation of the end of the make-up instruction is performed by executing the program. First, in step S11, it is determined whether the communication means 23 has received the still image 101 from the first terminal 1 (step S11). When the still image 101 is not received from the first terminal 1 (step S11: No), the process of step S11 is repeated to wait for the reception of the still image 101. When the still image 101 is received from the first terminal 1 (step S11: Yes), the still image 101 is displayed on the display means 22a (step S12). Next, in step S13, it is determined whether or not a drawing operation indicating makeup instruction has been input via the input means 22b. When the drawing operation is not input (step S13: No), the process of step S13 is repeated to wait for the input of the drawing operation. When the drawing operation is input (step S13: Yes), the make-up instruction image 103 corresponding to the drawing operation is generated (step S14), and the generated make-up instruction image 103 is transmitted to the first terminal 1 via the communication means 23. (Step S15). After the make-up instruction image 103 is transmitted in step S15, it is determined whether or not the operation for notifying the end of the make-up instruction is input by the user via the input means 22b (step S16). If the operation for notifying the end of the makeup instruction is not input (step S16: No), the process is returned to step S11 to wait for the next still image 101 to be received, and the end of the makeup instruction is notified. When the operation is input (step S16: Yes), the process ends.

以上のプログラムの実行により、第1端末1及び第2端末2は、それらの機能が実現される。 By executing the above program, the functions of the first terminal 1 and the second terminal 2 are realized.

<別実施形態>
本発明を上記の実施形態に基づいて説明してきたが、本発明は、上記の実施形態に限定されないのはもちろんである。例えば、別実施形態として、以下に示すような変形例を実施することもできる。
<Another Embodiment>
Although the present invention has been described based on the above-described embodiment, it goes without saying that the present invention is not limited to the above-described embodiment. For example, as another embodiment, the following modification can be implemented.

上述の実施形態では、位置合せ画像生成手段18は、DoGフィルタ、フーリエ変換、及びウェーブレット変換の少なくとも一つを用いて静止画像101の低周波成分を低減させることで、位置合せ画像102を生成するとしたが、本発明に係るメイク指導システム100では、他の手法により位置合せ画像102を生成してもよい。例えば、位置合せ画像生成手段18は、静止画像101の赤(R)、緑(G)、青(B)の各色成分のうち所定の色成分、例えばR成分を除去又は低減させることにより、位置合せ画像102を生成してもよい。この場合、合成手段19は、撮像手段11により撮像された画像から所定の色成分とは異なる色成分、例えば、G成分又はB成分を除去、又は低減させた画像を生成して、これをリアルタイム画像として使用して合成画像104を生成することが好ましい。一部の色成分を除去、又は低減させた画像をリアルタイム画像、及び位置合せ画像102として用いることで、ユーザは、表示手段12aに表示された合成画像104を見ながらの位置合せにおいて、リアルタイム画像に由来する成分104aと位置合せ画像102に由来する成分104bとを容易に識別することができる。 In the above embodiment, the alignment image generation means 18 generates the alignment image 102 by reducing the low frequency component of the still image 101 by using at least one of a DoG filter, a Fourier transform, and a wavelet transform. However, in the makeup instruction system 100 according to the present invention, the alignment image 102 may be generated by another method. For example, the alignment image generation means 18 removes or reduces a predetermined color component, for example, the R component of the red (R), green (G), and blue (B) color components of the still image 101. The combined image 102 may be generated. In this case, the synthesizing means 19 generates an image in which a color component different from a predetermined color component, for example, a G component or a B component is removed or reduced from the image captured by the imaging means 11, and this is displayed in real time. It is preferable to use it as an image to generate a composite image 104. By using the image from which some color components are removed or reduced as the real-time image and the alignment image 102, the user can perform the alignment while viewing the composite image 104 displayed on the display means 12a. The component 104a derived from the image 102 and the component 104b derived from the aligned image 102 can be easily distinguished.

また、本発明に係るメイク指導システム100では、合成手段19における合成画像104の生成時に、位置合せ画像102の全体で一定の透過率を用いてもよいが、一部の領域で位置合せ画像102の透過率を大きくしてもよい。例えば、メイク指導画像103により示されるメイクの目印線等の合成位置を含む領域での位置合せ画像102の透過度が、他の領域での透過度よりも大きくなるように構成してもよい。このような構成であれば、表示手段12aに表示された合成画像104を見ながらの位置合せが容易であることは変わることなく、合成画像104においてメイク指導画像103に由来する目印線周辺では、リアルタイム画像に由来する成分の色味が視認しやすくなる。あるいは、タッチパネルである入力手段12bをユーザがタッチした位置での位置合せ画像102の透過率を、他の領域での透過度よりも大きくなるように構成してもよい。 Further, in the make-up instruction system 100 according to the present invention, when the composite image 104 is generated by the synthesis means 19, a constant transmittance may be used for the entire alignment image 102, but the alignment image 102 may be used in a part of the region. You may increase the transmittance of. For example, the transparency of the alignment image 102 in the region including the composite position such as the mark line of the makeup shown by the makeup instruction image 103 may be larger than the transparency in the other region. With such a configuration, it is still easy to align while looking at the composite image 104 displayed on the display means 12a, and in the composite image 104, around the mark line derived from the makeup instruction image 103, It becomes easier to visually recognize the color of the components derived from the real-time image. Alternatively, the transmittance of the alignment image 102 at the position where the user touches the input means 12b, which is a touch panel, may be configured to be larger than the transmittance in other regions.

本発明は、メイク中に指導者の意図するメイクの位置・形状等を正確に読み取ってメイクをトレーニングすることが可能なメイク指導装置、メイク指導プログラム、及びメイク指導システムとして好適に利用可能である。 The present invention can be suitably used as a make-up instruction device, a make-up instruction program, and a make-up instruction system capable of accurately reading the position and shape of the make-up intended by the instructor during make-up to train the make-up. ..

1 第1端末(メイク指導装置)
2 第2端末
12a 表示手段(第1表示手段)
13 通信手段(第1通信手段)
18 位置合せ画像生成手段
19 合成手段
22a 表示手段(第2表示手段)
22b 入力手段
23 通信手段(第2通信手段)
26 メイク指導画像生成手段
100 メイク指導システム
101 静止画像
102 位置合せ画像
103 メイク指導画像
104 合成画像
1 First terminal (makeup instruction device)
2 Second terminal 12a Display means (first display means)
13 Communication means (first communication means)
18 Alignment image generation means 19 Compositing means 22a Display means (second display means)
22b Input means 23 Communication means (second communication means)
26 Makeup instruction image generation means 100 Makeup instruction system 101 Still image 102 Alignment image 103 Makeup instruction image 104 Composite image

Claims (9)

ユーザの顔をリアルタイムで撮像する撮像手段と、
前記撮像手段によりある時点で撮像されたユーザの顔の少なくとも一部を含む静止画像を外部機器へ送信し、前記静止画像に対するメイク指導を示すメイク指導画像を前記外部機器から受信する通信手段と、
前記静止画像から成分の一部を低減させた位置合せ画像を生成する位置合せ画像生成手段と、
前記メイク指導画像よりも前記位置合せ画像の透過率が大きくなるように、これらの画像を前記撮像手段によりメイク中に連続的に撮像され、ユーザの動きに連動して変化する画像であるユーザのリアルタイム画像に合成する合成手段と、
前記合成手段による合成画像を表示する表示手段と、
有し、
前記メイク指導画像は、メイクの位置及び形状を示す目印線の画像であり、
前記合成手段は、前記メイク指導画像により示される目印線の合成位置を含む領域での前記位置合せ画像の透過率が、他の領域での前記位置合せ画像の透過率よりも大きくなるように、前記位置合せ画像を合成するメイク指導装置。
An imaging means that captures the user's face in real time,
A communication means that transmits a still image including at least a part of the user's face captured at a certain time by the imaging means to an external device, and receives a make-up instruction image indicating make-up instruction for the still image from the external device.
An alignment image generation means for generating an alignment image in which a part of components is reduced from the still image, and an alignment image generation means.
Wherein as the transmittance of the alignment images than makeup guidance image increases, users of these images continuously imaged into the make by the imaging unit, an image which changes with the movement of the user Compositing method to synthesize with real-time image of
A display means for displaying a composite image by the composite means and
Have,
The make-up instruction image is an image of a mark line showing the position and shape of the make-up.
The compositing means is such that the transmittance of the aligned image in the region including the composite position of the mark line indicated by the make-up instruction image is larger than the transmittance of the aligned image in the other region. A make-up instruction device that synthesizes the alignment image.
前記合成手段は、前記撮像手段により撮像されるユーザのリアルタイム画像に、前記位置合せ画像を半透過で合成するとともに、前記メイク指導画像を不透過で合成する請求項1に記載のメイク指導装置。 The make-up instruction device according to claim 1, wherein the synthesizing means synthesizes the alignment image semi-transparently with a real-time image of a user imaged by the imaging means, and also synthesizes the make-up instruction image opaquely. 前記メイク指導画像は、前記静止画像に対する相対位置を指定したベクタ形式の画像であり、
前記合成手段は、前記メイク指導画像を、前記位置合せ画像に対して位置決めする請求項1又は2に記載のメイク指導装置。
The make-up instruction image is an image in a vector format in which a relative position with respect to the still image is specified.
The make-up instruction device according to claim 1 or 2, wherein the synthesis means positions the make-up instruction image with respect to the alignment image.
前記位置合せ画像は、前記静止画像におけるユーザの顔の輪郭が抽出された画像である請求項1〜3の何れか一項に記載のメイク指導装置。 The make-up instruction device according to any one of claims 1 to 3, wherein the alignment image is an image obtained by extracting the contour of the user's face in the still image. 前記位置合せ画像生成手段は、DoGフィルタ、フーリエ変換、及びウェーブレット変換の何れかにより、前記静止画像から低周波成分を低減させる請求項4に記載のメイク指導装置。 The make-up instruction device according to claim 4, wherein the alignment image generation means reduces low-frequency components from the still image by any of a DoG filter, a Fourier transform, and a wavelet transform. 前記位置合せ画像生成手段は、前記静止画像から所定の色成分を除去することにより、前記位置合せ画像を生成し、
前記合成手段は、前記撮像手段により撮像された画像から前記所定の色成分とは異なる色成分を除去した画像を前記リアルタイム画像として使用し、前記位置合せ画像及び前記メイク指導画像との合成を実行する請求項1〜3の何れか一項に記載のメイク指導装置。
The alignment image generation means generates the alignment image by removing a predetermined color component from the still image.
The synthesizing means uses an image obtained by removing a color component different from the predetermined color component from the image captured by the imaging means as the real-time image, and synthesizes the alignment image and the make-up instruction image. The make-up instruction device according to any one of claims 1 to 3.
前記合成手段は、前記リアルタイム画像、前記位置合せ画像、及び前記メイク指導画像として、各画像の鏡像を用いる請求項1〜6の何れか一項に記載のメイク指導装置。 The make-up instruction device according to any one of claims 1 to 6, wherein the synthesizing means uses a mirror image of each image as the real-time image, the alignment image, and the make-up instruction image. 撮像手段と、通信手段と、表示手段とを有する端末を制御するコンピュータに、
前記撮像手段によりある時点で撮像されたユーザの顔の少なくとも一部を含む静止画像から成分の一部を低減させた位置合せ画像を生成する位置合せ画像生成ステップと、
前記通信手段に、前記静止画像を外部機器へ送信させ、前記静止画像に対するメイク指導を示すメイク指導画像を前記外部機器から受信させる送受信ステップと、
前記メイク指導画像よりも前記位置合せ画像の透過率が大きくなるように、これらの画像を前記撮像手段によりメイク中に連続的に撮像され、ユーザの動きに連動して変化する画像であるユーザのリアルタイム画像に合成する合成ステップと、
前記合成ステップにおける合成画像を表示手段に表示させる表示ステップと、
を実行させ
前記メイク指導画像は、メイクの位置及び形状を示す目印線の画像であり、
前記合成ステップにおいて、前記メイク指導画像により示される目印線の合成位置を含む領域での前記位置合せ画像の透過率が、他の領域での前記位置合せ画像の透過率よりも大きくなるように、前記コンピュータに前記位置合せ画像を合成させるメイク指導プログラム。
A computer that controls a terminal having an imaging means, a communication means, and a display means.
A alignment image generation step of generating an alignment image in which a part of components is reduced from a still image including at least a part of the user's face imaged at a certain time by the imaging means.
A transmission / reception step of causing the communication means to transmit the still image to an external device and receive a make-up instruction image indicating make-up instruction for the still image from the external device.
Wherein as the transmittance of the alignment images than makeup guidance image increases, users of these images continuously imaged into the make by the imaging unit, an image which changes with the movement of the user Compositing step to synthesize with real-time image of
A display step for displaying the composite image in the composite step on the display means,
To run ,
The make-up instruction image is an image of a mark line showing the position and shape of the make-up.
In the synthesis step, the transmittance of the aligned image in the region including the composite position of the mark line indicated by the make-up instruction image is larger than the transmittance of the aligned image in the other region. A make-up instruction program that causes the computer to synthesize the alignment image.
第1端末と第2端末とを含むメイク指導システムであって、
前記第1端末は、
ユーザの顔をリアルタイムで撮像する撮像手段と、
前記撮像手段によりある時点で撮像されたユーザの顔の少なくとも一部を含む静止画像を前記第2端末へ送信する第1通信手段と、
前記静止画像から成分の一部を低減させた位置合せ画像を生成する位置合せ画像生成手段と、
前記撮像手段によりメイク中に連続的に撮像され、ユーザの動きに連動して変化する画像であるユーザのリアルタイム画像に、前記位置合せ画像を半透過で合成する合成手段と、
前記合成手段による合成画像を表示する第1表示手段と、
を有し、
前記第2端末は、
前記第1端末から前記静止画像を受信する第2通信手段と、
受信した前記静止画像を表示する第2表示手段と、
前記静止画像に対するメイク指導の入力を受け付ける入力手段と、
前記入力からメイク指導画像を生成するメイク指導画像生成手段と、
を有し、
前記第2通信手段はさらに、前記第1端末へ前記メイク指導画像を送信し、
前記第1通信手段はさらに、前記第2端末から前記メイク指導画像を受信し、
前記合成手段は、前記リアルタイム画像に前記位置合せ画像を半透過で合成したものに、さらに前記メイク指導画像を前記位置合せ画像よりも透過率が小さくなるように合成し、
前記メイク指導画像は、メイクの位置及び形状を示す目印線の画像であり、
前記合成手段は、前記メイク指導画像により示される目印線の合成位置を含む領域での前記位置合せ画像の透過率が、他の領域での前記位置合せ画像の透過率よりも大きくなるように、前記位置合せ画像を合成するメイク指導システム。
A make-up instruction system that includes a first terminal and a second terminal.
The first terminal is
An imaging means that captures the user's face in real time,
A first communication means for transmitting a still image including at least a part of a user's face imaged at a certain time by the image pickup means to the second terminal.
An alignment image generation means for generating an alignment image in which a part of components is reduced from the still image, and an alignment image generation means.
A compositing means for semi-transparently synthesizing the alignment image with a user's real-time image, which is an image continuously captured during make-up by the imaging means and changes in accordance with the user's movement.
The first display means for displaying the composite image by the composite means and
Have,
The second terminal is
A second communication means for receiving the still image from the first terminal, and
A second display means for displaying the received still image, and
An input means for accepting input of makeup instruction for the still image and
A make-up instruction image generation means for generating a make-up instruction image from the above input,
Have,
The second communication means further transmits the make-up instruction image to the first terminal.
The first communication means further receives the make-up instruction image from the second terminal, and receives the make-up instruction image.
The synthesizing means synthesizes the alignment image with the real-time image in a semi-transparent manner, and further synthesizes the make-up instruction image so that the transmittance is smaller than that of the alignment image .
The make-up instruction image is an image of a mark line showing the position and shape of the make-up.
The compositing means is such that the transmittance of the aligned image in the region including the composite position of the mark line indicated by the make-up instruction image is larger than the transmittance of the aligned image in the other region. A makeup instruction system that synthesizes the alignment images.
JP2017094194A 2017-05-10 2017-05-10 Makeup instruction device, makeup instruction program, and makeup instruction system Active JP6902780B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017094194A JP6902780B2 (en) 2017-05-10 2017-05-10 Makeup instruction device, makeup instruction program, and makeup instruction system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017094194A JP6902780B2 (en) 2017-05-10 2017-05-10 Makeup instruction device, makeup instruction program, and makeup instruction system

Publications (2)

Publication Number Publication Date
JP2018189894A JP2018189894A (en) 2018-11-29
JP6902780B2 true JP6902780B2 (en) 2021-07-14

Family

ID=64478557

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094194A Active JP6902780B2 (en) 2017-05-10 2017-05-10 Makeup instruction device, makeup instruction program, and makeup instruction system

Country Status (1)

Country Link
JP (1) JP6902780B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216386A (en) * 2000-02-02 2001-08-10 Nippon Telegr & Teleph Corp <Ntt> Makeup support device
JP2004329620A (en) * 2003-05-08 2004-11-25 Fuji Photo Film Co Ltd Imaging unit
JP2004357801A (en) * 2003-06-02 2004-12-24 Fuji Photo Film Co Ltd Display device for make-up
JP2005044283A (en) * 2003-07-25 2005-02-17 Seiko Epson Corp Cosmetics guidance system, server apparatus, terminal device and program
JP5679687B2 (en) * 2010-03-29 2015-03-04 キヤノン株式会社 Information processing apparatus and operation method thereof
JP6132232B2 (en) * 2013-02-01 2017-05-24 パナソニックIpマネジメント株式会社 Makeup support device, makeup support system, and makeup support method
JP5372276B1 (en) * 2013-03-22 2013-12-18 パナソニック株式会社 Makeup support device, makeup support method, and makeup support program
JP6369246B2 (en) * 2014-09-08 2018-08-08 オムロン株式会社 Caricature generating device and caricature generating method

Also Published As

Publication number Publication date
JP2018189894A (en) 2018-11-29

Similar Documents

Publication Publication Date Title
CN105580051B (en) Picture catching feedback
EP3262505B1 (en) Interactive system control apparatus and method
KR20130108643A (en) Systems and methods for a gaze and gesture interface
US20210290336A1 (en) Method and system for performing surgical imaging based on mixed reality
US9076345B2 (en) Apparatus and method for tutoring in convergence space of real and virtual environment
TWI753960B (en) Display device and control method thereof
US10803988B2 (en) Color analysis and control using a transparent display screen on a mobile device with non-transparent, bendable display screen or multiple display screen with 3D sensor for telemedicine diagnosis and treatment
JP6514418B2 (en) Imaging system, imaging method, and program
WO2021039856A1 (en) Information processing device, display control method, and display control program
JP2022000795A (en) Information management device
EP2107529A2 (en) Storage medium storing image conversion programm and image conversion apparatus
CN109981989B (en) Method and device for rendering image, electronic equipment and computer readable storage medium
JP6902780B2 (en) Makeup instruction device, makeup instruction program, and makeup instruction system
JP2010205031A (en) Method, system and program for specifying input position
US9142186B2 (en) Assistance for color recognition
CN114979568A (en) Remote operation guidance method based on augmented reality technology
CN107742316A (en) Image mosaic point acquisition methods and acquisition device
JP2020161006A (en) Object posture control program and information processing device
JP5812451B2 (en) 3D data display system
JP7214926B1 (en) Image processing method, device, electronic device and computer-readable storage medium
US20230380912A1 (en) Medical imaging control apparatus, medical imaging system and method of operating a medical imaging system
US20230129708A1 (en) Procedure guidance and training apparatus, methods and systems
KR20170062794A (en) Method AND Apparatus providing study contents using augmented reality
US20200249817A1 (en) Augmented reality tour guide
JP2014222471A (en) Display device and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210615

R150 Certificate of patent or registration of utility model

Ref document number: 6902780

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150