JP2018151769A - 化粧支援プログラム、化粧支援装置、及び化粧支援方法 - Google Patents

化粧支援プログラム、化粧支援装置、及び化粧支援方法 Download PDF

Info

Publication number
JP2018151769A
JP2018151769A JP2017046397A JP2017046397A JP2018151769A JP 2018151769 A JP2018151769 A JP 2018151769A JP 2017046397 A JP2017046397 A JP 2017046397A JP 2017046397 A JP2017046397 A JP 2017046397A JP 2018151769 A JP2018151769 A JP 2018151769A
Authority
JP
Japan
Prior art keywords
captured image
makeup
image
face
makeup support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017046397A
Other languages
English (en)
Inventor
朋貴 小寺
Tomotaka Kodera
朋貴 小寺
大介 小池
Daisuke Koike
大介 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017046397A priority Critical patent/JP2018151769A/ja
Publication of JP2018151769A publication Critical patent/JP2018151769A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)

Abstract

【課題】顔のバランスを配慮した化粧ガイド画像を表示できる化粧支援プログラムの提供。【解決手段】人物の顔を含む撮像画像を取得し、取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、処理をコンピュータに実行させる化粧支援プログラムである。【選択図】図23

Description

本発明は、化粧支援プログラム、化粧支援装置、及び化粧支援方法に関する。
近年、スマートフォンなどの携帯端末にカメラが搭載され、多数の人に撮像画像が取得されるようになると共に、撮像画像を処理する画像処理技術が発達してきている。この撮像画像を処理する画像処理技術を用いて、化粧を支援する装置や方法などに関する様々な提案がされている。
例えば、モデルやタレントの化粧などを参考にする目的で、ユーザ自身の顔を撮影した画像の特定部位と、参考にする画像の特定部位とを重ね合わせて表示する装置が提案されている(例えば、特許文献1参照)。
また、眉毛のテンプレート画像の中で好みのテンプレート画像を選択し、自分の顔の撮像画像の眉毛に合成して表示し、眉毛を描画する領域と眉毛を剃る領域を明示する装置が提案されている(例えば、特許文献2参照)。
特開2013−223001号公報 特開2007−293649号公報
しかしながら、特許文献1に記載の技術において、顔の特定部位同士を重ね合わせて表示するだけでは、どのように化粧をしていいのかがわかりにくく、特にユーザが化粧の参考にする参考画像が他人の顔の画像であれば、顔の特定部位同士を重ね合わせても顔のバランスをどのようにしていいのかがわかりにくい場合があるという問題がある。
また、特許文献2に記載の技術においては、顔のバランスを確認できないため、流行により顔全体に対する眉毛の位置が変わったときには対応できない場合があるという問題がある。
一つの側面では、顔のバランスを配慮した化粧ガイド画像を表示できる化粧支援プログラムを提供することを目的とする。
一つの実施態様では、化粧支援プログラムは、人物の顔を含む撮像画像を取得し、取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、処理をコンピュータに実行させる。
一つの側面では、顔のバランスを配慮した化粧ガイド画像を表示できる化粧支援プログラムを提供することができる。
図1は、本発明の化粧支援装置が設置された化粧台の一例を示す説明図である。 図2は、化粧支援装置の一例を示す概略外観図である。 図3は、化粧支援装置を有するシステムの構成の一例を示すブロック図である。 図4は、化粧支援装置の機能構成の一例を示すブロック図である。 図5は、画像DBに格納される参考画像の情報の一例を示す説明図である。 図6は、画像DBに格納されるカメラ画像の情報の一例を示す説明図である。 図7は、記憶部に格納される検出対象部位情報の一例を示す説明図である。 図8は、記憶部に格納される補助線描画情報の一例を示す説明図である。 図9は、記憶部に格納される分割部位情報の一例を示す説明図である。 図10は、化粧支援装置の画面の一例を示す説明図である。 図11は、化粧支援装置の画面の他の一例を示す説明図である。 図12は、化粧支援装置の画面の他の一例を示す説明図である。 図13は、化粧支援装置の画面の他の一例を示す説明図である。 図14は、化粧支援装置の画面の他の一例を示す説明図である。 図15は、化粧支援装置の画面の他の一例を示す説明図である。 図16は、化粧支援装置の画面の他の一例を示す説明図である。 図17は、化粧支援装置の画面の他の一例を示す説明図である。 図18は、化粧支援装置の画面の他の一例を示す説明図である。 図19は、化粧支援装置の画面の他の一例を示す説明図である。 図20は、化粧支援装置の画面の他の一例を示す説明図である。 図21は、化粧支援装置の画面の他の一例を示す説明図である。 図22は、化粧支援装置のハードウェア構成の一例を示すブロック図である。 図23は、参考画像に補助線及びマークを表示するとともに、化粧前のユーザのカメラ画像に補助線及びマークを表示する流れの一例を示すフローチャートである。 図24は、動画のカメラ画像と連動して参考画像を拡大表示する流れの一例を示すフローチャートである。 図25は、化粧支援装置が設置された化粧台の他の一例を示す説明図である。 図26は、化粧支援装置が設置された化粧台の他の一例を示す説明図である。
以下、本発明の一実施例を説明するが、本発明は、この実施例に何ら限定されるものではない。
なお、本発明の「化粧支援装置」における制御部の各部が行う制御は、本発明の「化粧支援方法」を実施することと同義であるので、本発明の「化粧支援装置」の説明を通じて本発明の「化粧支援方法」の詳細についても明らかにする。また、本発明の「化粧支援プログラム」は、ハードウェア資源としてのコンピュータ等を用いることにより、本発明の「化粧支援装置」として実現させることから、本発明の「化粧支援装置」の説明を通じて本発明の「化粧支援プログラム」の詳細についても明らかにする。
(化粧支援装置)
図1は、本発明の化粧支援装置100が設置された化粧台300の一例を示す説明図である。なお、化粧支援装置100には化粧支援プログラムが内蔵されており、化粧支援装置100を実施すると化粧支援方法が実施される。
図1に示すように、化粧支援装置100は、本実施例では、いわゆるタブレット端末装置であり、化粧台300の三面鏡200のユーザの正面に位置する鏡の上部に設置され、ユーザに対して化粧をガイドする化粧ガイド画像を表示する。
図2は、化粧支援装置100の一例を示す概略外観図である。
図2に示すように、化粧支援装置100は、化粧ガイド画像を表示するディスプレイ105を有する。ディスプレイ105は、ユーザが参考としたいモデルなどの人物の顔を含む撮像画像(以下、「参考画像」と称することがある)を表示する参考画像表示領域105aと、カメラ103aが取得した化粧前あるいは化粧中のユーザの撮像画像(以下、「カメラ画像」と称することがある)を表示するカメラ画像表示領域105bと、を有する。
参考画像表示領域105aには、化粧支援装置100は、参考画像を取得し、取得した参考画像における、顔の1又は複数の部位に対応する位置を検出し、参考画像上に、検出した1又は複数の部位に対応する位置を通る線A0、及び、検出した1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークB0の少なくともいずれかを表示する。これにより、ユーザが参考にしたい人物の顔のバランスを配慮した化粧ガイド画像を示すことで、ユーザの化粧を支援する。
ここで、顔の1又は複数の部位としては、本実施例では、目、鼻、口、眉、及び耳のうち少なくとも1つを含む。
また、化粧部位としては、本実施例では、ノーズシャドウ、ハイライト、チーク、アイライン及びアイシャドウである。
なお、1又は複数の部位に対応する位置を通る線を「補助線」と称することもある。
カメラ画像表示領域105bには、化粧支援装置100は、コンピュータが備える撮像装置としてのカメラ103aにより撮像されたユーザの顔を含む他の撮像画像、即ち、カメラ画像を、参考画像と並べて表示する。これにより、参考画像とカメラ画像とをユーザが比較しやすくなる。
更に、化粧支援装置100は、カメラ画像における、顔の1又は複数の部位に対応する位置を検出し、カメラ画像上に、検出した1又は複数の部位に対応する補助線A1、及び、検出した1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークB1のうち少なくともいずれかを表示することができる。これにより、参考画像から検出した化粧部位を示すマークB0を、カメラ画像の補助線A1に対応させてマークB1としてカメラ画像上に表示し、ユーザの顔のバランスを配慮した化粧ガイド画像を示すことで、ユーザの化粧を支援する。
本実施例では、補助線は直線であり、マークは所定の範囲を示す囲いマークである。これにより、化粧をする位置をユーザに対し明確に示すことができる。
なお、カメラ画像は、本実施例では、ユーザの指示により静止画像か動画かを選択することができる。また、カメラ画像が動画であっても、公知の画像の特徴点を抽出する技術などにより、顔の動きに追従して、補助線A1及びマークB1を表示することができる。
ユーザの指示によりカメラ画像が動画に選択された場合には、化粧支援装置100は、カメラ画像に含まれるユーザの顔画像が、ユーザの顔のうち特定の部位に寄ったことを検知すると、特定の部位に対応する参考画像に含まれる顔の部分が表示領域に含まれるように、参考画像を表示する。これにより、ユーザが両手に化粧道具を持っていても、確認したい参考画像の特定の部位を手間なく視認しやすくすることができる。
また、参考画像を表示する処理は、参考画像を拡大させる処理を含む。これにより、参考画像の特定の部位を更に視認しやすくすることができる。
ここで、特定の部位とは、目、鼻、口を含む複数の顔の部位のうち少なくとも1つに基づいて定義された部位であり、例えば、右眉毛及び右目の組合せとした部位、口のみの部位などである。
また、化粧支援装置100は、上述したユーザの顔のうち特定の部位に寄ったことを検知したときと同様に、カメラ画像が、カメラ画像に含まれるユーザの髪画像部分またはユーザの服装画像部分に寄ったことを検知すると、髪画像部分または服装画像部分に対応する参考画像に含まれる髪画像部分または服装画像部分が表示領域に含まれるように参考画像を表示する。これにより、参考画像の髪画像部分である髪型、または参考画像の服装画像部分であるネクタイの結び目などを手間なく視認しやすくすることができる。
なお、本実施例では、ユーザの顔のうち特定の部位に寄ったこと、あるいはユーザの髪画像部分またはユーザの服装画像部分に寄ったことを検知するようにしたが、これに限ることなく、例えば、ユーザの視線や音声を検知するようにしてもよい。
図3は、化粧支援装置100を有するシステム10の構成の一例を示すブロック図である。
図3に示すように、システム10は、化粧支援装置100と、画像を格納している情報処理装置400とを有する。化粧支援装置100は、ネットワーク500を介して情報処理装置400と通信可能に接続されており、インターネット上の画像を参考画像として取得する。なお、情報処理装置400は、サーバ装置と称することもあり、複数存在してもよい。
図4は、化粧支援装置100の機能構成の一例を示すブロック図である。
図4に示すように、化粧支援装置100は、通信部101と、記憶部102と、制御部103と、入力部104と、出力部105と、を有する。
通信部101は、制御部103の指示に基づき、図3に示した情報処理装置400にネットワーク500を介して各種情報や要求を送受信する手段である。
通信部101は、本実施例では、ユーザにより指定された参考画像のデータ送信要求を、情報処理装置400に出力すると共に、要求に応じた参考画像の情報を情報処理装置400から受信する。
記憶部102は、制御部103の指示に基づき、化粧支援装置100にインストールされた各種プログラムや、プログラムを実行することにより生成されるデータ等を記憶する手段である。
記憶部102は、本実施例では、画像データベース102aを有する。
画像データベース102aには、通信部101が受信した参考画像の情報、及び、制御部103が取得したユーザのカメラ画像の情報が格納される。以下、データベースを「DB」と称することもある。
また、記憶部102には、検出対象部位情報、補助線描画情報、及び分割部位情報が格納される。
図5は、画像DB102aに格納される参考画像の情報の一例を示す説明図である。
図5に示すように、本実施例では、画像DB102aには参考画像を「ファイル名、取得日時、取得方法」の項目の情報を対応付けて格納する。
「ファイル名」は、画像DB102aに格納された当該参考画像のファイル名である。
「取得日時」は、当該参考画像の情報を取得した日時の情報である。
「取得方法」は、当該参考画像の情報を取得した方法の情報である。
図6は、画像DB102aに格納されるカメラ画像の情報の一例を示す説明図である。
図6に示すように、本実施例では、画像DB102aにはカメラ画像を「ファイル名、取得日時、取得方法」の項目の情報を対応付けて格納する。カメラ画像の各項目の情報については、上述した参考画像の項目の情報の説明と同様であるため、説明を省略する。
図7は、記憶部102に格納される検出対象部位情報の一例を示す説明図である。
検出対象部位情報は、本実施例では、参考画像あるいはカメラ画像において顔の1又は複数の部位を検出するために予め設定されている情報であり、図7に示すように、記憶部102に「部位名称、詳細部位1、詳細部位2、詳細部位3」の項目の情報を対応付けて格納される。
「部位名称」は、動画のカメラ画像において検出する顔の部位を示す情報である。
「詳細部位1」、「詳細部位2」及び「詳細部位3」は、動画のカメラ画像の顔の部位において詳細に抽出する各箇所の情報である。
図8は、記憶部102に格納される補助線描画情報の一例を示す説明図である。
補助線描画情報は、本実施例では、参考画像あるいはカメラ画像に補助線を描画するために予め設定されている情報であり、図8に示すように、記憶部102に「順番、線の種類、線の色、線の太さ、描画ルール」の項目の情報を対応付けて格納される。
「順番」は、補助線を描画する順番の情報である。
「線の種類」は、当該補助線の種類の情報である。
「線の色」は、当該補助線の色の情報である。
「線の太さ」は、当該補助線の太さの情報である。
「描画ルール」は、当該補助線を描画するルールを示す情報である。
図9は、記憶部102に格納される分割部位情報の一例を示す説明図である。
分割部位情報は、本実施例では、参考画像あるいはカメラ画像を特定の部位ごとに分割して識別するために予め設定されている情報であり、図9に示すように、記憶部102に「分割範囲識別番号、部位1、部位2」の項目の情報を対応付けて格納される。
「分割範囲識別番号」は、分割する範囲を識別するための番号の情報である。
「部位1」及び「部位2」は、当該分割範囲に含まれる部位の情報である。
<制御部>
制御部103は、記憶部102に記憶された各種プログラムを実行し、化粧支援装置100全体を制御し、本実施例では、以下に説明するような機能を有する。
制御部103は、参考画像及びカメラ画像を取得する。
具体的には、制御部103は、インターネット上の画像情報、即ち、図3に示すネットワーク500を介して情報処理装置400が格納している画像情報を、図10の参考画像表示領域105aに示すような参考画像の情報として取得し、画像DB102aに格納する(図23のS101参照)。また、制御部103は、カメラ103aにより、図11のカメラ画像表示領域105bに示すような化粧前のユーザのカメラ画像を取得する(図23のS102参照)。
また、制御部103は、参考画像あるいはカメラ画像における、顔の1又は複数の部位に対応する位置を検出する。
具体的には、制御部103は、図7に示した検出対象部位情報に基づき、ユーザにより選択された参考画像から、顔の部位を検出すると共に、ノーズシャドウやチークなどの化粧部位の位置情報を検出する(図23のS103参照)。また、制御部103は、図7に示した検出対象部位情報に基づき、カメラ画像表示領域105bに表示している化粧前のユーザのカメラ画像の顔の部位を検出する(図23のS106参照)。
更に、制御部103は、参考画像上あるいはカメラ画像上に、補助線あるいはマークを表示する手段である。
具体的には、参考画像及びカメラ画像の両方の画像に補助線及びマークを表示する際の手順を説明すると、まず、制御部103は、図10に示すように、ユーザにより選択された参考画像を出力部105の参考画像表示領域105aに表示すると共に(図23のS101参照)、図11に示すように、取得したユーザのカメラ画像をカメラ画像表示領域105bに表示し、ユーザにより選択された参考画像を並べて表示する(図23のS102参照)。
次に、制御部103は、図12に示すように、参考画像表示領域105aに表示している参考画像に、図8に示した補助線描画情報に基づいて補助線A0を表示する(図23のS104参照)。制御部103は、図13に示すように、制御部103が検出した化粧部位の位置情報に基づき、参考画像にマークB0を表示する(図23のS105参照)。また、制御部103は、図14に示すように、図8に示した補助線描画情報に基づいて補助線A1を表示する(図23のS106参照)。更に、制御部103は、図15に示すように、参考画像から検出した化粧部位に対応する化粧部位を、S106で表示した補助線A1に対応させ、化粧前のユーザのカメラ画像にマークB1として表示する(図23のS107参照)。
動画のカメラ画像と連動して参考画像を拡大表示する場合には、まず、制御部103は、図9に示した分割部位情報に基づき、図17に示すように、各囲み線C0により参考画像を特定の部位ごとに分割し、分割した画像を記憶部102に記憶させる(図24のS201参照)。次に、制御部103は、S201と同様に、図9に示した分割部位情報に基づき、図18に示すように、各囲み線C1により動画のカメラ画像を特定の部位ごとに分割し、分割した画像を記憶部102に時系列で順次記憶させる(図24のS202参照)。そして、制御部103は、時系列で隣接する分割した画像の差分を求め、ユーザの顔がカメラに近づいたか否かを判定し(図24のS203参照)、ユーザの顔がカメラに近づいたと判定すると、カメラ画像の中心近傍に存在するユーザの特定の部位を検出し、特定の部位を判定する(図24のS204参照)。
続いて、制御部103は、取得した撮像画像に含まれる人の顔画像が、人の顔のうち特定の部位に寄ったことを検知すると、特定の部位に対応する参考画像に含まれる顔の部分が表示領域に含まれるように、参考画像を表示する。
具体的には、制御部103は、参考画像に含まれる特定の部位が表示領域に含まれるように参考画像を拡大表示する、即ち、図19〜21に示すように、動画のカメラ画像でユーザの特定の部位がカメラに近づいたことに連動して、参考画像の特定の部位(右眉毛及び右目)を拡大表示する(図24のS205参照)。
なお、顔の部位及び特定の部位を検出する方法としては、特に制限はなく、目的に応じて公知の方法を選択することができ、例えば、エッジ抽出などが挙げられる。
なお、図1に示すように、化粧支援装置100はユーザの顔より上方に設置されているため、化粧支援装置100に搭載されているカメラでユーザの顔を撮影すると斜め上からユーザの顔が撮影される。このため、本実施例では、公知の角度補正の技術を用いて、化粧支援装置100の出力部であるディスプレイにはユーザの顔を正面から撮影したように表示する。
入力部104は、制御部103の指示に基づき、化粧支援装置100に対する各種指示を受け付ける手段であり、本実施例では、ディスプレイである出力部105上に配置された図示しないタッチパッドを有し、タッチパネル機能によりユーザの接触による入力を受け付けるほか、音声入力部104aと、視線検出部104bと、を有する。
音声入力部104aは、ユーザの音声による入力を受け付ける。
視線検出部104bは、出力部105上のユーザの視線を検出し、ユーザの視線による入力を受け付ける。
出力部105は、制御部103の指示に基づき、化粧支援装置100の内部状態の表示を行う手段であり、本実施例では、参考画像表示領域105aと、カメラ画像表示領域105bと、を有する。
参考画像表示領域105aは参考画像を表示し、カメラ画像表示領域105bは化粧前のユーザの顔を撮影したカメラ画像、又はユーザの顔を動画で撮影しているカメラ画像を表示する。
図22は、化粧支援装置100のハードウェア構成の一例を示すブロック図である。
図22に示すように、化粧支援装置100は、本実施例では、通信部101と、記憶部102と、制御部103と、カメラ103aと、入力部104と、出力部105と、ROM(Read Only Memory)106と、RAM(Random Access Memory)107と、を有する。なお、化粧支援装置100の各手段は、バス108を介してそれぞれ通信可能に接続されている。
通信部101は、図3に示した情報処理装置400と通信可能に接続されていれば特に制限はなく、適宜公知のものを用いることができる。
記憶部102は、各種情報を記憶できれば特に制限はなく、目的に応じて適宜選択することができ、例えば、ソリッドステートドライブ、ハードディスクドライブなどのほか、CD(Compact Disc)ドライブ、DVD(Digital Versatile Disc)ドライブ、BD(Blu−ray(登録商標) Disc)ドライブなどの可搬記憶装置であってもよく、ネットワーク上のコンピュータ群であるクラウドの一部であってもよい。
制御部103は、例えば、CPU(Central Processing Unit)などが挙げられる。ソフトウェアを実行するプロセッサはハードウェアである。
入力部104は、本実施例では、出力部105上に図示しないタッチパッドを有し、更に、マイク104aと、視線センサ104bと、を有する。
タッチパッド、マイク104a、及び視線センサ104bは、特に制限はなく、適宜公知のものを用いることができる。
出力部105は、本実施例では、ディスプレイである。
ROM106は、記憶部102に記憶された各種プログラムを制御部103が実行するために必要な各種プログラム、データ等を記憶する。具体的には、BIOS(Basic Input Output System)やEFI(Extensible Firmware Interface)等のブートプログラムなどを記憶する。
RAM107は、主記憶装置であり、記憶部102に記憶された各種プログラムが制御部103によって実行される際に展開される作業領域として機能する。RAM107としては、例えば、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)などが挙げられる。
次に、本実施例において、化粧支援装置100が行う各処理のフローについて説明する。
図23は、参考画像に補助線A0及びマークB0を表示するとともに、化粧前のユーザのカメラ画像に補助線A1及びマークB1を表示する流れの一例を示すフローチャートである。
以下、図23に示すフローチャートにしたがって図7〜8及び図10〜16を参照しながら、化粧支援装置100が、化粧前のユーザのカメラ画像に、図8に示した補助線描画情報に基づいて補助線を表示すると共に、参考画像において検出した化粧部位に対応する化粧部位を併せて表示する流れについて説明する。なお、化粧前のユーザのカメラ画像は静止画像とする。
ステップS101では、まず、制御部103は、制御部103が予め取得した参考画像の情報を画像DB102aから読み出し、複数の参考画像を出力部105に表示する。制御部103は、表示した複数の参考画像のうち1つの参考画像がユーザにより入力部104を介して選択されたと判定すると、図10に示すように、選択された参考画像を出力部105の参考画像表示領域105aに表示して処理をS102に移行させる。
ステップS102では、制御部103は、カメラ103aにより、化粧前のユーザのカメラ画像を取得して画像DB102aに格納する。制御部103は、図11に示すように、取得したユーザのカメラ画像をカメラ画像表示領域105bに表示し、ユーザにより選択された参考画像を並べて表示すると処理をS103に移行させる。
ステップS103では、制御部103は、図7に示した検出対象部位情報に基づき、ユーザにより選択された参考画像から、顔の部位を検出すると共に、ノーズシャドウやチークなどの化粧部位の位置情報を検出すると処理をS104に移行させる。
ステップS104では、制御部103は、図12に示すように、参考画像表示領域105aに表示している参考画像に、図8に示した補助線描画情報に基づいて補助線A0を表示すると処理をS105に移行させる。
ステップS105では、制御部103は、図13に示すように、制御部103が検出した化粧部位の位置情報に基づき、参考画像にマークB0を表示すると処理をS106に移行させる。
ステップS106では、制御部103は、図7に示した検出対象部位情報に基づき、カメラ画像表示領域105bに表示している化粧前のユーザのカメラ画像の顔の部位を検出する。次に、制御部103は、図14に示すように、図8に示した補助線描画情報に基づいて補助線A1を表示すると処理をS107に移行させる。
ステップS107では、制御部103は、図15に示すように、参考画像から検出した化粧部位に対応する化粧部位を、S106で表示した補助線A1に対応させ、化粧前のユーザのカメラ画像にマークB1として表示すると本処理を終了させる。
以上説明したように、本発明では、人物の顔を含む撮像画像を取得し、取得した撮像画像における、顔の1又は複数の部位に対応する位置を検出し、撮像画像上に、検出した1又は複数の部位に対応する位置を通る線を表示することにより、顔のバランスを配慮した化粧ガイド画像を示すことができ、化粧ガイド画像に基づき、図16に示すようにユーザが化粧をすることができる。
図24は、動画のカメラ画像と連動して参考画像を拡大表示する流れの一例を示すフローチャートである。
以下、図24に示すフローチャートにしたがって図9及び図17〜21を参照しながら、化粧支援装置100が、動画のカメラ画像に含まれるユーザの顔画像において、例えば、ユーザがカメラに近づいて特定の部位である右眉毛及び右目が拡大されて表示されたことを検知すると参考画像も連動し、参考画像における人物の右眉毛及び右目が表示領域に含まれるように拡大表示する流れについて説明する。
ステップS201では、制御部103は、図9に示した分割部位情報に基づき、図17に示すように、各囲み線C0により参考画像を特定の部位ごとに分割し、分割した画像を記憶部102に記憶させると処理をS202に移行させる。
ステップS202では、制御部103は、S201と同様に、図9に示した分割部位情報に基づき、図18に示すように、各囲み線C1により動画のカメラ画像を特定の部位ごとに分割し、分割した画像を記憶部102に時系列で順次記憶させると処理をS203に移行させる。
ステップS203では、制御部103は、時系列で隣接する分割した画像の差分を求め、ユーザの顔がカメラに近づいたか否かを判定する。制御部103は、図19に示すように、ユーザの顔がカメラに近づいたと判定すると処理をS204に移行させ、ユーザの顔がカメラに近づいていないと判定すると処理をS203に戻す。
ステップS204では、制御部103は、図20に示すように、カメラ画像の中心近傍に存在するユーザの特定の部位が右眉毛及び右目であることを検出し、特定の部位を判定すると処理をS205に移行させる。
ステップS205では、制御部103は、参考画像に含まれる右眉毛及び右目が表示領域に含まれるように参考画像を拡大表示する、即ち、図19〜21に示すように、動画のカメラ画像でユーザの右眉毛及び右目がカメラに近づいたことに連動して、参考画像の右眉毛及び右目を拡大表示すると本処理を終了させる。
以上説明したように、本発明では、動画のカメラ画像に含まれるユーザの顔画像が、ユーザの顔のうち特定の部位である右眉毛及び右目に寄ったことを検知すると、特定の部位に対応する参考画像に含まれる右眉毛及び右目が表示領域に含まれるように、参考画像を表示することにより、参考画像の確認したい箇所を手間なく視認しやすくし、ユーザの化粧を支援することができる。
なお、本実施例では、化粧台の三面鏡における正面の鏡の上部に化粧支援装置を設置する態様としたが、これに限ることなく、例えば、図25に示すように、化粧台300の三面鏡200における横の鏡に化粧支援装置100を設置する態様としてもよい。この場合、ユーザの顔を横方向から撮影するため、この方向に合わせて公知の角度補正の技術を用いて、化粧支援装置100の出力部にはユーザの顔が正面から撮影したように表示する。
また、別の態様としては、例えば、図26に示すように、化粧台300の三面鏡200における正面の鏡の一部をマジックミラー201とし、マジックミラー201の裏にカメラ103aを配置してもよい。この場合、公知の角度補正の技術を用いることなく、ユーザの顔を正面方向から撮影することができる。
更に、参考画像は、本実施例では、ユーザが参考としたいモデルなどの人物の顔を含む撮像画像としたが、これに限ることなく、過去に化粧がうまく行えたユーザのカメラ画像であってもよい。
以上の実施形態に関し、更に以下の付記を開示する。
(付記1)
人物の顔を含む撮像画像を取得し、
取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、
前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
処理をコンピュータに実行させることを特徴とする化粧支援プログラム。
(付記2)
前記コンピュータが備える撮像装置により撮像された人物の顔を含む他の撮像画像を取得した前記撮像画像と並べて表示する、
ことを特徴とする付記1に記載の化粧支援プログラム。
(付記3)
前記他の撮像画像における、前記1又は複数の部位に対応する位置を検出し、
前記他の撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
ことを特徴とする付記2に記載の化粧支援プログラム。
(付記4)
前記1又は複数の部位に対応する位置を通る線は、直線である、
ことを特徴とする付記1から3のいずれか1項に記載の化粧支援プログラム。
(付記5)
人物の顔を含む撮像画像を取得し、
取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、
前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークを表示する、
処理をコンピュータに実行させることを特徴とする化粧支援プログラム。
(付記6)
前記コンピュータが備える撮像装置により撮像された人物の顔を含む他の撮像画像を取得した前記撮像画像と並べて表示する、
ことを特徴とする付記5に記載の化粧支援プログラム。
(付記7)
前記他の撮像画像における、前記1又は複数の部位に対応する位置を検出し、
前記他の撮像画像上に、検出した前記1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークを表示する、
ことを特徴とする付記6に記載の化粧支援プログラム。
(付記8)
前記マークは、所定の範囲を示す囲いマークである、
ことを特徴とする付記5から7のいずれか1項に記載の化粧支援プログラム。
(付記9)
前記1又は複数の部位は、目、鼻、口、眉、及び耳のうち少なくとも1つを含む、
ことを特徴とする付記1から8のいずれか1項に記載の化粧支援プログラム。
(付記10)
人物の顔を含む撮像画像を取得し、
取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、
前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
処理を実行する制御部を有することを特徴とする化粧支援装置。
(付記11)
人物の顔を含む撮像画像を取得する取得し、
取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出する検出し、
前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークを表示する、
処理を実行する制御部を有することを特徴とする化粧支援装置。
(付記12)
人物の顔を含む撮像画像を取得する取得し、
取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出する検出し、
前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
処理をコンピュータが実行することを特徴とする化粧支援方法。
(付記13)
人物の顔を含む撮像画像を取得する取得し、
取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出する検出し、
前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークを表示する、
処理をコンピュータが実行することを特徴とする化粧支援方法。
10 システム
100 化粧支援装置
101 通信部
102 記憶部
103 制御部(CPU)
103a カメラ(撮像装置)
104 入力部
105 出力部(ディスプレイ)
300 化粧台

Claims (11)

  1. 人物の顔を含む撮像画像を取得し、
    取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、
    前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
    処理をコンピュータに実行させることを特徴とする化粧支援プログラム。
  2. 前記コンピュータが備える撮像装置により撮像された人物の顔を含む他の撮像画像を取得した前記撮像画像と並べて表示する、
    ことを特徴とする請求項1に記載の化粧支援プログラム。
  3. 前記他の撮像画像における、前記1又は複数の部位に対応する位置を検出し、
    前記他の撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
    ことを特徴とする請求項2に記載の化粧支援プログラム。
  4. 前記1又は複数の部位に対応する位置を通る線は、直線である、
    ことを特徴とする請求項1から3のいずれか1項に記載の化粧支援プログラム。
  5. 人物の顔を含む撮像画像を取得し、
    取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、
    前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークを表示する、
    処理をコンピュータに実行させることを特徴とする化粧支援プログラム。
  6. 前記コンピュータが備える撮像装置により撮像された人物の顔を含む他の撮像画像を取得した前記撮像画像と並べて表示する、
    ことを特徴とする請求項5に記載の化粧支援プログラム。
  7. 前記他の撮像画像における、前記1又は複数の部位に対応する位置を検出し、
    前記他の撮像画像上に、検出した前記1又は複数の部位に対応する位置を基準に定まる化粧部位を示すマークを表示する、
    ことを特徴とする請求項6に記載の化粧支援プログラム。
  8. 前記マークは、所定の範囲を示す囲いマークである、
    ことを特徴とする請求項5から7のいずれか1項に記載の化粧支援プログラム。
  9. 前記1又は複数の部位は、目、鼻、口、眉、及び耳のうち少なくとも1つを含む、
    ことを特徴とする請求項1から8のいずれか1項に記載の化粧支援プログラム。
  10. 人物の顔を含む撮像画像を取得し、
    取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、
    前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
    処理を実行する制御部を有することを特徴とする化粧支援装置。
  11. 人物の顔を含む撮像画像を取得する取得し、
    取得した前記撮像画像における、顔の1又は複数の部位に対応する位置を検出し、
    前記撮像画像上に、検出した前記1又は複数の部位に対応する位置を通る線を表示する、
    処理をコンピュータが実行することを特徴とする化粧支援方法。

JP2017046397A 2017-03-10 2017-03-10 化粧支援プログラム、化粧支援装置、及び化粧支援方法 Pending JP2018151769A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017046397A JP2018151769A (ja) 2017-03-10 2017-03-10 化粧支援プログラム、化粧支援装置、及び化粧支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017046397A JP2018151769A (ja) 2017-03-10 2017-03-10 化粧支援プログラム、化粧支援装置、及び化粧支援方法

Publications (1)

Publication Number Publication Date
JP2018151769A true JP2018151769A (ja) 2018-09-27

Family

ID=63681721

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017046397A Pending JP2018151769A (ja) 2017-03-10 2017-03-10 化粧支援プログラム、化粧支援装置、及び化粧支援方法

Country Status (1)

Country Link
JP (1) JP2018151769A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115120077A (zh) * 2021-03-20 2022-09-30 海信集团控股股份有限公司 一种化妆镜及辅助上妆的方法
WO2022230298A1 (ja) * 2021-04-30 2022-11-03 株式会社Nttドコモ 顔画像生成装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115120077A (zh) * 2021-03-20 2022-09-30 海信集团控股股份有限公司 一种化妆镜及辅助上妆的方法
WO2022230298A1 (ja) * 2021-04-30 2022-11-03 株式会社Nttドコモ 顔画像生成装置

Similar Documents

Publication Publication Date Title
TWI541676B (zh) 用於圖片手勢認證的方法、機器可讀取媒體與系統
JP6659583B2 (ja) 配達処理のためのウェアラブル・デバイスおよびその使用方法
US9563975B2 (en) Makeup support apparatus and method for supporting makeup
EP3296802A1 (en) Smart glasses
JPWO2014128788A1 (ja) 形状認識装置、形状認識プログラム、および形状認識方法
WO2017088804A1 (zh) 人脸图像中检测眼镜佩戴的方法及装置
JP2019028731A (ja) 情報処理装置及びプログラム
US9992650B2 (en) Leader and follower management system for wearable devices
JP2018151769A (ja) 化粧支援プログラム、化粧支援装置、及び化粧支援方法
JP5882929B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2018152673A (ja) 化粧支援プログラム、化粧支援装置、及び化粧支援方法
KR20130093757A (ko) 미션실행 제스처 인식을 이용한 사용자 인증방법, 및 미션실행 제스처 인식을 이용한 사용자 인증 프로그램을 기록한 컴퓨터로 판독가능한 기록매체
JP2017146672A (ja) 画像表示装置、画像表示方法、画像表示プログラム及び画像表示システム
US8713670B2 (en) Ascertaining presentation format based on device primary control determination
US10818086B2 (en) Augmented reality content characteristic adjustment
JP2020129344A (ja) 処理装置、処理方法及びプログラム
JPWO2021084662A5 (ja) 照合支援装置、照合支援方法、及びプログラム
JP2014096057A (ja) 画像処理装置
JP6631736B1 (ja) 生体認証装置、生体認証システムおよびプログラム
JP2015200951A (ja) 表示システム及びプログラム
CN110941344B (zh) 获取注视点数据的方法及相关装置
JP2019057045A (ja) 化粧支援プログラム、化粧支援装置、及び化粧支援方法
US10380460B2 (en) Description of content image
JP6650998B2 (ja) 鏡、画像表示方法及びプログラム
JP6631737B1 (ja) 生体認証装置およびプログラム