JP7408562B2 - Program, information processing device, quantification method, and information processing system - Google Patents
Program, information processing device, quantification method, and information processing system Download PDFInfo
- Publication number
- JP7408562B2 JP7408562B2 JP2020552524A JP2020552524A JP7408562B2 JP 7408562 B2 JP7408562 B2 JP 7408562B2 JP 2020552524 A JP2020552524 A JP 2020552524A JP 2020552524 A JP2020552524 A JP 2020552524A JP 7408562 B2 JP7408562 B2 JP 7408562B2
- Authority
- JP
- Japan
- Prior art keywords
- hand
- area
- makeup
- face
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 42
- 238000000034 method Methods 0.000 title claims description 30
- 238000011002 quantification Methods 0.000 title claims description 10
- 238000001514 detection method Methods 0.000 claims description 91
- 230000001815 facial effect Effects 0.000 claims description 60
- 238000012549 training Methods 0.000 claims description 10
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 22
- 210000004247 hand Anatomy 0.000 description 14
- 238000012545 processing Methods 0.000 description 10
- 238000012805 post-processing Methods 0.000 description 8
- 238000012617 force field calculation Methods 0.000 description 7
- 238000009432 framing Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000002537 cosmetic Substances 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Description
本発明は、プログラム、情報処理装置、定量化方法及び情報処理システムに関する。 The present invention relates to a program, an information processing device, a quantification method, and an information processing system.
メークの仕上がりは、使用する化粧品やメークテクニックなどによって異なることが知られている。従来、メークを行う多くのユーザは、他人のメークテクニックを目にする機会が少なかった。近年、動画サイト等のWebサイトには、メーク中の様子を撮影した動画(メーク動画)が数多く投稿されるようになった。このようなメーク動画によりユーザはメークテクニックを確認できる機会が増加した(例えば非特許文献1参照)。 It is known that the finish of makeup varies depending on the cosmetics used and makeup techniques. Conventionally, many makeup users have had few opportunities to see other people's makeup techniques. In recent years, many videos of people applying makeup (makeup videos) have been posted on websites such as video sites. Such makeup videos have increased opportunities for users to check makeup techniques (for example, see Non-Patent Document 1).
上記したメーク動画を視聴することにより、ユーザはメーク動画に写る人物が使用した化粧品や化粧動作を見ることができる。しかし、ユーザはメーク動画に写る人物の化粧動作を見るだけで、その人物の化粧動作を上手に真似ることが難しかった。なお、メーク動画から化粧動作を定量化することができれば、真似したユーザの化粧動作と、メーク動画に写る人物の化粧動作との比較が容易となり、便利である。 By viewing the makeup video described above, the user can see the cosmetics used by the person in the makeup video and the makeup actions. However, it has been difficult for users to skillfully imitate the makeup actions of a person in a makeup video just by looking at them. Note that if makeup actions can be quantified from makeup videos, it will be convenient because it will be easy to compare the makeup actions of the imitated user and the makeup actions of the person in the makeup video.
本発明の一実施形態は、動画データに写る人物の化粧動作を定量化できるプログラムを提供することを目的とする。 An object of an embodiment of the present invention is to provide a program that can quantify makeup actions of a person appearing in video data.
上記の課題を解決するため、本発明の一実施形態は、メーク又はスキンケアの動画データに写る人物の化粧動作を解析するようにコンピュータを機能させるためのプログラムであって、前記コンピュータを、前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段、前記動画データから前記人物の手が写る手領域を検出する第2の検出手段、検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段、として機能させるためのプログラムであることを特徴とする。
In order to solve the above-mentioned problems, one embodiment of the present invention is a program for causing a computer to function to analyze the makeup movements of a person appearing in makeup or skin care video data , a first detection means for detecting a face area in which the person's face is captured from video data; a second detection unit for detecting a hand area in which the person's hand is captured from the video data; and the detected face area and the hand area. Based on the coordinates and speed of the hand of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face, the fineness of the hand movement and the coordination of the hand and elbow are determined. The present invention is characterized in that it is a program for functioning as an output means for quantifying and calculating the fineness of hand movements and facial movements, and outputting the results .
本発明の一実施形態によれば、動画データに写る人物の化粧動作を定量化できる。 According to an embodiment of the present invention, it is possible to quantify makeup actions of a person appearing in video data.
次に、本発明の実施形態について詳細に説明する。 Next, embodiments of the present invention will be described in detail.
[第1の実施形態]
<システム構成>
図1A及び図1Bは、本実施形態に係る情報処理システムの一例の構成図である。図1Aの情報処理システムは単体の情報処理装置1を備えている。情報処理装置1は、ユーザが操作するPC、スマートフォン、タブレット、家庭用や業務用の化粧動作を定量化する専用機器などである。[First embodiment]
<System configuration>
1A and 1B are configuration diagrams of an example of an information processing system according to this embodiment. The information processing system in FIG. 1A includes a single
また、図1Bの情報処理システムは1台以上のクライアント端末2とサーバ装置3とがインターネット等のネットワーク4を介して接続されている。クライアント端末2はユーザが操作するPC、スマートフォン、タブレットなどの端末装置、家庭用や業務用の化粧動作を定量化する専用機器などである。サーバ装置3はクライアント端末2で行われる化粧動作の定量化に関する処理等を行う。
Further, in the information processing system shown in FIG. 1B, one or
このように、本発明は図1Bに示すようなクライアント・サーバ型の情報処理システムの他、図1Aに示す単体の情報処理装置1においても適用可能である。なお、図1A及び図1Bの情報処理システムは一例であって、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば図1Bのサーバ装置3は複数のコンピュータに分散して構成してもよい。
In this way, the present invention is applicable not only to the client-server type information processing system shown in FIG. 1B but also to the single
<ハードウェア構成>
図1A及び図1Bの情報処理装置1、クライアント端末2及びサーバ装置3は、例えば図2に示すようなハードウェア構成のコンピュータにより実現される。図2は、本実施形態に係るコンピュータの一例のハードウェア構成図である。<Hardware configuration>
The
図2のコンピュータは、入力装置501、出力装置502、外部I/F503、RAM504、ROM505、CPU506、通信I/F507、及びHDD508などを備えており、それぞれがバスBで相互に接続されている。
The computer in FIG. 2 includes an
入力装置501は入力に用いるキーボード、マウスなどである。出力装置502は、画面を表示する液晶や有機ELなどのディスプレイ、音声や音楽などの音データを出力するスピーカ等で構成されている。通信I/F507はコンピュータをネットワーク4に接続するインターフェースである。HDD508はプログラムやデータを格納している不揮発性の記憶装置の一例である。
The
外部I/F503は、外部装置とのインターフェースである。コンピュータは外部I/F503を介して記録媒体503aの読み取り及び/又は書き込みを行うことができる。記録媒体503aにはDVD、SDメモリカード、USBメモリなどがある。
External I/
CPU506はROM505やHDD508などの記憶装置からプログラムやデータをRAM504上に読み出し、処理を実行することで、コンピュータ全体の制御や機能を実現する演算装置である。本実施形態に係る情報処理装置1、クライアント端末2及びサーバ装置3は上記したハードウェア構成のコンピュータにおいてプログラムを実行することにより各種機能を実現できる。
The
なお、図2のハードウェア構成は一例であって、用途や目的に応じて様々な構成例があることは言うまでもない。例えば図2のコンピュータは、入力装置501に動画を撮影可能なカメラ機能を有していてもよい。
Note that the hardware configuration shown in FIG. 2 is one example, and it goes without saying that there are various configuration examples depending on the usage and purpose. For example, the computer in FIG. 2 may have the
<化粧動作の定量化の検討>
化粧動作の定量化の方法としては、例えばセンサーを用いるものがある。センサーを用いる化粧動作の定量化の方法ではメークを行う人物にセンサーを装着してもらい、メーク動作を行ってもらう。センサーを用いる化粧動作の定量化の方法では、センサーから出力されたデータにより人物の化粧動作を定量化することができるが、撮影済みのメーク動画に写る人物の化粧動作を定量化できない。<Study on quantifying makeup movements>
As a method for quantifying makeup actions, for example, there is a method using a sensor. In the method of quantifying makeup movements using sensors, the person applying makeup is asked to wear a sensor and perform the makeup movements. In the method of quantifying makeup actions using sensors, it is possible to quantify the makeup actions of a person based on the data output from the sensor, but it is not possible to quantify the makeup actions of a person in a makeup video that has already been filmed.
撮影済みのメーク動画を解析して、そのメーク動画に写る人物の化粧動作を定量化できれば、動画サイト等のWebサイトのメーク動画を利用でき、また、センサーなどを装着する必要がないため、自然な化粧動作の定量化が期待できる。そこで、本実施形態では撮影済みのメーク動画に写る人物の化粧動作を定量化する為に、メーク動画から取得する対象の把握と、その対象を用いた化粧動作の定量化の検討を行った。 If makeup videos that have already been filmed can be analyzed and the makeup movements of the people in those videos can be quantified, makeup videos from websites such as video sites can be used, and there is no need to wear sensors, etc., so it can be done naturally. We can expect to be able to quantify makeup movements. Therefore, in the present embodiment, in order to quantify the makeup actions of people in the makeup videos that have already been shot, we investigated the object to be acquired from the makeup video and the quantification of the makeup actions using that object.
《メーク動画から取得する対象の把握》
メーク動画から取得する対象を把握するため、被験者の化粧動作中の動きをモーションキャプチャで計測した。なお、測定部位は、右手中指先端、中指根元、手の甲中央、手首中央、肘、額の計6カ所である。解析対象は、測定部位の座標(変位)と速度と加速度と角速度である。このように解析した被験者の動きの主成分は、化粧動作中の主要な動きの要素と推定できる。《Understanding what to obtain from makeup videos》
In order to understand what was captured from the makeup videos, we used motion capture to measure the subjects' movements while applying makeup. The measurement sites were a total of six locations: the tip of the middle finger of the right hand, the base of the middle finger, the center of the back of the hand, the center of the wrist, the elbow, and the forehead. The objects of analysis are the coordinates (displacement), velocity, acceleration, and angular velocity of the measurement site. The principal components of the subject's movements analyzed in this way can be estimated to be the main movement elements during the makeup action.
図3A及び図3Bは計測の結果の一例の散布図である。図3Aは化粧動作ごとの手動作の細かさ及び手と肘の連動性の一例を示す散布図である。図3Bは化粧動作ごとの手動作の細かさ及び顔の動きの一例を示す散布図である。図3A及び図3Bに示したように、被験者の動きの主成分は、手動作の細かさ、手と肘の連動性、及び、顔の動き、であった。そこで、本実施形態ではメーク動画から取得する対象を、手の座標・速度と、顔の座標・速度とした。 FIGS. 3A and 3B are scatter diagrams of examples of measurement results. FIG. 3A is a scatter diagram illustrating an example of the fineness of hand movements and the coordination of hands and elbows for each makeup action. FIG. 3B is a scatter diagram showing an example of the fineness of hand movements and facial movements for each makeup action. As shown in FIGS. 3A and 3B, the main components of the subject's movements were the fineness of the hand movements, the coordination of the hands and elbows, and the movements of the face. Therefore, in this embodiment, the objects to be acquired from the makeup video are the coordinates and speed of the hand and the coordinates and speed of the face.
《取得した対象を用いた化粧動作の定量化》
メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得する手法としては、畳み込みニューラルネットワーク(以下、CNNと呼ぶ)を用いた画像認識がある。CNNを用いた画像認識では、二次元画像から顔領域及び手領域を検出することができるので、メーク動画のフレーム画像から検出した顔領域及び手領域をトラッキング(追跡)することで、メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得できる。なお、本実施形態のCNNを用いた画像認識の詳細については後述する。《Quantification of makeup movements using acquired objects》
Image recognition using a convolutional neural network (hereinafter referred to as CNN) is a method for acquiring the coordinates and speed of the hands and the coordinates and speed of the face of a person in a makeup video during the makeup action. Image recognition using CNN can detect face areas and hand areas from two-dimensional images, so by tracking the face and hand areas detected from frame images of makeup videos, it is possible to detect facial and hand areas from two-dimensional images. It is possible to obtain the coordinates and speed of the hand and the coordinates and speed of the face while the person in the photo is applying makeup. Note that details of image recognition using CNN of this embodiment will be described later.
<ソフトウェア構成>
《機能ブロック》
本実施形態に係る情報処理システムのソフトウェア構成について説明する。なお、ここでは図1Aに示した情報処理装置1を一例として説明する。図4は本実施形態に係る情報処理システムの一例の機能ブロック図である。情報処理装置1はプログラムを実行することにより、操作受付部10、領域検出部12、定量化部14、後処理部16及び動画データ記憶部18を実現している。<Software configuration>
《Functional block》
The software configuration of the information processing system according to this embodiment will be described. Note that the
操作受付部10はユーザからの各種操作を受け付ける。動画データ記憶部18はメーク動画を記憶している。なお、動画データ記憶部18は情報処理装置1の外部に設けられていてもよい。領域検出部12は動画データ記憶部18に記憶しているメーク動画やカメラ機能により撮影されたメーク動画が入力される。領域検出部12は、入力されたメーク動画を構成するフレーム画像ごとに、そのフレーム画像に写る人物の顔領域及び手領域を後述するように検出する。
The
定量化部14は、領域検出部12が検出した顔領域及び手領域から、メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得することで、メーク動画に写る人物の化粧動作を定量化する。後処理部16は領域検出部12及び定量化部14による処理結果を、後処理して出力装置502等に出力する。
The
例えば後処理部16は、メーク動画に写る人物の化粧動作中の顔領域及び手領域を矩形で囲う後処理を行う。また、後処理部16はメーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度から、手動作の細かさ、手と肘の連動性、及び、顔の動きを視覚的に表す等の後処理を行う。
For example, the
また、後処理部16は2つのメーク動画に写る人物の化粧動作を定量化して比較することにより、その比較結果を出力できる。例えば本実施形態に係る情報処理システムを利用するユーザは、自分の化粧動作とメーキャップアーティスト等のメークの上手な人物の化粧動作とを定量化して比較することにより、自分のメークテクニックとの違いを理解し易くなる。これにより、本実施形態に係る情報処理システムはユーザのメークテクニックを向上させるサービスの提供が可能となる。
Further, the
メーク動画のフレーム画像に写る人物の顔領域及び手領域を検出する図4の領域検出部12は例えば図5に示すように構成される。図5は領域検出部の一例の構成図である。図5の領域検出部12は、フレーム化部20、顔領域検出部22、手領域検出部24及び顔特徴点検出部26を有する構成である。
The
フレーム化部20は入力されたメーク動画をフレーム画像の単位で顔領域検出部22及び手領域検出部24に提供する。顔領域検出部22は、顔パーツ領域学習モデルを含む顔領域学習モデルを有する。
The framing
なお、顔領域検出部22が有する顔領域学習モデルは、顔領域に手領域が被った二次元画像を教師データとして用いた機械学習により作成されている。顔領域に手領域が被った教師データは手が顔の前景となるように写った二次元画像から作成する。顔領域に手領域が被った教師データは、アノテーションされた(教師データとして作成された)手領域学習データセットに対し、アノテーションされた顔領域学習データセットの画像を、手が前景となるように貼り付けることで作成してもよい。
Note that the face area learning model possessed by the face
顔領域検出部22は、顔領域の一部が手領域で隠れた状態(遮蔽環境)の教師データを学習データセットに用いたCNNを行うことで学習した顔領域学習モデルを利用することにより、顔領域と手領域との重なりに頑強な顔領域検出を実現する。
The face
手領域検出部24は、指先位置領域学習モデルを含む手領域学習モデルを有する。手領域検出部24が有する手領域学習モデルは、化粧中の手の二次元画像を教師データとして用いて作成されている。
The hand
なお、化粧中の手の教師データは、化粧中の手の形に特化したアノテーションされた手領域学習データセット、及び、化粧中の指先位置に特化したアノテーションされた指先位置領域学習データセットにより作成される。手領域検出部24は、上記の教師データを学習データセットに用いたCNNを行うことで学習した手領域学習モデルを利用することにより、化粧動作中の形のバリエーションが多い手及び指先位置の検出精度の高い手領域検出を実現する。
The training data for hands while applying makeup includes an annotated hand region learning dataset that specializes in the shape of hands while applying makeup, and an annotated fingertip position area learning dataset that specializes in the position of fingertips while applying makeup. Created by The hand
また、顔特徴点検出部26は顔パーツ特徴点学習モデルを含む顔特徴点学習モデルを有する。顔特徴点検出部26は顔特徴点学習モデルを利用することにより、顔全体の顔特徴点を検出する。その後、顔特徴点検出部26は顔パーツ特徴点学習モデルを利用することにより、顔パーツの顔特徴点を部位別に検出する。顔特徴点検出部26は、顔パーツに含まれる目の顔特徴点を検出し、目の顔特徴点の位置から目以外の部位の顔特徴点(輪郭を含む)の位置を修正することにより、低解像度や遮蔽環境でも高精度な顔特徴点検出を実現する。
Further, the facial feature
<処理>
《顔領域検出及び顔特徴点検出》
領域検出部12がフレーム画像に写る人物の顔領域を検出する処理は、例えば図6に示すように行われる。図6は、フレーム画像に写る人物の顔領域を検出する処理の一例のイメージ図である。<Processing>
《Face area detection and facial feature point detection》
The process by which the
領域検出部12の顔領域検出部22は、上記した顔領域学習モデルを利用することによりフレーム画像1000の人物の顔が写る顔領域を矩形1002で検出する。顔領域検出部22は矩形1002の領域から、上記した顔パーツ領域学習モデルを利用して顔パーツ領域を検出し、検出した鼻を中心として矩形1002の矩形比を矩形1004のように修正する。
The face
顔特徴点検出部26は、矩形1004の領域から、上記した顔特徴点学習モデルを利用して顔特徴点を矩形領域画像1006のように検出する。また、顔特徴点検出部26は矩形領域画像1006から、上記した顔パーツ特徴点学習モデルを利用して、顔パーツの特徴点を矩形領域画像1008のように部位別に検出する。
The facial feature
なお、図5の領域検出部12は図7のフローチャートに示すように処理することで低解像度や遮蔽環境でも高精度な顔特徴点検出を実現できる。図7は顔特徴点検出処理の一例のフローチャートである。
Note that the
ステップS11において、領域検出部12の顔特徴点検出部26は、顔領域検出部22が検出した顔領域(顔全体)から、上記した顔特徴点学習モデルを利用して顔特徴点を検出し、頭部姿勢を推定する。
In step S11, the facial feature
ステップS12に進み、顔特徴点検出部26はステップS11で推定した頭部姿勢を考慮し、顔領域検出部22が検出した目について顔パーツ特徴点学習モデルを使用して検出することで、目の位置推定を補正し、目の位置推定精度を上げる。
Proceeding to step S12, the facial feature
ステップS13に進み、顔特徴点検出部26はステップS12で補正した目の推定位置を考慮し、上記した顔パーツ特徴点学習モデルを利用して目以外の顔パーツの特徴点(輪郭を含む)を検出し、目以外の顔パーツの推定位置を修正する。図7のフローチャートの処理は、例えば手で顔の輪郭が遮蔽されていた場合に有効である。
Proceeding to step S13, the facial feature
《手領域検出》
領域検出部12がフレーム画像に写る人物の手領域を検出する処理は、例えば図8に示すように行われる。図8は、フレーム画像に写る人物の手領域を検出する処理の一例のイメージ図である。《Hand area detection》
The process by which the
領域検出部12の手領域検出部24は、上記した手領域学習モデルを利用することでフレーム画像1100の人物の左右の手が写る手領域を矩形1102で検出する。また、手領域検出部24は、矩形1102の領域から、上記した指先位置領域学習モデルを利用してフレーム画像1110の人物の左右の手の領域1112及び1114と、左右の手の指先位置1116及び1118を検出する。
The hand
《出力》
本実施形態に係る情報処理装置1は、例えばメーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度から、手動作の細かさ、手と肘の連動性、及び、顔の動きを算出し、出力できる。このような手動作の細かさ、手と肘の連動性、及び、顔の動きの出力は化粧動作の研究などに有用である。"output"
The
また、本実施形態に係る情報処理装置1は2つのメーク動画に写る人物の化粧動作を定量化して比較できるので、メークテクニックを学びたいユーザの化粧動作とメーキャップアーティスト等のメークの上手な人物の化粧動作とを定量化して比較できる。比較結果は点数化してユーザに提示してもよいし、ユーザとメーキャップアーティスト等のメークの上手な人物との化粧動作の違いを視覚的にユーザに提示してもよい。さらに、本実施形態に係る情報処理装置1は比較結果に基づき、ユーザの化粧動作がメーキャップアーティスト等のメークの上手な人物の化粧動作に近づくようにメークテクニックをユーザに提示してもよい。
Furthermore, since the
例えば本実施形態に係る情報処理装置1はチーク/ファンデーションなど、広い面積に塗るメーキャップ製品塗布時の塗布面積判定及び塗布範囲のレクチャーをユーザに対して行うことができる。また、本実施形態に係る情報処理装置1はアイライナー/アイシャドウ/コンシーラーなど、テクニックが難しいメーキャップ製品使用時の動きの正誤判定及びレクチャーをユーザに対して行うことができる。さらに、本実施形態に係る情報処理装置1はヘアワックス(ヘア製品)の塗布方法のレクチャー、スキンケア製品の塗布方法のレクチャー又はマッサージ方法のレクチャーをユーザに対して行うこともできる。
For example, the
また、本実施形態に係る情報処理装置1は骨格がシャープなユーザと丸めなユーザとでチーク(頬紅)の入れ方など、メークのやり方が異なる場合があるため、ユーザの顔立ちにあったメークのリコメンドと、そのメークを実現するためのテクニックをレクチャーしてもよい。
In addition, the
[第2の実施形態]
第2の実施形態に係る情報処理システムは、一部を除いて第1の実施形態に係る情報処理システムと同様であるため、適宜説明を省略する。第2の実施形態の情報処理システムは図5の領域検出部12に替えて、図9の領域検出部12を備えた構成である。図9は領域検出部の一例の構成図である。図9の領域検出部12は、フレーム化部50、肌色領域抽出部52、領域分割部54、顔領域検出部56、手領域検出部58、力場計算部60及びチャンネル計算部62を有する構成である。[Second embodiment]
The information processing system according to the second embodiment is the same as the information processing system according to the first embodiment except for some parts, so the description will be omitted as appropriate. The information processing system of the second embodiment has a configuration including the
フレーム化部50は入力されたメーク動画をフレーム画像の単位で肌色領域抽出部52に提供する。肌色領域抽出部52はフレーム画像から肌色領域を抽出する。領域分割部54は肌色領域抽出部52が抽出した肌色領域を候補ブロブに分割し、更に、候補ブロブのラベリングを行う。領域分割部54はラベル付けされた候補ブロブを顔領域検出部56及び手領域検出部58に提供する。
The framing
顔領域検出部56は提供された候補ブロブのラベル(分割された肌色領域の特徴)に基づいて、顔領域の候補ブロブを分類(顔領域を検出)する。また、手領域検出部58は領域分割部54から提供された候補ブロブのラベル(分割された肌色領域の特徴)と、顔領域検出部56により分類された顔領域の候補ブロブとに基づいて、手領域の候補ブロブを分類(手領域を検出)する。
The face
図9の顔領域検出部56及び手領域検出部58は、図10に示すように、先に顔領域検出部56が顔領域の候補ブロブを分類し、顔領域の候補ブロブを除外して、手領域検出部58が手領域の候補ブロブを分類する。したがって、本実施形態では手領域の誤検出を防止できる。
As shown in FIG. 10, the face
力場計算部60は顔領域検出部56において顔領域の候補ブロブを分類できなかった場合に、顔領域と手領域との干渉が発生していると判断し、次のような処理を行う。力場計算部60は前フレーム(t-1)の顔領域及び手領域の候補ブロブと現フレーム(t)のラベル付けされた候補ブロブとが提供される。
If the face
力場計算部60は図11に示すように、力場(Force Field)により候補ブロブの画像内に多量のチャンネル(Channel)を設定する。チャンネル計算部62は、前フレームからの移動距離をチャンネルごとに計算し、移動距離の大きいチャンネルの候補ブロブを、動いている手の候補ブロブであると仮定することにより、手領域及び顔領域の候補ブロブを分類できる。
As shown in FIG. 11, the force
なお、領域検出部12の力場計算部60及びチャンネル計算部62は移動距離の大きさに加えて、手領域らしい動きをクラスタリングしておくことで、手領域及び顔領域の候補ブロブの誤検出を更に防止できる。
Note that the force
(まとめ)
以上、本実施形態によれば、センサーなどを装着することなく、撮影済みのメーク動画に写る人物の化粧動作を定量化でき、メークテクニックの提供や教示が可能となる。本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば本実施形態では、二次元の動画データを一例として説明したが、三次元の動画データであってもよい。本実施形態によれば、二次元の動画データと同様なデータ解析、又は二次元の動画データ解析に三次元情報を組み合わせた解析により、三次元の動画データに写る人物の化粧動作を定量化でき、メークテクニックの提供や教示が可能となる。(summary)
As described above, according to the present embodiment, it is possible to quantify the makeup actions of a person in a shot makeup video without wearing a sensor or the like, and it is possible to provide and teach makeup techniques. The present invention is not limited to the above-described specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, in this embodiment, two-dimensional video data has been described as an example, but three-dimensional video data may also be used. According to this embodiment, it is possible to quantify makeup movements of a person in 3D video data through data analysis similar to 2D video data or analysis that combines 2D video data analysis with 3D information. , it becomes possible to provide and teach makeup techniques.
以上、本発明を実施例に基づいて説明したが、本発明は上記実施例に限定されるものではなく、特許請求の範囲に記載の範囲内で様々な変形が可能である。本願は、日本特許庁に2018年10月24日に出願された基礎出願2018―199739号の優先権を主張するものであり、その全内容を参照によりここに援用する。 Although the present invention has been described above based on examples, the present invention is not limited to the above-mentioned examples, and various modifications can be made within the scope of the claims. This application claims priority to Basic Application No. 2018-199739 filed with the Japan Patent Office on October 24, 2018, and the entire contents thereof are incorporated herein by reference.
1 情報処理装置
2 クライアント端末
3 サーバ装置
4 ネットワーク
10 操作受付部
12 領域検出部
14 定量化部
16 後処理部
18 動画データ記憶部
20 フレーム化部
22 顔領域検出部
24 手領域検出部
26 顔特徴点検出部
50 フレーム化部
52 肌色領域抽出部
54 領域分割部
56 顔領域検出部
58 手領域検出部
60 力場計算部
62 チャンネル計算部1
Claims (10)
前記コンピュータを、
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段、
前記動画データから前記人物の手が写る手領域を検出する第2の検出手段、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段、
として機能させるためのプログラム。 A program for operating a computer to analyze the makeup movements of a person in makeup or skin care video data,
The computer,
a first detection means for detecting a face area in which the person's face is captured from the video data;
a second detection means for detecting a hand region in which the person's hand is captured from the video data;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. output means for quantifying and outputting the fineness of hand and elbow coordination, or the fineness of hand movements and facial movements;
A program to function as
顔領域学習モデルを用いて前記動画データから前記人物の顔領域を検出する顔領域検出手段と、
顔パーツ特徴点学習モデルを用いて前記顔領域から顔パーツ領域を検出する顔パーツ領域検出手段と、
を有し、
前記第2の検出手段は、
前記化粧動作の手領域学習モデルを用いて前記動画データから前記人物の手領域を検出する手領域検出手段と、
前記化粧動作の指先位置領域学習モデルを用いて前記手領域から指先位置領域を検出する指先位置領域検出手段と、
を有することを特徴とする請求項1記載のプログラム。 The first detection means includes:
face area detection means for detecting the face area of the person from the video data using a face area learning model;
facial part area detection means for detecting a facial part area from the facial area using a facial part feature point learning model;
has
The second detection means includes:
hand area detection means for detecting the hand area of the person from the video data using the hand area learning model of the makeup action;
Fingertip position area detection means for detecting a fingertip position area from the hand area using the fingertip position area learning model of the makeup action;
2. The program according to claim 1, comprising:
を特徴とする請求項2記載のプログラム。 3. The computer program product according to claim 2 , wherein the facial area learning model is a convolutional neural network trained using teacher data in which a part of the facial area is hidden by a hand area as a facial area learning data set.
を特徴とする請求項2記載のプログラム。 The hand region learning model is a convolutional neural network that is trained using training data of the shape of a hand while applying makeup as a hand region learning dataset, and the fingertip position region learning model is trained using training data of the position of a fingertip while applying makeup. 3. The program according to claim 2 , wherein the program is a convolutional neural network trained using a fingertip position region learning data set.
前記動画データから肌色領域を抽出する抽出手段、
前記肌色領域を分割領域に分割する分割手段、
として更に機能させ、
前記第1の検出手段は、前記分割領域の特徴量に基づき、前記肌色領域から前記人物の顔が写る顔領域を検出し、
前記第2の検出手段は、前記分割領域の特徴量に基づき、前記人物の顔が写る顔領域として検出された前記肌色領域を除外した前記肌色領域から前記人物の手が写る手領域を検出すること
を特徴とする請求項1記載のプログラム。 The computer,
extraction means for extracting a skin color region from the video data;
dividing means for dividing the skin color region into divided regions;
further function as
The first detection means detects a face area in which the face of the person is reflected from the skin color area based on the feature amount of the divided area,
The second detection means detects a hand region in which the person's hand is captured from the skin color region excluding the skin color region detected as a face region in which the person's face is captured, based on the feature amount of the divided region. The program according to claim 1, characterized in that:
前記第1の検出手段が前記肌色領域から前記人物の顔が写る顔領域を検出できない場合に、前記動画データを構成するフレーム画像間における前記分割領域の移動距離を検出して、移動距離の大きい前記分割領域を前記人物の手が写る手領域であると仮定する第3の検出手段、
として更に機能させること
を特徴とする請求項5記載のプログラム。 The computer,
When the first detection means cannot detect a face area in which the person's face is reflected from the skin color area, the first detection means detects the movement distance of the divided area between frame images forming the video data, and detects the movement distance of the divided area between the frame images forming the video data. a third detection means that assumes that the divided area is a hand area in which the person's hand is captured;
6. The program according to claim 5 , further functioning as a program.
を特徴とする請求項1記載のプログラム。 The output means outputs an image visually representing a difference in the makeup actions of the people shown in the two video data, based on a comparison result of an output calculated by quantifying the makeup actions of the people shown in the two video data. 2. The program according to claim 1, wherein the program outputs an output.
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段と、
前記動画データから前記人物の手が写る手領域を検出する第2の検出手段と、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段と、
を有する情報処理装置。 An information processing device that analyzes makeup movements of a person appearing in makeup or skin care video data, the information processing device comprising:
a first detection means for detecting a facial area in which the person's face is captured from the video data;
a second detection means for detecting a hand region in which the person's hand is captured from the video data;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. output means for quantifying and outputting the fineness of the hand and the hand-elbow coordination, or the fineness of the hand movement and the facial movement;
An information processing device having:
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出ステップと、
前記動画データから前記人物の手が写る手領域を検出する第2の検出ステップと、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力ステップと、
を有する定量化方法。 A quantification method executed in an information processing device that analyzes makeup movements of a person in makeup or skin care video data, the method comprising:
a first detection step of detecting a facial area in which the person's face is captured from the video data;
a second detection step of detecting a hand region in which the person's hand is captured from the video data;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. an output step of quantifying and outputting the fineness of the hand and the coordination of the hand and the elbow, or the fineness of the hand movement and the movement of the face;
A quantification method with
前記サーバ装置は、
前記クライアント端末が前記ユーザから受け付けた操作の情報を受信する受信手段と、
前記ユーザから受け付けた操作に基づき、前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段と、
前記ユーザから受け付けた操作に基づき、前記動画データから前記人物の手が写る手領域を検出する第2の検出手段と、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段と、
前記出力手段の出力を前記クライアント端末に送信する送信手段と、
を有する情報処理システム。 An information processing system comprising: a client terminal that receives operations from a user; and a server device that analyzes makeup actions of a person in makeup or skin care video data based on the operations that the client terminal receives from the user. The server device includes:
receiving means for receiving information on an operation that the client terminal has accepted from the user;
a first detection means for detecting a facial area in which the person's face is captured from the video data based on an operation received from the user;
a second detection means for detecting a hand region in which the person's hand is captured from the video data based on an operation received from the user;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. output means for quantifying and outputting the fineness of the hand and the hand-elbow coordination, or the fineness of the hand movement and the facial movement;
transmitting means for transmitting the output of the output means to the client terminal;
An information processing system with
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018199739 | 2018-10-24 | ||
JP2018199739 | 2018-10-24 | ||
PCT/JP2019/027052 WO2020084842A1 (en) | 2018-10-24 | 2019-07-08 | Program, information processing device, quantification method, and information processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020084842A1 JPWO2020084842A1 (en) | 2021-10-07 |
JP7408562B2 true JP7408562B2 (en) | 2024-01-05 |
Family
ID=70331505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020552524A Active JP7408562B2 (en) | 2018-10-24 | 2019-07-08 | Program, information processing device, quantification method, and information processing system |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7408562B2 (en) |
CN (1) | CN112912925A (en) |
TW (1) | TW202016881A (en) |
WO (1) | WO2020084842A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102586144B1 (en) * | 2021-09-23 | 2023-10-10 | 주식회사 딥비전 | Method and apparatus for hand movement tracking using deep learning |
CN114407913B (en) * | 2022-01-27 | 2022-10-11 | 星河智联汽车科技有限公司 | Vehicle control method and device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072861A (en) | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | Hairdressing art lecture system |
JP2003216955A (en) | 2002-01-23 | 2003-07-31 | Sharp Corp | Method and device for gesture recognition, dialogue device, and recording medium with gesture recognition program recorded thereon |
JP2017208051A (en) | 2016-05-20 | 2017-11-24 | 日本電信電話株式会社 | Technical support device, method, program, and system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015029372A1 (en) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program |
TWI669103B (en) * | 2014-11-14 | 2019-08-21 | 日商新力股份有限公司 | Information processing device, information processing method and program |
-
2019
- 2019-07-08 CN CN201980069716.8A patent/CN112912925A/en active Pending
- 2019-07-08 WO PCT/JP2019/027052 patent/WO2020084842A1/en active Application Filing
- 2019-07-08 JP JP2020552524A patent/JP7408562B2/en active Active
- 2019-07-24 TW TW108126136A patent/TW202016881A/en unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072861A (en) | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | Hairdressing art lecture system |
JP2003216955A (en) | 2002-01-23 | 2003-07-31 | Sharp Corp | Method and device for gesture recognition, dialogue device, and recording medium with gesture recognition program recorded thereon |
JP2017208051A (en) | 2016-05-20 | 2017-11-24 | 日本電信電話株式会社 | Technical support device, method, program, and system |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020084842A1 (en) | 2021-10-07 |
WO2020084842A1 (en) | 2020-04-30 |
CN112912925A (en) | 2021-06-04 |
TW202016881A (en) | 2020-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Memo et al. | Head-mounted gesture controlled interface for human-computer interaction | |
Cheng et al. | An image-to-class dynamic time warping approach for both 3D static and trajectory hand gesture recognition | |
Le et al. | Human posture recognition using human skeleton provided by Kinect | |
Turk et al. | Perceptual interfaces | |
Malassiotis et al. | Real-time hand posture recognition using range data | |
Liang et al. | Barehanded music: real-time hand interaction for virtual piano | |
CN105247453A (en) | Virtual and augmented reality instruction system | |
Antoshchuk et al. | Gesture recognition-based human–computer interaction interface for multimedia applications | |
JP7408562B2 (en) | Program, information processing device, quantification method, and information processing system | |
US20190187780A1 (en) | Determination apparatus and determination method | |
Varona et al. | Toward natural interaction through visual recognition of body gestures in real-time | |
Yong et al. | Emotion recognition in gamers wearing head-mounted display | |
Nabati et al. | 3D Head pose estimation and camera mouse implementation using a monocular video camera | |
Gupta et al. | Hands-free PC Control” controlling of mouse cursor using eye movement | |
Koutras et al. | Estimation of eye gaze direction angles based on active appearance models | |
Ueng et al. | Vision based multi-user human computer interaction | |
Yang et al. | 3D character recognition using binocular camera for medical assist | |
Sippl et al. | Real-time gaze tracking for public displays | |
Raees et al. | THE-3DI: Tracing head and eyes for 3D interactions: An interaction technique for virtual environments | |
Anwar | Real time facial expression recognition and eye gaze estimation system | |
Pradeep et al. | Advancement of sign language recognition through technology using python and OpenCV | |
Adiani et al. | Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results | |
Anwar et al. | Real Time Eye Blink Detection Method for Android Device Controlling | |
Cazzato et al. | Pervasive retail strategy using a low-cost free gaze estimation system | |
Alobaidi et al. | New In-Air Signature Datasets |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7408562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |