JP7408562B2 - Program, information processing device, quantification method, and information processing system - Google Patents

Program, information processing device, quantification method, and information processing system Download PDF

Info

Publication number
JP7408562B2
JP7408562B2 JP2020552524A JP2020552524A JP7408562B2 JP 7408562 B2 JP7408562 B2 JP 7408562B2 JP 2020552524 A JP2020552524 A JP 2020552524A JP 2020552524 A JP2020552524 A JP 2020552524A JP 7408562 B2 JP7408562 B2 JP 7408562B2
Authority
JP
Japan
Prior art keywords
hand
area
makeup
face
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020552524A
Other languages
Japanese (ja)
Other versions
JPWO2020084842A1 (en
Inventor
瞳 遠藤
成人 豊田
雄一郎 森
義満 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Publication of JPWO2020084842A1 publication Critical patent/JPWO2020084842A1/en
Application granted granted Critical
Publication of JP7408562B2 publication Critical patent/JP7408562B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、プログラム、情報処理装置、定量化方法及び情報処理システムに関する。 The present invention relates to a program, an information processing device, a quantification method, and an information processing system.

メークの仕上がりは、使用する化粧品やメークテクニックなどによって異なることが知られている。従来、メークを行う多くのユーザは、他人のメークテクニックを目にする機会が少なかった。近年、動画サイト等のWebサイトには、メーク中の様子を撮影した動画(メーク動画)が数多く投稿されるようになった。このようなメーク動画によりユーザはメークテクニックを確認できる機会が増加した(例えば非特許文献1参照)。 It is known that the finish of makeup varies depending on the cosmetics used and makeup techniques. Conventionally, many makeup users have had few opportunities to see other people's makeup techniques. In recent years, many videos of people applying makeup (makeup videos) have been posted on websites such as video sites. Such makeup videos have increased opportunities for users to check makeup techniques (for example, see Non-Patent Document 1).

"動画でレッスン"、[online]、株式会社資生堂、[平成30年4月20日検索]、インターネット〈URL:https://www.shiseido.co.jp/beauty/dictionary/lesson/index.html〉"Lessons with videos", [online], Shiseido Co., Ltd., [searched on April 20, 2018], Internet <URL: https://www.shiseido.co.jp/beauty/dictionary/lesson/index.html 〉

上記したメーク動画を視聴することにより、ユーザはメーク動画に写る人物が使用した化粧品や化粧動作を見ることができる。しかし、ユーザはメーク動画に写る人物の化粧動作を見るだけで、その人物の化粧動作を上手に真似ることが難しかった。なお、メーク動画から化粧動作を定量化することができれば、真似したユーザの化粧動作と、メーク動画に写る人物の化粧動作との比較が容易となり、便利である。 By viewing the makeup video described above, the user can see the cosmetics used by the person in the makeup video and the makeup actions. However, it has been difficult for users to skillfully imitate the makeup actions of a person in a makeup video just by looking at them. Note that if makeup actions can be quantified from makeup videos, it will be convenient because it will be easy to compare the makeup actions of the imitated user and the makeup actions of the person in the makeup video.

本発明の一実施形態は、動画データに写る人物の化粧動作を定量化できるプログラムを提供することを目的とする。 An object of an embodiment of the present invention is to provide a program that can quantify makeup actions of a person appearing in video data.

上記の課題を解決するため、本発明の一実施形態は、メーク又はスキンケアの動画データに写る人物の化粧動作を解析するようにコンピュータを機能させるためのプログラムであって、前記コンピュータを、前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段、前記動画データから前記人物の手が写る手領域を検出する第2の検出手段、検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段、として機能させるためのプログラムであることを特徴とする。

In order to solve the above-mentioned problems, one embodiment of the present invention is a program for causing a computer to function to analyze the makeup movements of a person appearing in makeup or skin care video data , a first detection means for detecting a face area in which the person's face is captured from video data; a second detection unit for detecting a hand area in which the person's hand is captured from the video data; and the detected face area and the hand area. Based on the coordinates and speed of the hand of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face, the fineness of the hand movement and the coordination of the hand and elbow are determined. The present invention is characterized in that it is a program for functioning as an output means for quantifying and calculating the fineness of hand movements and facial movements, and outputting the results .

本発明の一実施形態によれば、動画データに写る人物の化粧動作を定量化できる。 According to an embodiment of the present invention, it is possible to quantify makeup actions of a person appearing in video data.

本実施形態に係る情報処理システムの一例の構成図である。FIG. 1 is a configuration diagram of an example of an information processing system according to an embodiment. 本実施形態に係る情報処理システムの一例の構成図である。FIG. 1 is a configuration diagram of an example of an information processing system according to an embodiment. 本実施形態に係るコンピュータの一例のハードウェア構成図である。FIG. 1 is a hardware configuration diagram of an example of a computer according to the present embodiment. 計測の結果の一例の散布図である。It is a scatter diagram of an example of a measurement result. 計測の結果の一例の散布図である。It is a scatter diagram of an example of a measurement result. 本実施形態に係る情報処理システムの一例の機能ブロック図である。FIG. 1 is a functional block diagram of an example of an information processing system according to the present embodiment. 領域検出部の一例の構成図である。FIG. 3 is a configuration diagram of an example of a region detection section. フレーム画像に写る人物の顔領域を検出する処理の一例のイメージ図である。FIG. 3 is an image diagram of an example of a process for detecting a face area of a person in a frame image. 顔特徴点検出処理の一例のフローチャートである。3 is a flowchart of an example of facial feature point detection processing. フレーム画像に写る人物の手領域を検出する処理の一例のイメージ図である。FIG. 3 is an image diagram of an example of a process for detecting a hand region of a person in a frame image. 領域検出部の一例の構成図である。FIG. 3 is a configuration diagram of an example of a region detection section. 顔領域検出部及び手領域検出部の処理の一例のイメージ図である。FIG. 6 is an image diagram of an example of processing by a face area detection unit and a hand area detection unit. 力場計算部及びチャンネル計算部の処理の一例のイメージ図である。FIG. 3 is an image diagram of an example of processing by a force field calculation unit and a channel calculation unit.

次に、本発明の実施形態について詳細に説明する。 Next, embodiments of the present invention will be described in detail.

[第1の実施形態]
<システム構成>
図1A及び図1Bは、本実施形態に係る情報処理システムの一例の構成図である。図1Aの情報処理システムは単体の情報処理装置1を備えている。情報処理装置1は、ユーザが操作するPC、スマートフォン、タブレット、家庭用や業務用の化粧動作を定量化する専用機器などである。
[First embodiment]
<System configuration>
1A and 1B are configuration diagrams of an example of an information processing system according to this embodiment. The information processing system in FIG. 1A includes a single information processing device 1. The information processing system shown in FIG. The information processing device 1 is a PC operated by a user, a smartphone, a tablet, a dedicated device for quantifying makeup actions for home use or business use, or the like.

また、図1Bの情報処理システムは1台以上のクライアント端末2とサーバ装置3とがインターネット等のネットワーク4を介して接続されている。クライアント端末2はユーザが操作するPC、スマートフォン、タブレットなどの端末装置、家庭用や業務用の化粧動作を定量化する専用機器などである。サーバ装置3はクライアント端末2で行われる化粧動作の定量化に関する処理等を行う。 Further, in the information processing system shown in FIG. 1B, one or more client terminals 2 and a server device 3 are connected via a network 4 such as the Internet. The client terminal 2 is a terminal device such as a PC, a smartphone, or a tablet operated by a user, or a dedicated device for quantifying makeup actions for home or business use. The server device 3 performs processing related to quantifying makeup actions performed on the client terminal 2.

このように、本発明は図1Bに示すようなクライアント・サーバ型の情報処理システムの他、図1Aに示す単体の情報処理装置1においても適用可能である。なお、図1A及び図1Bの情報処理システムは一例であって、用途や目的に応じて様々なシステム構成例があることは言うまでもない。例えば図1Bのサーバ装置3は複数のコンピュータに分散して構成してもよい。 In this way, the present invention is applicable not only to the client-server type information processing system shown in FIG. 1B but also to the single information processing device 1 shown in FIG. 1A. Note that the information processing systems shown in FIGS. 1A and 1B are merely examples, and it goes without saying that there are various system configuration examples depending on the usage and purpose. For example, the server device 3 in FIG. 1B may be configured to be distributed among multiple computers.

<ハードウェア構成>
図1A及び図1Bの情報処理装置1、クライアント端末2及びサーバ装置3は、例えば図2に示すようなハードウェア構成のコンピュータにより実現される。図2は、本実施形態に係るコンピュータの一例のハードウェア構成図である。
<Hardware configuration>
The information processing device 1, client terminal 2, and server device 3 in FIGS. 1A and 1B are realized, for example, by a computer with a hardware configuration as shown in FIG. 2. FIG. 2 is a hardware configuration diagram of an example of a computer according to this embodiment.

図2のコンピュータは、入力装置501、出力装置502、外部I/F503、RAM504、ROM505、CPU506、通信I/F507、及びHDD508などを備えており、それぞれがバスBで相互に接続されている。 The computer in FIG. 2 includes an input device 501, an output device 502, an external I/F 503, a RAM 504, a ROM 505, a CPU 506, a communication I/F 507, an HDD 508, and the like, each of which is interconnected by a bus B.

入力装置501は入力に用いるキーボード、マウスなどである。出力装置502は、画面を表示する液晶や有機ELなどのディスプレイ、音声や音楽などの音データを出力するスピーカ等で構成されている。通信I/F507はコンピュータをネットワーク4に接続するインターフェースである。HDD508はプログラムやデータを格納している不揮発性の記憶装置の一例である。 The input device 501 is a keyboard, mouse, or the like used for input. The output device 502 includes a display such as a liquid crystal or organic EL that displays a screen, a speaker that outputs sound data such as voice and music, and the like. The communication I/F 507 is an interface that connects the computer to the network 4. The HDD 508 is an example of a nonvolatile storage device that stores programs and data.

外部I/F503は、外部装置とのインターフェースである。コンピュータは外部I/F503を介して記録媒体503aの読み取り及び/又は書き込みを行うことができる。記録媒体503aにはDVD、SDメモリカード、USBメモリなどがある。 External I/F 503 is an interface with an external device. The computer can read from and/or write to the recording medium 503a via the external I/F 503. The recording medium 503a includes a DVD, an SD memory card, a USB memory, and the like.

CPU506はROM505やHDD508などの記憶装置からプログラムやデータをRAM504上に読み出し、処理を実行することで、コンピュータ全体の制御や機能を実現する演算装置である。本実施形態に係る情報処理装置1、クライアント端末2及びサーバ装置3は上記したハードウェア構成のコンピュータにおいてプログラムを実行することにより各種機能を実現できる。 The CPU 506 is an arithmetic unit that implements control and functions of the entire computer by reading programs and data from a storage device such as the ROM 505 and the HDD 508 onto the RAM 504 and executing processing. The information processing device 1, client terminal 2, and server device 3 according to this embodiment can implement various functions by executing programs on a computer with the above-described hardware configuration.

なお、図2のハードウェア構成は一例であって、用途や目的に応じて様々な構成例があることは言うまでもない。例えば図2のコンピュータは、入力装置501に動画を撮影可能なカメラ機能を有していてもよい。 Note that the hardware configuration shown in FIG. 2 is one example, and it goes without saying that there are various configuration examples depending on the usage and purpose. For example, the computer in FIG. 2 may have the input device 501 have a camera function that can shoot moving images.

<化粧動作の定量化の検討>
化粧動作の定量化の方法としては、例えばセンサーを用いるものがある。センサーを用いる化粧動作の定量化の方法ではメークを行う人物にセンサーを装着してもらい、メーク動作を行ってもらう。センサーを用いる化粧動作の定量化の方法では、センサーから出力されたデータにより人物の化粧動作を定量化することができるが、撮影済みのメーク動画に写る人物の化粧動作を定量化できない。
<Study on quantifying makeup movements>
As a method for quantifying makeup actions, for example, there is a method using a sensor. In the method of quantifying makeup movements using sensors, the person applying makeup is asked to wear a sensor and perform the makeup movements. In the method of quantifying makeup actions using sensors, it is possible to quantify the makeup actions of a person based on the data output from the sensor, but it is not possible to quantify the makeup actions of a person in a makeup video that has already been filmed.

撮影済みのメーク動画を解析して、そのメーク動画に写る人物の化粧動作を定量化できれば、動画サイト等のWebサイトのメーク動画を利用でき、また、センサーなどを装着する必要がないため、自然な化粧動作の定量化が期待できる。そこで、本実施形態では撮影済みのメーク動画に写る人物の化粧動作を定量化する為に、メーク動画から取得する対象の把握と、その対象を用いた化粧動作の定量化の検討を行った。 If makeup videos that have already been filmed can be analyzed and the makeup movements of the people in those videos can be quantified, makeup videos from websites such as video sites can be used, and there is no need to wear sensors, etc., so it can be done naturally. We can expect to be able to quantify makeup movements. Therefore, in the present embodiment, in order to quantify the makeup actions of people in the makeup videos that have already been shot, we investigated the object to be acquired from the makeup video and the quantification of the makeup actions using that object.

《メーク動画から取得する対象の把握》
メーク動画から取得する対象を把握するため、被験者の化粧動作中の動きをモーションキャプチャで計測した。なお、測定部位は、右手中指先端、中指根元、手の甲中央、手首中央、肘、額の計6カ所である。解析対象は、測定部位の座標(変位)と速度と加速度と角速度である。このように解析した被験者の動きの主成分は、化粧動作中の主要な動きの要素と推定できる。
《Understanding what to obtain from makeup videos》
In order to understand what was captured from the makeup videos, we used motion capture to measure the subjects' movements while applying makeup. The measurement sites were a total of six locations: the tip of the middle finger of the right hand, the base of the middle finger, the center of the back of the hand, the center of the wrist, the elbow, and the forehead. The objects of analysis are the coordinates (displacement), velocity, acceleration, and angular velocity of the measurement site. The principal components of the subject's movements analyzed in this way can be estimated to be the main movement elements during the makeup action.

図3A及び図3Bは計測の結果の一例の散布図である。図3Aは化粧動作ごとの手動作の細かさ及び手と肘の連動性の一例を示す散布図である。図3Bは化粧動作ごとの手動作の細かさ及び顔の動きの一例を示す散布図である。図3A及び図3Bに示したように、被験者の動きの主成分は、手動作の細かさ、手と肘の連動性、及び、顔の動き、であった。そこで、本実施形態ではメーク動画から取得する対象を、手の座標・速度と、顔の座標・速度とした。 FIGS. 3A and 3B are scatter diagrams of examples of measurement results. FIG. 3A is a scatter diagram illustrating an example of the fineness of hand movements and the coordination of hands and elbows for each makeup action. FIG. 3B is a scatter diagram showing an example of the fineness of hand movements and facial movements for each makeup action. As shown in FIGS. 3A and 3B, the main components of the subject's movements were the fineness of the hand movements, the coordination of the hands and elbows, and the movements of the face. Therefore, in this embodiment, the objects to be acquired from the makeup video are the coordinates and speed of the hand and the coordinates and speed of the face.

《取得した対象を用いた化粧動作の定量化》
メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得する手法としては、畳み込みニューラルネットワーク(以下、CNNと呼ぶ)を用いた画像認識がある。CNNを用いた画像認識では、二次元画像から顔領域及び手領域を検出することができるので、メーク動画のフレーム画像から検出した顔領域及び手領域をトラッキング(追跡)することで、メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得できる。なお、本実施形態のCNNを用いた画像認識の詳細については後述する。
《Quantification of makeup movements using acquired objects》
Image recognition using a convolutional neural network (hereinafter referred to as CNN) is a method for acquiring the coordinates and speed of the hands and the coordinates and speed of the face of a person in a makeup video during the makeup action. Image recognition using CNN can detect face areas and hand areas from two-dimensional images, so by tracking the face and hand areas detected from frame images of makeup videos, it is possible to detect facial and hand areas from two-dimensional images. It is possible to obtain the coordinates and speed of the hand and the coordinates and speed of the face while the person in the photo is applying makeup. Note that details of image recognition using CNN of this embodiment will be described later.

<ソフトウェア構成>
《機能ブロック》
本実施形態に係る情報処理システムのソフトウェア構成について説明する。なお、ここでは図1Aに示した情報処理装置1を一例として説明する。図4は本実施形態に係る情報処理システムの一例の機能ブロック図である。情報処理装置1はプログラムを実行することにより、操作受付部10、領域検出部12、定量化部14、後処理部16及び動画データ記憶部18を実現している。
<Software configuration>
《Functional block》
The software configuration of the information processing system according to this embodiment will be described. Note that the information processing device 1 shown in FIG. 1A will be described here as an example. FIG. 4 is a functional block diagram of an example of an information processing system according to this embodiment. The information processing device 1 implements an operation reception section 10, an area detection section 12, a quantification section 14, a post-processing section 16, and a video data storage section 18 by executing programs.

操作受付部10はユーザからの各種操作を受け付ける。動画データ記憶部18はメーク動画を記憶している。なお、動画データ記憶部18は情報処理装置1の外部に設けられていてもよい。領域検出部12は動画データ記憶部18に記憶しているメーク動画やカメラ機能により撮影されたメーク動画が入力される。領域検出部12は、入力されたメーク動画を構成するフレーム画像ごとに、そのフレーム画像に写る人物の顔領域及び手領域を後述するように検出する。 The operation reception unit 10 receives various operations from the user. The video data storage unit 18 stores makeup videos. Note that the video data storage section 18 may be provided outside the information processing device 1. The area detection unit 12 receives input of a makeup video stored in the video data storage unit 18 or a makeup video captured by the camera function. The area detection unit 12 detects, for each frame image constituting the input makeup video, a face area and a hand area of a person appearing in the frame image, as will be described later.

定量化部14は、領域検出部12が検出した顔領域及び手領域から、メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得することで、メーク動画に写る人物の化粧動作を定量化する。後処理部16は領域検出部12及び定量化部14による処理結果を、後処理して出力装置502等に出力する。 The quantification unit 14 acquires the coordinates and speed of the hand of the person in the makeup video and the coordinates and speed of the face during the makeup movement of the person from the face area and hand area detected by the area detection unit 12. Quantifying the makeup movements of people in videos. The post-processing unit 16 post-processes the processing results by the area detection unit 12 and the quantification unit 14 and outputs the post-processed results to the output device 502 or the like.

例えば後処理部16は、メーク動画に写る人物の化粧動作中の顔領域及び手領域を矩形で囲う後処理を行う。また、後処理部16はメーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度から、手動作の細かさ、手と肘の連動性、及び、顔の動きを視覚的に表す等の後処理を行う。 For example, the post-processing unit 16 performs post-processing of enclosing a face area and a hand area of a person appearing in a makeup video in a rectangle while the person is applying makeup. Additionally, the post-processing unit 16 calculates the fineness of hand movements, the coordination between hands and elbows, and the movement of the face from the coordinates and speed of the hands of the person in the makeup video and the coordinates and speed of the face. Perform post-processing such as visual representation.

また、後処理部16は2つのメーク動画に写る人物の化粧動作を定量化して比較することにより、その比較結果を出力できる。例えば本実施形態に係る情報処理システムを利用するユーザは、自分の化粧動作とメーキャップアーティスト等のメークの上手な人物の化粧動作とを定量化して比較することにより、自分のメークテクニックとの違いを理解し易くなる。これにより、本実施形態に係る情報処理システムはユーザのメークテクニックを向上させるサービスの提供が可能となる。 Further, the post-processing unit 16 can output the comparison result by quantifying and comparing the makeup actions of the people in the two makeup videos. For example, a user who uses the information processing system according to the present embodiment can quantify and compare his or her makeup actions with those of a makeup artist or other person who is skilled at applying makeup, thereby identifying the differences between his or her own makeup techniques. It becomes easier to understand. Thereby, the information processing system according to this embodiment can provide a service that improves the user's makeup technique.

メーク動画のフレーム画像に写る人物の顔領域及び手領域を検出する図4の領域検出部12は例えば図5に示すように構成される。図5は領域検出部の一例の構成図である。図5の領域検出部12は、フレーム化部20、顔領域検出部22、手領域検出部24及び顔特徴点検出部26を有する構成である。 The area detection unit 12 shown in FIG. 4, which detects a face area and a hand area of a person in a frame image of a makeup video, is configured as shown in FIG. 5, for example. FIG. 5 is a configuration diagram of an example of the area detection section. The area detection unit 12 in FIG. 5 has a configuration including a framing unit 20, a face area detection unit 22, a hand area detection unit 24, and a facial feature point detection unit 26.

フレーム化部20は入力されたメーク動画をフレーム画像の単位で顔領域検出部22及び手領域検出部24に提供する。顔領域検出部22は、顔パーツ領域学習モデルを含む顔領域学習モデルを有する。 The framing unit 20 provides the input makeup video to the face area detection unit 22 and the hand area detection unit 24 in units of frame images. The face area detection unit 22 has a face area learning model including a face part area learning model.

なお、顔領域検出部22が有する顔領域学習モデルは、顔領域に手領域が被った二次元画像を教師データとして用いた機械学習により作成されている。顔領域に手領域が被った教師データは手が顔の前景となるように写った二次元画像から作成する。顔領域に手領域が被った教師データは、アノテーションされた(教師データとして作成された)手領域学習データセットに対し、アノテーションされた顔領域学習データセットの画像を、手が前景となるように貼り付けることで作成してもよい。 Note that the face area learning model possessed by the face area detection unit 22 is created by machine learning using a two-dimensional image in which the hand area overlaps the face area as training data. Teacher data in which the hand region overlaps the face region is created from a two-dimensional image in which the hand is in the foreground of the face. The training data in which the hand region overlaps the face region is an annotated (created as training data) hand region training dataset, and the image of the annotated face region training dataset is changed so that the hand is in the foreground. It can also be created by pasting.

顔領域検出部22は、顔領域の一部が手領域で隠れた状態(遮蔽環境)の教師データを学習データセットに用いたCNNを行うことで学習した顔領域学習モデルを利用することにより、顔領域と手領域との重なりに頑強な顔領域検出を実現する。 The face area detection unit 22 uses a face area learning model learned by performing CNN using training data in which a part of the face area is hidden by the hand area (occlusion environment) as a learning data set. Achieving robust face area detection against overlap between face and hand areas.

手領域検出部24は、指先位置領域学習モデルを含む手領域学習モデルを有する。手領域検出部24が有する手領域学習モデルは、化粧中の手の二次元画像を教師データとして用いて作成されている。 The hand region detection unit 24 has a hand region learning model including a fingertip position region learning model. The hand region learning model possessed by the hand region detection unit 24 is created using a two-dimensional image of a hand applying makeup as training data.

なお、化粧中の手の教師データは、化粧中の手の形に特化したアノテーションされた手領域学習データセット、及び、化粧中の指先位置に特化したアノテーションされた指先位置領域学習データセットにより作成される。手領域検出部24は、上記の教師データを学習データセットに用いたCNNを行うことで学習した手領域学習モデルを利用することにより、化粧動作中の形のバリエーションが多い手及び指先位置の検出精度の高い手領域検出を実現する。 The training data for hands while applying makeup includes an annotated hand region learning dataset that specializes in the shape of hands while applying makeup, and an annotated fingertip position area learning dataset that specializes in the position of fingertips while applying makeup. Created by The hand area detection unit 24 detects the positions of hands and fingertips that have many variations in shape during makeup movements by using a hand area learning model learned by performing CNN using the above-mentioned teacher data as a learning data set. Achieve highly accurate hand region detection.

また、顔特徴点検出部26は顔パーツ特徴点学習モデルを含む顔特徴点学習モデルを有する。顔特徴点検出部26は顔特徴点学習モデルを利用することにより、顔全体の顔特徴点を検出する。その後、顔特徴点検出部26は顔パーツ特徴点学習モデルを利用することにより、顔パーツの顔特徴点を部位別に検出する。顔特徴点検出部26は、顔パーツに含まれる目の顔特徴点を検出し、目の顔特徴点の位置から目以外の部位の顔特徴点(輪郭を含む)の位置を修正することにより、低解像度や遮蔽環境でも高精度な顔特徴点検出を実現する。 Further, the facial feature point detection unit 26 has a facial feature point learning model including a facial part feature point learning model. The facial feature point detection unit 26 detects facial feature points of the entire face by using a facial feature point learning model. Thereafter, the facial feature point detection unit 26 detects facial feature points of facial parts for each region by using the facial part feature point learning model. The facial feature point detection unit 26 detects the facial feature points of the eyes included in the facial parts, and corrects the positions of the facial feature points of parts other than the eyes (including the contour) from the positions of the facial feature points of the eyes. , achieves highly accurate facial feature point detection even in low resolution or occluded environments.

<処理>
《顔領域検出及び顔特徴点検出》
領域検出部12がフレーム画像に写る人物の顔領域を検出する処理は、例えば図6に示すように行われる。図6は、フレーム画像に写る人物の顔領域を検出する処理の一例のイメージ図である。
<Processing>
《Face area detection and facial feature point detection》
The process by which the area detection unit 12 detects a face area of a person appearing in a frame image is performed as shown in FIG. 6, for example. FIG. 6 is an image diagram of an example of a process for detecting a face area of a person in a frame image.

領域検出部12の顔領域検出部22は、上記した顔領域学習モデルを利用することによりフレーム画像1000の人物の顔が写る顔領域を矩形1002で検出する。顔領域検出部22は矩形1002の領域から、上記した顔パーツ領域学習モデルを利用して顔パーツ領域を検出し、検出した鼻を中心として矩形1002の矩形比を矩形1004のように修正する。 The face area detection unit 22 of the area detection unit 12 uses the above-described face area learning model to detect a face area in which a person's face appears in the frame image 1000 as a rectangle 1002. The face area detection unit 22 detects a facial part area from the area of the rectangle 1002 using the above-described facial part area learning model, and corrects the rectangular ratio of the rectangle 1002 to a rectangle 1004 with the detected nose as the center.

顔特徴点検出部26は、矩形1004の領域から、上記した顔特徴点学習モデルを利用して顔特徴点を矩形領域画像1006のように検出する。また、顔特徴点検出部26は矩形領域画像1006から、上記した顔パーツ特徴点学習モデルを利用して、顔パーツの特徴点を矩形領域画像1008のように部位別に検出する。 The facial feature point detection unit 26 detects facial feature points from the rectangular area 1004 as in the rectangular area image 1006 using the above-described facial feature point learning model. Further, the facial feature point detection unit 26 detects feature points of facial parts for each region from the rectangular area image 1006 as in the rectangular area image 1008 using the above-described facial part feature point learning model.

なお、図5の領域検出部12は図7のフローチャートに示すように処理することで低解像度や遮蔽環境でも高精度な顔特徴点検出を実現できる。図7は顔特徴点検出処理の一例のフローチャートである。 Note that the area detection unit 12 in FIG. 5 can realize highly accurate facial feature point detection even in a low resolution or shielded environment by performing processing as shown in the flowchart in FIG. FIG. 7 is a flowchart of an example of facial feature point detection processing.

ステップS11において、領域検出部12の顔特徴点検出部26は、顔領域検出部22が検出した顔領域(顔全体)から、上記した顔特徴点学習モデルを利用して顔特徴点を検出し、頭部姿勢を推定する。 In step S11, the facial feature point detecting unit 26 of the area detecting unit 12 detects facial feature points from the facial area (the entire face) detected by the facial area detecting unit 22 using the above-described facial feature point learning model. , estimate the head pose.

ステップS12に進み、顔特徴点検出部26はステップS11で推定した頭部姿勢を考慮し、顔領域検出部22が検出した目について顔パーツ特徴点学習モデルを使用して検出することで、目の位置推定を補正し、目の位置推定精度を上げる。 Proceeding to step S12, the facial feature point detection unit 26 takes into consideration the head posture estimated in step S11, and detects the eyes detected by the face area detection unit 22 using the facial part feature point learning model. Correct the position estimation of the eye and improve the accuracy of the eye position estimation.

ステップS13に進み、顔特徴点検出部26はステップS12で補正した目の推定位置を考慮し、上記した顔パーツ特徴点学習モデルを利用して目以外の顔パーツの特徴点(輪郭を含む)を検出し、目以外の顔パーツの推定位置を修正する。図7のフローチャートの処理は、例えば手で顔の輪郭が遮蔽されていた場合に有効である。 Proceeding to step S13, the facial feature point detection unit 26 takes into account the estimated positions of the eyes corrected in step S12 and uses the above-described facial part feature point learning model to determine the feature points (including contours) of facial parts other than the eyes. Detects and corrects the estimated positions of facial parts other than eyes. The process in the flowchart of FIG. 7 is effective, for example, when the outline of the face is obscured by a hand.

《手領域検出》
領域検出部12がフレーム画像に写る人物の手領域を検出する処理は、例えば図8に示すように行われる。図8は、フレーム画像に写る人物の手領域を検出する処理の一例のイメージ図である。
《Hand area detection》
The process by which the area detection unit 12 detects a hand area of a person appearing in a frame image is performed, for example, as shown in FIG. 8. FIG. 8 is an image diagram of an example of a process for detecting a hand region of a person in a frame image.

領域検出部12の手領域検出部24は、上記した手領域学習モデルを利用することでフレーム画像1100の人物の左右の手が写る手領域を矩形1102で検出する。また、手領域検出部24は、矩形1102の領域から、上記した指先位置領域学習モデルを利用してフレーム画像1110の人物の左右の手の領域1112及び1114と、左右の手の指先位置1116及び1118を検出する。 The hand area detection unit 24 of the area detection unit 12 uses the above-described hand area learning model to detect a hand area in which the left and right hands of the person in the frame image 1100 are captured in a rectangle 1102. Further, the hand area detection unit 24 uses the above-described fingertip position area learning model to determine the areas 1112 and 1114 of the left and right hands of the person in the frame image 1110, the fingertip positions 1116 and 1116 of the left and right hands from the area of the rectangle 1102. 1118 is detected.

《出力》
本実施形態に係る情報処理装置1は、例えばメーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度から、手動作の細かさ、手と肘の連動性、及び、顔の動きを算出し、出力できる。このような手動作の細かさ、手と肘の連動性、及び、顔の動きの出力は化粧動作の研究などに有用である。
"output"
The information processing device 1 according to the present embodiment calculates, for example, the fineness of hand movements, the coordination between hands and elbows, based on the coordinates and speed of the hands of the person in the makeup video and the coordinates and speed of the face during the makeup movement. , can calculate and output facial movements. The fineness of hand movements, the coordination of hands and elbows, and the output of facial movements are useful for research on makeup movements.

また、本実施形態に係る情報処理装置1は2つのメーク動画に写る人物の化粧動作を定量化して比較できるので、メークテクニックを学びたいユーザの化粧動作とメーキャップアーティスト等のメークの上手な人物の化粧動作とを定量化して比較できる。比較結果は点数化してユーザに提示してもよいし、ユーザとメーキャップアーティスト等のメークの上手な人物との化粧動作の違いを視覚的にユーザに提示してもよい。さらに、本実施形態に係る情報処理装置1は比較結果に基づき、ユーザの化粧動作がメーキャップアーティスト等のメークの上手な人物の化粧動作に近づくようにメークテクニックをユーザに提示してもよい。 Furthermore, since the information processing device 1 according to the present embodiment can quantify and compare the makeup actions of people in two makeup videos, it is possible to compare the makeup actions of a user who wants to learn makeup techniques with the makeup actions of a person who is good at makeup, such as a makeup artist. You can quantify and compare makeup actions. The comparison result may be presented to the user as a score, or the difference in makeup action between the user and a person who is good at makeup, such as a makeup artist, may be visually presented to the user. Further, based on the comparison result, the information processing device 1 according to the present embodiment may present a makeup technique to the user so that the user's makeup behavior approaches that of a makeup artist or other person skilled in makeup.

例えば本実施形態に係る情報処理装置1はチーク/ファンデーションなど、広い面積に塗るメーキャップ製品塗布時の塗布面積判定及び塗布範囲のレクチャーをユーザに対して行うことができる。また、本実施形態に係る情報処理装置1はアイライナー/アイシャドウ/コンシーラーなど、テクニックが難しいメーキャップ製品使用時の動きの正誤判定及びレクチャーをユーザに対して行うことができる。さらに、本実施形態に係る情報処理装置1はヘアワックス(ヘア製品)の塗布方法のレクチャー、スキンケア製品の塗布方法のレクチャー又はマッサージ方法のレクチャーをユーザに対して行うこともできる。 For example, the information processing device 1 according to the present embodiment can provide a user with a lecture on the application area determination and application range when applying a makeup product such as blush/foundation over a wide area. Further, the information processing device 1 according to the present embodiment can judge whether the movements are correct or incorrect when using a makeup product such as eyeliner/eyeshadow/concealer that requires a difficult technique and give a lecture to the user. Furthermore, the information processing device 1 according to the present embodiment can also give a lecture to the user on how to apply hair wax (hair product), a lecture on how to apply a skin care product, or a lecture on a massage method.

また、本実施形態に係る情報処理装置1は骨格がシャープなユーザと丸めなユーザとでチーク(頬紅)の入れ方など、メークのやり方が異なる場合があるため、ユーザの顔立ちにあったメークのリコメンドと、そのメークを実現するためのテクニックをレクチャーしてもよい。 In addition, the information processing device 1 according to the present embodiment may apply makeup in a manner that suits the user's facial features, since users with sharp bones and users with round bones may apply makeup in different ways, such as how to apply blush. You can also give recommendations and lectures on techniques to achieve the makeup.

[第2の実施形態]
第2の実施形態に係る情報処理システムは、一部を除いて第1の実施形態に係る情報処理システムと同様であるため、適宜説明を省略する。第2の実施形態の情報処理システムは図5の領域検出部12に替えて、図9の領域検出部12を備えた構成である。図9は領域検出部の一例の構成図である。図9の領域検出部12は、フレーム化部50、肌色領域抽出部52、領域分割部54、顔領域検出部56、手領域検出部58、力場計算部60及びチャンネル計算部62を有する構成である。
[Second embodiment]
The information processing system according to the second embodiment is the same as the information processing system according to the first embodiment except for some parts, so the description will be omitted as appropriate. The information processing system of the second embodiment has a configuration including the area detection section 12 shown in FIG. 9 in place of the area detection section 12 shown in FIG. FIG. 9 is a configuration diagram of an example of the area detection section. The region detection section 12 in FIG. 9 includes a framing section 50, a skin color region extraction section 52, a region division section 54, a face region detection section 56, a hand region detection section 58, a force field calculation section 60, and a channel calculation section 62. It is.

フレーム化部50は入力されたメーク動画をフレーム画像の単位で肌色領域抽出部52に提供する。肌色領域抽出部52はフレーム画像から肌色領域を抽出する。領域分割部54は肌色領域抽出部52が抽出した肌色領域を候補ブロブに分割し、更に、候補ブロブのラベリングを行う。領域分割部54はラベル付けされた候補ブロブを顔領域検出部56及び手領域検出部58に提供する。 The framing unit 50 provides the input makeup video to the skin color area extraction unit 52 in units of frame images. The skin color area extraction unit 52 extracts a skin color area from the frame image. The region dividing section 54 divides the skin color region extracted by the skin color region extracting section 52 into candidate blobs, and further performs labeling of the candidate blobs. The region dividing section 54 provides the labeled candidate blobs to the face region detecting section 56 and the hand region detecting section 58 .

顔領域検出部56は提供された候補ブロブのラベル(分割された肌色領域の特徴)に基づいて、顔領域の候補ブロブを分類(顔領域を検出)する。また、手領域検出部58は領域分割部54から提供された候補ブロブのラベル(分割された肌色領域の特徴)と、顔領域検出部56により分類された顔領域の候補ブロブとに基づいて、手領域の候補ブロブを分類(手領域を検出)する。 The face area detection unit 56 classifies candidate blobs of the face area (detects the face area) based on the provided label of the candidate blob (features of the divided skin color areas). Furthermore, based on the label of the candidate blob (features of the divided skin color region) provided from the region dividing section 54 and the candidate blob of the face region classified by the face region detecting section 56, the hand region detecting section 58 performs the following operations. Classify hand region candidate blobs (detect hand region).

図9の顔領域検出部56及び手領域検出部58は、図10に示すように、先に顔領域検出部56が顔領域の候補ブロブを分類し、顔領域の候補ブロブを除外して、手領域検出部58が手領域の候補ブロブを分類する。したがって、本実施形態では手領域の誤検出を防止できる。 As shown in FIG. 10, the face area detection unit 56 and the hand area detection unit 58 in FIG. 9 first classify candidate blobs of the face area, exclude candidate blobs of the face area, The hand region detection unit 58 classifies candidate blobs of the hand region. Therefore, in this embodiment, erroneous detection of the hand area can be prevented.

力場計算部60は顔領域検出部56において顔領域の候補ブロブを分類できなかった場合に、顔領域と手領域との干渉が発生していると判断し、次のような処理を行う。力場計算部60は前フレーム(t-1)の顔領域及び手領域の候補ブロブと現フレーム(t)のラベル付けされた候補ブロブとが提供される。 If the face area detection unit 56 is unable to classify the candidate blob of the face area, the force field calculation unit 60 determines that interference between the face area and the hand area has occurred, and performs the following processing. The force field calculation unit 60 is provided with candidate blobs of the face region and hand region of the previous frame (t-1) and labeled candidate blobs of the current frame (t).

力場計算部60は図11に示すように、力場(Force Field)により候補ブロブの画像内に多量のチャンネル(Channel)を設定する。チャンネル計算部62は、前フレームからの移動距離をチャンネルごとに計算し、移動距離の大きいチャンネルの候補ブロブを、動いている手の候補ブロブであると仮定することにより、手領域及び顔領域の候補ブロブを分類できる。 As shown in FIG. 11, the force field calculation unit 60 sets a large number of channels within the candidate blob image using a force field. The channel calculation unit 62 calculates the movement distance from the previous frame for each channel, and assumes that the candidate blob of the channel with a large movement distance is the candidate blob of the hand that is moving. Can classify candidate blobs.

なお、領域検出部12の力場計算部60及びチャンネル計算部62は移動距離の大きさに加えて、手領域らしい動きをクラスタリングしておくことで、手領域及び顔領域の候補ブロブの誤検出を更に防止できる。 Note that the force field calculation unit 60 and channel calculation unit 62 of the region detection unit 12 cluster the movements that are typical of the hand region in addition to the size of the movement distance, thereby preventing false detection of candidate blobs in the hand region and face region. can be further prevented.

(まとめ)
以上、本実施形態によれば、センサーなどを装着することなく、撮影済みのメーク動画に写る人物の化粧動作を定量化でき、メークテクニックの提供や教示が可能となる。本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば本実施形態では、二次元の動画データを一例として説明したが、三次元の動画データであってもよい。本実施形態によれば、二次元の動画データと同様なデータ解析、又は二次元の動画データ解析に三次元情報を組み合わせた解析により、三次元の動画データに写る人物の化粧動作を定量化でき、メークテクニックの提供や教示が可能となる。
(summary)
As described above, according to the present embodiment, it is possible to quantify the makeup actions of a person in a shot makeup video without wearing a sensor or the like, and it is possible to provide and teach makeup techniques. The present invention is not limited to the above-described specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims. For example, in this embodiment, two-dimensional video data has been described as an example, but three-dimensional video data may also be used. According to this embodiment, it is possible to quantify makeup movements of a person in 3D video data through data analysis similar to 2D video data or analysis that combines 2D video data analysis with 3D information. , it becomes possible to provide and teach makeup techniques.

以上、本発明を実施例に基づいて説明したが、本発明は上記実施例に限定されるものではなく、特許請求の範囲に記載の範囲内で様々な変形が可能である。本願は、日本特許庁に2018年10月24日に出願された基礎出願2018―199739号の優先権を主張するものであり、その全内容を参照によりここに援用する。 Although the present invention has been described above based on examples, the present invention is not limited to the above-mentioned examples, and various modifications can be made within the scope of the claims. This application claims priority to Basic Application No. 2018-199739 filed with the Japan Patent Office on October 24, 2018, and the entire contents thereof are incorporated herein by reference.

1 情報処理装置
2 クライアント端末
3 サーバ装置
4 ネットワーク
10 操作受付部
12 領域検出部
14 定量化部
16 後処理部
18 動画データ記憶部
20 フレーム化部
22 顔領域検出部
24 手領域検出部
26 顔特徴点検出部
50 フレーム化部
52 肌色領域抽出部
54 領域分割部
56 顔領域検出部
58 手領域検出部
60 力場計算部
62 チャンネル計算部
1 Information processing device 2 Client terminal 3 Server device 4 Network 10 Operation reception unit 12 Area detection unit 14 Quantification unit 16 Post-processing unit 18 Video data storage unit 20 Framing unit 22 Face area detection unit 24 Hand area detection unit 26 Facial features Point detection section 50 Framing section 52 Skin color region extraction section 54 Region division section 56 Face region detection section 58 Hand region detection section 60 Force field calculation section 62 Channel calculation section

Claims (10)

メーク又はスキンケアの動画データに写る人物の化粧動作を解析するようにコンピュータを機能させるためのプログラムであって、
前記コンピュータを、
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段、
前記動画データから前記人物の手が写る手領域を検出する第2の検出手段、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段、
として機能させるためのプログラム。
A program for operating a computer to analyze the makeup movements of a person in makeup or skin care video data,
The computer,
a first detection means for detecting a face area in which the person's face is captured from the video data;
a second detection means for detecting a hand region in which the person's hand is captured from the video data;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. output means for quantifying and outputting the fineness of hand and elbow coordination, or the fineness of hand movements and facial movements;
A program to function as
前記第1の検出手段は、
顔領域学習モデルを用いて前記動画データから前記人物の顔領域を検出する顔領域検出手段と、
顔パーツ特徴点学習モデルを用いて前記顔領域から顔パーツ領域を検出する顔パーツ領域検出手段と、
を有し、
前記第2の検出手段は、
前記化粧動作の手領域学習モデルを用いて前記動画データから前記人物の手領域を検出する手領域検出手段と、
前記化粧動作の指先位置領域学習モデルを用いて前記手領域から指先位置領域を検出する指先位置領域検出手段と、
を有することを特徴とする請求項1記載のプログラム。
The first detection means includes:
face area detection means for detecting the face area of the person from the video data using a face area learning model;
facial part area detection means for detecting a facial part area from the facial area using a facial part feature point learning model;
has
The second detection means includes:
hand area detection means for detecting the hand area of the person from the video data using the hand area learning model of the makeup action;
Fingertip position area detection means for detecting a fingertip position area from the hand area using the fingertip position area learning model of the makeup action;
2. The program according to claim 1, comprising:
前記顔領域学習モデルは、顔領域の一部が手領域で隠れた状態の教師データを顔領域学習データセットに用いて学習した畳み込みニューラルネットワークであること
を特徴とする請求項記載のプログラム。
3. The computer program product according to claim 2 , wherein the facial area learning model is a convolutional neural network trained using teacher data in which a part of the facial area is hidden by a hand area as a facial area learning data set.
前記手領域学習モデルは、化粧中の手の形の教師データを手領域学習データセットに用いて学習した畳み込みニューラルネットワークであり、前記指先位置領域学習モデルは、化粧中の指先の位置の教師データを指先位置領域学習データセットに用いて学習した畳み込みニューラルネットワークであること
を特徴とする請求項記載のプログラム。
The hand region learning model is a convolutional neural network that is trained using training data of the shape of a hand while applying makeup as a hand region learning dataset, and the fingertip position region learning model is trained using training data of the position of a fingertip while applying makeup. 3. The program according to claim 2 , wherein the program is a convolutional neural network trained using a fingertip position region learning data set.
前記コンピュータを、
前記動画データから肌色領域を抽出する抽出手段、
前記肌色領域を分割領域に分割する分割手段、
として更に機能させ、
前記第1の検出手段は、前記分割領域の特徴量に基づき、前記肌色領域から前記人物の顔が写る顔領域を検出し、
前記第2の検出手段は、前記分割領域の特徴量に基づき、前記人物の顔が写る顔領域として検出された前記肌色領域を除外した前記肌色領域から前記人物の手が写る手領域を検出すること
を特徴とする請求項1記載のプログラム。
The computer,
extraction means for extracting a skin color region from the video data;
dividing means for dividing the skin color region into divided regions;
further function as
The first detection means detects a face area in which the face of the person is reflected from the skin color area based on the feature amount of the divided area,
The second detection means detects a hand region in which the person's hand is captured from the skin color region excluding the skin color region detected as a face region in which the person's face is captured, based on the feature amount of the divided region. The program according to claim 1, characterized in that:
前記コンピュータを、
前記第1の検出手段が前記肌色領域から前記人物の顔が写る顔領域を検出できない場合に、前記動画データを構成するフレーム画像間における前記分割領域の移動距離を検出して、移動距離の大きい前記分割領域を前記人物の手が写る手領域であると仮定する第3の検出手段、
として更に機能させること
を特徴とする請求項記載のプログラム。
The computer,
When the first detection means cannot detect a face area in which the person's face is reflected from the skin color area, the first detection means detects the movement distance of the divided area between frame images forming the video data, and detects the movement distance of the divided area between the frame images forming the video data. a third detection means that assumes that the divided area is a hand area in which the person's hand is captured;
6. The program according to claim 5 , further functioning as a program.
前記出力手段は、2つの前記動画データに写る人物の化粧動作を定量化して算出した出力の比較結果に基づき、2つの前記動画データに写る人物の化粧動作の違いを視覚的に表した画像を出力すること
を特徴とする請求項1記載のプログラム。
The output means outputs an image visually representing a difference in the makeup actions of the people shown in the two video data, based on a comparison result of an output calculated by quantifying the makeup actions of the people shown in the two video data. 2. The program according to claim 1, wherein the program outputs an output.
メーク又はスキンケアの動画データに写る人物の化粧動作を解析する情報処理装置であって、
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段と、
前記動画データから前記人物の手が写る手領域を検出する第2の検出手段と、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段と、
を有する情報処理装置。
An information processing device that analyzes makeup movements of a person appearing in makeup or skin care video data, the information processing device comprising:
a first detection means for detecting a facial area in which the person's face is captured from the video data;
a second detection means for detecting a hand region in which the person's hand is captured from the video data;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. output means for quantifying and outputting the fineness of the hand and the hand-elbow coordination, or the fineness of the hand movement and the facial movement;
An information processing device having:
メーク又はスキンケアの動画データに写る人物の化粧動作を解析する情報処理装置において実行される定量化方法であって、
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出ステップと、
前記動画データから前記人物の手が写る手領域を検出する第2の検出ステップと、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力ステップと、
を有する定量化方法。
A quantification method executed in an information processing device that analyzes makeup movements of a person in makeup or skin care video data, the method comprising:
a first detection step of detecting a facial area in which the person's face is captured from the video data;
a second detection step of detecting a hand region in which the person's hand is captured from the video data;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. an output step of quantifying and outputting the fineness of the hand and the coordination of the hand and the elbow, or the fineness of the hand movement and the movement of the face;
A quantification method with
ユーザからの操作を受け付けるクライアント端末と、前記クライアント端末が前記ユーザから受け付けた操作に基づき、メーク又はスキンケアの動画データに写る人物の化粧動作を解析するサーバ装置と、を有する情報処理システムであって
前記サーバ装置は、
前記クライアント端末が前記ユーザから受け付けた操作の情報を受信する受信手段と、
前記ユーザから受け付けた操作に基づき、前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段と、
前記ユーザから受け付けた操作に基づき、前記動画データから前記人物の手が写る手領域を検出する第2の検出手段と、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから取得した前記動画データに写る人物の化粧動作中の手の座標及び速度と顔の座標及び速度から、手動作の細かさ及び手と肘の連動性、または、手動作の細かさ及び顔の動きを定量化して算出し、出力する出力手段と、
前記出力手段の出力を前記クライアント端末に送信する送信手段と、
を有する情報処理システム。
An information processing system comprising: a client terminal that receives operations from a user; and a server device that analyzes makeup actions of a person in makeup or skin care video data based on the operations that the client terminal receives from the user. The server device includes:
receiving means for receiving information on an operation that the client terminal has accepted from the user;
a first detection means for detecting a facial area in which the person's face is captured from the video data based on an operation received from the user;
a second detection means for detecting a hand region in which the person's hand is captured from the video data based on an operation received from the user;
Based on the detected face area and the hand area, the hand movement is determined from the hand coordinates and speed of the person appearing in the video data acquired from the movements of the face area and the hand area, and the coordinates and speed of the face during the makeup movement. output means for quantifying and outputting the fineness of the hand and the hand-elbow coordination, or the fineness of the hand movement and the facial movement;
transmitting means for transmitting the output of the output means to the client terminal;
An information processing system with
JP2020552524A 2018-10-24 2019-07-08 Program, information processing device, quantification method, and information processing system Active JP7408562B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018199739 2018-10-24
JP2018199739 2018-10-24
PCT/JP2019/027052 WO2020084842A1 (en) 2018-10-24 2019-07-08 Program, information processing device, quantification method, and information processing system

Publications (2)

Publication Number Publication Date
JPWO2020084842A1 JPWO2020084842A1 (en) 2021-10-07
JP7408562B2 true JP7408562B2 (en) 2024-01-05

Family

ID=70331505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020552524A Active JP7408562B2 (en) 2018-10-24 2019-07-08 Program, information processing device, quantification method, and information processing system

Country Status (4)

Country Link
JP (1) JP7408562B2 (en)
CN (1) CN112912925A (en)
TW (1) TW202016881A (en)
WO (1) WO2020084842A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102586144B1 (en) * 2021-09-23 2023-10-10 주식회사 딥비전 Method and apparatus for hand movement tracking using deep learning
CN114407913B (en) * 2022-01-27 2022-10-11 星河智联汽车科技有限公司 Vehicle control method and device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072861A (en) 2000-09-01 2002-03-12 Ibic Service:Kk Hairdressing art lecture system
JP2003216955A (en) 2002-01-23 2003-07-31 Sharp Corp Method and device for gesture recognition, dialogue device, and recording medium with gesture recognition program recorded thereon
JP2017208051A (en) 2016-05-20 2017-11-24 日本電信電話株式会社 Technical support device, method, program, and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015029372A1 (en) * 2013-08-30 2015-03-05 パナソニックIpマネジメント株式会社 Makeup assistance device, makeup assistance system, makeup assistance method, and makeup assistance program
TWI669103B (en) * 2014-11-14 2019-08-21 日商新力股份有限公司 Information processing device, information processing method and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072861A (en) 2000-09-01 2002-03-12 Ibic Service:Kk Hairdressing art lecture system
JP2003216955A (en) 2002-01-23 2003-07-31 Sharp Corp Method and device for gesture recognition, dialogue device, and recording medium with gesture recognition program recorded thereon
JP2017208051A (en) 2016-05-20 2017-11-24 日本電信電話株式会社 Technical support device, method, program, and system

Also Published As

Publication number Publication date
JPWO2020084842A1 (en) 2021-10-07
WO2020084842A1 (en) 2020-04-30
CN112912925A (en) 2021-06-04
TW202016881A (en) 2020-05-01

Similar Documents

Publication Publication Date Title
Memo et al. Head-mounted gesture controlled interface for human-computer interaction
Cheng et al. An image-to-class dynamic time warping approach for both 3D static and trajectory hand gesture recognition
Le et al. Human posture recognition using human skeleton provided by Kinect
Turk et al. Perceptual interfaces
Malassiotis et al. Real-time hand posture recognition using range data
Liang et al. Barehanded music: real-time hand interaction for virtual piano
CN105247453A (en) Virtual and augmented reality instruction system
Antoshchuk et al. Gesture recognition-based human–computer interaction interface for multimedia applications
JP7408562B2 (en) Program, information processing device, quantification method, and information processing system
US20190187780A1 (en) Determination apparatus and determination method
Varona et al. Toward natural interaction through visual recognition of body gestures in real-time
Yong et al. Emotion recognition in gamers wearing head-mounted display
Nabati et al. 3D Head pose estimation and camera mouse implementation using a monocular video camera
Gupta et al. Hands-free PC Control” controlling of mouse cursor using eye movement
Koutras et al. Estimation of eye gaze direction angles based on active appearance models
Ueng et al. Vision based multi-user human computer interaction
Yang et al. 3D character recognition using binocular camera for medical assist
Sippl et al. Real-time gaze tracking for public displays
Raees et al. THE-3DI: Tracing head and eyes for 3D interactions: An interaction technique for virtual environments
Anwar Real time facial expression recognition and eye gaze estimation system
Pradeep et al. Advancement of sign language recognition through technology using python and OpenCV
Adiani et al. Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results
Anwar et al. Real Time Eye Blink Detection Method for Android Device Controlling
Cazzato et al. Pervasive retail strategy using a low-cost free gaze estimation system
Alobaidi et al. New In-Air Signature Datasets

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220509

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R150 Certificate of patent or registration of utility model

Ref document number: 7408562

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150