JPWO2020084842A1 - プログラム、情報処理装置、定量化方法及び情報処理システム - Google Patents
プログラム、情報処理装置、定量化方法及び情報処理システム Download PDFInfo
- Publication number
- JPWO2020084842A1 JPWO2020084842A1 JP2020552524A JP2020552524A JPWO2020084842A1 JP WO2020084842 A1 JPWO2020084842 A1 JP WO2020084842A1 JP 2020552524 A JP2020552524 A JP 2020552524A JP 2020552524 A JP2020552524 A JP 2020552524A JP WO2020084842 A1 JPWO2020084842 A1 JP WO2020084842A1
- Authority
- JP
- Japan
- Prior art keywords
- area
- hand
- face
- person
- moving image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 40
- 238000000034 method Methods 0.000 title claims description 29
- 238000011002 quantification Methods 0.000 title claims description 13
- 239000002537 cosmetic Substances 0.000 claims abstract description 7
- 238000001514 detection method Methods 0.000 claims description 90
- 238000013527 convolutional neural network Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 20
- 238000012545 processing Methods 0.000 description 12
- 238000012805 post-processing Methods 0.000 description 8
- 238000012617 force field calculation Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000001815 facial effect Effects 0.000 description 4
- 239000011248 coating agent Substances 0.000 description 3
- 238000000576 coating method Methods 0.000 description 3
- 210000004247 hand Anatomy 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007405 data analysis Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 241001237961 Amanita rubescens Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003796 beauty Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
<システム構成>
図1A及び図1Bは、本実施形態に係る情報処理システムの一例の構成図である。図1Aの情報処理システムは単体の情報処理装置1を備えている。情報処理装置1は、ユーザが操作するPC、スマートフォン、タブレット、家庭用や業務用の化粧動作を定量化する専用機器などである。
図1A及び図1Bの情報処理装置1、クライアント端末2及びサーバ装置3は、例えば図2に示すようなハードウェア構成のコンピュータにより実現される。図2は、本実施形態に係るコンピュータの一例のハードウェア構成図である。
化粧動作の定量化の方法としては、例えばセンサーを用いるものがある。センサーを用いる化粧動作の定量化の方法ではメークを行う人物にセンサーを装着してもらい、メーク動作を行ってもらう。センサーを用いる化粧動作の定量化の方法では、センサーから出力されたデータにより人物の化粧動作を定量化することができるが、撮影済みのメーク動画に写る人物の化粧動作を定量化できない。
メーク動画から取得する対象を把握するため、被験者の化粧動作中の動きをモーションキャプチャで計測した。なお、測定部位は、右手中指先端、中指根元、手の甲中央、手首中央、肘、額の計6カ所である。解析対象は、測定部位の座標(変位)と速度と加速度と角速度である。このように解析した被験者の動きの主成分は、化粧動作中の主要な動きの要素と推定できる。
メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得する手法としては、畳み込みニューラルネットワーク(以下、CNNと呼ぶ)を用いた画像認識がある。CNNを用いた画像認識では、二次元画像から顔領域及び手領域を検出することができるので、メーク動画のフレーム画像から検出した顔領域及び手領域をトラッキング(追跡)することで、メーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度とを取得できる。なお、本実施形態のCNNを用いた画像認識の詳細については後述する。
《機能ブロック》
本実施形態に係る情報処理システムのソフトウェア構成について説明する。なお、ここでは図1Aに示した情報処理装置1を一例として説明する。図4は本実施形態に係る情報処理システムの一例の機能ブロック図である。情報処理装置1はプログラムを実行することにより、操作受付部10、領域検出部12、定量化部14、後処理部16及び動画データ記憶部18を実現している。
《顔領域検出及び顔特徴点検出》
領域検出部12がフレーム画像に写る人物の顔領域を検出する処理は、例えば図6に示すように行われる。図6は、フレーム画像に写る人物の顔領域を検出する処理の一例のイメージ図である。
領域検出部12がフレーム画像に写る人物の手領域を検出する処理は、例えば図8に示すように行われる。図8は、フレーム画像に写る人物の手領域を検出する処理の一例のイメージ図である。
本実施形態に係る情報処理装置1は、例えばメーク動画に写る人物の化粧動作中の手の座標・速度と、顔の座標・速度から、手動作の細かさ、手と肘の連動性、及び、顔の動きを算出し、出力できる。このような手動作の細かさ、手と肘の連動性、及び、顔の動きの出力は化粧動作の研究などに有用である。
第2の実施形態に係る情報処理システムは、一部を除いて第1の実施形態に係る情報処理システムと同様であるため、適宜説明を省略する。第2の実施形態の情報処理システムは図5の領域検出部12に替えて、図9の領域検出部12を備えた構成である。図9は領域検出部の一例の構成図である。図9の領域検出部12は、フレーム化部50、肌色領域抽出部52、領域分割部54、顔領域検出部56、手領域検出部58、力場計算部60及びチャンネル計算部62を有する構成である。
以上、本実施形態によれば、センサーなどを装着することなく、撮影済みのメーク動画に写る人物の化粧動作を定量化でき、メークテクニックの提供や教示が可能となる。本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば本実施形態では、二次元の動画データを一例として説明したが、三次元の動画データであってもよい。本実施形態によれば、二次元の動画データと同様なデータ解析、又は二次元の動画データ解析に三次元情報を組み合わせた解析により、三次元の動画データに写る人物の化粧動作を定量化でき、メークテクニックの提供や教示が可能となる。
2 クライアント端末
3 サーバ装置
4 ネットワーク
10 操作受付部
12 領域検出部
14 定量化部
16 後処理部
18 動画データ記憶部
20 フレーム化部
22 顔領域検出部
24 手領域検出部
26 顔特徴点検出部
50 フレーム化部
52 肌色領域抽出部
54 領域分割部
56 顔領域検出部
58 手領域検出部
60 力場計算部
62 チャンネル計算部
Claims (11)
- 動画データを解析して、前記動画データに写る人物の化粧動作を定量化した値を出力するようにコンピュータを機能させるためのプログラムであって、
前記コンピュータを、
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段、
前記動画データから前記人物の手が写る手領域を検出する第2の検出手段、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから前記動画データに写る人物の化粧動作を定量化した値を出力する出力手段、
として機能させるためのプログラム。 - 前記第1の検出手段は、
顔領域学習モデルを用いて前記動画データから前記人物の顔領域を検出する顔領域検出手段と、
顔パーツ特徴点学習モデルを用いて前記顔領域から顔パーツ領域を検出する顔パーツ領域検出手段と、
を有し、
前記第2の検出手段は、
前記化粧動作の手領域学習モデルを用いて前記動画データから前記人物の手領域を検出する手領域検出手段と、
前記化粧動作の指先位置領域学習モデルを用いて前記手領域から指先位置領域を検出する指先位置領域検出手段と、
を有することを特徴とする請求項1記載のプログラム。 - 前記顔領域学習モデルは、顔領域の一部が手領域で隠れた状態の教師データを顔領域学習データセットに用いて学習した畳み込みニューラルネットワークであること
を特徴とする請求項2記載のプログラム。 - 前記手領域学習モデルは、化粧中の手の形の教師データを手領域学習データセットに用いて学習した畳み込みニューラルネットワークであり、前記指先位置領域学習モデルは、化粧中の指先の位置の教師データを指先位置領域学習データセットに用いて学習した畳み込みニューラルネットワークであること
を特徴とする請求項2記載のプログラム。 - 前記コンピュータを、
前記動画データから肌色領域を抽出する抽出手段、
前記肌色領域を分割領域に分割する分割手段、
として更に機能させ、
前記第1の検出手段は、前記分割領域の特徴量に基づき、前記肌色領域から前記人物の顔が写る顔領域を検出し、
前記第2の検出手段は、前記分割領域の特徴量に基づき、前記人物の顔が写る顔領域として検出された前記肌色領域を除外した前記肌色領域から前記人物の手が写る手領域を検出すること
を特徴とする請求項1記載のプログラム。 - 前記コンピュータを、
前記第1の検出手段が前記肌色領域から前記人物の顔が写る顔領域を検出できない場合に、前記動画データを構成するフレーム画像間における前記分割領域の移動距離を検出して、移動距離の大きい前記分割領域を前記人物の手が写る手領域であると仮定する第3の検出手段、
として更に機能させること
を特徴とする請求項5記載のプログラム。 - 前記出力手段は、前記動画データに写る人物の化粧動作を定量化した値として、化粧動作中の手の座標・速度と、顔の座標・速度とを出力すること
を特徴とする請求項1記載のプログラム。 - 前記出力手段は、2つの前記動画データに写る人物の化粧動作を定量化した値の比較結果に基づき、2つの前記動画データに写る人物の化粧動作の違いを視覚的に表した画像を出力すること
を特徴とする請求項1記載のプログラム。 - 動画データを解析して、前記動画データに写る人物の化粧動作を定量化した値を出力する情報処理装置であって
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段と、
前記動画データから前記人物の手が写る手領域を検出する第2の検出手段と、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから前記動画データに写る人物の化粧動作を定量化した値を出力する出力手段と、
を有する情報処理装置。 - 動画データを解析して、前記動画データに写る人物の化粧動作を定量化した値を出力する情報処理装置において実行される定量化方法であって、
前記動画データから前記人物の顔が写る顔領域を検出する第1の検出ステップと、
前記動画データから前記人物の手が写る手領域を検出する第2の検出ステップと、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから前記動画データに写る人物の化粧動作を定量化した値を出力する出力ステップと、
を有する定量化方法。 - ユーザからの操作を受け付けるクライアント端末と、前記クライアント端末が前記ユーザから受け付けた操作に基づき、動画データを解析して、前記動画データに写る人物の化粧動作を定量化した値を出力して前記クライアント端末に提供するサーバ装置と、を有する情報処理システムであって
前記サーバ装置は、
前記クライアント端末が前記ユーザから受け付けた操作の情報を受信する受信手段と、
前記ユーザから受け付けた操作に基づき、前記動画データから前記人物の顔が写る顔領域を検出する第1の検出手段と、
前記ユーザから受け付けた操作に基づき、前記動画データから前記人物の手が写る手領域を検出する第2の検出手段と、
検出した前記顔領域及び前記手領域に基づき、前記顔領域及び前記手領域の動きから前記動画データに写る人物の化粧動作を定量化した値を出力する出力手段と、
出力した前記値を前記クライアント端末に送信する送信手段と、
を有する情報処理システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018199739 | 2018-10-24 | ||
JP2018199739 | 2018-10-24 | ||
PCT/JP2019/027052 WO2020084842A1 (ja) | 2018-10-24 | 2019-07-08 | プログラム、情報処理装置、定量化方法及び情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020084842A1 true JPWO2020084842A1 (ja) | 2021-10-07 |
JP7408562B2 JP7408562B2 (ja) | 2024-01-05 |
Family
ID=70331505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020552524A Active JP7408562B2 (ja) | 2018-10-24 | 2019-07-08 | プログラム、情報処理装置、定量化方法及び情報処理システム |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7408562B2 (ja) |
CN (1) | CN112912925A (ja) |
TW (1) | TW202016881A (ja) |
WO (1) | WO2020084842A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102586144B1 (ko) * | 2021-09-23 | 2023-10-10 | 주식회사 딥비전 | 딥러닝을 이용한 손 움직임 추적방법 및 장치 |
CN114407913B (zh) * | 2022-01-27 | 2022-10-11 | 星河智联汽车科技有限公司 | 一种车辆控制方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072861A (ja) * | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | 理容技術講習システム |
JP2003216955A (ja) * | 2002-01-23 | 2003-07-31 | Sharp Corp | ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体 |
JP2017208051A (ja) * | 2016-05-20 | 2017-11-24 | 日本電信電話株式会社 | 技術支援装置、方法、プログラムおよびシステム |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015029372A1 (ja) * | 2013-08-30 | 2015-03-05 | パナソニックIpマネジメント株式会社 | メイクアップ支援装置、メイクアップ支援システム、メイクアップ支援方法、およびメイクアップ支援プログラム |
TWI669103B (zh) * | 2014-11-14 | 2019-08-21 | 日商新力股份有限公司 | 資訊處理裝置、資訊處理方法及程式 |
-
2019
- 2019-07-08 CN CN201980069716.8A patent/CN112912925A/zh active Pending
- 2019-07-08 WO PCT/JP2019/027052 patent/WO2020084842A1/ja active Application Filing
- 2019-07-08 JP JP2020552524A patent/JP7408562B2/ja active Active
- 2019-07-24 TW TW108126136A patent/TW202016881A/zh unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072861A (ja) * | 2000-09-01 | 2002-03-12 | Ibic Service:Kk | 理容技術講習システム |
JP2003216955A (ja) * | 2002-01-23 | 2003-07-31 | Sharp Corp | ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体 |
JP2017208051A (ja) * | 2016-05-20 | 2017-11-24 | 日本電信電話株式会社 | 技術支援装置、方法、プログラムおよびシステム |
Also Published As
Publication number | Publication date |
---|---|
WO2020084842A1 (ja) | 2020-04-30 |
CN112912925A (zh) | 2021-06-04 |
JP7408562B2 (ja) | 2024-01-05 |
TW202016881A (zh) | 2020-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kishore et al. | Motionlets matching with adaptive kernels for 3-d indian sign language recognition | |
Lee et al. | Hands holding clues for object recognition in teachable machines | |
Turk et al. | Perceptual interfaces | |
Poppe et al. | AMAB: Automated measurement and analysis of body motion | |
Liang et al. | Barehanded music: real-time hand interaction for virtual piano | |
Badi et al. | Hand posture and gesture recognition technology | |
Antoshchuk et al. | Gesture recognition-based human–computer interaction interface for multimedia applications | |
Paul et al. | Hand segmentation from complex background for gesture recognition | |
Varona et al. | Toward natural interaction through visual recognition of body gestures in real-time | |
JP7408562B2 (ja) | プログラム、情報処理装置、定量化方法及び情報処理システム | |
Santhalingam et al. | Synthetic smartwatch imu data generation from in-the-wild asl videos | |
Gupta et al. | Hands-free PC Control” controlling of mouse cursor using eye movement | |
Greinacher et al. | Accuracy assessment of ARKit 2 based gaze estimation | |
Ueng et al. | Vision based multi-user human computer interaction | |
Annachhatre et al. | Virtual Mouse Using Hand Gesture Recognition-A Systematic Literature Review | |
Pradeep et al. | Advancement of sign language recognition through technology using python and OpenCV | |
Raees et al. | THE-3DI: Tracing head and eyes for 3D interactions: An interaction technique for virtual environments | |
Anwar et al. | Real Time Eye Blink Detection Method for Android Device Controlling | |
Sheeba et al. | Detection of Gaze Direction for Human–Computer Interaction | |
Adiani et al. | Evaluation of webcam-based eye tracking for a job interview training platform: Preliminary results | |
Divkar et al. | Gesture Based Real-time Indian Sign Language Interpreter [J] | |
Cazzato et al. | Pervasive retail strategy using a low-cost free gaze estimation system | |
Alobaidi et al. | New In-Air Signature Datasets | |
Singh et al. | Media Control Using Hand Gestures | |
US20230027320A1 (en) | Movement Disorder Diagnostics from Video Data Using Body Landmark Tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230616 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230912 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231023 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7408562 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |