JP2024529958A - パーソナルケアモニタリング及びフィードバック - Google Patents
パーソナルケアモニタリング及びフィードバック Download PDFInfo
- Publication number
- JP2024529958A JP2024529958A JP2024504795A JP2024504795A JP2024529958A JP 2024529958 A JP2024529958 A JP 2024529958A JP 2024504795 A JP2024504795 A JP 2024504795A JP 2024504795 A JP2024504795 A JP 2024504795A JP 2024529958 A JP2024529958 A JP 2024529958A
- Authority
- JP
- Japan
- Prior art keywords
- user
- personal care
- brush
- hair
- appliance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims description 9
- 238000000034 method Methods 0.000 claims abstract description 99
- 230000008921 facial expression Effects 0.000 claims abstract description 32
- 239000003550 marker Substances 0.000 claims description 94
- 208000002193 Pain Diseases 0.000 claims description 72
- 230000036407 pain Effects 0.000 claims description 72
- 230000001133 acceleration Effects 0.000 claims description 36
- 230000000694 effects Effects 0.000 claims description 15
- 230000009471 action Effects 0.000 claims description 10
- 230000014509 gene expression Effects 0.000 claims description 9
- 238000011282 treatment Methods 0.000 claims description 9
- 230000002996 emotional effect Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims 1
- 230000003745 detangling effect Effects 0.000 description 89
- 230000001680 brushing effect Effects 0.000 description 59
- 210000003128 head Anatomy 0.000 description 53
- 230000033001 locomotion Effects 0.000 description 50
- 230000001815 facial effect Effects 0.000 description 46
- 238000001514 detection method Methods 0.000 description 40
- 230000008569 process Effects 0.000 description 40
- 230000009429 distress Effects 0.000 description 35
- 230000008451 emotion Effects 0.000 description 35
- 238000004458 analytical method Methods 0.000 description 23
- 230000000875 corresponding effect Effects 0.000 description 22
- 238000012549 training Methods 0.000 description 16
- 238000010801 machine learning Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 238000001914 filtration Methods 0.000 description 11
- 230000003370 grooming effect Effects 0.000 description 10
- 238000013527 convolutional neural network Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 7
- 210000001331 nose Anatomy 0.000 description 6
- 210000001508 eye Anatomy 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 210000001097 facial muscle Anatomy 0.000 description 4
- 238000005406 washing Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000000861 blow drying Methods 0.000 description 3
- 210000003467 cheek Anatomy 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003646 hair health Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 210000002966 serum Anatomy 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 239000000126 substance Substances 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- XEEYBQQBJWHFJM-UHFFFAOYSA-N Iron Chemical compound [Fe] XEEYBQQBJWHFJM-UHFFFAOYSA-N 0.000 description 2
- 230000004913 activation Effects 0.000 description 2
- 238000001994 activation Methods 0.000 description 2
- 238000000418 atomic force spectrum Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000008909 emotion recognition Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000037308 hair color Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000002453 shampoo Substances 0.000 description 2
- 239000007921 spray Substances 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 208000001840 Dandruff Diseases 0.000 description 1
- 238000012413 Fluorescence activated cell sorting analysis Methods 0.000 description 1
- 206010061991 Grimacing Diseases 0.000 description 1
- 208000000114 Pain Threshold Diseases 0.000 description 1
- 238000012356 Product development Methods 0.000 description 1
- 206010044625 Trichorrhexis Diseases 0.000 description 1
- 238000007605 air drying Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002405 diagnostic procedure Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 239000003623 enhancer Substances 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000003700 hair damage Effects 0.000 description 1
- 239000008266 hair spray Substances 0.000 description 1
- 230000003741 hair volume Effects 0.000 description 1
- 235000000396 iron Nutrition 0.000 description 1
- 229910052742 iron Inorganic materials 0.000 description 1
- 210000001847 jaw Anatomy 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 235000011929 mousse Nutrition 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 230000037040 pain threshold Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Analysis (AREA)
Abstract
本開示は、パーソナルケアを実施するユーザを支援するための方法であって、ユーザの顔及びパーソナルケア器具の一連の画像を受信することと、一連の画像を使用してパーソナルケア5器具を追跡することによって、1又は複数の器具パラメータを決定することと、一連の画像を使用してユーザの1又は複数の表情を決定することと、1又は複数の器具パラメータ及びユーザの1又は複数の表情に基づいてパーソナルケアパフォーマンスを分析することと、パーソナルケアパフォーマンスに基づいて、パーソナルケアを実施するユーザにフィードバックを生成又は提供することと、を含む、方法に関する。【選択図】図19
Description
本開示は、パーソナルケアを実施するユーザを支援するためのシステム及び方法に関し、特に、限定するものではないが、ヘアスタイリングを実施するユーザを支援するためのシステム及び方法に関する。
人間のヘアケアルーティンの有効性は、ヘアケアルーティンの期間、スタイリストの技能、毛髪の状態及びヘアケア技術を含むいくつかの要因に従って大きく変動し得る。ブラッシング技術のフィードバックを提供し、最適なヘアケアルーティンを達成しようとするユーザを支援する目的でユーザの頭部付近にあるヘアブラシの動作を追跡するためのいくつかのシステムが開発されている。
こうしたブラシ追跡システムのいくつかは、ヘアブラシに組み込まれた加速度計など、モーションセンサを必要とするという欠点を有している。こうしたモーションセンサは、ヘアブラシなど、そういったセンサが付いていなければ低コストであり、なおかつ比較的使い捨て可能である物品に付加するには高額な可能性があり、ブラシ上又は中のセンサから好適な処理装置及びディスプレイ装置に送るための関連する信号伝送ハードウェア及びソフトウェアをも必要とし得る。
ブラシ動作又はユーザの頭部に隣接するヘアケア器具の動作を追跡するなど、ヘアブラシ自体に電子センサが組み込まれたり適用されたりする必要なく、ユーザのヘアケアルーティンをモニタリング可能であることが望ましい。ユビキタスな「スマートフォン」又はコンピュータタブレットなど、他の広範に利用可能な消費者デバイスのような比較的従来のビデオイメージングシステムを使用して、ユーザのヘアケアルーティンをモニタリング可能であることもまた望ましい。使用されるビデオイメージングシステムが、3次元映像を使用したものなど、3次元イメージングシステムを必要としないことが望ましい。ヘアケアセッション中に取得されたデータをベースとするリアルタイムフィードバックをユーザに提供することができるブラシ又は他のケア器具追跡システムを提供することもまた望ましい。本開示のいくつかの態様は、上記の目的のうちの1以上を達成することができる。
本開示の第1の態様によれば、パーソナルケアを実施する上でユーザを支援するための方法が提供され、該方法は、
ユーザの顔及びパーソナルケア器具の一連の画像を受信することと、
一連の画像を使用してパーソナルケア器具を追跡することによって、1又は複数の器具パラメータを決定することと、
一連の画像を使用してユーザの1又は複数の表情を決定することと、
1又は複数の器具パラメータ及びユーザの1又は複数の表情に基づいてパーソナルケアパフォーマンスを分析することと、
パーソナルケアパフォーマンスに基づいて、パーソナルケアを実施するユーザにフィードバックを生成又は提供することと、
を含む。
ユーザの顔及びパーソナルケア器具の一連の画像を受信することと、
一連の画像を使用してパーソナルケア器具を追跡することによって、1又は複数の器具パラメータを決定することと、
一連の画像を使用してユーザの1又は複数の表情を決定することと、
1又は複数の器具パラメータ及びユーザの1又は複数の表情に基づいてパーソナルケアパフォーマンスを分析することと、
パーソナルケアパフォーマンスに基づいて、パーソナルケアを実施するユーザにフィードバックを生成又は提供することと、
を含む。
1又は複数の例では、パーソナルケアパフォーマンスを分析することは、1又は複数の器具パラメータ及びユーザの1又は複数の表情に基づいて、1又は複数のパフォーマンスパラメータ及び/又は1又は複数のパーソナルケアイベントを決定することを含んでもよい。フィードバックを提供することは、1又は複数のパフォーマンスパラメータ及び/又は1又は複数のパーソナルケアイベントに基づいたフィードバックを提供することを含んでもよい。
1又は複数の例では、フィードバックは、どのようにしてパーソナルケアを実施するかに関するユーザ向けの指示を含んでもよい。
パーソナルケアパフォーマンスを分析することは、i)現在のヘアケアセッションにおける1又は複数の器具パラメータ及びユーザの1又は複数の表情、並びにii)先のパーソナルケアセッションからの1又は複数の器具パラメータ及びユーザの1又は複数の表情に基づいて、1又は複数のパフォーマンスパラメータを決定することを含んでもよい。先のパーソナルケアセッション及び現在のパーソナルケアセッションは、同じユーザに関連していてもよい。先の及び現在のパーソナルケアセッションは、連続していないものであってもよい。
該方法は、現在のセッションに関連した1又は複数のパフォーマンスパラメータと先のセッションに関連した1又は複数の対応するパフォーマンスパラメータとの差分を決定することを含んでもよい。フィードバックは、決定された差分の表示を提供してもよい。
1又は複数の例では、該方法は、一連の画像中のそれぞれの画像に関する1又は複数の顔面動作単位を決定することを含んでもよい。該方法は、1又は複数の顔面動作単位に基づいて表情スコアを決定することによって、ユーザの表情を決定することを含んでもよい。
1又は複数の例では、ユーザの表情を決定することは、自信、喜び、苦痛、苛立ち、混乱及び幸福のうちの1以上を含む感情表現を決定することを含んでもよい。
1又は複数の例では、パーソナルケア器具を追跡することは、パーソナルケア器具の位置及び/又は向きを追跡することを含んでもよい。
1又は複数の例では、パーソナルケア器具の位置及び向きを追跡することは、ユーザの頭部に対する位置及び向きを追跡することを含んでもよい。
1又は複数の例では、ユーザの頭部に対する位置及び向きを追跡することは、1又は複数の顔ランドマークに対する位置及び向きを追跡することを含んでもよい。
1又は複数の例では、パーソナルケア器具の位置及び向きを追跡することは、パーソナルケア器具の端部に連結された基準マーカを追跡することを含んでもよい。
1又は複数の例では、基準マーカは、パーソナルケア器具の一構成要素を形成してもよく、又はパーソナルケア器具に連結されたアタッチメントを備えてもよい。
1又は複数の例では、基準マーカは、パーソナルケア器具の長手方向軸に対応する、長手方向軸の周囲に配置された複数の色付き四分円を有する実質的に球形のマーカを備えてもよい。
1又は複数の例では、四分円のそれぞれは、色相がはっきりと対照的な色の帯で隣接する四分円と分けられてもよい。色相がはっきりと対照的な色の帯は、隣接する四分円の片側の色との対照度が高くてもよく、又は帯の四分円の両側との対照度が高くてもよい。
1又は複数の例では、器具パラメータは、器具の位置、器具の向き、線速度、角速度、直線加速度、角加速度及び器具経路のうちの1以上を含んでもよい。
1又は複数の例では、該方法は、検出されたパフォーマンスパラメータ又はパーソナルケアイベントに従って好適な処置を特定することを含んでもよい。フィードバックを提供することは、特定された処置を実施するための指示をユーザに提供することを含んでもよい。
1又は複数の例では、好適な処置を特定することは、考案された製品又は考案された製品が使用されるべき時間量を特定することを含んでもよい。
1又は複数の例では、フィードバックを提供することは、特定の方法でパーソナルケア器具を操作するための指示をユーザに提供することを含んでもよい。
1又は複数の例では、パーソナルケアは、歯のケア活動、スキンケア活動、ヘアケア活動及びシェービング活動のいずれかを含んでもよい。該方法は、典型的には、ユーザに実施される治療又は診断方法ではない。
1又は複数の例では、該方法は、検出されたパフォーマンスパラメータ又はパーソナルケアイベントに従って器具技術を特定することを更に含んでもよい。フィードバックを提供することは、器具技術を実施するための指示をユーザに提供することを含んでもよい。
1又は複数の例では、器具技術は、器具経路、器具の位置、器具の向き及び/又は印加された器具の力を含んでもよい。1又は複数の例では、印加された器具の力は、器具の線速度、角速度、直線加速度及び角加速度、又は印加された力の代替となり得る任意の他のパラメータのうちの1以上をモニタリングすることによって決定されてもよい。
該方法は、コンピュータに実装された方法であってもよい。
本発明の第2の態様によれば、
ユーザの顔及びパーソナルケア器具の一連の画像を受信することと、
一連の画像を使用してパーソナルケア器具を追跡することによって1又は複数の器具パラメータを決定することと、
一連の画像を使用してユーザの1又は複数の表情を決定することと、
1又は複数の器具パラメータ及びユーザの1又は複数の表情に基づいてパーソナルケアパフォーマンスを分析することと、
パーソナルケアパフォーマンスに基づいて、パーソナルケアを実施するユーザにフィードバックを提供することと、
を行うように構成されたプロセッサを含むパーソナルケアモニタリングシステムが開示される。
ユーザの顔及びパーソナルケア器具の一連の画像を受信することと、
一連の画像を使用してパーソナルケア器具を追跡することによって1又は複数の器具パラメータを決定することと、
一連の画像を使用してユーザの1又は複数の表情を決定することと、
1又は複数の器具パラメータ及びユーザの1又は複数の表情に基づいてパーソナルケアパフォーマンスを分析することと、
パーソナルケアパフォーマンスに基づいて、パーソナルケアを実施するユーザにフィードバックを提供することと、
を行うように構成されたプロセッサを含むパーソナルケアモニタリングシステムが開示される。
消費者の顔及び頭髪のビデオ画像を受信し、スタイリング中の頭髪のデタングリング/把持を追跡し、消費者の利益となる重大な頭髪の損傷及び頭髪形状を予測するための追跡アタッチメントを備えたブラシと併用して機械学習を使用する、消費者による頭髪の手入れ及びヘアスタイリング行動を追跡する方法もまた開示される。
消費者の顔及び頭髪のビデオ画像を受信し、頭髪のデタングリング/スタイリングイベント中の表情を測定し、表情(苦痛、しかめ面)を消費者による頭髪の手入れルーティン/損傷レベルと関連付け、製品の推奨を行うための追跡アタッチメントを備えたブラシと併用して機械学習を使用する、消費者による頭髪の手入れ及びヘアスタイリング行動を追跡する方法もまた開示される。
ビデオ画像を受信し、頭髪の動作を固定の顔のパーツと関連付けて自然な動作を予測し、製品の推奨を行うために機械学習を使用する、消費者のヘアスタイルをリアルタイムで追跡する方法もまた開示される。
コンピュータの実行時に、コンピュータに、回路又は本明細書に開示のデバイスを含む任意の装置を構成させるか、本明細書に開示の任意の方法を実施させる、コンピュータプログラムが提供されてもよい。コンピュータプログラムは、ソフトウェアの実装であってもよく、コンピュータは、非限定的な例として、デジタル信号プロセッサ、マイクロコントローラ及びリードオンリーメモリ(ROM)、電気的に消却・プログラム可能な読取専用メモリ(EEPROM)の実装を含む、任意の適切なハードウェアと見なされてもよい。
コンピュータプログラムは、コンピュータ可読媒体上で提供されてもよい。これは、ディスク又はメモリデバイスなどの物理的なコンピュータ可読媒体であってもよく、又は過渡信号として現れてもよい。こうした過渡信号は、インターネットダウンロードを含むネットワークダウンロードであってもよい。演算システムによって実行されると演算システムに本明細書に開示されたいずれかの方法を実施させる、コンピュータ実行可能命令を記憶する1又は複数の非一時的コンピュータ可読記録媒体が提供されてもよい。
本開示の更なる態様は、コンピュータシステムに関する。コンピュータシステムは、携帯電話又はタブレットコンピュータなどのユーザデバイスによって提供されてもよい。画像は、コンピュータシステムのカメラからコンピュータシステムのプロセッサによって受信されてもよい。いくつかの例では、ユーザ画像のすべての処理は、ユーザのプライバシー及びデータの安全性を改善するためにローカルで実施されてもよい。このようにして、ユーザの画像がユーザの電話に決して残らない状態を保証することができる。撮像画像は、処理するとすぐに削除されてもよい。撮像画像の分析は、ユーザデバイスから遠隔デバイスに転送されてもよい。
1又は複数の実施形態は、ここでは、添付の図面を参照した一例としてのみ説明される。
開示されたシステムは、頭髪の手入れ及びスタイリング挙動追跡システムを提供し得る。一般的に、システムは、(i)ヘアケア器具上で公知のマーカを追跡することに基づいた3Dモーション追跡コンポーネント、並びに(ii)顔の筋肉/顔の位置/体勢及び外見上の感情(苦痛、幸福など)の測定を追跡するために使用されるランドマーク追跡コンポーネントうちの1つ又は両方を使用してもよい。
外見上の感情は、顔面筋肉活動単位(FAUs、Facial Muscle Activation Units)上の特定の点の入力動作として取得される表情モデルを介して表情から類推することができるものである。表情モデルは、被験者パネルを使って与えられた感情が使用される前に訓練されることができる。測定による感情認識は、「アフェクティブコンピューティング」とも称され得る。
外見上の(又は表された)感情は、個体が感じる感情を直接反映していない場合がある。例えば、ユーザは苦痛を異なる程度で表し得る。しかし、表された感情測定値は被験者/ユーザ間で比較されることができることから、自動的に較正されたパラメータを提供する。
一例では、ユーザは、ヘアケアセッション中に体験する苦痛のレベルに関する意見を提供するように求められてもよい。例えば、ユーザがイベント又はセッション全体において0~10といったスケールではどの程度の苦痛なのかを示す入力を提供することによって、フィードバックが提供されてもよい。その後、ユーザ入力は、対応する外見上の苦痛スコアと比較され得る。複数のこうした比較は、ユーザ向けの補正値を作成するために設けられ得る。例えば、ユーザ入力苦痛値が5である場合、対応する外見上の苦痛値は8であり、値間の差分値は+3である。複数のこうした比較についての差分の平均値は、較正目的の補正値として使用され得る。複数の入力セットは、単回のヘアケアセッション中に、又はいくつかの異なるヘアケアセッションにわたって取得されてもよい。入力セットは、長時間にわたって異なるセッション中に取得される場合には、ユーザの苦痛反応が経時的に変化した場合に備えて直近のセッションが顕著であるように重み付けが適用されてもよい。
システムを較正することによって、システムによって特定されたその後の苦痛値をユーザの体験により正確に反映させることが可能となる。こうすることで、より適切なフィードバックをユーザに提供することが可能となり得る。
更に、製品の試験環境では、上述された較正手順は、参加者間の反応を標準化するために使用され得る。
代替的には、こうした較正手順によって、製品を評価するための群の一部として同様の苦痛反応を有するユーザを選択することが可能となる。本文中における製品の試験は、ユーザ又はユーザの頭髪のための化学処置又は例えばヘアケア器具に関連し得ることが理解されるだろう。
動作(ブラシ追跡)及び感情(顔の感情追跡)の両コンポーネントは、モバイルデバイスを使用して収集することができ、頭髪の手入れ及びスタイリングプロセスにおける一連の受信画像により作動する。いくつかの例では、システムは、電話外部にいかなるセンシング機能も必要とせず、すべての画像処理がデバイス上で実施され得ることから、センシング機能及び最新の携帯電話(又はタブレット、他のエッジコンピューティングデバイス)の演算能力を利用することができ、その結果、ユーザへのリアルタイムフィードバックが可能となる。したがって、ユーザは、自らのヘアケアルーティンを自己モニタリングするのを支援するために、特注ソフトウェアを用いてアップグレードし、場合によっては提供された公知のマーカと併用される既存のハードウェアを使用することができる。
多くの人々(ユーザ)は、週に数回(典型的には、週に2~5回、時には毎日)頭髪を洗浄する。頭髪洗浄ルーティンは、典型的にはシャンプーの使用を含む。頭髪洗浄ルーティンはまた、第2の製品、すなわちコンディショナー製品の使用を含み得る。こうした「洗い流し」製品は、シャワールーティン中に使用され、すすがれて洗浄プロセスが終了する。ユーザは、ヘアスタイリング又はヘアケアルーティン前に、タオルを使用して頭髪の過剰な水分を乾かし得る。ヘアケアルーティンは、手入れプロセス及びスタイリングプロセスといった2つのサブプロセスに分けられてもよい。
多くのユーザは、スタイリング前に毛髪の手入れを行うことになる。手入れプロセスは、ブラシ又はくしを使用して毛髪からもつれを取り除く(デタングリングプロセス)が、これはユーザにとって苦痛があり、かつ不快な体験であり得る。
スタイリングプロセスは、典型的には、2つのアプローチのうちの1つが続く:
・ヒートスタイリング-ヒートスタイリングプロセス中、ユーザはヘアドライヤとヘアブラシとを使用し、自らの毛髪を熱を利用してスタイリングすることができる。この後に、ストレートアイロン又はカールアイロンなどの更なるヒートスタイリング器具が用いられてもよい。ヒートスタイリングは、一般には、頭髪形状を自然な形状から異なる形状へと「変える」ために実施される。ユーザは、例えば非常にストレートな毛髪(「ボリュームダウン」又は自然状態よりも少ないボリューム)又は「ボリュームアップ」(自然状態よりも多いボリューム/ボディ)など、頭髪のボリュームを調整しようとする場合がある。形状の変化は、頭髪が濡れた状態から乾いた状態となるまで(ブロー乾燥又は他の加熱されたヘアケア器具及びブラッシング/髪をとかす動作の組合せ)頭髪に印加される熱及び伸張による「水の波(water wave)」を経て達成され得る。ヒートスタイリングプロセス中に印加された力は、ヘアスタイリングプロセスの結果に影響を与え得り、ブラシ又はくしへの最適なレベルの力又は把持によって所望の結果が生じる。
・自然乾燥-多くのユーザは自身の毛髪を自然乾燥させる。タオルで乾かした後、ユーザはもつれをブラッシング又はくしでとかすのみで、例えば手指を使用して毛髪をねじり、所望のカールにするなど、その後ブラシ又は更に手指を使用して毛髪のスタイリングを行い得る。このようなユーザは、「形状を変えるもの(shape transformers)」というよりは「形状を強化・改善するもの(shape enhancers)」である。こういったユーザは、自身の毛髪のデタングリングと同様に難儀を覚え得る。
・ヒートスタイリング-ヒートスタイリングプロセス中、ユーザはヘアドライヤとヘアブラシとを使用し、自らの毛髪を熱を利用してスタイリングすることができる。この後に、ストレートアイロン又はカールアイロンなどの更なるヒートスタイリング器具が用いられてもよい。ヒートスタイリングは、一般には、頭髪形状を自然な形状から異なる形状へと「変える」ために実施される。ユーザは、例えば非常にストレートな毛髪(「ボリュームダウン」又は自然状態よりも少ないボリューム)又は「ボリュームアップ」(自然状態よりも多いボリューム/ボディ)など、頭髪のボリュームを調整しようとする場合がある。形状の変化は、頭髪が濡れた状態から乾いた状態となるまで(ブロー乾燥又は他の加熱されたヘアケア器具及びブラッシング/髪をとかす動作の組合せ)頭髪に印加される熱及び伸張による「水の波(water wave)」を経て達成され得る。ヒートスタイリングプロセス中に印加された力は、ヘアスタイリングプロセスの結果に影響を与え得り、ブラシ又はくしへの最適なレベルの力又は把持によって所望の結果が生じる。
・自然乾燥-多くのユーザは自身の毛髪を自然乾燥させる。タオルで乾かした後、ユーザはもつれをブラッシング又はくしでとかすのみで、例えば手指を使用して毛髪をねじり、所望のカールにするなど、その後ブラシ又は更に手指を使用して毛髪のスタイリングを行い得る。このようなユーザは、「形状を変えるもの(shape transformers)」というよりは「形状を強化・改善するもの(shape enhancers)」である。こういったユーザは、自身の毛髪のデタングリングと同様に難儀を覚え得る。
ユーザは、第3の製品、すなわちヘアケア(ヘアスタイリング)ルーティンの前、その最中又はその後のいずれかで、例えば洗い流さないコンディショナー、ゲル、クリーム、ムース(mouse)、セラム、パテ又はヘアスプレーといった洗浄後ヘアケア製品を使用してもよい。こうした製品のいくつかは、スタイルを「固定」して持続させるために、スタイリングの最後に塗布されてもよい。
洗浄/処置段階で使用される洗い流し製品は、頭髪の手入れプロセスにて体験するデタングリングのレベルに重要な影響を及ぼし得る。ユーザは、製品選択の結果と体験したデタングリングの回数とが容易に結びつかないことがある。例えば、ユーザは、シリコーンをほとんど含まない、又はシリコーンを全く含まない洗い流し製品がヘアスタイリング又はカラーケアに最適に作用すると考えることから、これらを使用する場合がある。
洗浄/処置段階で使用される洗い流し製品はまた、ヘアスタイリングプロセスに影響を与え得る。カールアイロンについては、得られるブラシの把持回数は、シャンプー及びコンディショナー製品の選択によって影響され得る。これは、所望の最終的な外観(ボリュームアップ、ストレートなど)の完成度に最終的には影響する。
ユーザのヘアケアルーティンをモニタリングし、ユーザのヘアケア体験をより苦痛が少なく、かつ/又は快適なものにすることができるフィードバックを提供し、ユーザが所望の結果をより良好に達成するのに役立ち得るシステムを提供することが望ましい。有益なフィードバックは、洗浄プロセス若しくはその終わりまで及び/又はヘアケア(手入れ/スタイリング)ルーティン中において、使用に関するコツ若しくは助言、及び/又は製品の推奨を含んでもよい(例えば、「ブラッシングが強すぎます」、「次回はよりやさしくブラッシングしましょう」)。
図1に関して、ユーザのヘアケア動作をモニタリングするためのヘアケアモニタリングシステム1は、ビデオカメラ2を備えてもよい。「ビデオカメラ」といった表現は、ヘアケアセッションを実施するユーザの一連の画像を取得するのに好適である任意の画像撮像デバイスを包含することを意図している。一実施形態において、ビデオカメラは、スマートフォン又は他のコンピューティングデバイス内で従来見られるようなカメラであってもよい。
ビデオカメラ2は、データ処理モジュール3と通信する。データ処理モジュール3は、例えば、スマートフォン又は他のコンピューティングデバイス内に設けられてよく、これらは、以下に記載されるような処理モジュールを実装するように好適にプログラムされ得るし、それ以外の場合では実装するように構成され得る。データ処理モジュール3は、一連のビデオのフレームを受信し、ユーザの頭部及び顔の様々な特徴又はパラメータを決定するように構成された頭部追跡モジュール4を含んでもよい。例えば、頭部追跡モジュール4は、ユーザの顔又は頭部上のランドマーク及びそれらからのユーザの顔又は頭部の向きを決定してもよい。更なる例として、頭部追跡モジュール4は、顔の筋肉動作に対応する1又は複数の顔面動作単位を決定してもよい。更なる例としては、頭部追跡モジュール4は、ユーザの頭髪のスタイルを分類してもよい。
データ処理モジュール3は、一連のビデオのフレームを受信するように構成されたブラシ追跡モジュール15を含んでもよく、ヘアケアセッションを実施する際にユーザによって使用されるヘアケア器具の位置及び動作パラメータを決定してもよい。ヘアケア器具は、例えばヘアブラシ又は毛髪矯正装置であってもよく、例えば、ヘアケアセッションは、例えば頭髪のブラッシング又は毛髪矯正セッションであってもよい。以下に述べられる特定の実施形態における「ブラシ(brush)」(本明細書ではヘアブラシと同義に使用される)に関して説明される例は、ブラシに代えて他のタイプのヘアケア器具にも等しく適用され得ることが理解されるだろう。
ブラシ追跡モジュール15は、ブラシマーカ位置検出モジュール5及びブラシマーカ向き推定モジュール6を含んでもよい。位置検出モジュール5は、一連のビデオのフレームを受信し、各フレーム内でのブラシの位置を決定するように構成されてもよい。ブラシマーカ向き推定モジュール6は、一連のビデオのフレームを受信し、各フレーム内でのブラシの向きを決定/推定するように構成されてもよい。
「一連のフレーム」といった表現は、概して時系列順のフレームの包含を意図しており、これらは、ビデオカメラによって撮像された各フレーム及びあらゆるフレームを構成してもしなくてもよい。さらに、該表現は、定期的にサンプリングされたフレーム及び/又は集約された若しくは平均化された一連のフレームの包含を意図している。
頭部追跡モジュール4、ブラシマーカ位置検出モジュール5及びブラシマーカ向き検出モジュール6のそれぞれの出力7、8、9は、ヘアケア分類部10への入力として提供されてもよい。ヘアケア分類部10は、ヘアケアイベント及び/又はヘアケアセッションのヘアケアパフォーマンスパラメータを決定するように構成されている。ブラシ追跡モジュール15を備える例では、ヘアケア分類部10は、1又は複数のブラッシングパラメータを決定するように構成されたブラシ動作分類部16を備えることができる。ブラッシングパラメータは、位置並びに線速度及び/又は角速度、速さ並びに加速度などの機械的パラメータを含んでもよい。直線の動作は、画像のフレームを基準として(カメラ)又は3D物体自体を基準として行われてもよい。回転の特徴は、3D物体自体を基準としている。ブラッシングパラメータはまた、特定のブラシストロークに対応するブラシ経路又は軌跡を含んでもよい。いくつかの例では、ヘアケア分類部10は、苦痛、苛立ち、混乱又は幸福といったユーザの1又は複数の感情表現を決定するように構成された顔感情分類部17を備えてもよい。
頭部追跡モジュール4は、ブラシ動作分類部16からブラッシングパラメータを受信することができ、かつ/又は顔感情分類部17から1又は複数の感情表現を受信することができるヘアケアパフォーマンス分析部18を含むことができる。以下の節4Cで更に述べられるように、パフォーマンス分析部18は、ユーザのヘアケアパフォーマンスを分析するためにブラッシングパラメータ及び/又は感情表現を処理することができる。パフォーマンス分析部18は、1又は複数のヘアケアイベント又は1又は複数のヘアケアパフォーマンスパラメータを検出することによってヘアケアパフォーマンスを分析することができる。ヘアケアイベントは、デタングリングイベント、不適格なブラシストローク、不適格なブラシと頭髪の接触などのうちのいずれかを含んでもよい。パフォーマンスパラメータは、ヘアブラシに対する印加力、ヘアブラシの頭髪把持力、ユーザ満足度又は手入れタスクを構成するコンポーネントをユーザが実行する順序のうちのいずれかを含んでもよい。一例では、分類部10は、ユーザのブラッシング動作の各ビデオフレームを分類することが可能であるよう構成されている。
プログラム及びヘアケアデータ用の好適な記憶装置11が提供されてもよい。記憶装置11は、例えば、スマートフォン又は他のコンピューティングデバイスの内部メモリを備えてもよく、かつ/又はリモートストレージを備えてもよい。好適なディスプレイ12は、例えばヘアケアセッションのリアルタイム進行に関する視覚的フィードバック及び/又は現在の、若しくは先のヘアケアセッションの有効性に関するレポートをユーザに提供することができる。
ユーザのパフォーマンスパラメータは、セッション間に変更又は改善することができる。したがって、ヘアケアを実施するユーザのパフォーマンスを分析することは、現在のヘアケアセッションで取得されたデータ及び先の1又は複数のヘアケアセッションで取得されたデータに基づくパフォーマンスパラメータを決定することに関与し得る。
スピーカなどの更なる出力デバイス13は、ユーザに音声フィードバックを提供することができる。音声フィードバックは、頭部の別領域にいつ移動すべきかの指示又は頭髪ブラッシング動作に関する案内など、進行中のヘアケアセッションの挙動に関するリアルタイムの音声指示を含んでもよい。ユーザがデータ又はコマンドを入力するための入力デバイス14が提供されてもよい。ディスプレイ12、出力デバイス13及び入力デバイス14は、例えばスマートフォンの一体型タッチスクリーン及び音声出力によって提供されてもよい。
ここで、上記の様々なモジュール4~6及び10の機能を図2を参照して説明する。
1.頭部追跡モジュール
頭部追跡モジュール4は、それぞれビデオカメラ2から得られた一連のフレーム又は選択されたフレームを入力として受信することができる(ボックス20)。一例には、頭部追跡モジュール4は、360×640画素のRGB色画像を取得し、それらの中の顔(又は頭部)の検出を実施する(ボックス21)。顔が検出される場合(ボックス22)、顔追跡モジュール4は、それらの中の複数の顔ランドマーク(又はより一般的には頭部ランドマーク)のX-Y座標を推定する(ボックス23)。画像の解像度及びタイプは、イメージング処理の要件に従って変更かつ選択され得る。
頭部追跡モジュール4は、それぞれビデオカメラ2から得られた一連のフレーム又は選択されたフレームを入力として受信することができる(ボックス20)。一例には、頭部追跡モジュール4は、360×640画素のRGB色画像を取得し、それらの中の顔(又は頭部)の検出を実施する(ボックス21)。顔が検出される場合(ボックス22)、顔追跡モジュール4は、それらの中の複数の顔ランドマーク(又はより一般的には頭部ランドマーク)のX-Y座標を推定する(ボックス23)。画像の解像度及びタイプは、イメージング処理の要件に従って変更かつ選択され得る。
一例では、淵又は頭部、鼻、目、頬、耳若しくは下顎の他のパーツを含む、最大で66個の顔ランドマークが検出され得る。好ましくは、ランドマークは、ユーザの鼻に関連する少なくとも2個のランドマークを含み、好ましくは、少なくとも1個以上のランドマークは、頭部パーツ位置(例えば、頭部の端、頭部の中心)及び目のパーツ位置(例えば、目の端、目の中心)から選択される。頭部追跡モジュール4はまた、ランドマークを使用して、頭部のピッチ角、ロール角及びヨー角のいくつか又はそれらすべてを推定することが好ましい(ボックス27)。頭部追跡モジュール4はまた、顔ランドマークを使用して1又は複数の顔面動作単位(FAUs)を決定することができる(ボックス43)。FAUは、当技術分野で知られている顔面動作符号化システム(facial action coding system、FACS)の一部を形成している。いくつかの例では、頭部追跡モジュール4は、顔面動作記述子(facial action descriptors、FADs)などの他のFACSパラメータを決定することができる。頭部追跡モジュール4は、E.Sanchez-Lozano et al.(2016).“Cascaded Regression with Sparsified Feature Covariance Matrix for Facial Landmark Detection”,Pattern Recognition Lettersに説明されるものなどの従来の顔追跡技術を採用してもよい。
頭部追跡モジュール4が顔の検出に失敗した場合(ボックス22)、モジュール4は、ループバックして(パス25)次の入力フレームを取得し、かつ/又は適切なエラーメッセージを配信するように構成されてもよい。ランドマークが検出されない、又は不十分な数のランドマークが検出される場合(ボックス24)、頭部追跡モジュール4は、ループバックして(パス26)処理用の次のフレームを取得し、かつ/又はエラーメッセージを配信してもよい。FAUsが検出されない場合(ボックス44)、頭部追跡モジュール4はまた、同様の様式でループバックしてもよい(パス45)。顔検出が先のフレームで取得された場合、ランドマークを推定するための検索窓を定義し、その後のフレーム中でランドマークを追跡(例えば、正確に予測されたランドマークの位置)することができ(ボックス43)、その後顔検出手順(ボックス21、22)を省略してもよい。
いくつかの例では、頭部追跡モジュール4は、ユーザのヘアスタイル又は頭髪タイプを決定することができる。図5は、ストレート、ウェーブ、カール、キンキー、編み組み、ドレッドヘア及びメンズショートカット(short men’s)を含む、例示的なヘアスタイルを示す。頭部追跡モジュール4は、ヘアケアセッション前後に画像上でこうした決定を行うことができる。例えば、ユーザは、セッション開始時及び終了時に「セルフィー」画像を記録してもよい。頭部追跡モジュール4は、ユーザの頭髪に関連する画素を分離するために、画像上でセグメント化を実施してもよい。頭部追跡モジュール4は、畳み込みニューラルネットワーク(convolutional neural network、CNN)を実装してもよく、訓練目的のために収集されたブラッシングビデオから取得された様々な頭部の向き及び照明条件において様々なユーザをもとにラベル付けされたヘアスタイル画像からなるデータセット上で訓練されてもよい。頭部追跡モジュール4は、ヘアケア分類部10に分類された頭髪タイプを出力してもよい。いずれか1つのフレームでは、ヘアスタイルの異なる領域は、関連性に応じて、異なるクラス(すなわち、一部分はストレートであるが、一部分はウェーブであり得る)又は全体として1のクラスが与えられてもよい。頭部追跡モジュール4が頭髪タイプを決定することができない場合、頭部追跡モジュール4は、ループバックして処理すべき次の画像を取得してもよい。
一例では、顔検出顔面点追跡(FACS)及び表された感情認識モジュールは、
ステップ1)顔検出-顔周辺に境界ボックスを描画し、カメラで撮像された画像から顔パッチを抽出すること、
ステップ2)顔の点追跡-64個の顔の点を顔パッチに当てはめ、顔が消失するまでこれらの点を各フレームに更新すること、
ステップ3)顔の点及び外観からの顔面動作単位システム(FACS)の起動を推定することであって、ステップ3がステップ1及び2に依拠している、こと、
ステップ4)苦痛の推定-FACSの活用は、より強力であるように変更したSolomonの痛みの強度(PSPI)スケールに基づいた苦痛を推定するために使用される。ステップ4はステップ3に依拠している。
ステップ1)顔検出-顔周辺に境界ボックスを描画し、カメラで撮像された画像から顔パッチを抽出すること、
ステップ2)顔の点追跡-64個の顔の点を顔パッチに当てはめ、顔が消失するまでこれらの点を各フレームに更新すること、
ステップ3)顔の点及び外観からの顔面動作単位システム(FACS)の起動を推定することであって、ステップ3がステップ1及び2に依拠している、こと、
ステップ4)苦痛の推定-FACSの活用は、より強力であるように変更したSolomonの痛みの強度(PSPI)スケールに基づいた苦痛を推定するために使用される。ステップ4はステップ3に依拠している。
2.ブラシマーカ位置検出モジュール
使用されるブラシには、ブラシマーカ位置検出モジュール5によって認識可能なブラシマーカ機能が提供されてもよい。ブラシマーカ機能は、基準マーカとして作用する。ブラシマーカ機能は、例えば、通常、ヘアケアセッション中に視認するために露出しているブラシの一部分において、その輪郭がはっきりとした形状及び/又は色パターンであってもよい。ブラシマーカ機能は、ブラシの一構成要素を形成してもよく、又は例えば製造時若しくは購入後にユーザによってブラシに適用されてもよい。
使用されるブラシには、ブラシマーカ位置検出モジュール5によって認識可能なブラシマーカ機能が提供されてもよい。ブラシマーカ機能は、基準マーカとして作用する。ブラシマーカ機能は、例えば、通常、ヘアケアセッション中に視認するために露出しているブラシの一部分において、その輪郭がはっきりとした形状及び/又は色パターンであってもよい。ブラシマーカ機能は、ブラシの一構成要素を形成してもよく、又は例えば製造時若しくは購入後にユーザによってブラシに適用されてもよい。
1つの特に有益なアプローチは、ヘアブラシなどのヘアケア器具のハンドル端部、すなわちブラシの毛の反対側である端部に構造を提供することである。該構造は、ブラシハンドルの一構成要素を形成することができ、又は製造後にアタッチメント又は「ドングル(dongle)」として適用され得。特に適切であると明らかになっている構造の一形態は、長手方向軸(ブラシの長手方向軸に対応する)の周囲に配置された複数の色付き四分円61a、61b、61c、61dを有する概して球形のマーカ60(図3)である。図3で見られるようないくつかの構成では、四分円のそれぞれ61a、61b、61c、61dは、色相がはっきりと対照的な帯62a、62b、62c、62dによって隣接する四分円から分離される。概して球形のマーカは、ハンドル受容端部64の遠位に平坦な端部63を有してもよく、平坦な端部63は、平坦な端部63に対してブラシが直立することができるように平坦な表面を画定している。
こうした特徴の組合せは、典型的な手入れ環境でヘアケア器具を検出すること、及び3Dの向きを決定することに対して有利であることが明らかになっている。異なる色によって構造のパフォーマンスは高められ、不十分な、及び/又は均一ではない照明条件で容易にセグメント化するために高い彩度値を有するように選択されることが好ましい。色の選択は、使用時のビデオカメラの特定のモデルに最適化され得る。消費者向けの着色アプリケーションについては、色の選択は、ユーザのデバイス上で消費者画像センサの範囲で良好に機能するようなものであってもよい。図4Aで見られるように、マーカ60は、ブラシハンドル70の端部に取り付けられた第1の極71と、平坦な端部63の中心にある第2の極72とを有するものと考えられ得る。四分円61は、第1の極71から第2の極72まで連続する均一の色又は色パターンをそれぞれ提供してもよく、これらの色又は色パターンが少なくとも隣接する四分円とはっきりと区別され、他のすべての四分円とはっきりと区別することが好ましい。この実施形態では、極間において球周囲(equatorial)で色が変化する境界が存在しない場合がある。図4Aでも見られるように、第1の極71と第2の極72との間に延在しているマーカの軸は、ヘアケア器具/ブラシハンドル70の軸と実質的に合わせた状態であることが好ましい。
図4Bは、ヘアブラシ70Bに取り付けられたマーカ60Bを示す。ブラシの回転の様々な軸X、Y、Zが図4Bに示されている。動作方向は、ラベル付きの軸を使用してマーカの3Dフレーム(したがってブラシ)で決定されてもよい。マーカ60Bの直線的な動作は、カメラセンサのフレームでは2Dの動作として決定されてもよい。
セグメントのそれぞれについての対照色の選択は、ブラシを使用するユーザの肌のトーン又は毛髪の色と最適に対比するように行われてもよい。一例では、赤色、青色、黄色及び緑色が使用される。色及び色領域の寸法はまた、例えばスマートフォンイメージングデバイス用に、使用されるビデオカメラ2イメージングデバイス用に最適化されてもよい。色の最適化は、イメージングセンサの特性若しくは処理ソフトウェアの特性及び限界を考慮してもよい。
ブラシマーカの特徴を変更することは可能である。原則的にいずれのデザインを使用してもよく、ビデオ解像度についてビデオのフレームにおけるマーカの外観とマーカの向きとの間に1-2-1の対応関係を構築することができ、少なくとも目的の向きについてMLモデルを訓練して向きを学習させるのに十分にアノテーション可能な訓練データが存在すればよい。好ましい例では、マーカ60の径は、25~35mmであり(特定の実施形態ではおよそ28mm)、帯62の幅は、2mm~5mmであってもよい(特定の実施形態では3mm)。
一例において、ブラシマーカ位置検出モジュール5は、頭部追跡モジュール4から顔位置座標を受信する。得られた画像は、ブラシマーカ検出モジュール5ではCNN(ボックス29)に利用され、これは例えば、0~1の範囲の検出スコアとともに候補ブラシマーカ検出のバウンディングボックス座標の一覧を返す。
検出スコアは、特定のバウンディングボックスがブラシマーカを囲む信頼度を示す。一例においては、システムは、検出信頼度が定義済みのしきい値よりも高い条件において、最も高い戻り信頼値を有するバウンディングボックスは、画像中のマーカが正しい位置に対応することを提供してもよい(ボックス30)。最も高い戻り検出信頼値が定義済みのしきい値未満である場合、システムは、ブラシマーカが視認できないと決定してもよい。この場合には、システムは、現在のフレームをスキップし、次のフレーム(経路31)にループバックし、かつ/又は適切なエラーメッセージを配信してもよい。一般的な態様では、ブラシマーカ位置検出モジュールは、ビデオ画像の複数のフレームのそれぞれにおいてブラシ位置及び向きを規定することができる、使用中のブラシの所定のマーカ特徴を特定するための手段を例示する。
ヘアケア器具マーカが検出される場合(ボックス30)には、ヘアケア器具マーカ検出モジュール5は、顔(又は頭部)ランドマークとヘアケア器具マーカ座標(ボックス32)との間の距離を確認する。これらが互いに非常に離れた状態で認められる場合には、システムは現在のフレームをスキップして次のフレーム(経路33)にループバックし、かつ/又は適切なエラーメッセージに戻ってもよい。ボックス32で試験されたブラシから頭部への距離は、以下で更に述べられるように、鼻の長さによって正規化された距離であってもよい。
システムはまた、経時的にヘアケア器具マーカ座標の追跡を維持してもよく、誰かがヘアケア器具を使用していないときを検出する目的のために、マーカの動作の値(ボックス34)を推定する。この値が定義済みのしきい値(ボックス35)を下回る場合、ブラシマーカ検出モジュール5は、現在のフレームをスキップし、次のフレーム(経路36)にループバックし、かつ/又は適切なエラーメッセージを返してもよい。
ブラシマーカ検出モジュール5は、訓練目的のために収集されたブラッシングビデオから取得された様々な向き及び照明条件にてラベル付けされた実生活におけるブラシマーカ画像からなるデータセット上で訓練されることが好ましく、機械学習で典型的なデータ拡張技術を使用して拡張され得る。訓練データセットにおけるあらゆる画像は、半自動でブラシマーカ座標を用いてアノテーションを付すことができる。ブラシマーカ検出部は、既存の予め訓練された物体検出畳み込みニューラルネットワークに基づいていてもよく、ブラシマーカを検出するために再度訓練されてもよい。これは、転移学習として知られている技術である、ブラシマーカデータセット画像を使用した物体検出ネットワークの調整によって達成され得る。
3.ブラシマーカ向き推定部
ブラシマーカ座標又はブラシマーカバウンディングボックス座標(ボックス37)は、ブラシマーカ画像を切り出し、これをブラシマーカ向き検出モジュール6におけるニューラルネットワークの操作に最適化され得る画素数にサイズ変更する(ボックス38)ことができるブラシ向き検出モジュール6に送られる。一例では、画像は64×64画素へと切り出し/サイズ変更される。得られたブラシマーカ画像は、ブラシマーカ向き推定部畳み込み人工ニューラルネットワーク(CNN-ボックス39)に送られ、ブラシマーカ画像の一連のピッチ角、ロール角及びヨー角を返す。ブラシマーカ位置検出CNNと同様に、ブラシマーカ向き推定CNNもまた、0~1の範囲のあらゆる推定角についての信頼度レベルを出力してもよい。
ブラシマーカ座標又はブラシマーカバウンディングボックス座標(ボックス37)は、ブラシマーカ画像を切り出し、これをブラシマーカ向き検出モジュール6におけるニューラルネットワークの操作に最適化され得る画素数にサイズ変更する(ボックス38)ことができるブラシ向き検出モジュール6に送られる。一例では、画像は64×64画素へと切り出し/サイズ変更される。得られたブラシマーカ画像は、ブラシマーカ向き推定部畳み込み人工ニューラルネットワーク(CNN-ボックス39)に送られ、ブラシマーカ画像の一連のピッチ角、ロール角及びヨー角を返す。ブラシマーカ位置検出CNNと同様に、ブラシマーカ向き推定CNNもまた、0~1の範囲のあらゆる推定角についての信頼度レベルを出力してもよい。
ブラシマーカ向き推定CNNは、広範囲の可能な向き及びバックグラウンドバリエーションの下でマーカの画像の任意の好適なデータセット上で訓練されてもよい。データセットのあらゆる画像には、対応するマーカピッチ角、ロール角及びヨー角が付加されてもよい。
いくつかの実装では、ブラシマーカ位置検出部5及びブラシ向き検出モジュール6は、ハードウェア及び/又はソフトウェアの同じ機能ユニットによって提供されてもよい。
4.ヘアケア分類部
4A.ブラシ動作分類部
ブラシ動作分類部16は、上記の3つのモジュール(顔追跡モジュール4、ブラシマーカ位置検出モジュール5及びブラシマーカ向き検出モジュール6)によって生成されたデータを蓄積し、ヘアケア器具分類(ボックス40)のタスク向けに特に設計された一連の特徴を抽出する。
4A.ブラシ動作分類部
ブラシ動作分類部16は、上記の3つのモジュール(顔追跡モジュール4、ブラシマーカ位置検出モジュール5及びブラシマーカ向き検出モジュール6)によって生成されたデータを蓄積し、ヘアケア器具分類(ボックス40)のタスク向けに特に設計された一連の特徴を抽出する。
顔ランドマーク座標(目、鼻及び口の位置など)及びブラシ座標は、分類部10に直接入力されないが、上記に示されるような他のパーツの中でも顔に対するブラシの様々な相対距離及び角度を演算するために使用されることが好ましい。このようにして、ブラシ動作分類部16は、ユーザの頭部位置に対して相対的なブラシ位置及び相対的なブラシの向きを決定することができる。
ブラシ動作分類部は、1又は複数のブラッシングパラメータを出力してもよい。ブラッシングパラメータは、絶対的及び/又は相対的ブラシ位置及び向き、線速度、角速度、直線加速度及び角加速度を含む機械的パラメータを含んでもよい。ブラシ動作分類部は、連続するフレーム間の位置及び向きの変化に基づいて動的パラメータ(速さ、加速度など)を決定してもよい。機械的パラメータは、1又は複数の軸に沿って絶対量又は値を含んでもよい。ブラッシングパラメータはまた、ブラシストロークのうちの平面及び湾曲部を包含するブラシ経路又は軌跡などの個々のブラシストロークに関連するブラシストロークパラメータを含んでもよい。ブラッシングパラメータはまた、ブラッシングされた頭髪の領域(頭部の右側及び左側のそれぞれの前部、中間部、背部)などのより一般的なパラメータを含んでもよい。
ブラシ長さは、投影長さである。これは、この長さがカメラからの距離及びカメラに対する角度の関数として変化することを意味している。頭部の角度によって、分類部があらゆる角度に対応可能となり、ブラシ長さを鼻の長さによって正規化することにより、カメラからの距離によって生じる投影ブラシ長さ変動に対応可能となる。
ブラシ動作分類部16は、人のブラッシングを撮像してラベル付けされたビデオのデータセット上で訓練されてもよい。データセットは、ラベル付けによって機械的パラメータを含み得るように較正された加速度計を含むマーカを有するブラシを取り込み得る。データセットにおけるあらゆるフレームは、加速度計から、かつ/又はフレームが描写する動作によってブラッシングパラメータを用いてラベル付けされてもよい。動作は、「休止(ブラッシングなし)」、「マーカを確認できない」、「その他」及びブラッシング動作を含んでもよい。このようにして、分類部は、ブラシマーカの位置、向き及び存在とブラッシングパラメータとの関係を理解するために訓練され得る。
4B.顔感情分類部
顔感情分類部17は、頭部追跡部4からFAUsを受信し、FAUsに基づいて1又は複数の表情を決定する(ボックス45)。FAUの値は、関連する顔の筋肉の動作の強度であってもよい。いくつかの例では、顔感情分類部17は、FAUsのセットに基づいてスコアを決定することができる。顔感情分類部17は、対象固有のAU出力変動を最小化することができる正規化手順に基づいてスコアを決定する前に、FAU値を正規化してもよい。正規化手順は、較正ルーティン中に取り込まれたユーザデータに基づいていてもよい。
顔感情分類部17は、頭部追跡部4からFAUsを受信し、FAUsに基づいて1又は複数の表情を決定する(ボックス45)。FAUの値は、関連する顔の筋肉の動作の強度であってもよい。いくつかの例では、顔感情分類部17は、FAUsのセットに基づいてスコアを決定することができる。顔感情分類部17は、対象固有のAU出力変動を最小化することができる正規化手順に基づいてスコアを決定する前に、FAU値を正規化してもよい。正規化手順は、較正ルーティン中に取り込まれたユーザデータに基づいていてもよい。
上で概説したように、ヘアケアルーティンは、頭皮でのデタングリングとそれに関連する引っ張りから生じる1又は複数の苦痛体験に関連し得る。顔感情分類部17は、FAUsに基づいてユーザの苦痛の表れを決定することができる。いくつかの例では、顔感情分類部は、PrkachinとSolomonの苦痛強度尺度(PSPI)スケールに基づいて苦痛の表れを決定することができる。PSPIスケールは、
に基づいて演算され得る。
ここで、AU4は、FAU「眉が下がっている」であり、AU6は、FAU「頬が上がっている」であり、AU7は、「眼瞼が張っている」であり、AU9は、FAU「鼻のしわ」であり、AU10は、FAU「上唇が上がっている」であり、かつAU43は、FAU「目が閉じている」である。いくつかの例では、苦痛スコアは、AU4及びAU9依存性を含まない式に従って決定され得る。いくつかの例では、顔感情分類部17は、苦痛スコアを演算する前に画像をフィルタリングしてもよい。例えば、顔感情分類部17は、頭部の回転が平面から大きく外れている画像(images with a large out of plane head rotation)を取り除いてもよく、ブラッシングがなされていない、又はブラシが存在しない画像を取り除いてもよく、頭髪が顔の大部分を覆っている画像を取り除いてもよく、顔検出信頼度が低い画像を取り除いてもよい。顔感情分類部17は、フィルタリングプロセスを実施するための頭部追跡モジュール4又はブラシ追跡モジュール15からの出力7、8、9のいずれかを受信してもよい。
ユーザの頭髪ブラッシングにおいてスマートフォンの画像シーケンスを含む学習データを、上記式に従って処理した。ユーザが苦痛の表れを呈した75~80%の画像についてはPSPIスコアの著しい増加を確認した(手動で評価した)。更なる分析によって、上記AU4及びAU9の依存性を取り除くことによって偽陽性(関連する苦痛の表れはないものの、高い苦痛スコア)が減少され得ることを明らかにした。本発明者らは、AU4及びAU9がより誤差がある傾向があることを見出し、典型的には苦痛の他の兆候と相関していた。したがって、偽陽性は、精度に影響することなく減少され得る。偽陽性を減少させるための他の方法は、頭部の回転が平面から大きく外れている画像をフィルタリングすること、ブラッシングがなされていない、又はブラシが存在しない画像をフィルタリングすること、毛髪が顔の大部分を覆っている画像をフィルタリングすること、顔検出信頼度が低い画像を無視することを含む。
いくつかの例では、顔感情分類部17は、FAUsに基づいてユーザの幸福の表情を決定してもよい。いくつかの例では、顔感情分類部は、AU6(「頬が上がっている」)及びAU12(「唇の端が上がっている」)の強度に基づいて幸福の表情を決定することができる。AU6も苦痛の表れで存在するため、顔感情分類部17はまた、他の苦痛表示指数(AU4、AU10、AU43)の存在に基づいて幸福スコアを減少させることによって、幸福の表情を決定してもよい。一例として、顔感情分類部17は、
として幸福スコアを決定することができる。
いくつかの例では、顔感情分類部17は、幸福スコアを演算する前に画像をフィルタリングしてもよい。例えば、顔感情分類部17は、頭部の回転が平面から大きく外れている画像を取り除いてもよく、頭髪が顔の大部分を覆っている画像を取り除いてもよく、顔検出信頼度が低い画像を取り除いてもよい。顔感情分類部17は、フィルタリングプロセスを実施するための頭部追跡モジュール4又はブラシ追跡モジュール15からの出力7、8、9のいずれかを受信してもよい。
ユーザの頭髪ブラッシングのスマートフォン画像シーケンスを含む学習データを、上記式に従って処理した。ユーザが幸福の表れを呈した80%の画像については幸福スコアの著しい増加を割り出した(手動で評価した)。
4C.ヘアケアパフォーマンス分析部
ヘアケアパフォーマンス分析部18は、ブラシ動作分類部16からブラッシングパラメータを受信することができ、かつ/又は顔感情分類部17から1又は複数の感情表現を受信することができる。パフォーマンス分析部18は、ユーザのヘアケアパフォーマンスを分析するためにブラッシングパラメータ及び/又は感情表現を処理することができる(ボックス41)。パフォーマンス分析部18は、1又は複数のヘアケアイベント又は1又は複数のヘアケアパフォーマンスパラメータを検出することによってヘアケアパフォーマンスを分析することができる。ヘアケアイベントは、デタングリングイベント、不適格なブラシストローク、不適格なブラシと頭髪の接触などのうちのいずれかを含んでもよい。パフォーマンスパラメータは、ヘアブラシ印加力、ヘアブラシの頭髪把持力若しくはユーザ満足度、又は好適に較正されたときにこれらのパラメータのいずれかについて任意の代わりの尺度のうちのいずれかを含んでもよい。パフォーマンス分析部は、ヘアケアパフォーマンスに関連した1又は複数のパフォーマンスモデルを含んでもよい。例示的なパフォーマンスモデルは、デタングリングイベントを検出するためのデタングリングモデル、ヘアブラシに印加された力を決定するための力モデル(又は印加された力の代表(代わり))及びヘアケアセッションのユーザ満足度を決定するための満足度モデルを含む。パフォーマンスモデルは、手動でラベル付けされたデータ上で訓練された機械学習アルゴリズムを含んでもよい。パフォーマンス分析部18は、有利には、ユーザのヘアケアルーティンのパフォーマンス及びユーザの頭髪の関連する健康状態を評価することができる。システム1は、ヘアケアルーティン及びユーザの頭髪の関連する健康状態を改善するために、ユーザにフィードバックを提供することができる。
ヘアケアパフォーマンス分析部18は、ブラシ動作分類部16からブラッシングパラメータを受信することができ、かつ/又は顔感情分類部17から1又は複数の感情表現を受信することができる。パフォーマンス分析部18は、ユーザのヘアケアパフォーマンスを分析するためにブラッシングパラメータ及び/又は感情表現を処理することができる(ボックス41)。パフォーマンス分析部18は、1又は複数のヘアケアイベント又は1又は複数のヘアケアパフォーマンスパラメータを検出することによってヘアケアパフォーマンスを分析することができる。ヘアケアイベントは、デタングリングイベント、不適格なブラシストローク、不適格なブラシと頭髪の接触などのうちのいずれかを含んでもよい。パフォーマンスパラメータは、ヘアブラシ印加力、ヘアブラシの頭髪把持力若しくはユーザ満足度、又は好適に較正されたときにこれらのパラメータのいずれかについて任意の代わりの尺度のうちのいずれかを含んでもよい。パフォーマンス分析部は、ヘアケアパフォーマンスに関連した1又は複数のパフォーマンスモデルを含んでもよい。例示的なパフォーマンスモデルは、デタングリングイベントを検出するためのデタングリングモデル、ヘアブラシに印加された力を決定するための力モデル(又は印加された力の代表(代わり))及びヘアケアセッションのユーザ満足度を決定するための満足度モデルを含む。パフォーマンスモデルは、手動でラベル付けされたデータ上で訓練された機械学習アルゴリズムを含んでもよい。パフォーマンス分析部18は、有利には、ユーザのヘアケアルーティンのパフォーマンス及びユーザの頭髪の関連する健康状態を評価することができる。システム1は、ヘアケアルーティン及びユーザの頭髪の関連する健康状態を改善するために、ユーザにフィードバックを提供することができる。
デタングリングモデル-デタングリングイベントの検出
上で概説したように、ヘアケア手入れプロセス中のデタングリングプロセスは、ユーザにとって苦痛であり、不快な体験であり得る。性能分析部18は、デタングリングモデルを使用し、顔感情分類部17及び/又はブラシ動作分類部18からの出力に基づいてデタングリングイベントを検出することができる。以下に述べられるように、フィードバックは、将来のデタングリングイベントを緩和又は防止するためにユーザに提供されてもよい。
上で概説したように、ヘアケア手入れプロセス中のデタングリングプロセスは、ユーザにとって苦痛であり、不快な体験であり得る。性能分析部18は、デタングリングモデルを使用し、顔感情分類部17及び/又はブラシ動作分類部18からの出力に基づいてデタングリングイベントを検出することができる。以下に述べられるように、フィードバックは、将来のデタングリングイベントを緩和又は防止するためにユーザに提供されてもよい。
いくつかの例では、パフォーマンス分析部18は、ブラシ動作分類部16からの実質的にゼロ速度又は加速度と併用される顔感情分類部17からの苦痛の表示に基づいて、デタングリングイベントを検出してもよい。
図6は、パフォーマンス分析部18によって実施され得るようなデタングリングイベントを検出する方法を示す。第1のステップ80では、パフォーマンス分析部18は、顔感情分類部17から、処理済み画像(又は一連の画像)についての苦痛スコアを受信する。第2のステップ82では、パフォーマンス分析部18は、苦痛スコアとデタングリング苦痛しきい値とを比較する。苦痛スコアがデタングリング苦痛しきい値未満である場合には、プロセスは第1のステップ80にループバックし、その後の画像から苦痛データを受信する。苦痛スコアがデタングリング苦痛しきい値以上である場合には、プロセスは第3のステップ84に進む。いくつかの例では、パフォーマンス分析部18は、苦痛スコアと単独画像についてのデタングリング苦痛しきい値とを比較し得る。一例において、パフォーマンス分析部18は、一の画像について、苦痛スコアとデタングリング苦痛しきい値とを比較し得る。他の例において、パフォーマンス分析部18は、より長い期間に対応する複数の画像について、苦痛スコアとデタングリング苦痛しきい値とを比較し得る。第2のステップ82は、第3のステップ84に進めるために、苦痛スコアが複数の画像のそれぞれについてのデタングリング苦痛しきい値を超えること、又は平均苦痛スコアがしきい値を超えることを必要としてもよい。このようにして、デタングリング苦痛イベントをより強力に検出することができる。
第3のステップ86では、パフォーマンス分析部18は、ブラシ動作分類部16からブラシ動作パラメータを受信する。パフォーマンス分析部18は、デタングリング動作を検出するために、1又は複数のブラシ動作パラメータと対応するデタングリングしきい値とを比較し得る。示されるように、パフォーマンス分析部18は、線速度又は角速度、及び直線加速度又は角加速度のうちの1つ以上が実質的にゼロと等しいかどうかを決定し得る。言い換えると、ブラッシングパラメータが対応するデタングリング動作しきい値未満であるかどうかを決定し得る。1又は複数のブラッシングパラメータが対応するデタングリング動作しきい値よりも大きい場合、プロセスは第1のステップ80にループバックする。1又は複数のブラッシングパラメータ(のうちのそれぞれ、又はそれらのうちのいずれか)が対応するデタングリング動作しきい値未満である場合には、パフォーマンス分析部18はステップ88に進み、特定されたデタングリングイベントを出力する。線速度又は角速度/加速度は、(図4Bに関連して既に述べられたように)1又は複数の軸に沿った、若しくは該軸における線速度又は角速度/加速度を含んでもよく、又は線速度若しくは角速度/加速度の絶対量に関するものであってもよい。
図6の例では、パフォーマンス分析部18は、しきい値を超える苦痛についての苦痛信号及び低い又はゼロ速度/加速度である動作パラメータからの速度又は加速度信号を併せて分析することによって、苦痛があるデタングリングイベントを特定することができる。他の例において、パフォーマンス分析部18は、ステップ80及び82又は84及び86を省略し、顔感情分析部17からの苦痛データ又はブラシ動作分析部16からのブラシ動作データのいずれかに基づいてデタングリングイベントを検出してもよい。
パフォーマンス分析部18は、加速度又は速度の転回点(turning point)前後におけるパラメータ変化率ではなく、加速度又は速度の転回点を分析するのみであることから、実質的にゼロである加速度又は速度に基づいてデタングリングイベントを決定することにより、システム1の較正要件が減少する。したがって、デタングリング検出方法は、有利には、異なるユーザ間においてブラシの力の変数と独立したものであり得る。更に、PSPIスコアにより、異なるユーザについて同等の結果を提供し、更に較正要件が減少する。
いくつかの例では、ステップ86中にパフォーマンス分析部18は、1又は複数の他のブラシ動作パラメータを分析してもよい。パフォーマンス分析部18は、ユーザが自身の頭髪をブラッシングするプロセス中であることを決定するために、1又は複数のブラシ動作パラメータを分析してもよい。例えば、パフォーマンス分析部18は、ブラシ動作分類部16又はブラシマーカ位置検出モジュール5から例えば表示(図2に関連して上記に記載)を受信してもよい。いくつかの例では、パフォーマンス分析部18は、もつれた毛髪によってブラシが絡まることで起こる、突然の減速及び/又は急な動作(jerking motion)を特定するために、ブラシの軌跡又は軌跡に関連するパラメータを分析してもよい。いくつかの例では、パフォーマンス分析部18は、図12に関連して以下で更に述べられるように、ブラシ位置と、もつれる傾向があると知られている1又は複数の所定の位置と、を比較してもよい。
いくつかの例では、図9に関連して以下に述べられるように、パフォーマンス分析部18は、公知の条件下でヘアケアルーティンを実施するユーザの画像を含むデータを使用して訓練された、人工ニューラルネットワークなどの機械学習(ML)アルゴリズムを含んでもよい。訓練データの画像は、デタングリングイベントを特定するために手動でラベル付けされてもよい。MLモデルを構築するために使用される消費者の集団は、特定の人口統計(例えば、特定のベースの毛髪タイプ又はあるいはより高齢の(より虚弱/手先が器用ではない)集団の群にモデルを適応させるために選択されてもよい。MLアルゴリズムは、デタングリングイベントに関連した1又は複数のブラシ動作パラメータを特定してもよい。図6のプロセスのステップ86では、パフォーマンス分析部18は、対応するしきい値を超えて特定されたこれらのブラシ動作パラメータのうちの1又は複数に基づいてデタングリングイベントを決定してもよい。
いくつかの例では、デタングリングイベントの特定(ステップ88)後、パフォーマンス分析部18又は分類部モジュール10は、デタングリングイベント前後にわたって1又は複数のブラシ動作パラメータ(及び関連する画像)に基づいて更なる分析を実施してもよい。このようにして、分類部は、他のブラシ動作パラメータを抽出し、もつれを少なくするか、堅いもつれを少なくするために考案された製品の有効性を割り出してもよい。例えば、デタングリングイベント後のピーク加速度又はブラシが静止状態である時間の長さは、考案された製品の有効性における定量的な洞察を提供し得る。このようにして、システム1は、特定のユーザ向けに1又は複数の製品の有効性を追跡、モニタリング及び比較することができる。
図7~図14は、苦痛及び/又はブラシ動作に基づいたデタングリングイベントの検出を裏付ける関係性を立証する実験データを示す。
図7は、スマートフォンのカメラによってモニタリングされているヘアケアセッションから収集された学習データを示す。カメラは、ブラシの力で頭髪をブラッシングするユーザの一連の画像を撮像した。ブラシの力は、ブラシの動作に関連する複数の機械的パラメータを測定するための力センサ、加速度計及びジャイロスコープを含む複数のセンサを含んでいた。この図は、すべてのブラシの力から取得された0度歪みデータ100、加速度計X軸データ200及びジャイロスコープZ軸データ300によって表されるような横方向のデタングリング力のプロットを含む。すべてのデータ100、200、300、400は、時間に対してプロットされている。
データ100、200、300は、対応するビデオデータセットから得られた定性的記述を用いて注釈がつけられる。定性的記述は、第1のマーカ102、第2のマーカ104及び第3のマーカ106を含む。3つのマーカ102、104、106は、それぞれデタングリングイベントに対応する。第1のマーカ102は、視認できる苦痛及びビデオデータから視認できる引っ張り(tugging)の表示を提供する(手動で評価される)。第2のマーカ104は、ビデオデータから視認できる引っ張り(tugging)を示す。第3のマーカ106は、ビデオデータから視認できる苦痛を示す。図は、対応するビデオ画像からのPSPIスコアによって決定される苦痛データ400のプロットを更に含む。苦痛信号400は、第1のマーカ102、第2のマーカ104及び第3のマーカ106に対応するピークを含有するが、これは手動で評価した外見上の苦痛とPSPIスコアとの相関性を示す。
図8Aは、図7の第1のマーカ102周辺に関して既に示したプロファイルの引き延ばし部分を示す。この例では、デタングリングの横方向の力プロファイルは、苦痛及び引っ張り(tugging)のイベントが関連することで、力のかかる時間が延びることを含む。同時に、X軸に沿った加速度は、(スケーリングオフセットにより)0になる傾向がある。加えて、Z軸周りの角速度(ジャイロスコープZ)もまた、この間ゼロまで減少する。定性的には、ブラシのねじれ(twisting)及びブラシの加速度は、デタングリングイベント中に0になる傾向がある。
図8Bは、図7の第3のマーカ106周辺に関して既に示したプロファイルの引き延ばし部分を示す。この例では、デタングリングの横方向の力プロファイルは、画像中の視認できる苦痛に関連して、力のかかる時間が大きく延びることを含む。同時に、第1のマーカ104で見られる効果と同様に、X軸に沿った加速度及びZ軸周りの角速度は0になる傾向がある。
データは、マーカ102、104、106におけるデタングリングの存在は、横方向に広がる力のピーク(デタングリングに必要とされる持続的な力を表す)、実質的にゼロのX軸加速度、実質的にゼロのZ軸角速度及びPSPIスコアの増加のそれぞれに関連することを示す。
更に関係を示すために、図8Cは、図7に関して既に説明されたデータの別のセクションの拡張部分を示す。28~34秒の間の部分では、デタングリングの横方向の力100、X軸の加速度200及びZ周囲の角速度(ジャイロスコープZ)300におけるプロファイルは、ユーザが苦痛又は毛髪の引っ張りを明白に認識していない期間を示す。このセクションでは、ブラッシング動作の周期性は、加速度計プロファイル200及びZ周囲の角速度(ジャイロスコープZ)プロファイル300から視認でき、約1秒の周期性を有する。同様に、この期間中の加速度計Xプロファイル200及びジャイロスコープZプロファイル300の変化は、視認できる苦痛及び/又は引っ張りが視認できる図8A及び図8Bにおいて既に見られる周期サイクル中のものより大きい。図8Cのプロファイル100、200、300は、適切なデタングリングイベントを示すと考えられ得る。
図9は、特定の訓練プロトコルに従って取り込まれた更なる学習データを示す。データは、デタングリングイベント又は他のパフォーマンス分析(以下で更に述べられるように印加された力を決定するものなど)に関連する、1又は複数のブラシ動作パラメータなど、1又は複数のパラメータを決定する機械学習(ML)アルゴリズムを訓練するために使用されてもよい。データは、顔感情分類部17、ブラシ動作分類部16及びパフォーマンス分析部18を含む分類部10を訓練するために使用されてもよい。
プロトコルは、手入れ/デタングリングプロセス110、続くブラッシングとブロー乾燥との組合せを含む6つの周期的に間隔をあけたヒートスタイリングセグメント112を含む。6つのセグメントは、頭部のそれぞれの側で3つの異なる領域(頭の前部、中央及び背面)のブラッシングに対応する。ヒートスタイリングセグメント間では、ブラッシングなしでブロー乾燥のみが実施される。デタングリングプロセスに関連するデタングリングデータ110は、デタングリングイベントを検出する分類部10/パフォーマンス分析部18を訓練するための離散データセットとして使用することができる。6つのヒートスタイリングセグメントに関連するスタイリングデータ112は、不適切なブラシ使用、不適切な頭髪の把持及びスタイリング中の器具における他の最適な使用を検出する分類部/パフォーマンス分析部18を訓練するための第2の離散データセットとして使用することができる。
このようにして、種々の訓練プロトコルで複数の対象を使用して取得されたデータを使用し、分類部は、任意の頭髪の手入れイベントにおける構成要素としてより広く開発され得る。また、制御されていない手入れイベントをフィードバック及び推奨を行うために管理可能な要素に分解すべく適用されてもよい。
この例では、データは、ハンドル(図3に関連して説明される)の端部に備えられたマーカを有するブラシの力(図7に関連して説明される)を捉えて取り込まれた。ブラシの力を捉えて取り込まれたデータは、0度(横方向)曲げ歪みデータ500、90度曲げ歪みデータ600、X軸加速度計データ200及びZ軸ジャイロスコープデータ300を含む。
画像データはまた、マーカ(頭部追跡モジュール4、ブラシマーカ位置検出モジュール5、ブラシの向き検出モジュール6及びブラシ動作分類部16を使用)並びにFAUs及び関連する表情(頭部追跡モジュール4及び顔感情分類部17を使用)から動作パラメータを決定するために取り込まれた。
図10は、図9のプロトコルに従って取り込まれたデタングリングプロセスデータ110の様々な力のブラシパラメータに対してプロットされたPSPI苦痛スコアのプロットを示す。プロットは、(i)90度曲げ歪み600、(ii)0度曲げ歪み500及び(iii)回転歪み800に対する苦痛スコアを含む。プロットは、歪みの割合がより高い場合は、これに関連して、表された苦痛の値がより高くなることを示す。歪みは、使用中のブラシの「微小」な直線変形及び回転変形であると考えられ得るため、ブラシはもつれて動けない状態となって物理的にわずかに変形し(弾性的ではあるが、経過とともにヒステリシス)、これらの経時的な微小変形の経緯は、もつれの複雑さと「もつれから抜け出すための」ユーザの動作の両方に依存する。
図11は、画像データのマーカ位置及び向きに基づき、ブラシ動作分類部によって決定された様々な動作パラメータに対してプロットされたPSPIスコアのプロットを示す。プロットは、(i)加速度900、x位置1000、y位置1100及び速度1200に対する苦痛スコアを含む。x位置及びy位置座標について、x=0、y=0の値は、画像の左上画素に対応する。ブラシ動作分類部16は、位置の値におけるフレーム間変化に基づいて、動的パラメータである速度1200及び加速度900を決定することができる。この例では、値を決定することができない場合には、動作パラメータはデフォルトでゼロになる。この例では、PSPIスコアを決定することができない場合には、苦痛値はデフォルトでゼロになる。
プロットは、苦痛スコアが高い場合、これに関連して、実質的に速度がゼロ及び実質的に加速度がゼロとなり、一方でそれよりも低い苦痛スコアは、これに関連して、加速度及び速度が広範囲(broader)となることを一般的に示す。同様に、x位置1000及びy位置1100の固定値は、高い苦痛スコアに関連するが、一方でそれよりも低い苦痛スコアは、広範囲の位置座標(co-ordinates)に関連していることを示す。
図12は、角速度1300における追加のマーカ由来データとともにフィルタリングした後の図11のデータを示す。フィルタリングは、苦痛スコアが0と等しいデータを取り除くこと、x位置及びy位置が0と等しいデータを取り除くこと、加速度が毎秒22,000画素(22,000 pixels per second squared)未満であるデータを取り除くこと、速度が毎秒800画素未満であるデータを取り除いた速度データ、及び苦痛スコアが0.25超であるデータを戻して加えることを含んだ。図12のフィルタリング済データは、苦痛スコアがより高いと、これに関連して、速度及び加速度データポイントが低くなることを示す。
図13は、苦痛スコアに関連する図11のデータポイントのy位置1100に対してプロットされたx位置1000を示す。この例では、X位置及びY位置は、カメラの画素に対応するため、カメラの基準フレームに関連する。外見上の苦痛のレベルは、特定の位置でマーカのサイズによって示される。データは、高密度の高い苦痛スコアを有する3つの領域114を示す。このようにして、パフォーマンス分析部18は、引っ張り及びデタングリングイベントが生じる領域を特定することができ、システム1は、苦痛114の領域に塗布され得るもつれを解消するためのスプレー/セラムを推奨するなどのフィードバックを提供することができる。
図14は、ブラシの力(確認のために使用)及びブラシのマーカについて図9~13に基づくデータの様々なパラメータ間の相関強度を特定する相関マトリクスを示す。強い相関関係は、苦痛とブラシの力から得られるジャイロ絶対値との間、角速度及び線形速度はそれぞれブラシのマーカから得られるが、苦痛と角速度との間、並びに苦痛と(線形)速度との間で見られ得る。
図7~図14のデータは、苦痛とブラシの動作との間に関係性が存在し、それら両方がデタングリングイベントを特定するために使用できることを示す。結果として、パフォーマンス分析部18は、デタングリング苦痛しきい値を超える苦痛スコアに基づくデタングリングイベント、及び/又はデタングリング速度しきい値未満である線速度若しくは角速度、及び/又はデタングリング加速度しきい値未満である加速度を決定することができる。以下に述べられるように、デタングリングイベントの検出に続いて、システム1は、デタングリングによる苦痛を緩和し、かつ/又は将来的なデタングリングイベントの発生率が減少するようにユーザフィードバックを提供することができる。
力モデル-印加されたブラシの力の決定
ヘアケア研究における長年の課題は、スタイリングプロセスの異なる時点で関与する力を推定することである。デタングリングイベントを達成するために印加されたブラシの力は、洗浄及びヘアケアプロセス中に使用される1又は複数のヘアケア製品の配合特性に直接依存し得る。典型的なアプローチとしては、ブラシの力(図7に関連して上に記載)を利用して印加されたブラッシング力を推定することであるが、こうしたブラシは高価であり、幅広い顧客ベースに合わせてスケールを変更するのは実用的ではない。
ヘアケア研究における長年の課題は、スタイリングプロセスの異なる時点で関与する力を推定することである。デタングリングイベントを達成するために印加されたブラシの力は、洗浄及びヘアケアプロセス中に使用される1又は複数のヘアケア製品の配合特性に直接依存し得る。典型的なアプローチとしては、ブラシの力(図7に関連して上に記載)を利用して印加されたブラッシング力を推定することであるが、こうしたブラシは高価であり、幅広い顧客ベースに合わせてスケールを変更するのは実用的ではない。
1又は複数の例では、パフォーマンス分析部18は、顔感情分類部17から受信された苦痛スコアに基づき、力の信号、ヘアブラシに印加された力の相対レベルと表すが、を決定するために力モデルを使用することができる。以下に述べられるように(図7~図8Cに関連して上記で)、苦痛スコアは印加されたブラシの力と相関し、結果として、苦痛スコアは印加されたブラシの力の代替として使用され得る。このようにして、開示されたシステム1及び方法は、ブラシの力を必要とすることなく力の代替手段をレポートすることができる。
いくつかの例では、ヘアケアセッションのある特定の段階、例えば、ブラシが最初にユーザの頭髪を把持し、ブラシと頭髪との間の把持から生じる摩擦によってある程度引っ張りが生じ得るとき、苦痛スコアは、新しいブラシストロークの開始時に印加されたブラシの力とのみ相関する。例えば、ユーザがもつれを感じる場合には、もつれを解消するための非常に制約された方法しか存在しない場合があり、これは、他の要素にかかわらず必要な力を決定し得るが、このような時に表される苦痛は、力の良好な代替となる可能性が高い。したがって、いくつかの例では、パフォーマンス分析部18は、ブラシ動作分類部16から受信された苦痛スコア及びブラシ動作パラメータに基づいて力の信号を決定してもよい。パフォーマンス分析部18は、ブラシ動作パラメータが新しいブラシストロークの発生を示すときには苦痛スコアに基づいて力の信号を決定してもよい。
デタングリングモデルと同様の方法では、力モデルは、図7~図14に関連して説明されたものと同様のデータセットで訓練され得るMLアルゴリズムであってもよい。すなわち、データは、添付した図3のマーカを備えたブラシの力を用いて、ヘアケアルーティンを実施するユーザについて取得することができる。ブラシの力自体から得られるデータ及びヘアケアルーティン中に取り込まれた一連の画像に関連する画像データは、モデルを生成するために使用することができる。モデルは、図7及び図10に示されるように、同じ時間軸に対応するビデオ画像のブラシの力に関するデータ及び対応するPSPIスコアに基づいて訓練されてもよい。モデルは、図11及び図12に示されるように、一連の画像におけるブラシマーカ位置から、ブラシ動作分類部16によって導き出されたブラシ動作データを更に組み込んでもよい。
訓練データは、図9の訓練プロトコルデータのヘアスタイリングセグメント112を含んでもよい。図15~図18は、図11~図14のデタングリングプロセスデータと同様の様式で示されたスタイリングセグメント112について取得したデータを示す。このようなデータは、上記で言及されたブラシストロークの発生などの追加パラメータの依存性を有する力モデルを補完する上で有用であり得る。
図15は、ヘアスタイリングセグメントデータを除き、図11と同じ様式で様々な動作パラメータに対してプロットされたPSPIスコアのプロットを示す。プロットは、苦痛スコアが高い場合、これに関連して、速度及び加速度は実質的にゼロとなり、一方でそれよりも苦痛スコアが低い場合は、これに関連して、加速度及び速度が広範囲となることを一般的に示す。同様に、x位置1000及びy位置1100の固定値は、高い苦痛スコアに関連するが、一方でそれよりも低い苦痛スコアは、広範囲の位置座標に関連していることを示す。
図16は、フィルタリング後の図15の速度データを示す。フィルタリングは、苦痛スコアが0と等しいデータを取り除くこと、x位置及びy位置が0と等しいデータを取り除くこと、速度が毎秒800画素未満であるデータを取り除いた速度データ、及び苦痛スコアが0.25超であるデータを戻して加えることを含む。図15のフィルタリングデータは、R2フィットが0.75である苦痛スコアとブラシとの相関関係を示す。
図17は、苦痛スコアに関連する図15のデータポイントのy位置1100に対してプロットされたx位置1000を示す。データは、密度の高い苦痛スコアを有する3つの領域116を示す。このようにして、パフォーマンス分析部18は、印加されるブラシ力がとても高い領域を特定することができる。システム1は、苦痛の領域116に印加され得るブラシと毛髪との間の摩擦を減少するためのスプレー/セラムの推奨などのフィードバックを提供することができる。
力モデルを使用すると、パフォーマンス分析部18は、苦痛スコア及び取り込まれたビデオ画像から得られる代替となる力の信号をモニタリングすることができる。このように、システム1によって、対応する力の信号(ヘアケアセッションにおける平均の力の信号であってもよい)に基づいて特定のユーザ用に1又は複数の考案された製品の有効性を追跡、モニタリング及び比較することができる。このような製品の有効性をモニタリングすることは、製品開発若しくは消費者調査中に、又は異なるヘアケア製品を比較しようとする特定のエンドユーザにとって特に有利である。
いくつかの例では、パフォーマンス分析部は、特定のユーザを更に特徴付けし、かつよりパーソナライズされたフィードバックを提供するために、デタングリングモデルと併用して力モデルを適用してもよい。例えば、パフォーマンス分析部は、デタングリングイベントの数並びに力の信号によって示される力のレベルに基づいて、「力が低く、もつれが多い」、「力が高く、もつれが多い」、「力が低く、もつれが少ない」及び「力が高く、もつれが少ない」といった4つのユーザタイプにユーザを分けてもよい。
いくつかの例では、パフォーマンス分析部18は、デタングリングプロセス110に関連するデータとスタイリングに関連するデータとを区別してもよい。パフォーマンス分析部18は、ドライヤの存在を決定することによって、又はブラシストロークの平均軌跡によってこのような区別を実施してもよい。デタングリングプロセス110とヘアスタイリングプロセス112とを区別することによって、パフォーマンス分析部は、デタングリングプロセスデータにデタングリングモデル、ヘアスタイリングデータ112に力モデルを選択的に適用することができる。
ユーザ満足度モデル
いくつかの例では、パフォーマンス分析部18は、顔感情分類部17から受信された幸福スコア、これはヘアケアルーティンによるユーザの満足度のレベルを表しているが、に基づきユーザの幸福を決定するための満足度モデルを適用してもよい。パフォーマンス分析部18は、ヘアケアセッションの終了に関係する画像について、ユーザ満足度のみを分析してもよい。例えば、パフォーマンス分析部17は、ヘアケアルーティンが終了したことを示す、しきい値の時間においてブラシマーカが静止していることを示すブラシマーカ位置検出モジュール5又はブラシ動作分類部16から出力を受信してもよい。ヘアケアセッションの終わりにユーザの幸福(又はその欠如)を検出することによって、顔感情分類部17は、ルーティンにおけるユーザ満足度を有利に決定し、適切なフィードバックを提供する。フィードバックは、例えば更なるスタイリングについてのアドバイス、製品選択アドバイス及び例えば幸福感を高めるための「とてもすてきですよ」といった前向きなメッセージを含むことができる。
いくつかの例では、パフォーマンス分析部18は、顔感情分類部17から受信された幸福スコア、これはヘアケアルーティンによるユーザの満足度のレベルを表しているが、に基づきユーザの幸福を決定するための満足度モデルを適用してもよい。パフォーマンス分析部18は、ヘアケアセッションの終了に関係する画像について、ユーザ満足度のみを分析してもよい。例えば、パフォーマンス分析部17は、ヘアケアルーティンが終了したことを示す、しきい値の時間においてブラシマーカが静止していることを示すブラシマーカ位置検出モジュール5又はブラシ動作分類部16から出力を受信してもよい。ヘアケアセッションの終わりにユーザの幸福(又はその欠如)を検出することによって、顔感情分類部17は、ルーティンにおけるユーザ満足度を有利に決定し、適切なフィードバックを提供する。フィードバックは、例えば更なるスタイリングについてのアドバイス、製品選択アドバイス及び例えば幸福感を高めるための「とてもすてきですよ」といった前向きなメッセージを含むことができる。
他のパフォーマンス分析モデル
パフォーマンスモデリング及び分析に対する上記アプローチは、ヘアケアルーティンの他の重要なコンポーネントに適用され、それによって更なるコンポーネントモデルを提供することができる。パフォーマンス分析部は、かかるモデルを適用し、エンドユーザのケースにおいてフィードバックの個別化を更に強化し、あるいは、製品の優位性/試験使用における使用パフォーマンスを説明するために説明、より洗練された方法を提供することができる。
パフォーマンスモデリング及び分析に対する上記アプローチは、ヘアケアルーティンの他の重要なコンポーネントに適用され、それによって更なるコンポーネントモデルを提供することができる。パフォーマンス分析部は、かかるモデルを適用し、エンドユーザのケースにおいてフィードバックの個別化を更に強化し、あるいは、製品の優位性/試験使用における使用パフォーマンスを説明するために説明、より洗練された方法を提供することができる。
本開示の一部として想定された更なる例示的なパフォーマンスモデルの1つは、ブラシストロークモデルである。ブラシストロークモデルは、ブラシ及びマーカを用いるヘアケアルーティンを実施するユーザの複数のビデオシーケンスから得られるブラシ動作パラメータデータを使用して訓練し得る。訓練データは、どのようなルーティンによって健康的な毛髪、不快な感情、多くのデタングリングイベントなどが生じたかを強調するためにラベル付けされ得る。相対的な毛髪の健康状態は、毛髪の光沢度、毛髪のボリューム、枝毛の数、水分レベル、ふけの量などのいずれかに従って定量化されてもよい。毛髪の健康状態の相対レベルは、訓練データのために手動で決定されてもよく、又はシステムは、それに応じて画像を分析することによって健康状態のレベルを決定してもよい。パフォーマンス分析部18は、続いてブラシモデルを使用してユーザのブラシストロークをモニタリングし、かつ特定のブラッシング技術の結果に関連し得るフィードバックをユーザに提供することができる。ブラシストロークモデルは、ユーザの毛髪タイプ/スタイルに従ってカテゴリ化されてもよい。
他のモデルは、把持力/ブラシのカールについてのモデルを含んでもよい。
5.フィードバック
フィードバックは、パフォーマンス分析に基づいて41を生成し、例えばディスプレイ12、音声フィードバック及び触覚フィードバックなどの1又は複数によってユーザに42を出力することで行われる。
フィードバックは、パフォーマンス分析に基づいて41を生成し、例えばディスプレイ12、音声フィードバック及び触覚フィードバックなどの1又は複数によってユーザに42を出力することで行われる。
フィードバックの少なくとも1つの項目は、(i)製品又は器具の適用にあたり、ターゲットとなる頭髪領域を示すこと、(ii)製品又は器具を過剰に適用している頭髪領域を示すこと、のうちの少なくとも1つを含んでもよい。ヘアケア活動の例では、フィードバック項目は、製品若しくは器具の適用にあたり、ターゲットとなる頭髪領域を示すこと、及び/又はヘアドライヤ、カール若しくはストレート矯正器具による過熱など、製品若しくは器具の過剰に適用している頭髪領域を示すことを含んでもよい。
いくつかの例では、フィードバックは、特定の毛髪タイプに個別化されてもよい。システムは、ユーザの入力によって、又は以下に記載されるルーティン前後の画像などの1又は複数の画像から頭髪タイプを決定することによって、頭髪タイプを受信してもよい。システムは、上記のセグメント化を実施することによって頭髪タイプを決定してもよい。
即時フィードバック
いくつかの例では、システム1は、ヘアケアルーティン中にユーザにフィードバックを提供してもよい。パフォーマンス分析部18が特定のイベントを検出する場合には、イベントに関連する即時フィードバックが与えられ得る。例えば、パフォーマンス分析部18はデタングリングイベントを検出する場合には、システムは「もつれた瞬間に」フィードバックを提供することができる。フィードバックは、手を用いて根元で頭髪を把持し、もう一方の手を用いてブラッシングすること、又は毛髪端部から始まる短いセクションにおけるもつれた毛髪をブラッシングすること、又はもつれた領域への、デタングリング溶液又は洗い流さないコンディショナーなどの考案された製品(化学処置)の即時適用を推奨することなど、デタングリング中の苦痛を処理するためのブラッシング戦略を含んでもよい。フィードバックは、ブラッシング戦略又は推奨された製品を適用するための、もつれが大きい領域(図13に示されている)を特定してもよい。
いくつかの例では、システム1は、ヘアケアルーティン中にユーザにフィードバックを提供してもよい。パフォーマンス分析部18が特定のイベントを検出する場合には、イベントに関連する即時フィードバックが与えられ得る。例えば、パフォーマンス分析部18はデタングリングイベントを検出する場合には、システムは「もつれた瞬間に」フィードバックを提供することができる。フィードバックは、手を用いて根元で頭髪を把持し、もう一方の手を用いてブラッシングすること、又は毛髪端部から始まる短いセクションにおけるもつれた毛髪をブラッシングすること、又はもつれた領域への、デタングリング溶液又は洗い流さないコンディショナーなどの考案された製品(化学処置)の即時適用を推奨することなど、デタングリング中の苦痛を処理するためのブラッシング戦略を含んでもよい。フィードバックは、ブラッシング戦略又は推奨された製品を適用するための、もつれが大きい領域(図13に示されている)を特定してもよい。
更なる例では、パフォーマンス分析部18がブラシストロークモデルを使用して望ましくない結果に関連するブラシストロークを検出する場合には、システム1は、即時是正フィードバックを提供してもよい。フィードバックは、より良好なブラッシングストロークに関するアドバイスを含んでもよく、かかるストロークを示すアニメーションを含んでもよい。
更なる例では、パフォーマンス分析部18が力モデルを適用し、かつブラシと頭髪との間の不適格な把持(ブラシストローク開始時でしきい値よりも大きな苦痛スコア)を検出する場合には、システムは、ブラッシング技術に関する情報(ブラッシングストローク、ブラシの回転など)又は熱印加の提案を提供することなど、即時フィードバックを提供してもよい。
ルーティンフィードバックの終了
いくつかの例では、システム1は、ヘアケアルーティン完了時にユーザにフィードバックを提供してもよい。システム1は、ヘアケア器具が静止状態のままであるか、又は閾値の長さの時間において画像境界から外れていることに基づいてヘアケアルーティンの完了を検出してもよい。他の例では、ユーザは、ルーティンが完了したことを示すために手動入力を提供してもよい。
いくつかの例では、システム1は、ヘアケアルーティン完了時にユーザにフィードバックを提供してもよい。システム1は、ヘアケア器具が静止状態のままであるか、又は閾値の長さの時間において画像境界から外れていることに基づいてヘアケアルーティンの完了を検出してもよい。他の例では、ユーザは、ルーティンが完了したことを示すために手動入力を提供してもよい。
いくつかの例では、フィードバックは、ヘアケアルーティンをまとめたレポートを含んでもよい。例えば、レポートは、デタングリングモデルで検出されたデタングリングイベントの数及び/若しくは位置、ブラシストロークモデルの出力に基づいたブラッシングストロークに関する統計、並びに/又は力モデルの出力に基づいたブラシと頭髪との間の平均把持力を示してもよい。データは、比較可能なユーザの母集団分布に関連して、又は異なる製品について予め取り込まれた同様のデータに関連して示されてもよく、これによってユーザは、パフォーマンスの変化を製品の変化に起因させることが可能となる。データは、ルーティン中に取り込まれた画像、使用される製品の記録、並びにユーザの頭髪タイプ及び状態とともに提示されてもよい。
マルチセッションフィードバック
いくつかの例では、システム1は、複数のセッションにわたって測定されたパフォーマンスの態様に関連するフィードバックをユーザに提供してもよい。典型的には、かかるパフォーマンスの評価は、いくつかの異なるセッションにわたって同じユーザについて実行される。
いくつかの例では、システム1は、複数のセッションにわたって測定されたパフォーマンスの態様に関連するフィードバックをユーザに提供してもよい。典型的には、かかるパフォーマンスの評価は、いくつかの異なるセッションにわたって同じユーザについて実行される。
いくつかの例では、ヘアケアパフォーマンスを分析することは、
i)現在のヘアケアセッションにおける1又は複数のブラッシングパラメータ及び/又はユーザの1又は複数の表情、並びに
ii)先のパーソナルケアセッションからの1又は複数の対応するブラッシングパラメータ及び/又はユーザの1又は複数の表情
に基づく1又は複数のパフォーマンスパラメータを決定することを含む。
i)現在のヘアケアセッションにおける1又は複数のブラッシングパラメータ及び/又はユーザの1又は複数の表情、並びに
ii)先のパーソナルケアセッションからの1又は複数の対応するブラッシングパラメータ及び/又はユーザの1又は複数の表情
に基づく1又は複数のパフォーマンスパラメータを決定することを含む。
マルチセッションフィードバックを提供することによって、ユーザは、システムを通じて現在のヘアケアパフォーマンスと先のセッションでのパフォーマンスとを比較することが可能になる。例えば、フィードバックは、「今朝のように、もっとゆっくりブラッシングしてはいかがでしょうか」であり得る。代替的には、パフォーマンスの変化によって、「いつもよりも髪がもつれているようです、製品Xを使ってみてはいかがでしょうか?」といった新しい化学処置の推奨がもたらされ得る。ここでは、製品Xは毛髪のもつれを減少させるように考案されたタイプのものである。
フィードバックのタイプ
いくつかの例では、フィードバックは、将来的な頭髪の洗浄又はヘアケアルーティン中に使用するための製品の推奨を含んでもよい。例えば、製品の推奨は、改善されたブラシ-頭髪の把持力及び/又は改善したヘアスタイリング若しくは頭髪の健康状態の結果など、デタングリングイベントを減少させるための考案された製品に関連してもよい。図18は、印加されたブラシの力が考案された製品の選択に依存し得ることを示している。製品の推奨はまた、より細かいブラシなどの器具の推奨を含んでもよい。
いくつかの例では、フィードバックは、将来的な頭髪の洗浄又はヘアケアルーティン中に使用するための製品の推奨を含んでもよい。例えば、製品の推奨は、改善されたブラシ-頭髪の把持力及び/又は改善したヘアスタイリング若しくは頭髪の健康状態の結果など、デタングリングイベントを減少させるための考案された製品に関連してもよい。図18は、印加されたブラシの力が考案された製品の選択に依存し得ることを示している。製品の推奨はまた、より細かいブラシなどの器具の推奨を含んでもよい。
いくつかの例では、どのようにしてユーザが自身の最終的なスタイルを達成するかに基づいて、例えばスタイリング中のブラッシング動作及びブラシ-頭髪の把持力などのフィードバックが提供されてもよい。上記即時フィードバックと同様に、システム1は、推奨されたブラッシング技術という形態でフィードバックを提供してもよい。
いくつかの例では、システム1は、ユーザが自身の最終的な見た目にどのくらい満足しているかを示すユーザ満足度モデルからのユーザ満足度に基づいてフィードバックを提供してもよい。幸福スコアが幸福しきい値未満である場合には、フィードバックは、ヘアケアルーティンと幸福スコアが高かった先のヘアケアルーティンとの違い(ブラッシングスタイル、把持力、製品の選択)を強調し、次回のための推奨を提供してもよい。幸福スコアが幸福しきい値を超える場合には、システムは、自信を与え、幸福感を後押しする前向きなメッセージという形態でフィードバックを提供してもよい。
適用例
図19は、開示されたシステムの使用の例示的方法を示す。システム1は、スマートフォン若しくはタブレット、又は同様のパーソナルモバイルデバイス上のモバイルアプリケーション(アプリ)で展開されてもよい。
図19は、開示されたシステムの使用の例示的方法を示す。システム1は、スマートフォン若しくはタブレット、又は同様のパーソナルモバイルデバイス上のモバイルアプリケーション(アプリ)で展開されてもよい。
システムは、アプリストアなどからユーザがダウンロードした後に消費者対応アプリケーションによってより好適に適用され得る。システムはまた、好適には製品の研究開発に利用されてもよい。例えば、研究に動員されたユーザは、アプリケーションを使用することができ、パフォーマンス分析データは、ヘアケア製品の有効性を実証するために使用され得る。例えば、データは、(例えば、必要とされる力が減少することによって)デタングリングイベントを「緩和する」ために考案された製品のパフォーマンスを定量化し得る。
ユーザがアプリケーションを開始した後、システムはいくつかの初期セットアップを実施してもよい(ステップ120)。例えばシステムは、デバイス上のカメラを有効にし、ヘアスタイリングイベントの良好な画像を取り込むことができるように、ユーザにデバイス設置を誘導する指示を提供してもよい。ユーザは、アプリからの指示(近すぎる、遠すぎる、低すぎる、高すぎるなど)によって誘導される距離でデバイスを鏡として使用することができる。
ヘアケアルーティンを開始する前に、システムは、いくつかの質問(例えば、あなたのヘアスタイルはどれですか?どのくらいの頻度で髪色を変えますか?など)をユーザに提示し、応答する適切なユーザ入力を受信してもよい(ステップ121)。
システムは、ユーザのルーティン前画像を取り込み、これを記憶してもよい(ステップ122)。
ユーザが自身のヘアケアルーティンを開始すると、システムはデバイスのカメラから一連の画像を受信する(ステップ123)。続いてシステムは、上記で詳細に説明されるようにパフォーマンスを分析してもよい(ステップ124)。いくつかの例では、システムは、一連の画像においてヘアケア器具の位置を追跡することによってヘアケアパフォーマンスを分析してもよい。いくつかの例では、システムは、ユーザの表情を分析することによってヘアケアパフォーマンスを分析してもよい。システムは、1又は複数のパフォーマンスパラメータ(例えば、ブラシー頭髪の把持力、ブラシストローク軌跡)を決定することによって、又は1又は複数のヘアケアイベント(例えば、デタングリングイベント)を検出することによってヘアケアパフォーマンスを分析してもよい。システムは、デタングリングプロセス及びスタイリングプロセスなどのヘアケアルーティンの段階に応じて異なるパフォーマンス分析を実施してもよい。
パフォーマンス分析に応答して、システムは、上記のようにユーザに即時に是正フィードバックを提供してもよい(ステップ125)。
ヘアケアルーティンの完了後、システムは、ルーティン後の画像を取り込んで記憶してもよい(ステップ126)。ルーティン前画像及びルーティン後画像は、頭髪と背景とを分離するためにセグメント化され、「既知の」形状スケールと照らし合わせて分類することができる。画像は、ユーザの開始時及び終了時の頭髪タイプ/スタイルを定義し、自身のヘアタイプに最も好適な製品を推奨するなどのフィードバックに影響を与えることができる。
ステップ127では、システムは、上記のようにルーティン後フィードバックを提供することができる。
上記に例示されるようなブラシ追跡システムによって、ブラシ及び顔の特徴を純粋な視覚ベースで追跡することができる。センサをブラシに配置する必要はない。センサをブラッシング中の人に配置する必要はない。該技術は、現在利用可能な携帯電話技術において十分なパフォーマンスで堅牢に実装することができる。該技術は、従来の2Dカメラビデオ画像を使用して実施され得る。
本明細書を通じて、「モジュール」といった表現は、一般若しくはカスタムプロセッサ上で実行されるコンピュータコード、又は、例えば、アプリケーション向け集積回路など、ハードウェアマシンの実装化を含む機能的システムを包含することを意図している。
例えば、顔追跡モジュール4、ブラシマーカ位置検出モジュール5、ブラシマーカ向き推定部/検出モジュール6及び分類部10の機能は別個のモジュールとして記載されているが、それらの機能性は、単独又はマルチスレッドプロセスとして好適なプロセッサ内で組み合わせられるか、異なるプロセッサ及び/若しくはプロセシングスレッド間で別々に分離され得る。機能性は、単独の処理装置又は分散コンピューティングプラットフォーム上に提供されることができ、例えば、いくつかのプロセスはリモートサーバ上に実装される。
データ処理システムの機能性の少なくとも一つは、スマートフォンアプリケーション又はモバイル通信デバイス上で実行する他のプロセスによって実装されてもよい。記載したいくつかの機能性又はすべての機能性は、スマートフォン上に提供されてもよい。いくつかの機能性は、携帯電話ネットワーク及び/又は無線インターネット接続などのスマートフォンの長距離通信設備を使用し、リモートサーバによって提供されてもよい。
本開示の態様は、ヘアケアに留まらず広範に適用可能であることが理解されるだろう。例えば、様々な実施形態が個人の手入れにおいて適用され得る。個人の手入れ活動は、歯のケア活動、スキンケア活動及びヘアケア活動のうちの1つを含んでもよい。個人での手入れ活動は、歯磨きを含んでもよく、フィードバックのうちの少なくとも1アイテムは、口腔内での複数のブラッシング領域において十分又は不十分なブラッシングレベルを示すことを含んでもよい。フィードバック情報は、ブラッシング領域に対応する位置のユーザの顔におけるブラッシングレベルの視覚的な表示を与えることを含んでもよい。
他の実施形態は、添付の特許請求の範囲に意図的に含まれる。
本明細書を通じて、「水平」、「垂直」、「上部」、「底部」及び「側部」など相対的な向き及び位置に関連する記述子は、図面に提示される装置の向きの意味で使用される。ただし、こうした記述子は、いかなる方法であっても、本明細書中、又は特許請求の範囲の発明に限定しようとするものではない。更には、本明細書において力の決定に対する言及は、例えば加速度などの力の代替となるものの決定に関連し得る。
「に近い」、「の前に」、「の少し前に」、「の後に」、「の少し後に」、「よりも高い」又は「よりも低い」などのいかなる言及は、文脈に応じてしきい値未満又はしきい値よりも大きい、又は2つのしきい値間にある問題のパラメータを指し得ることが理解されるだろう。
Claims (15)
- パーソナルケアを実施するユーザを支援するための方法であって、
ユーザの顔及びパーソナルケア器具の一連の画像を受信することと、
前記一連の画像を使用して前記パーソナルケア器具を追跡することによって、1又は複数の器具パラメータを決定することと、
前記一連の画像を使用して前記ユーザの1又は複数の表情を決定することと、
前記1又は複数の器具パラメータ及び前記ユーザの前記1又は複数の表情に基づいてパーソナルケアパフォーマンスを分析することと、
前記パーソナルケアパフォーマンスに基づいて、パーソナルケアを実施する前記ユーザにフィードバックを提供することと、
を含む、方法。 - 前記パーソナルケアパフォーマンスを分析することが、前記1又は複数の器具パラメータ及び前記ユーザの前記1又は複数の表情に基づいて1又は複数のパフォーマンスパラメータ及び/又は1又は複数のパーソナルケアイベントを決定することを含み、かつ
フィードバックを提供することが、前記1又は複数のパフォーマンスパラメータ及び/又は前記1又は複数のパーソナルケアイベントに基づいてフィードバックを提供することを含む、
請求項1に記載の方法。 - 前記パーソナルケアパフォーマンスを分析することが、i)現在のヘアケアセッションにおける前記1又は複数の器具パラメータ及び前記ユーザの前記1又は複数の表情、並びにii)先のパーソナルケアセッションにおける前記1又は複数の器具パラメータ及び前記ユーザの前記1又は複数の表情に基づいて、1又は複数のパフォーマンスパラメータを決定することを含む、請求項2に記載の方法。
- 前記現在のセッションに関連した1又は複数のパフォーマンスパラメータと前記先のセッションに関連した1又は複数の対応するパフォーマンスパラメータとの差分を決定することを含み、前記フィードバックが、決定された前記差分の表示を提供する、請求項3に記載の方法。
- 前記ユーザの表情を決定することが、自信、喜び、苦痛、苛立ち、混乱及び幸福のうちのいずれかである外見上の感情表現を決定することを含む、請求項1~4のいずれか一項に記載の方法。
- 前記パーソナルケア器具を追跡することが、前記パーソナルケア器具の前記位置及び前記向きを追跡することを含む、請求項1~5のいずれか一項に記載の方法。
- 前記パーソナルケア器具の前記位置及び前記向きを追跡することが、前記ユーザの前記頭部に対する前記パーソナルケア器具の前記位置及び前記向きを追跡することを含む、請求項5に記載の方法。
- 前記パーソナルケア器具を追跡することが、前記パーソナルケア器具の端部に連結された基準マーカを追跡することを含む、請求項1~7のいずれか一項に記載の方法。
- 前記基準マーカが、前記パーソナルケア器具の一構成要素を形成する、又は前記パーソナルケア器具に連結されたアタッチメントを含む、請求項8に記載の方法。
- 前記基準マーカが、前記パーソナルケア器具の長手方向軸に対応する、長手方向軸の周囲に配置された複数の色付き四分円四分円を有する実質的に球形のマーカ60を含む、請求項8又は9に記載の方法。
- 前記器具パラメータが、器具の位置、器具の向き、線速度、角速度、直線加速度、角加速度及び器具経路のうちの1以上を含む、請求項1~10のいずれか一項に記載の方法。
- 検出されたパフォーマンスパラメータ又はパーソナルケアイベントに従った好適な処置を特定することを更に含み、
前記フィードバックを提供することが、前記特定された処置を実施するための指示を前記ユーザに提供することを含む、
請求項2又はその従属請求項に記載の方法。 - 前記パーソナルケアが、歯のケア活動、スキンケア活動、ヘアケア活動及びシェービング活動のいずれかを含む、請求項1~12のいずれか一項に記載の方法。
- コンピュータ上で実行したときに、前記コンピュータに請求項1~13のいずれか一項に記載の方法を実施させるコンピュータ可読命令を含む、コンピュータプログラム製品。
- ユーザの顔及びパーソナルケア器具の一連の画像を受信することと、
前記一連の画像を使用して前記パーソナルケア器具を追跡することによって1又は複数の器具パラメータを決定することと、
前記一連の画像を使用して前記ユーザの1又は複数の表情を決定することと、
前記1又は複数の器具パラメータ及び前記ユーザの前記1又は複数の表情に基づいてパーソナルケアパフォーマンスを分析することと、
前記パーソナルケアパフォーマンスに基づいて、パーソナルケアを実施する前記ユーザにフィードバックを提供することと、
を行うように構成されたプロセッサを含む、パーソナルケアモニタリングシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21188579 | 2021-07-29 | ||
EP21188579.3 | 2021-07-29 | ||
PCT/EP2022/070630 WO2023006609A1 (en) | 2021-07-29 | 2022-07-22 | Personal care monitoring and feedback |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024529958A true JP2024529958A (ja) | 2024-08-14 |
Family
ID=77155565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2024504795A Pending JP2024529958A (ja) | 2021-07-29 | 2022-07-22 | パーソナルケアモニタリング及びフィードバック |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240265733A1 (ja) |
EP (1) | EP4377820A1 (ja) |
JP (1) | JP2024529958A (ja) |
CN (1) | CN117957584A (ja) |
WO (1) | WO2023006609A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4360545A1 (en) * | 2022-10-27 | 2024-05-01 | Koninklijke Philips N.V. | Pain metric |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190034706A1 (en) * | 2010-06-07 | 2019-01-31 | Affectiva, Inc. | Facial tracking with classifiers for query evaluation |
-
2022
- 2022-07-22 WO PCT/EP2022/070630 patent/WO2023006609A1/en active Application Filing
- 2022-07-22 US US18/580,972 patent/US20240265733A1/en active Pending
- 2022-07-22 EP EP22757233.6A patent/EP4377820A1/en active Pending
- 2022-07-22 JP JP2024504795A patent/JP2024529958A/ja active Pending
- 2022-07-22 CN CN202280057449.4A patent/CN117957584A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2023006609A1 (en) | 2023-02-02 |
CN117957584A (zh) | 2024-04-30 |
EP4377820A1 (en) | 2024-06-05 |
US20240265733A1 (en) | 2024-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11494899B2 (en) | Apparatus and method for operating a personal grooming appliance or household cleaning appliance | |
EP3525621B1 (en) | Connected hairbrush | |
US20190121431A1 (en) | Method of recognizing user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method | |
KR20190120037A (ko) | 안면, 목, 두피, 모발의 피부진단 및 분석 장치 | |
US20240265733A1 (en) | Personal care monitoring and feedback | |
US20240260738A1 (en) | Haircare monitoring and feedback | |
Wu et al. | BioFace-3D: Continuous 3D facial reconstruction through lightweight single-ear biosensors | |
CN114842522A (zh) | 应用于美容医疗的人工智能辅助评估方法 | |
CN111923048A (zh) | 肌电信号分类、外骨骼机器人控制方法及装置 | |
JP7278972B2 (ja) | 表情解析技術を用いた商品に対するモニタの反応を評価するための情報処理装置、情報処理システム、情報処理方法、及び、プログラム | |
JP6344254B2 (ja) | 眠気検知装置 | |
US20240282144A1 (en) | Haircare monitoring and feedback | |
Acampora et al. | Applying logistic regression for classification in single-channel SSVEP-based BCIs | |
JP2019053706A (ja) | 身体情報分析装置および顔形診断方法 | |
JP2024028060A (ja) | 頭髪スタイルを変更する利用者に対する施術の技能を評価する方法、技能評価装置及びプログラム | |
US20210174064A1 (en) | Method for analyzing and evaluating facial muscle status | |
Banzhaf | Extracting facial data using feature-based image processing and correlating it with alternative biosensors metrics | |
WO2021197801A1 (en) | Motion tracking of a toothcare appliance | |
Anwar et al. | Real Time Eye Blink Detection Method for Android Device Controlling | |
WO2024034537A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
JP2021108059A (ja) | 画像処理システム、画像処理方法、および画像処理プログラム | |
Rivera et al. | Development of an automatic expression recognition system based on facial action coding system | |
RU2779067C2 (ru) | Способы и системы для определения характеристик пользователя устройства для личной гигиены | |
Rudrawar et al. | Intelligent Facial Expression Evaluation to Assess Mental Health Through Deep Learning | |
CN118369020A (zh) | 用于评估毛发特征的装置和毛发刷 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20240321 |