JPWO2021249837A5 - - Google Patents

Download PDF

Info

Publication number
JPWO2021249837A5
JPWO2021249837A5 JP2022574769A JP2022574769A JPWO2021249837A5 JP WO2021249837 A5 JPWO2021249837 A5 JP WO2021249837A5 JP 2022574769 A JP2022574769 A JP 2022574769A JP 2022574769 A JP2022574769 A JP 2022574769A JP WO2021249837 A5 JPWO2021249837 A5 JP WO2021249837A5
Authority
JP
Japan
Prior art keywords
personal care
user
care device
image
predicted appearance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022574769A
Other languages
Japanese (ja)
Other versions
JP2023532841A (en
Publication date
Priority claimed from EP20178895.7A external-priority patent/EP3922419A1/en
Application filed filed Critical
Publication of JP2023532841A publication Critical patent/JP2023532841A/en
Publication of JPWO2021249837A5 publication Critical patent/JPWO2021249837A5/ja
Pending legal-status Critical Current

Links

Claims (14)

使用者のある部分を処理するために使用されるパーソナルケアデバイスの当該使用者に関する画像データを受信し、
前記パーソナルケアデバイスに関連するデバイス操作データを受信し、
前記使用者に対する前記パーソナルケアデバイスの少なくとも処理要素の位置情報を決定し、
受信された前記画像データ、受信された前記デバイス操作データ、及び決定された前記位置情報に基づいて、前記パーソナルケアデバイスを使用した処理後の前記使用者の前記ある部分の予測される外観を表す画像を生成し、
生成された前記画像を前記使用者の表現上に表示させる、
プロセッサを備える、
装置。
receiving image data relating to a user of a personal care device used to treat a portion of the user;
receiving device operation data associated with the personal care device;
determining location information of at least a processing element of the personal care device relative to the user;
generating an image representing a predicted appearance of the portion of the user after treatment with the personal care device based on the received image data, the received device operation data, and the determined location information;
displaying the generated image on a representation of the user;
A processor is provided.
Device.
前記プロセッサは更に、
受信された前記画像データに基づいて、前記パーソナルケアデバイスによる前記使用者の表面の変形の程度を判定し、
前記使用者の前記表面の判定された前記変形の程度に更に基づいて、前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成する、請求項1に記載の装置。
The processor further comprises:
determining an extent of deformation of the surface of the user by the personal care device based on the received image data;
The apparatus of claim 1 , further comprising: generating the image representing the predicted appearance of the portion of the person further based on the determined extent of the deformation of the surface of the person.
前記プロセッサは、前記パーソナルケアデバイスのセンサの出力に更に基づいて、前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成する、請求項1又は請求項2に記載の装置。 The apparatus of claim 1 or 2, wherein the processor generates the image representing the predicted appearance of the part of the user further based on an output of a sensor of the personal care device. 前記デバイス操作データは前記パーソナルケアデバイスの前記処理要素のサイズを含み、
前記プロセッサは、前記処理要素の前記サイズに基づくサイズを有する、前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成する、請求項1から3のいずれか一項に記載の装置。
the device operational data includes a size of the processing element of the personal care device;
4. The apparatus of claim 1, wherein the processor generates the image representing the predicted appearance of the part of the person, the image having a size based on the size of the processing element.
前記デバイス操作データは前記パーソナルケアデバイスの向き及び/又は動きを示すデータを含み、
前記プロセッサは、前記向き/動きデータに基づくサイズを有する、前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成する、請求項1から4のいずれか一項に記載の装置。
the device operation data includes data indicative of an orientation and/or a movement of the personal care device;
5. An apparatus according to claim 1, wherein the processor is further adapted to generate the image representing the predicted appearance of the part of the person, the image having a size based on the orientation/motion data.
前記プロセッサは更に、
受信された前記画像データに基づいて、前記パーソナルケアデバイスを使用して処理されることになる前記使用者の身体部位の指示を決定し、
前記身体部位の前記指示に更に基づくサイズを有する、前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成する、請求項1から5のいずれか一項に記載の装置。
The processor further comprises:
determining, based on the received image data, an indication of a body part of the user to be treated using the personal care device;
6. The apparatus of claim 1, further comprising: a device for generating the image representing the predicted appearance of the portion of the user, the image having a size further based on the indication of the body part.
前記装置は、インタラクティブミラー、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、スマートフォン、又はウェアラブルデバイスを備える、請求項1から6のいずれか一項に記載の装置。 The device of any one of claims 1 to 6, wherein the device comprises an interactive mirror, a desktop computer, a laptop computer, a tablet computer, a smartphone, or a wearable device. パーソナルケアデバイスの使用者に関する画像データを受信するステップであって、前記パーソナルケアデバイスは前記使用者のある部分を処理するために使用されるものである、前記受信するステップと、
前記パーソナルケアデバイスに関連するデバイス操作データを受信するステップと、
前記使用者に対する前記パーソナルケアデバイスの少なくとも処理要素の位置情報を決定するステップと、
受信された前記画像データ、受信された前記デバイス操作データ、及び決定された前記位置情報に基づいて、前記パーソナルケアデバイスを使用した処理後の前記使用者の前記ある部分の予測される外観を表す画像を生成するステップと、
生成された前記画像を前記使用者の表現上に表示するステップと、
を含む、コンピュータ実装方法。
receiving image data relating to a user of a personal care device, the personal care device being used to treat a portion of the user;
receiving device operational data relating to the personal care device;
determining location information of at least a processing element of the personal care device relative to the user;
generating an image representing a predicted appearance of the portion of the user after treatment with the personal care device based on the received image data, the received device operation data, and the determined location information;
displaying the generated image on a representation of the user;
4. A computer-implemented method comprising:
前記使用者の前記表現と前記使用者の前記表現上の生成された前記画像を交互に表示するステップを更に含む、請求項8に係るコンピュータ実装方法。 The computer-implemented method of claim 8, further comprising alternating between displaying the representation of the user and the generated image on the representation of the user. 受信された前記画像データに基づいて、前記パーソナルケアデバイスによる前記使用者の表面の変形の量を判定するステップを更に含み、
前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成するステップは、前記使用者の前記表面の判定された前記変形の量に更に基づく、
請求項8又は請求項9に記載のコンピュータ実装方法。
determining an amount of deformation of the user's surface by the personal care device based on the received image data;
and generating the image representative of the predicted appearance of the portion of the user is further based on the determined amount of deformation of the surface of the user.
10. A computer-implemented method according to claim 8 or claim 9.
使用者のある部分を処理するために使用されることになる処理要素を有するパーソナルケアデバイスと、
前記パーソナルケアデバイスの前記使用者に関する画像データをキャプチャする画像キャプチャデバイスと、
ディスプレイユニットと、
処理装置とを備える、パーソナルケアシステムであって、前記処理装置は、
前記パーソナルケアデバイスの前記使用者に関する画像データをキャプチャするように前記画像キャプチャデバイスを操作し、
前記パーソナルケアデバイスに関連するデバイス操作データを受信し、
前記使用者に対する前記パーソナルケアデバイスの少なくとも前記処理要素の位置情報を決定し、
キャプチャされた前記画像データ、受信された前記デバイス操作データ、及び決定された前記位置情報に基づいて、前記パーソナルケアデバイスを使用した処理後の前記使用者の前記ある部分の予測される外観を表す画像を生成し、
生成された前記画像を前記ディスプレイユニット上で前記使用者の表現上に表示させる、パーソナルケアシステム。
a personal care device having a treatment element to be used to treat an area of a user;
an image capture device for capturing image data relating to the user of the personal care device;
A display unit;
and a treatment device, the treatment device comprising:
operating the image capture device to capture image data relating to the user of the personal care device;
receiving device operation data associated with the personal care device;
determining location information of at least the processing element of the personal care device relative to the user;
generating an image representing a predicted appearance of the portion of the user after treatment with the personal care device based on the captured image data, the received device operation data, and the determined location information;
A personal care system that causes the generated image to be displayed on the display unit over a representation of the user.
前記パーソナルケアデバイスは、
前記パーソナルケアデバイスによって前記使用者に加えられる力又は圧力を測定する第1のセンサを備え、
前記処理装置は、前記第1のセンサの出力に更に基づいて、前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成する、請求項11に記載のパーソナルケアシステム。
The personal care device comprises:
a first sensor for measuring a force or pressure applied to the user by the personal care device;
12. The personal care system of claim 11 , wherein the processing device generates the image representing the predicted appearance of the portion of the user further based on an output of the first sensor.
前記パーソナルケアデバイスは、
前記パーソナルケアデバイスに関する向きデータ及び/又は動きデータを測定する第2のセンサを備え、
前記処理装置は、前記第2のセンサの出力に更に基づいて、前記使用者の前記ある部分の予測される前記外観を表す前記画像を生成する、請求項11又は12に記載のパーソナルケアシステム。
The personal care device comprises:
a second sensor configured to measure orientation and/or movement data relating to the personal care device;
13. A personal care system according to claim 11 or 12 , wherein the processing unit generates the image representing the predicted appearance of the part of the user further based on the output of the second sensor.
前記パーソナルケアデバイスは、毛トリミングデバイス、シェービングデバイス、ヘアトリートメントデバイス、光脱毛デバイス、皮膚トリートメントデバイス、皮膚再活性化デバイス、及び製品適用デバイスを含む群から選択されるデバイスを備える、請求項11から13のいずれか一項に記載のパーソナルケアシステム。 14. The personal care system of any one of claims 11 to 13, wherein the personal care device comprises a device selected from the group including a hair trimming device, a shaving device, a hair treatment device, a photoepilation device, a skin treatment device, a skin revitalization device, and a product application device.
JP2022574769A 2020-06-09 2021-06-02 Prediction of user appearance after treatment Pending JP2023532841A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20178895.7 2020-06-09
EP20178895.7A EP3922419A1 (en) 2020-06-09 2020-06-09 Predicting the appearance of a user following treatment
PCT/EP2021/064732 WO2021249837A1 (en) 2020-06-09 2021-06-02 Predicting the appearance of a user following treatment

Publications (2)

Publication Number Publication Date
JP2023532841A JP2023532841A (en) 2023-08-01
JPWO2021249837A5 true JPWO2021249837A5 (en) 2024-06-07

Family

ID=71078468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022574769A Pending JP2023532841A (en) 2020-06-09 2021-06-02 Prediction of user appearance after treatment

Country Status (5)

Country Link
US (1) US20230177741A1 (en)
EP (2) EP3922419A1 (en)
JP (1) JP2023532841A (en)
CN (1) CN115803162A (en)
WO (1) WO2021249837A1 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10259131B2 (en) * 2014-02-06 2019-04-16 Matthew W. Krenik User interface and modeling techniques for automated hair cutting system
BR112019000024A2 (en) * 2016-07-07 2019-04-02 Koninklijke Philips N.V. method, apparatus for providing guidance to a user, machine readable media, portable device for use with the apparatus, and system
RU2750596C2 (en) * 2016-12-06 2021-06-29 Конинклейке Филипс Н.В. Displaying guide pointer to the user
EP3363606A1 (en) * 2017-02-20 2018-08-22 Koninklijke Philips N.V. Operatig a personal care device
EP3366195A1 (en) * 2017-02-22 2018-08-29 Koninklijke Philips N.V. System and method for detecting skin conditions
JP7138123B2 (en) * 2017-06-29 2022-09-15 ビック・バイオレクス・エス・エー Shaver and how to detect shaving characteristics
CN109407912A (en) * 2017-08-16 2019-03-01 丽宝大数据股份有限公司 Electronic device and its offer examination adornment information approach

Similar Documents

Publication Publication Date Title
CN114502061B (en) Image-based automatic skin diagnosis using deep learning
US11468288B2 (en) Method of and system for evaluating consumption of visual information displayed to a user by analyzing user's eye tracking and bioresponse data
US10796455B2 (en) Image processing apparatus and image processing method
WO2017048898A1 (en) Human-computer interface
Sugiura et al. Behind the palm: Hand gesture recognition through measuring skin deformation on back of hand by using optical sensors
JP4716119B2 (en) INTERACTION INFORMATION OUTPUT DEVICE, INTERACTION INFORMATION OUTPUT METHOD, AND PROGRAM
JP2015016273A (en) Mind balance evaluation device and program for the same
Chernorizov et al. Psychophysiological methods for the diagnostics of human functional states: New approaches and perspectives
Colantonio et al. Computer vision for ambient assisted living: Monitoring systems for personalized healthcare and wellness that are robust in the real world and accepted by users, carers, and society
CN109982616A (en) For supporting at least one user to execute the movable device and method of personal nursing
Wu et al. BioFace-3D: Continuous 3D facial reconstruction through lightweight single-ear biosensors
Kim et al. Interactive emotional content communications system using portable wireless biofeedback device
JP7408562B2 (en) Program, information processing device, quantification method, and information processing system
JPWO2021249837A5 (en)
Wu et al. Seesaw: rapid one-handed synchronous gesture interface for smartwatches
US20200320835A1 (en) A device for rendering haptic feedback to a user and a method for operating the device
Yang et al. Emoband: Investigating the affective perception towards on-wrist stroking and squeezing feedback mediated by different textile materials
Tangade et al. A Review Paper on Mouse Pointer Movement Using Eye Tracking System and Voice Recognition
Begel Fun with software developers and biometrics: Invited talk
Begel Invited talk: Fun with software developers and biometrics
JP7426362B2 (en) Makeup motion support system
JP7444727B2 (en) Feel evaluation method and feel evaluation device
Nagamune et al. A virtual reality system for occupational therapy with hand motion capture and force feedback: a pilot study of system configuration
WO2022190954A1 (en) Information processing device, method, program, system, and beauty care method
US20230112939A1 (en) A system for providing guidance