JP2022545073A - 身体部位の特定 - Google Patents

身体部位の特定 Download PDF

Info

Publication number
JP2022545073A
JP2022545073A JP2022510125A JP2022510125A JP2022545073A JP 2022545073 A JP2022545073 A JP 2022545073A JP 2022510125 A JP2022510125 A JP 2022510125A JP 2022510125 A JP2022510125 A JP 2022510125A JP 2022545073 A JP2022545073 A JP 2022545073A
Authority
JP
Japan
Prior art keywords
skin
handheld device
body part
subject
contact
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022510125A
Other languages
English (en)
Inventor
ヘルベン コーイマン
フェリペ マイア マスクロ
アドリエンヌ ハインリッヒ
スカキス デヴィンダ フェルナンド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2022545073A publication Critical patent/JP2022545073A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6843Monitoring or controlling sensor contact pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6844Monitoring or controlling distance between sensor and tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4209Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames
    • A61B8/4227Details of probe positioning or probe attachment to the patient by using holders, e.g. positioning frames characterised by straps, belts, cuffs or braces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4272Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue
    • A61B8/429Details of probe positioning or probe attachment to the patient involving the acoustic interface between the transducer and the tissue characterised by determining or monitoring the contact between the transducer and the tissue

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Signal Processing (AREA)
  • Dermatology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Acoustics & Sound (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一態様によれば、ハンドヘルドデバイスが使用された対象者の身体部位を特定するコンピュータ実施方法が提供される。前記ハンドヘルドデバイスは前記対象者に対してパーソナルケア動作を実行するためのものであり、前記ハンドヘルドデバイスは前記パーソナルケア動作中に肌に接触するためのヘッド部を備える。前記ハンドヘルドデバイスは、それぞれのパラメータを測定し前記ハンドヘルドデバイスが前記対象者の肌に使用された時にそれぞれの測定信号を生成するための1つ又は複数のセンサをさらに備え、前記1つ又は複数のセンサは、(a)前記ヘッド部が肌に接触しているかを示すパラメータを測定する肌接触センサと、(b)前記ヘッド部が接触している肌の肌色を示す、又は前記ヘッド部が接触している肌に隣接する肌の肌色を示すパラメータを測定する肌色センサと、(c)近接センサから前記ヘッド部が接触している肌に隣接する肌までの距離を示すパラメータを測定する当該近接センサとのうちの少なくとも1つを備える。前記方法は、前記1つ又は複数のセンサのそれぞれから各測定信号を取得するステップであって、各測定信号は、前記ハンドヘルドデバイスが前記対象者の肌に使用された時、前記それぞれのパラメータの測定結果の時系列を含む、ステップと、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、学習済み機械学習モデル(MLM)を使用して、取得された前記1つ又は複数の測定信号を解析するステップであって、前記学習済みMLMは、前記身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれの時間ウィンドウにおける複数の測定結果を解析する、ステップと、特定された前記身体部位の標示を出力するステップとを有する。

Description

本開示は、対象者に対してパーソナルケア動作を実行するためのものであるハンドヘルドデバイスに関し、より詳しくは、ハンドヘルドデバイスが使用される対象者の身体部位を特定するための技術に関する。
対象者の身体にパーソナルケア動作を提供するために、身体部位上で使用可能な多くの種類のハンドヘルドデバイスが利用可能である。例えば、シェービング、電気分解処置、抜毛、レーザ及び光治療(光脱毛又はインテンスパルスライト(IPL)として知られる)、及び治療的抗アンドロゲン注射などの様々な技法を使用して不要な毛髪を除去するためのハンドヘルドデバイスがある。毛髪成長減退、座瘡治療を含む他の種類の皮膚科手術も、光ベースの技術を使用可能である。さらに、対象者へのマッサージの提供、ネイルトリートメントの提供、物理療法の提供、対象者へのパッチ(例えば心電図電極など)の適用のためにも、ハンドヘルドデバイスが使用可能である。身体部位上で使用可能な他の種類のハンドヘルドデバイスは、超音波プローブである。
IPL処置は、IPLデバイスのユーザが毛髪除去を目的として肌の比較的小領域を処置するという特徴を有する。IPL処置は、強い光を使用して、毛髪及び毛根のメラミンを加熱し、毛嚢を静止期に移行させて、毛髪の再成長を防ぐ。この効果は限定された期間のみのものであり、したがって処置は定期的に、通常、処置が2週間に1度の頻度で実行される約2か月間の初期期間後に、維持段階で4から8週間に1度の頻度で反復される必要がある。
IPL処置デバイスは、異なる肌の色と毛髪色の組み合わせを許容するために、異なる光強度設定を使用可能である。例えばPhilips Lumeaなどのいくつかの既存のIPL処置デバイスは、肌の色を測定するための肌色センサを備えることが可能であり、測定された肌の色は、最も安全な光強度設定を設定/推奨するために使用可能である。さらに、身体の異なる部位は、異なる処置特性を必要とする場合がある。いくつかの場合では、これは、例えば、顔やビキニ領域などの異なる身体部位に対する使用のためにIPL処置デバイス用の異なるアタッチメントを提供して使用することによって対処できるが、IPL処置デバイスが使用されている(及び/又は使用された)身体の部位が判断されることが望ましい。
身体部位に関するこの情報は、パーソナルケア動作を実行するためのハンドヘルドデバイスの一般的な場合においても有効であり、情報は、ハンドヘルドデバイスの動作を調節するためだけでなく、適切な身体部位又は身体部位の一部に対してパーソナルケア動作を実行するためにハンドヘルドデバイスのユーザを案内するために使用可能であり、対象者に対して実行されたパーソナルケア動作の概要又は報告を提供し、身体部位の再処置の予定を立て、ユーザ又は対象者に対して個別のコンテンツを提供する。
したがって、ハンドヘルドデバイスが使用されている身体部位の特定における改善が必要とされる。
第1の特定の態様よれば、ハンドヘルドデバイスが使用された対象者の身体部位を特定するコンピュータ実施方法が提供される。前記ハンドヘルドデバイスは前記対象者に対してパーソナルケア動作を実行するためのものであり、前記ハンドヘルドデバイスは前記パーソナルケア動作中に前記対象者の肌に接触するためのヘッド部を備える。前記ハンドヘルドデバイスは、それぞれのパラメータを測定し前記ハンドヘルドデバイスが前記対象者の前記肌に使用された時にそれぞれの測定信号を生成するための1つ又は複数のセンサをさらに備える。前記1つ又は複数のセンサは、(a)前記ヘッド部が肌に接触しているかを示すパラメータを測定する肌接触センサと、(b)前記ヘッド部が接触している肌の肌色を示す、又は前記ヘッド部が接触している肌に隣接する肌の肌色を示すパラメータを測定する肌色センサと、(c)近接センサから、前記ヘッド部が接触している肌に隣接する肌までの距離を示すパラメータを測定する当該近接センサとのうちの少なくとも1つを備える。前記方法は、前記1つ又は複数のセンサのそれぞれから各測定信号を取得するステップであって、各測定信号は、前記ハンドヘルドデバイスが前記対象者の肌に使用された時、前記それぞれのパラメータの測定結果の時系列を含む、ステップと、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、学習済み機械学習モデル(MLM)を使用して、取得された前記1つ又は複数の測定信号を解析するステップであって、前記学習済みMLMは、前記身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれの時間ウィンドウにおける複数の測定結果を解析する、ステップと、特定された前記身体部位の標示を出力するステップとを有する。それによって、第1の態様は、肌接触センサ、肌色センサ、及び近接センサのうちの1つ又は複数からの測定信号に基づいて身体部位を特定できる学習済みMLMの使用によって身体部位の特定における改善を実現する。身体部位を特定するために取得された1つ又は複数の測定信号のそれぞれにおける時間ウィンドウ中の複数の測定結果を解析することによって、MLMは測定信号の時間的情報を考慮できる。
いくつかの実施形態では、前記学習済みMLMは、ロジスティック回帰モデル、サポートベクターマシン、ランダムフォレスト、単純ベイズ分類器、最近傍分類器、決定木分類器、人工ニューラルネットワーク、又はこの組み合わせである。
いくつかの実施形態では、前記学習済みMLMは、前記測定結果に対応する身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれにおける測定結果を解析する。これらの実施形態は、前記MLMが測定信号中の測定試料毎に身体部位の識別情報を提供することを実現する。
これらの実施形態では、前記方法は、後続の測定結果に対応する身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれにおける前記後続の測定結果に対して、前記解析するステップを反復するステップをさらに含み得る。これらの実施形態は、パーソナルケア動作の過程中に身体部位が継続的に特定可能であることを実現する。
一実施形態では、前記方法は、取得された前記1つ又は複数の測定信号のそれぞれにおける前記時間ウィンドウ中の前記複数の測定結果に対する1つ又は複数の特徴のそれぞれの値を決定するステップをさらに含むことが可能であり、前記学習済みMLMは、前記身体部位を特定するために、決定された前記値を解析できる。
この実施形態では、前記方法は、後続の複数の測定結果を提供するために、取得された前記1つ又は複数の測定信号を横切って前記時間ウィンドウを移動するステップと、前記後続の複数の測定結果に対応する前記身体部位を特定するために、前記後続の複数の測定結果を使用して、前記解析するステップを反復するステップとをさらに含み得る。これらの実施形態は、パーソナルケア動作の過程中に身体部位が継続的に特定可能であることを実現する。
いくつかの実施形態では、前記方法は、特定された身体部位を示す一連の出力を提供するために、前記1つ又は複数の測定信号における後続の測定結果に対して、前記解析するステップを反復するステップと、前記ハンドヘルドデバイスが使用された身体部位を示す最終的な出力を決定するために、前記一連の出力に対してフィルタを適用するステップとをさらに含む。これらの実施形態は、スプリアス身体部位特定が前記MLMの出力から「取り除かれる」ことができるという利点を実現する。
いくつかの実施形態では、前記方法は、第1の時間において前記ハンドヘルドデバイスが使用された前記対象者の身体部位に関するユーザからの確認を受信するステップと、受信された前記確認と、前記第1の時間に対応する、取得された前記1つ又は複数の測定信号の一部とに基づいて前記学習済みMLMを更新するステップとをさらに含む。これらの実施形態は、検出正確度を改善するために前記MLMが洗練され得ることを実現する。これらの実施形態は、さらに、前記MLMが対象者の身体部位の形状に合わせてカスタマイズ又は校正され得ることを実現する。
いくつかの実施形態では、前記ハンドヘルドデバイスの前記ヘッド部は、取り外し可能なヘッド部のセットから選択され、前記セットのうちの各ヘッド部は、それぞれの身体部位との使用のためのものであり、前記方法は、前記パーソナルケア動作中に前記ハンドヘルドデバイスで使用される前記取り外し可能なヘッド部の標示を取得するステップをさらに有し、前記学習済みMLMは、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、取得された前記1つ又は複数の測定信号とともに、取得された前記標示をさらに解析する。これらの実施形態は、前記MLMがハンドヘルドデバイスで使用中の取り外し可能なヘッド部を使用して処置される身体部位に関する情報を利用することによって身体部位特定の正確度を改善する。
いくつかの実施形態では、前記1つ又は複数のセンサは、肌接触センサと、肌色センサ及び近接センサのうちの少なくとも1つとを備え、前記解析するステップは、前記ハンドヘルドデバイスが前記肌に接触している接触時間を特定するために、前記肌接触センサからの前記測定信号を解析するステップと、特定された前記接触時間に、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、前記学習済みMLMを使用して特定された前記接触時間の、前記肌色センサ及び前記近接センサのうちの前記少なくとも1つからの取得された前記1つ又は複数の測定信号を解析するステップとを有する。これらの実施形態は、特定の身体部位に対しての動作中は前記ハンドヘルドデバイスが肌に接触している状態が維持され、前記ハンドヘルドデバイスが異なる身体部位に移ると、接触が途切れるという前提を利用する。
これらの実施形態では、前記肌接触センサからの前記測定信号を解析するステップは、前記接触時間を、前記ハンドヘルドデバイスが肌と継続的に接触している時間として特定することを含み得る。
若しくは、これらの実施形態では、前記肌接触センサからの前記測定信号を解析するステップは、前記接触時間を、それぞれにおいて前記ハンドヘルドデバイスが肌と継続的に接触している複数の時間にわたるとして特定することを含むことが可能であり、前記複数の時間は、個別に閾値時間量未満である。これらの実施形態は、肌接触が喪失される短時間が許容されるという利点を有する。
いくつかの実施形態では、前記1つ又は複数のセンサは、少なくとも1つの肌接触センサと、肌色センサとを備える。
代替の実施形態では、前記1つ又は複数のセンサは、少なくとも1つの肌接触センサと、肌色センサと、1つ又は複数の近接センサとを備える。
いくつかの実施形態では、前記1つ又は複数のセンサは、少なくとも複数の近接センサを備え、前記複数の近接センサは、各近接センサが、前記近接センサから、前記ヘッド部が接触している肌に隣接する肌のそれぞれの部位までの距離を示すパラメータを測定するように、前記ハンドヘルドデバイスに配置される。
いくつかの実施形態では、前記肌接触センサは容量センサであり、前記肌色センサは光学センサであり、前記近接センサは光及び/又は音に基づく近接センサである。
いくつかの実施形態では、前記近接センサは、垂直共振器型面発光レーザ(VCSEL)センサを備える。
いくつかの実施形態では、前記対象者の前記身体部位は、足、脚、下腿、上腿、腹、胴、胸、背中、手、腕、前腕、上腕、腋窩、肩、首、顔、上唇、頭皮、又は頭のいずれかである。
第2の態様によれば、具現化されたコンピュータ可読コードを有するコンピュータ可読媒体を備えるコンピュータプログラムが提供され、前記コンピュータ可読コードは、適切なコンピュータ又はプロセッサによる実行時に、前記コンピュータ又はプロセッサに第1の態様又はそのいずれかの実施形態による方法を実行させるように構成される。
第3の特定の態様によれば、対象者に対してパーソナルケア動作を実行するためのハンドヘルドデバイスと、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するための装置とを備えるシステムが提供される。前記ハンドヘルドデバイスは前記パーソナルケア動作中に前記対象者の肌に接触するためのヘッド部を備える。前記ハンドヘルドデバイスは、それぞれのパラメータを測定し前記ハンドヘルドデバイスが前記対象者の前記肌に使用された時にそれぞれの測定信号を生成するための1つ又は複数のセンサをさらに備える。前記1つ又は複数のセンサは、(a)前記ヘッド部が肌に接触しているかを示すパラメータを測定する肌接触センサと、(b)前記ヘッド部が接触している肌の肌色を示す、又は前記ヘッド部が接触している肌に隣接する肌の肌色を示すパラメータを測定する肌色センサと、(c)前記近接センサから、前記ヘッド部が接触している肌に隣接する肌までの距離を示すパラメータを測定する近接センサとのうちの少なくとも1つを備える。前記装置は、前記1つ又は複数のセンサのそれぞれから各測定信号を取得し、各測定信号は、前記ハンドヘルドデバイスが前記対象者の肌に使用された時、前記それぞれのパラメータの測定結果の時系列を含み、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、学習済み機械学習モデル(MLM)を使用して、取得された前記1つ又は複数の測定信号を解析し、前記学習済みMLMは、前記身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれの時間ウィンドウにおける複数の測定結果を解析するように構成され、特定された前記身体部位の標示を出力するように構成された処理部を備える。それによって、第3の態様は、肌接触センサ、肌色センサ、及び近接センサのうちの1つ又は複数からの測定信号に基づいて身体部位を特定できる学習済みMLMの使用によって身体部位の特定における改良を実現する。前記学習済みMLMは、身体部位を特定するために取得された前記1つ又は複数の測定信号における時間ウィンドウ中の複数の測定結果を解析するように構成されるため、前記MLMは、前記測定信号の時間的情報を考慮できる。
いくつかの実施形態では、前記学習済みMLMは、ロジスティック回帰モデル、サポートベクターマシン、ランダムフォレスト、単純ベイズ分類器、最近傍分類器、決定木分類器、人工ニューラルネットワーク、又はこの組み合わせである。
いくつかの実施形態では、前記処理部は、前記測定結果に対応する身体部位を特定するために、前記MLMを使用して、取得された前記1つ又は複数の測定信号のそれぞれにおける測定結果を解析するように構成される。これらの実施形態は、前記MLMが前記測定信号中の測定試料毎に身体部位の識別情報を提供することを実現する。
これらの実施形態では、前記処理部は、後続の測定結果に対応する身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれにおける前記後続の測定結果に対して前記解析を反復するようにさらに構成されることが可能である。これらの実施形態は、パーソナルケア動作の過程中に身体部位が継続的に特定可能であることを実現する。
一実施形態では、前記処理部は、取得された前記1つ又は複数の測定信号のそれぞれにおける前記時間ウィンドウ中の前記複数の測定結果に対する1つ又は複数の特徴のそれぞれの値を決定するようにさらに構成されることが可能であり、前記処理部は、前記身体部位を特定するために、前記MLMを使用して、決定された前記値を解析するように構成されることが可能である。
この実施形態では、前記処理部は、後続の複数の測定結果を提供するために、取得された前記1つ又は複数の測定信号を横切って前記時間ウィンドウを移動し、前記後続の複数の測定結果に対応する前記身体部位を特定するために、前記後続の複数の測定結果を使用して、前記解析を反復するようにさらに構成されることが可能である。これらの実施形態は、パーソナルケア動作の過程中に身体部位が継続的に特定可能であることを実現する。
いくつかの実施形態では、前記処理部は、特定された身体部位を示す一連の出力を提供するために、前記1つ又は複数の測定信号における後続の測定結果に対して前記解析を反復し、前記ハンドヘルドデバイスが使用された身体部位を示す最終的な出力を決定するために、前記一連の出力に対してフィルタを適用するようにさらに構成される。これらの実施形態は、スプリアス身体部位特定が前記MLMの出力から「取り除かれる」ことができるという利点を実現する。
いくつかの実施形態では、前記処理部は、第1の時間において前記ハンドヘルドデバイスが使用された前記対象者の身体部位に関するユーザからの確認を受信し、受信された前記確認と、前記第1の時間に対応する、取得された前記1つ又は複数の測定信号の一部とに基づいて前記学習済みMLMを更新するようにさらに構成される。これらの実施形態は、検出正確度を改善するために前記MLMが洗練され得ることを実現する。これらの実施形態は、さらに、前記MLMが対象者の身体部位の形状に合わせてカスタマイズ又は校正され得ることを実現する。
いくつかの実施形態では、前記ハンドヘルドデバイスの前記ヘッド部は、取り外し可能なヘッド部のセットから選択され、前記セットのうちの各ヘッド部は、それぞれの身体部位との使用のためのものであり、前記処理部は、前記パーソナルケア動作中に前記ハンドヘルドデバイスで使用された前記取り外し可能なヘッド部の標示を取得するようにさらに構成され、前記処理部は、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、前記MLMを使用して、取得された前記1つ又は複数の測定信号とともに、取得された前記標示をさらに解析するように構成される。これらの実施形態は、ハンドヘルドデバイスで使用中の取り外し可能なヘッド部を使用して処置される身体部位に関する情報を利用して、前記MLMによって前記身体部位特定の正確度を改善する。
いくつかの実施形態では、前記1つ又は複数のセンサは、肌接触センサと、肌色センサ及び近接センサのうちの少なくとも1つとを備え、前記処理部は、前記ハンドヘルドデバイスが前記肌に接触している接触時間を特定するために、前記肌接触センサからの前記測定信号を解析し、特定された前記接触時間に、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、前記学習済みMLMを使用して特定された前記接触時間の、前記肌色センサ及び前記近接センサのうちの前記少なくとも1つからの取得された前記1つ又は複数の測定信号を解析するように構成される。これらの実施形態は、特定の身体部位に対しての動作中はハンドヘルドデバイスが肌に接触している状態が維持され、ハンドヘルドデバイスが異なる身体部位に移ると、接触が途切れるという前提を利用する。
これらの実施形態では、前記処理部は、前記接触時間を、ハンドヘルドデバイスが肌と継続的に接触している時間として特定するために、前記肌接触センサからの前記測定信号を解析するように構成され得る。
若しくは、これらの実施形態では、前記処理部は、前記接触時間を、それぞれにおいて前記ハンドヘルドデバイスが肌と継続的に接触している複数の時間にわたるとして特定するために、前記肌接触センサからの前記測定信号を解析するように構成されることが可能であり、前記複数の時間は、個別に閾値時間量未満である。これらの実施形態は、肌接触が喪失される短時間が許容されるという利点を有する。
いくつかの実施形態では、前記1つ又は複数のセンサは、少なくとも1つの肌接触センサと、肌色センサとを備える。
代替の実施形態では、前記1つ又は複数のセンサは、少なくとも1つの肌接触センサと、肌色センサと、1つ又は複数の近接センサとを備える。
いくつかの実施形態では、前記1つ又は複数のセンサは、少なくとも複数の近接センサを備え、前記複数の近接センサは、各近接センサが、当該近接センサから、前記ヘッド部が接触している肌に隣接する肌のそれぞれの部位までの距離を示すパラメータを測定するように、前記ハンドヘルドデバイスに配置される。
いくつかの実施形態では、前記肌接触センサは容量センサであり、前記肌色センサは光学センサであり、前記近接センサは光及び/又は音に基づく近接センサである。
いくつかの実施形態では、前記近接センサは、垂直共振器型面発光レーザ(VCSEL)センサを備える。
いくつかの実施形態では、前記対象者の前記身体部位は、足、脚、下腿、上腿、腹、胴、胸、背中、手、腕、前腕、上腕、腋窩、肩、首、顔、上唇、頭皮、又は頭のいずれかである。
いくつかの実施形態では、前記装置は、前記ハンドヘルドデバイスの一部であり、又は前記ハンドヘルドデバイスに他の方法で備えられる。代替の実施形態では、前記装置は前記ハンドヘルドデバイスから分離している。
上記及び他の態様は、以下に記載の実施形態から明らかであり、それを参照して説明される。
以下の図面を参照して、例示目的のみのために、例示の実施形態を説明する。
肌接触センサ及び肌色センサを備える例示のハンドヘルドデバイスの図である。 肌接触センサ、肌色センサ、及び近接センサを備える代替の例示のハンドヘルドデバイスの図である。 パーソナルケア動作を実行するためのハンドヘルドデバイスと、ハンドヘルドデバイスが使用される身体部位を特定するための装置とを備える例示のシステムのブロック図である。 使用された近接センサの数に対する分類正確度のプロットである。 メジアンフィルタの長さに応じた分類正確度のプロットである。 モードフィルタの長さに応じた分類正確度のプロットである。 学習データ収集段階で取得された肌接触センサからの例示の測定信号を示すプロットである。 測定信号を解析するための例示の技法を示す2つのフローチャートである。 ランダムフォレスト分類器の例示の構造を示す図である。 人工ニューラルネットワークの例示の構造を示す図である。 汎用及び個別のランダムフォレスト分類器及び人工ニューラルネットワークの分類結果を示す図である。 汎用及び個別のランダムフォレスト分類器及び人工ニューラルネットワークの分類結果を示す図である。 汎用及び個別のランダムフォレスト分類器及び人工ニューラルネットワークの分類結果を示す図である。 汎用及び個別のランダムフォレスト分類器及び人工ニューラルネットワークの分類結果を示す図である。 ランダムフォレストモデルの4つの異なる実施の正確度に対する出力モードフィルタリングの適用の効果を示す図である。 肌接触測定信号がアタッチメント間における変動に合わせて修正されない場合のランダムフォレスト分類に対して得られた正確度ボックスプロットである。 個別ランダムフォレストモデルのための決定木を視覚化した図である。 個別ランダムフォレストモデルのための決定木を視覚化した図である。 身体部位を特定する例示の方法を示すフローチャートである。
上述したように、本明細書に記載の技法は、パーソナルケア動作中にハンドヘルドデバイスが使用されている、及び/又は使用された身体部位を特定するために使用可能である。これらの技法は、ハンドヘルドデバイス(例えば、ハンドヘルドデバイスの処理部)によって実施されることが可能であり、又は分離した装置の処理部によって実施されることが可能である。ハンドヘルドデバイスは、それぞれのパラメータを測定してそれぞれの測定信号を生成する1つ又は複数のセンサを備え、それらの測定信号は、ハンドヘルドデバイスが使用されている身体部位を特定するために、機械学習モデル(MLM)を使用して解析される。
図1は、肌接触センサ及び肌色センサを備える特定の実施形態による例示のハンドヘルドデバイス2の図である。ハンドヘルドデバイス2は対象者(例えば、人又は動物)の身体上での使用のためのものであり、使用中はユーザの片手又は両手で保持される。ハンドヘルドデバイス2が対象者の身体部位に接触している状態で、ハンドヘルドデバイス2は対象者の身体に何らかのパーソナルケア動作を実行する。いくつかの実施形態では、ハンドヘルドデバイス2は、対象者の肌に対して何らかのパーソナルケア動作を実行する。いくつかの例示のパーソナルケア動作は、シェービング、電気分解処置、抜毛、レーザ及び光治療(光脱毛又はインテンスパルスライト(IPL)として知られる)、及び処置的抗アンドロゲン注射のいずれかによる不要な毛髪の除去、毛髪成長減退、座瘡治療、光線療法処置、肌の若返り、肌の引締め、又はポートワイン斑処置を含む皮膚科(肌)治療、鎮痛、マッサージの提供、ネイルトリートメントの提供、及び物理療法の提供を含むが、これに限定されない。若しくは、ハンドヘルドデバイス2は、対象者の身体に対してパッチ(例えば心電図(ECG)電極など)を適用するためのものでもよく、又はハンドヘルドデバイス2は身体部位に対して超音波スキャンを実行するためのものでもよい。
本明細書で記載される場合、ハンドヘルドデバイス2は、「ユーザ」によって動作又は使用され、ハンドヘルドデバイス2は「対象者」の身体上で使用される。いくつかの場合では、ユーザ及び対象者は同一の人であり、すなわち、ハンドヘルドデバイス2はユーザによって手で保持されてユーザ自身に対して使用される(例えば、自分の脚の肌に対して使用される)。他の場合では、ユーザ及び対象者は異なる人であり、例えばハンドヘルドデバイス2はユーザによって手で保持され、他の人に対して使用される。
ハンドヘルドデバイス2は、少なくともハンドル部5とヘッド部6とを含む筐体4を備える。ハンドル部5は、ユーザが片手でハンドヘルドデバイス2を保持できるようにする形状を有する。ヘッド部6は、筐体4のヘッド端部8に存在し、ヘッド部6が身体又は肌と接触している位置において対象者の身体又は肌に対してパーソナルケア動作が実行されるように、ヘッド部6は対象者と接触するように配置される。
図1に図示する実施形態では、ハンドヘルドデバイス2は、エネルギ又はエネルギパルス(例えば光又は光パルス)を使用してパーソナルケア動作を実行するためのものである。そのため、図1では、ヘッド部6は、筐体4中又は筐体4上に配置されたアパーチャ10を備え、アパーチャ10は対象者の肌と隣り合って、又は肌上に(すなわち肌と接触して)配置され得る。ハンドヘルドデバイス2は、アパーチャ10を介して対象者の肌に印加されてパーソナルケア動作を実現するエネルギパルスを生成するための1つ又は複数のエネルギ源12を備える。1つ又は複数のエネルギ源12は筐体4に配置され、それによってエネルギパルスが1つ又は複数のエネルギ源12からアパーチャ10を介して供給される。アパーチャ10は、筐体4のヘッド端部8における開口部の形状を有してもよく、又はエネルギパルスにとって透過又は半透過であるウィンドウ(導波管を含む)の形状を有してもよい(すなわち、エネルギパルスはウィンドウを通過できる)。
図1に示す例示の実施形態では、アパーチャ10は全体として矩形を有し、その結果として、肌上に全体的に矩形の肌処置領域が得られる。なお、アパーチャ10はいずれかの他の所望の形状を有し得ることが理解されるであろう。例えば、アパーチャ10は、正方形、楕円形、円形、又はいずれかの他の多角形であることが可能である。
1つ又は複数のエネルギ源12は、例えば、光、音、無線周波数(RF)信号、マイクロ波放射、及びプラズマなど、パーソナルケア動作を実行するためのいずれかの適切な種類のエネルギを生成できる。光を生成するエネルギ源12の場合、エネルギ源12は、いずれかの適切又は所望の波長(又は波長範囲)及び/又は強度で光パルスを生成するように構成され得る。例えば、エネルギ源12は、可視光、赤外線(IR)光及び/又は紫外線(UV)光を生成可能である。各エネルギ源12は、1つ又は複数の発光ダイオード(LED)、(キセノン)フラッシュランプ、レーザなどのいずれかの適切な種類の光源を備えることが可能である。好適な実施形態では、ハンドヘルドデバイス2は光脱毛を実行するためのものであり、エネルギ源12は強力な光パルスを供給する。例えば、エネルギ源12は、およそ2.5ミリ秒(ms)の区間のための560から1200ナノメートル(nm)範囲のスペクトル成分を有する光パルスを供給でき、それらの波長が吸収によって毛髪及び毛根のメラミンを加熱し、毛嚢を静止期に移行させ、毛髪の再成長を防ぐ。音を生成するエネルギ源12の場合、エネルギ源12は、いずれかの適切又は所望の波長(又は波長範囲)及び/又は強度で音パルスを生成するように構成され得る。例えば、エネルギ源12は超音波トランスデューサでもよい。
1つ又は複数のエネルギ源12は、エネルギのパルスを供給するように構成される。すなわち、エネルギ源12は、短時間(例えば1秒未満)で高強度のエネルギを生成するように構成される。エネルギパルスの強度は、アパーチャ10と隣接する肌又は身体部位上に処置動作を実現する程度に十分高い必要がある。
当然ながら、図1に図示する実施形態は、エネルギ又はエネルギパルスを使用して動作を実行するためのハンドヘルドデバイス2であるが、ヘッド部6が他の種類の動作を実現又は実行するように構成され得ることが理解されるであろう。例えば、ハンドヘルドデバイス2は、シェーバー又はヘアクリッパーでもよく、その場合、ヘッド部6は、ヘッド部6が肌に接触している状態の時に毛髪を切ることができるようにするための、1つ又は複数の切刃又は刃を備え得る。別の例として、ハンドヘルドデバイス2は、超音波画像を取得するために使用される超音波プローブでもよい。この例では、ヘッド部6は、超音波を生成するための超音波トランスデューサと、体内から反射されて返ってきた超音波を受信するための超音波受信器とを備え得る。
図示するハンドヘルドデバイス2は、ヘッド部6が肌と接触している時を判断するために使用されるヘッド部6の上又は内部に配置された2つの肌接触センサ14、16をさらに備える。肌接触センサ14、16は、ヘッド部6が肌と接触しているかを示すパラメータを測定し、パラメータの測定結果の時系列を含むそれぞれの測定信号(「肌接触測定信号」と呼ばれる)を生成する。通常、接触センサは、光パルスがユーザ又は対象者の目に向かうことを避けるために、光パルスが生成される前にハンドヘルドデバイス2が肌に正しく接触していることを確実にするために、ハンドヘルドデバイス2、特に光脱毛器中で使用される。上述したように、肌接触センサからの測定信号は、ハンドヘルドデバイス2が接触している身体部位を特定するために使用可能である。
いくつかの実施形態では、パラメータは容量でもよく、したがって肌接触センサ14、16はヘッド部6の表面上の電気接点又は電極のそれぞれの対を介して容量を測定でき、測定された容量は、肌接触があるかを示す。代替の実施形態では、パラメータは光強度又は光量でもよく、したがって肌接触センサ14、16は、光センサに入射した光の強度又は量を測定する光センサでもよく、測定された強度又は量は、肌接触があるかを示す(例えばわずかな光、又は光が全くない状態は、肌が光センサ14、16を覆った時の肌接触を示す場合があり、またその逆もあり得る)。他の代替の実施形態では、パラメータは肌圧力の測定値でもよく、したがって肌接触センサ14、16は、それぞれの圧力センサ又は機械的スイッチを介して肌圧力を測定でき、測定された肌圧力は、肌接触があるかを示す。
図示するハンドヘルドデバイス2は、ヘッド部6が接触している肌の肌色を判断するために使用される、ヘッド部6上、又はヘッド部6中に配置された肌色センサ18をさらに備える。肌色センサ18は、肌の肌色を示すパラメータを測定し、パラメータの測定結果の時系列を含む測定信号(「肌色測定信号」と呼ばれる)を生成する。通常、肌色センサは、処置対象の肌のタイプに適した強度を光パルスが有することを確実にするために、又は肌タイプ(例えば非常に多くのメラニン成分を有する暗めの肌)が光パルスに適さない場合に光パルスの生成を防ぐために、ハンドヘルドデバイス2、特に光脱毛器中で使用される。本明細書で説明したように、肌色センサからの測定信号は、ハンドヘルドデバイス2が接触している身体部位を特定するために使用可能である。
いくつかの実施形態では、肌色センサ18は、光センサであることが可能であり、光センサによって測定されたパラメータは、肌から反射した特定の波長又は複数の波長における光の強度又は量であり得る。特定の波長における反射光の測定された強度又は量は、肌の色を示し得る。反射光の測定された強度又は量は、肌のメラニン濃度に基づいてもよく、それによって、測定された強度又は量はメラニン濃度を示し得る。メラニン濃度は、例えば、660nm(赤)及び880nm(赤外線)波長における光反射の測定結果から導出されることが可能である。
図示するハンドヘルドデバイス2は、ハンドヘルドデバイス2をアクティブ化するためにユーザによって動作可能なユーザコントロール20をさらに備え、それによってヘッド部6は対象者の身体に対して要求されるパーソナルケア動作を実行する(例えば、1つ又は複数のエネルギ源12によるエネルギパルスの生成)。若しくは、又は加えて、本明細書で説明された身体部位特定技法を開始するために、ユーザによってユーザコントロール18が使用可能である。ユーザコントロール20は、スイッチ、ボタン、タッチパッドなどの形状を有する。
図1では不図示であるが、ヘッド部6は、特定の身体部位に対する使用が意図された取り外し可能なアタッチメントとして形成されることが可能である。この取り外し可能なアタッチメントは、本明細書において取り外し可能なヘッド部とも呼ばれる。それぞれがそれぞれの形状及びそれぞれのアパーチャサイズを有する多数の取り外し可能なアタッチメントが設けられることが可能であり、アタッチメントは処置対象の身体部位に基づいてハンドヘルドデバイス2上での使用のために選択され得る。例えば、顔での使用、腋窩での使用、ビキニラインでの使用、身体全体での使用(例えば、大きい身体表面領域)のために、異なるアタッチメントが設けられることが可能である。
図2は、肌接触センサ、肌色センサ、及び近接センサを備える代替の例示のハンドヘルドデバイス32のいくつかの図である。図2は、ハンドヘルドデバイス32の(すなわちヘッド部6に対向する)正面図、ハンドヘルドデバイス32の側部断面図、ハンドヘルドデバイス32の上面図を示す。図2は、近接センサのための視野(FOV)をさらに示す。
図2に示すハンドヘルドデバイス32は、図1に示すハンドヘルドデバイス2と全体的に対応しており、ハンドヘルドデバイス2と同一のハンドヘルドデバイス32の特徴及び要素に対して同一の参照番号が用いられる。
肌接触センサ14、16及び肌色センサ18に加えて、図2のハンドヘルドデバイス32は、ハンドヘルドデバイス32中又はその上に配置されてヘッド部6と接触している肌の部位に近接した肌への近接又は距離を測定するために使用される8つの近接センサ34を備える。実践上の実施例において、8よりも多い、又は8より少ない数の近接センサ34がハンドヘルドデバイス32中で使用可能であることが理解されるであろう。実際、いくつかの実施形態では、単一の近接センサ34が使用可能である。ただし、より詳細に後述するように、近接センサ34は、ヘッド部6が接触している肌の領域周辺の身体部位の形状(輪郭)を観察又は測定するために使用され、したがってハンドヘルドデバイス32は複数の(すなわち少なくとも2つの)近接センサ34を含むことが好ましい。使用される近接センサ34の数が多いほど、観察又は測定される肌の形状(輪郭)の解像度が高くなる。図2に示す実施形態では、ヘッド端部8に8つの近接センサ34が配置され、ヘッド部6の周囲に全体的に均一に構成される。図示する実施形態では、近接センサ34の視野が改善し、ヘッド部6が肌と接触している時にゼロ以外の距離が測定されることを意味するため、各近接センサ34は、その近接センサ34がヘッド部6から下がって設置されるように(すなわち各近接センサ34がヘッド部6の面からオフセットであるように)ヘッド端部8の中又は上に配置される。代替の実施形態では、各近接センサは、ヘッド部6と同一の平面に(すなわち同一平面内に)配置され得る。
各近接センサ34は、近接センサ34に対する肌の近接度を示すパラメータを測定し、特に、近接センサ34から、ヘッド部6が接触している肌に隣合った肌への距離を示すパラメータを測定する。各近接センサ34は、パラメータの測定結果の時系列を含むそれぞれの測定信号(「近接度測定信号’」と呼ばれる)を生成する。
いくつかの実施形態では、各近接センサ34は、近接センサ34のエネルギ源から、対向する表面(すなわち肌)からの反射後、近接センサ34のエネルギセンサへのエネルギの飛行時間に基づいて距離を測定できる。例えば、近接センサ34は、光源(例えばおよそ850nmの赤外線(IR)光を出射するIR光源又は可視光源)と、光源によって出射された光の少なくとも波長に反応する光センサとを備えることが可能であり、近接度/距離は、光の飛行時間の解析に基づいて判断され得る。他の例として、近接センサ34は、1つ又は複数の周波数の音を放出する、スピーカーなどの音源(例えば放出される音は超音波でもよい)と、音源によって放出された音の少なくとも周波数に反応する音センサ(例えばマイク)とを備え得る。近接度/距離は、音の飛行時間の解析に基づいて判断され得る。
視野(FOV)36は、図2において近接センサ34毎に図示され、FOV36は、関連する近接センサ34が距離を測定できる領域を表す。例えば、FOV36は、光源/音源から光/音が放出され得る方向及び/又はセンサが入射光/音に反応する方向を表し得る。8つの近接センサ34は、ヘッド部6の外周部の周りに配置され、それによって複数のFOV36が重なり、外周部の周りの全網羅を実現することがわかる。
図3は、パーソナルケア動作を実行するためのハンドヘルドデバイス2、32と、ハンドヘルドデバイス2、32が使用される身体部位を特定するための装置44とを備える例示のシステム42のブロック図である。装置44は、ハンドヘルドデバイス2、32(例えば光脱毛デバイス、シェービングデバイス、ヘアクリッパーなど)を備えるシステム42の一部として示される。図3に示す実施形態において、装置44は、ハンドヘルドデバイス2、32から分離された装置であり、それによって装置44は、スマートフォン、スマートウォッチ、タブレット、パーソナルデジタルアシスタント(PDA)、ラップトップ、デスクトップコンピュータ、スマートミラーなどの電子デバイスの形態を有する。他の実施形態では、装置44、特に装置44によって実現される本発明による機能は、ハンドヘルドデバイス2、32の一部である。さらに他の実施形態では、以下に説明する本発明の様々な実施形態による機能は、ハンドヘルドデバイス2、32と、分離した装置44との間で分割され得る。
装置44は、装置44の動作を全体的に制御して装置44が本明細書に記載される方法及び技法を実行できるようにする処理部46を備える。簡潔に述べると、処理部44は、パーソナルケア動作中に肌接触センサ14、16、肌色センサ18、及び1つ又は複数の近接センサ34のうちの1つ又は複数から測定信号を受信し、ハンドヘルドデバイス2、32が使用されている身体部位を特定するために学習済み機械学習モデル(MLM)を使用して測定信号を解析する。
それによって、処理部46は、装置44の別の構成要素から測定信号を受信するように構成されることが可能であり、したがって処理部46は、その別の構成要素から測定信号を受信するための1つ又は複数の入力ポート又は他の構成要素を含む、又は備えることが可能である。処理部46は、装置44の他の構成要素と通信するための1つ又は複数の出力ポート又は他の構成要素をさらに含む、又は備えることが可能である。
処理部46は、本明細書で説明される様々な機能を実行するために、ソフトウェア及び/又はハードウェアにより多くの手法で実施されることが可能である。処理部46は、要求される機能を実行するために、及び/又は要求される機能を実現するように処理部46の構成要素を制御するように、ソフトウェア又はコンピュータプログラムコードを使用してプログラムされる1つ又は複数のマイクロプロセッサ又はデジタル信号プロセッサ(DSP)を備える。処理部46は、ある機能を実行する専用ハードウェア(例えば増幅器、前置増幅器、アナログデジタル変換器(ADC)及び/又はデジタルアナログ変換器(DAC))と、他の機能を実行するプロセッサ(例えば1つ又は複数のプログラムされたマイクロプロセッサ、コントローラ、DSP、及び関連サーキットリー)との組み合わせとして実施される。本開示の様々な実施形態で用いられる構成要素の例は、従来のマイクロプロセッサ、DSP、特定用途向け集積回路(ASIC)、及びフィールドプログラマブルゲートアレイ(FPGA)を含むが、これに限定されない。
処理部46は、メモリ部48を備えることができ、又はそれと関連付けられることが可能である。メモリ部48は、装置44の動作を制御する際、及び/又は本明細書に記載の方法を実施又は実行する際に、処理部46によって使用されるデータ、情報、及び/又は信号(測定信号及び/又は学習済みMLMを定義する情報又はコンピュータコードを含む)を格納可能である。いくつかの実施例において、メモリ部48は、処理部46によって実行可能なコンピュータ可読コードを格納し、それによって処理部46は本明細書に記載される方法を含む1つ又は複数の機能を実行する。特定の実施形態において、プログラムコードは、スマートフォン、タブレット、ラップトップ、又はコンピュータのためのアプリケーションの形態を有することが可能である。メモリ部48は、ランダムアクセスメモリ(RAM)、静的RAM(SRAM)、動的RAM(DRAM)、読出し専用メモリ(ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、及び電気消去可能PROM(EEPROM(登録商標))などの揮発性及び不揮発性コンピュータメモリを含むキャッシュ又はシステムメモリなどのいずれかの種類の非一時的機械可読媒体を備えることが可能であり、メモリ部は、メモリチップ、光学ディスク(コンパクトディスク(CD)、デジタル多用途ディスク(DVD)又はブルーレイディスクなど)、ハードディスク、テープストレージソリューション、又はメモリスティック、ソリッドステートドライブ(SSD)、メモリカードなどを含むソリッドステートデバイスの形態で実施されることが可能である。
図3に示す実施形態では、装置44がハンドヘルドデバイス2、32から分離しているため、装置44は、装置44が ハンドヘルドデバイス2、32から測定信号を受信できるようにするインターフェースサーキットリー50をさらに含む。装置44のインターフェースサーキットリー50は、ハンドヘルドデバイス2、32、サーバ、データベース、ユーザデバイス、およびセンサのうちのいずれかの1つ又は複数を含む他のデバイスとのデータ接続及び/又はデータ交換を可能とする。ハンドヘルドデバイス2、32(又はいずれかの他のデバイス)への接続は、直接的又は間接的(例えばインターネットを介する)でもよく、それによってインターフェースサーキットリー50は、所望の有線又は無線通信プロトコルによる、装置44とネットワークとの間での接続、又は装置44と他のデバイス(ハンドヘルドデバイス2、32など)との間での直接接続を実現できる。例えば、インターフェースサーキットリー50は、WiFi(登録商標)、Bluetooth(登録商標)、Zigbee(登録商標)、又はいずれかのセルラ通信プロトコル(Global System for Mobile Communications(GSM)、ユニバーサルモバイルテレコミュニケーションシステム(UMTS)、ロングタームエボリューション(LTE)、LTE-Advancedなどを含むがこれに限定されない)を使用して動作可能である。無線接続の場合、インターフェースサーキットリー50(したがって装置44)は、伝達媒体(例えば空気)を介して送受信するための1つ又は複数の適切なアンテナを含む。若しくは、無線接続の場合、インターフェースサーキットリー50は、インターフェースサーキットリー50を、伝達媒体(例えば空気)を介して送受信するための装置44の外部の1つ又は複数の適切なアンテナに接続可能とする手段(例えばコネクタ又はプラグ)を含む。インターフェースサーキットリー50は、処理部46に接続される。
図3には不図示であるが、装置44は、装置44のユーザが装置44に対して情報、データ、及び/又はコマンドを入力できるようにし、及び/又は装置44が装置44のユーザに対して情報又はデータを出力できるようにする1つ又は複数の構成要素を含む1つ又は複数のユーザインターフェース構成要素を備えてもよい。ユーザインターフェースは、 キーボード、キーパッド、1つ又は複数のボタン、スイッチ又はダイヤル、マウス、トラックパッド、タッチスクリーン、スタイラス、カメラ、マイクなどを含むがこれに限定されないいずれかの適切な入力構成要素を備えることが可能であり、ユーザインターフェースは、ディスプレイユニット又はディスプレイ画面、1つ又は複数の照明又は光素子、1つ又は複数のスピーカー、振動子などを含むがこれに限定されないいずれかの適切な出力構成要素を備えることが可能である。
装置44の実践上の実施は、図3に示すものに対する追加構成要素を含むことが理解されるであろう。例えば、装置44は、電池などの電源、又は装置44を主電源に接続可能とする構成要素をさらに含む。
図3に示すハンドヘルドデバイス2、32は、それぞれのパラメータを測定しハンドヘルドデバイス2、32が対象者の肌に対して使用された時にそれぞれの測定信号を生成するための1つ又は複数のセンサ52を備える。
いくつかの実施形態では、1つ又は複数のセンサ52は、肌接触センサ14、16又は複数の肌接触センサ14、16を備える。いくつかの実施形態では、1つ又は複数のセンサ52は、肌色センサ18又は複数の肌色センサ18を備える。いくつかの実施形態では、1つ又は複数のセンサ52は、近接センサ34又は複数の近接センサ34を備える。他の実施形態では、1つ又は複数のセンサ52は、1つ又は複数の肌接触センサ14、16、1つ又は複数の肌色センサ18、及び/又は1つ又は複数の近接センサ34のいずれかの組み合わせを備える。
ハンドヘルドデバイス2、32は、ハンドヘルドデバイス2、32から装置44へ、測定信号を含む信号を送信するためのインターフェースサーキットリー54をさらに備える。インターフェースサーキットリー54は、インターフェースサーキットリー50と通信するために、装置44のインターフェースサーキットリー50に対して上記で概要を述べたオプションのいずれかにしたがって実施されることが可能である。
ハンドヘルドデバイス2、32は、例えばパーソナルケア動作を実現するパーソナルケア部をアクティブ化及び非アクティブ化するなど、ハンドヘルドデバイス2、32の動作を全体的に制御するデバイス処理部56をさらに備える。デバイス処理部56は、装置44の処理部46に関して上記で概要を述べたオプションのいずれかにしたがって数多くの手法で実施されることが可能である。
デバイス処理部56は、1つ又は複数のセンサ52と接続可能であり、1つ又は複数のセンサ52から、例えば入力ポートを介してデバイス処理部56への測定信号を受信する。いくつかの実施形態では、デバイス処理部56は、後続の処理のために装置44への送信のために、測定信号をインターフェースサーキットリー54へ出力する。
図3のいくつかの実施例では、装置44は、本発明による機能を実現するアプリケーションを実行しているスマートフォン、タブレット、又はスマートミラーである。
装置44又は装置44の機能がハンドヘルドデバイス2、32の一部である実施形態では、デバイス処理部56は、ハンドヘルドデバイス2、32が使用された身体部位を特定する装置処理部46の機能を実施できる。
ハンドヘルドデバイス2、32の実践上の実施は、図3に示すものに対する追加構成要素を含むことが理解されるであろう。例えば、ハンドヘルドデバイス2、32は、電池などの電源、又はハンドヘルドデバイス2、32を主電源に接続可能とする構成要素をさらに含む。
1つ又は複数のセンサ52を有するハンドヘルドデバイス2、32の使用中、センサによって生成された測定信号は、その時にハンドヘルドデバイス2、32が使用されている身体部位にしたがう一意の(又は少なくとも区別可能な)パターンを示す場合がある。したがって、パーソナルケア動作中にそれらのパターンが発生した場合にそのパターンを特定し、例えば、足、脚、下腿、上腿、腹、胴、胸、背中、手、腕、前腕、上腕、腋窩、肩、首、顔、上唇、頭皮、又は頭などの対応身体部位に照合するために機械学習技法が使用可能であることがわかる。パターンは、さらに、左側又は右側の身体部位(例えば左脚又は右脚)が互いに区別可能とする。
上位概念レベルにおいて、上述したセンサ52に基づく身体部位特定は、異なる身体部位がそれらのセンサ52のいくつかからの測定信号に対して有する数多くの効果を考慮することによって理解可能である。
第1に、ハンドヘルドデバイス2、32と対象者の肌との間で肌接触が行われ得る範囲は、身体部位に依存することが可能である。例えば、上唇において、高い身体曲率に起因して、他の身体部位よりも肌接触が通常小さくなる。容量ベースの肌接触センサ14、16の場合、この小さい肌接触は、容量信号の信号強度に影響する場合がある。さらに、容量信号は、異なる身体部位間で異なる肌の電気(誘電)特性に依存する。特に、肌は、油道と汗管により穴があいた不均一組織の層から構成される。これらの管の集中と、組織のイオン透過性は、様々な身体部位間で異なり、例えば腋窩部位では汗腺の数が多く、したがって容量信号の応答が身体部位間で異なる。
第2に、一般に肌の色及び肌の光学的特性は、異なる身体部位間で異なる場合があり、光学ベースの肌色センサ18からの測定信号に影響を及ぼし得る。さらに、肌接触の程度は、肌色測定信号の信号強度に影響を及ぼし得る。
第3に、光学ベースの近接センサ34は、対象者の肌によって反射し返された光の量を測定する。受光量は、近接センサ34と肌との間の距離、「フィルファクタ」(すなわちFOV36のどの程度が身体/肌によって「埋められて」いるか)、肌と近接センサ34のFOV36との間の角度、肌の光学的特性のような因子に依存する。それによって、近接センサ34のいずれかの所与の構成に対して、すなわちヘッド部6と互いに関する近接センサ34の配置及び向きに関して、身体上のIPLデバイスの配置及び向きがセンサからの信号の組み合わせに影響することがわかる。
これらのセンサ52からの測定信号に対して異なる身体部位が有する影響は数多く存在するため、測定信号から身体部位を特定するようにMLMは訓練される。このデータ駆動型のアプローチは、1つ又は複数のセンサ52のための測定信号が数多くの異なる身体部位に対するパーソナルケア動作中に対象者の母集団に対して取得されることを意味し、ここでそれぞれの身体部位はパーソナルケア動作全体において既知である(すなわち注釈がつけられる)。その後、教師付きMLMがこの取得された学習データに適用され得る。この結果、入力測定信号に基づいて特定された身体部位を出力するデプロイ可能な学習済み分類器アルゴリズムが得られる。機械学習モデルは、例えば、ロジスティック回帰モデル、サポートベクターマシン、ランダムフォレスト、単純ベイズ分類器、最近傍分類器、決定木分類器、人工ニューラルネットワーク、又はこの組み合わせのいずれかである。
身体部位特定アルゴリズムのいくつかの実施例では、身体部位は、1つ又は複数のセンサ52からの新規測定信号毎に継続的に特定される。ただし、分類正確度は、ある時間にわたる測定信号を集約して特定の時間間隔に処置された身体部位を特定することによって改善される。これは、ユーザが次の身体部位に移動する前にある身体部位の処置を通常終了するため役立つ。測定信号が集約される上記時間間隔は、例えば数秒など固定長を有し得る。代替例として、測定信号が集約される時間間隔は、ハンドヘルドデバイス2、32が対象者の肌に接触している時間長と一致するように可変でもよく(1つ又は複数のセンサ52が肌接触センサ14、16を備える場合)、これは、異なる身体部位間での移行中にユーザがハンドヘルドデバイス2、32を肌から持ち上げる可能性があるという前提に基づく。
測定試料がある時間にわたって集約された場合、測定信号の処理によって明示的に、又は、例えば、MLMが深層ニューラルネットワークの場合に暗示的に、のいずれかによってMLMによって追加の特徴が判断可能である。そのような特徴の例は、センサ52によって測定されたパラメータの平均値又はセンサ52毎の測定パラメータの標準偏差でもよいが、パラメータの統計学的特性に関係する特徴を含む多くの他の特徴が判断され得る。
身体部位を特定することにおける上記技法の効果を表す結果が、光脱毛器の形態のハンドヘルドデバイス2、32に関してここで提示される。MLMのための学習データは、2つの肌接触センサ14、16、肌色センサ18、及び8つの近接センサ34を有する光脱毛器を使用した15人の女性参加者から集めてまとめられた。各参加者は、腕、脚、下腹、(いわゆる「腹-ビキニ」部位)、ビキニライン、顔、及び腋窩の身体部位が連続して処置される少なくとも2回のパーソナルケアセッションを実行した。測定試料は、10Hzのサンプリング周波数でパーソナルケア動作全体において取得されたものであり、その測定信号は関連身体部位で注釈が付けられた。
取得された測定信号を用いて、ランダムフォレスト分類器の形態のMLMが身体部位検出のために訓練された。分類器は試料ベースであり、すなわち測定試料毎に、身体部位の瞬間推測が行われる。
下記の表1~3は、ランダムフォレスト分類器の3つの異なるバージョンの分類器パフォーマンスを表すコンフュージョンマトリックスである。これらのコンフュージョンマトリックスは、実際の(正しい)身体部位毎に、分類器によって行われた予測、すなわち腕、脚などとして分類器が出力した試料の割合を示す。コンフュージョンマトリックスに示される結果を取得するために、1人の対象者除外交差検証が使用された。これは、対象者毎に、分類器のパフォーマンスが評価され、分類器は他の対象者のすべてに対するデータを使用して訓練されることを意味する。コンフュージョンマトリックスは、全対象者における平均結果を示し、対角線は、異なる身体部位に対する分類正確度を提示する。
表1は、肌接触センサ14、16及び肌色センサ18からの測定信号に基づく、ランダムフォレスト分類器に対するコンフュージョンマトリックスである。
Figure 2022545073000002
表2は、近接センサ34からの測定信号にのみ基づくランダムフォレスト分類器のためのコンフュージョンマトリックスである。
Figure 2022545073000003
表3は、肌接触センサ14、16、肌色センサ18、及び近接センサ34からの測定信号に基づくランダムフォレスト分類器のためのコンフュージョンマトリックスである。
Figure 2022545073000004
表に示すように、平均して、ランダムフォレスト分類器による正確な予測の比率は、分類器の3つのバージョンそれぞれに対して61%、70%、及び82%である。予想できる通り、分類器のパフォーマンスは、分類器の一部として評価されたセンサの数に伴って増加する。
肌接触センサ14、16及び肌色センサ18に加えて使用された近接センサ8の数に伴う分類正確度(すなわち正確な予測の比率)の増加を図4に示す。図4は、使用された近接センサ34の数に対する分類正確度のプロットを示す。このプロットは、変数減少法によって生成され、すなわち全8つの近接センサ34に対する測定信号から開始し、それぞれの次の繰り返しにおいて最下位の近接度測定信号を削除して、分類器訓練が反復的に実行される。それによって、近接センサ34の数に伴って分類正確度が改善することがわかるが、より多くの近接センサ34が使用されると、追加近接センサ毎の改善は減少する。
上述したように、身体部位の測定試料毎の特定は、より正確な結果を得るためにある時間にわたって集約される。一例は、分類器の出力に対するメジアンフィルタの適用である。一般に、メジアンフィルタリングは、信号処理の分野で知られており、この特定の場合において、メジアンフィルタは選択された時間ウィンドウにおける時折の身体部位の誤分類を抑制する。図5(a)のプロットは、肌接触センサ14、16、肌色センサ18、及び8つの近接センサ34のそれぞれが使用される状況における、メジアンフィルタの長さ(秒(s)単位で測定)に応じた分類正確度を示す。正確度は、メジアンフィルタが全く使用されていない場合の82%から6秒のメジアンフィルタ長が使用された場合の88%へ増加する(6秒長のフィルタは、分類器出力が6秒の時間間隔において集約されることを意味する)ことがわかる。
より好適な実施例では、身体部位の測定試料毎の特定は、モードフィルタを分類器の出力に対して適用することによってある時間にわたって集約される。モードフィルタは、カテゴリ変数の値、すなわち身体部位を出力するために使用されているため、メジアンフィルタよりも好ましい場合がある。一般に、モードフィルタリングは、信号処理の分野で知られており、この特定の場合において、モードフィルタは、選択された時間ウィンドウの大部分の時間において特定された身体部位を出力することによって、その時間ウィンドウにおける身体部位の時折の誤分類を抑制する。図5(b)のプロットは、肌接触センサ14、16、肌色センサ18、及び8つの近接センサ34のそれぞれが使用される状況における、モードフィルタの長さ(秒(s)単位で測定)に応じた分類正確度を示す。正確度は、モードフィルタが全く使用されていない場合の81.5%から9秒のモードフィルタ長が使用された場合の88%へ増加する(9秒長のフィルタは、分類器出力が9秒の時間間隔において集約されることを意味する)ことがわかる。
上記の例では、MLMのための学習データは、制御された対象者テストにおいて取得された。若しくは、学習データは、パーソナルケア動作中に ハンドヘルドデバイス2、32のセンサ52から測定信号を取得して関連身体部位の注釈を受信することによって「当該分野の消費者」から取得される。測定信号は、スマートフォンなどの接続されたデバイス(例えば装置44)が利用可能であり、ユーザ/対象者は、信号に関連身体部位の注釈をつけるためにアプリケーションをスマートフォン上で使用できる。
いくつかの場合では、分類器(又はより一般的には学習済みMLM)が一度でも訓練されて使用されると、分類正確度を改善するように(すなわち学習セットのサイズ増加のため)分類器を更新(再訓練)するために、ハンドヘルドデバイス2、32の使用中に取得されたさらなる測定信号が使用されることが可能である。
同様に(又は加えて)、特定の対象者に対する測定信号に基づいてMLMを訓練又は再訓練することによって、MLMをその対象者に対して個別化する(例えば対象者の身体形状に対して個別化する)ことができ、よってその対象者に対する正確度が増加する。したがって、MLMは、その対象者に対して実行された1つ又は複数の「校正」パーソナルケア動作中に取得された測定信号に基づいて訓練されることができる。これらの校正動作は、対象者の特定の身体部位に対してハンドヘルドデバイス2、32を適用するようにユーザを案内することを含むことが可能であり、若しくは、ユーザ又は対象者が処置される/処置された身体部位をユーザインターフェースによって示してもよい。
表1~3に示す上記結果のコンテキストにおいて、特定の対象者に対するMLMの個別化によって実現される正確度増加のためのサポートは、ランダムフォレスト分類器を訓練し対象者毎に個々に1セッション除外交差検証を用いてパフォーマンスの評価する際に見られる。平均して、取得される分類器正確度は、肌接触センサ14、16及び肌色センサ18のみを使用した場合に78%であり、近接センサ34のみを使用した場合に78%であり、肌接触センサ14、16、肌色センサ18、及び8つの近接センサ34を使用した場合に89%である。これらの信頼度を、試験対象者の全母集団に対して訓練された場合の分類器に対して上記の報告されたもの(それぞれ61%、70%、及び82%)と比較すると、正確度の増加は明らかである。加えて、異なる対象者において正確度が平均化された場合により高い正確度を実現するとともに、対象者間の分類器正確度における変動は、分類器が対象者向けに個別化された場合に小さくなる。
本明細書で提示された技法による2つの肌接触センサ14、16及び肌色センサ18からの測定信号に基づくMLMの構造、訓練及びパフォーマンスのより詳細な説明が、図6~図17を参照して以下で行われる。
MLMのための学習データは、2つの肌接触センサ14、16及び肌色センサ18を有する光脱毛器を使用した15人の女性参加者から集めてまとめられた。各参加者は、前腕、下腿、下腹(いわゆる「腹-ビキニ」部位)、ビキニライン、顔(上唇)、及び腋窩の身体部位が連続して処置される複数のパーソナルケアセッションを実行した。これらの身体部位を処置する際に、光脱毛器において適切な取り外し可能なアタッチメントが使用された。それによって下腿、前腕、及び腹-ビキニに対して全身アタッチメントが使用され、ビキニラインに対してビキニラインアタッチメントが使用され、顔に対して顔アタッチメントが使用され、腋窩に対して腋窩アタッチメントが使用される。
測定信号を収集するために、参加者は自分の身体上でデバイスを動かして、各移動工程において確実に正しい肌接触となるようにした。測定信号を取得するために使用された光脱毛器において、光脱毛器上で点灯される光表示器によって正しい接触が示され、光表示器の動作は、肌接触センサ14、16からの測定信号が接触閾値を上回ることに依存する。他の試験の状況では、正しい接触はユーザに対して示されず、及び/又は適切な測定信号の収集には必須ではない。加えて、測定信号を取得するために使用された光脱毛器は、肌接触センサ14、16が正しい肌接触を示した時(すなわち肌接触測定信号が閾値を上回った時)にのみ肌色センサ18からの測定信号が取得されるように構成された。各身体部位が可能な限り網羅されなければならないという命令が与えられ約40秒から1分(身体領域に依存)の所望の最短処置時間量も示されるが、ハンドヘルドデバイス2、32が各身体部位に使用される時間量は可変であり、参加者によって決定された。ハンドヘルドデバイス2、32が使用された身体部位が参加者によって示され、したがって取得された測定信号は関連身体部位の名称で注釈が付けられる。
図6のプロットは、身体部位、すなわち腕、脚、腹-ビキニ、ビキニライン、顔、及び腋窩のための上記学習データ収集段階において取得された、肌接触センサ14、16からの例示の測定信号を示す。図示を容易にするため、表記された身体部位に関係しない測定信号の一部(例えばハンドヘルドデバイス2、32が体から持ち上げられて異なる身体部位に移動された場合に対応する測定信号の一部)は、図6では省略されている。
以下の表4は、対象者(参加者)毎、セッション毎、及び身体部位毎に取得された使用可能な測定試料の数の概要を示す。使用可能な測定試料は、バイアスに対する修正後の肌接触センサ14(SDS1と呼ばれる)からの肌接触測定信号、バイアスに対する修正後の肌接触センサ16(SDS2と呼ばれる)からの肌接触測定信号、及び肌の色と相関し、背景の光に対して修正された、STSRedと呼ばれる赤色(660nm)光に関連した測定反射強度と、背景の光に対して修正された、STSIRと呼ばれる赤外線(880nm)光に関連した測定反射強度とから導出される、肌色センサ18からの肌色測定信号(STSSと呼ばれる)から導出される。ハンドヘルドデバイス2、32の温度を上昇させる光パルスの生成をパーソナルケア動作が含む実践的な実施例において、又はパーソナルケア動作中にハンドヘルドデバイス2、32の温度が他の方法で変化する実施例において、ハンドヘルドデバイス2、32の温度に対してSTSRed及びSTSIRを修正することはさらに有効である。なお、表4において、試料が取得されなかった2回のセッションは、そのセッションにおけるデータ取得障害に起因するものである。
Figure 2022545073000005
以下において、「試料毎」の身体部位分類は、測定信号における「時間的特徴」に基づく分類とともに評価される。図7のフローチャートは、測定信号が2つの場合においてどのように解析されるかを示し、図7(a)は試料毎の分類に関し、図7(b)は時間的特徴分類に関する。両方の方法に共通するステップは、同一の参照番号で表記される。
両方の方法において、測定信号SDS1、SDS2、STSRed、STSIR、及びSTSSが取得され(ステップ101)、必要に応じてバイアス又は背景光に対して修正される。ステップ103において、肌接触センサ測定信号SDS1及びSDS2は、光脱毛器で使用されたアタッチメントに対して修正される。特に、少なくとも肌接触センサ14、16の一部は取り外し可能なアタッチメント(例えば電極)上に配置され、したがって肌接触センサ14、16の感度は、異なるアタッチメント上の容量電極又はプレートの物理的違いに起因して、アタッチメントのタイプに依存し得る。いくつかの実施形態では、ハンドヘルドデバイス2、32は、例えば、接続時に取り外し可能なアタッチメントから得られる情報(例えば信号)に基づいてハンドヘルドデバイス2、32に接続されたアタッチメントのタイプを検出でき、適切な修正又は調整を行うことができる。このアタッチメントに起因する修正は、詳細に後述する。
その後、図7(a)に示す「試料毎の」分類に対して、SDS1及びSDS2が肌接触閾値を上回る測定試料がフィルタリングされ(ステップ105)、分類器(学習済み機械学習アルゴリズム/モデル)に渡される(ステップ107)。
予想されるように、SDS1及びSDS2が肌接触閾値未満の測定試料が上記分類において使用される場合、分類の正確度は下がる。これは、肌接触がない場合に肌接触測定信号が異なる身体部位に対してむしろ類似する(0に近い)ためである。
ステップ107において、分類器は1つの測定試料を取り込み、それに基づいて、同一のサンプリングレートで、身体部位を示す1つの試料を出力する(ステップ109)。図7(a)の方法において、処置された身体部位と相関する測定信号のいずれかの時間的挙動は、したがって考慮されない場合がある。
分類パフォーマンスは、モードフィルタリングを使用して出力試料を集約することによって増加させることができる。したがって、分類器によって特定された身体部位を示す試料は、その後、モードフィルタリングのステップ、すなわちステップ111に渡され、学習済み機械学習アルゴリズムの出力に対してスライディングウィンドウが適用される。最頻値(すなわちスライディングウィンドウで最も頻繁に発生する身体部位)が判断され、ステップ113で最終的な特定身体部位として出力される。なお、モードフィルタリングが「1試料毎」のスライディングウィンドウを使用する場合に、最終的な特定身体部位は、測定試料が入力されたレートと同一のレートで依然として出力されることが可能であることに留意されたい。モードフィルタリングを使用することによるパフォーマンスの増加は、実際に処置された身体部位が急激に変化しないことに起因する。したがって、分類器は大部分の時間において右側の身体部位のみを特定しなければならず、したがって時折の身体部位の誤分類がフィルタリングされて除去される。
図7(b)に示す「時間的特徴」に基づく分類に関して、ステップ103の後、異なるフィルタリングプロセスが適用され(ブロック115)、肌接触フィルタリング/閾値は適用されない。ブロック115のステップ117において、測定試料のサブセットを選択するために入力測定試料に対してスライディングウィンドウが適用される。使用されている機械学習モデルに応じて、ブロック115のステップ119で、スライディング入力ウィンドウの測定試料がステップ107の機械学習アルゴリズムに直接渡されるか、ブロック115のステップ121で、スライディング入力ウィンドウの測定試料から特徴が計算されてステップ107の機械学習アルゴリズムに渡されるかのいずれかが行われる。以下の説明において、MLMは、ステップ119が該当する(したがって測定試料が直接MLMに渡される)場合の人工ニューラルネットワークでもよく、又はMLMはステップ121が該当する場合のランダムフォレストでもよく、複数の特徴は、スライディング入力ウィンドウの測定試料から計算される。図7(b)のステップ107~113は図7(a)の試料毎分類アプローチと同一である。したがって、最終的な出力身体部位を導出するために、学習済み機械学習アルゴリズムの出力に対して出力モードフィルタリングが適用される。
分類に関して上述したように、ランダムフォレスト及び(人工)ニューラルネットワークの2つの異なる教師付き機械学習モデルが用いられる。両方のモデルは、複合非線形伝達関数をモデル化できる。
図8に示すように、ランダムフォレスト分類器は決定木70のアンサンブルである。各決定木70は、入力特徴値(例えば最小)のうちの1つと数との間の単純比較が行われる決定ノード72からなる。全決定ノード72を通ることによって、エンドノード74は、最終的に、決定木70の出力分類(例えば、特定身体部位)への対応に到達するようになる。単一の決定木70は、通常、データに「過適合」する傾向があるため、それを軽減するために、複数の決定木70が学習及び使用される。ここで、単一の決定木70の訓練のために、置き換え(いわゆるブートストラッピング)によって、測定試料が無作為にサンプリングされる。さらに、入力された特徴(例えば最小)の無作為サブセットは、各決定ノード72で使用される。ランダムフォレストの出力76は、決定木70から出力された最頻値(すなわち最も多く発生する)として取得され得る。ランダムフォレスト分類器を使用する利点は、調整が可能な/調整が必要な特徴の数が比較的少なく、ランダムフォレストの出力がそれらの特徴の影響を比較的受けないことである。さらに、決定木を単純に視覚化することによって、学習済みランダムフォレスト分類器の「決定過程」に対する洞察が容易に得られ、それによって入力された特徴の相対的重要性が即座に推定可能である。以下でさらに説明される結果に関して、ランダムフォレストのMatlab(TreeBaggerクラス)及びPython(sklearn.ensemble.RandomForestClassifierクラス)実施の両方が使用された。
図9に示すような人工ニューラルネットワーク80は、入力層84、1つ又は複数の隠し層86、及び出力層88に配置されたノード82(又はニューロン)からなる。入力層84の各ノード82は、この場合はSDS1、SDS2、STSRed、STSIR、又はSTSSのそれぞれのウィンドウ表示された部分であるそれぞれの入力値を表し、出力層88の各ノード82は、この場合は身体部位である異なるクラスのうちのそれぞれのクラスを表す。全体が接続されたネットワークにおいて、図9に示すように、ある層の各ノード82から出ている線は、近傍の層のノード82のそれぞれに接続される。フォワードパスにおいて、隠し層86の各ニューロン82は、前の層84/86のノード82の値の一次結合を取得し、これをアクティブ化機能に入力し、このアクティブ化を次の層のノード82に出力する。アクティブ化は、出力層88までこのようにして伝搬される。出力層88において、最上位のアクティブ化を有するニューロン82は、予測身体部位として選択される。人工ニューラルネットワークを訓練する際の目標は、各ノード82における一次結合のための重みを学習することであり、その結果、予測身体部位と実際の身体部位との間の差異が最小となる。これを実現するために、出力層88は期待値と比較されることが可能であり、重みは傾斜降下を使用して適応され得る。この適応は、各層を通って逆伝搬され、結果としてバックワードパスが得られる。フォワードパスおよびバックワードパスは、その後、重みがそれらの最終値に収束されるまで複数回反復されることが可能である。以下で詳細に説明する結果に対して、Pythonプログラミング環境におけるTensorflowが人工ニューラルネットワークのために使用される。
以下で説明されるような適用MLMのパフォーマンスの推定のために、交差検証が適用される。これは、MLMが、上記表4に示す学習データの部分のみを用いて訓練されることを意味する。この学習データの部分は、「学習セット」と呼ばれる。学習済みMLMの予測パフォーマンスは、その後、学習データの残り(すなわちモデルの訓練においては「見えない」)を使用して評価される。学習データのこの残りの部分は「テストセット」と呼ばれる。本解析において、1つ抜き交差検証が2つのスキームで使用される。
第1のスキームは、「1人の対象者除外」交差検証が用いられる汎用モデルである。これは、MLMが15人の対象者のうちの14人のデータを使用して訓練されることを意味する。学習済みMLMは、その後、訓練において測定信号が使用されなかった対象者に対する予測を取得するために使用される。この手順は、対象者毎に個別に実行される(したがって15回実行される)。このようにして、全対象者に対して、「テストモデル予測」が得られる。学習済みMLMのパフォーマンスは、学習母集団全体において評価され得る。例えば、正しく分類された測定試料の割合は、全対象者の全測定試料を考慮して計算されることができる。対象者毎のパフォーマンスは、さらに、対象者間の変動を把握するために評価されることができる。単一の「フリーサイズ」の機械学習された分類器が身体部位検出のために用いられる場合、この第1のスキームは適切である。
第2のスキームは、対象者毎に「1セッション除外」交差検証が個別に用いられる個別モデルである。したがって、対象者のパーソナルケアセッション毎に、同一の対象者の他のパーソナルケアセッションのデータに関して訓練されたMLMを使用して、「テスト予測」が得られる。予測パフォーマンスは、その後、対象者毎及び/又は全学習母集団に対して評価されることが可能である。このアプローチは、1人の特定の対象者専用に作成されたMLMを用いることの実行可能性を調べる際に適切である。そのような実施の欠点は、校正手順を実行する必要があることである。すなわち、個々の対象者のために分類器を訓練する際に、処置された身体領域が既知である1つ又は複数のパーソナルケアセッションからのデータが取得されなければならない。ただし、分類パフォーマンスは、汎用実施よりも全体的に良好である。
なお、無作為に、ある割合の試料(対象者及び/又はセッション全体において)が学習セットとして使用され、残りがテストセットとして使用される交差検証である無作為試料交差検証が考慮されていないことに留意されたい。汎用MLMの場合、対象者毎の測定信号が部分的に学習セットに存在するため、パフォーマンスの推定が不正確となり、したがって、新規の「以前見られなかった」対象者に対するテストが行われない。個別分類器の場合、予測パフォーマンスに影響するパーソナルケアセッション間の潜在的な変動は、無作為試料交差検証を適用した際には扱われない。
以下の表5は、異なるMLMに対して得られた分類正確度の概要を示す。ここで、対象者毎に、正しく分類された試料の比率として、分類正確度が計算される(したがって、全身体部位に対して計算される)。その後、これらの値全体における平均及び標準偏差が得られ、表5に示される。分類パフォーマンスのために最適化されたウィンドウの長さを有する出力モードフィルタリング(図7(a)及び図7(b)のステップ111)を適用することによって結果が得られる。このウィンドウの長さは、適用された検証、機械学習モデル、及び処理方法に応じて、約50個の測定試料と100個の測定試料との間である。平均正確度に対する出力モードフィルタリングの効果は、すべての場合において5%である。時間的特徴処理の場合、約50個の試料(ステップ117)の入力ウィンドウの長さが適用される。
Figure 2022545073000006
表5から、個別モデルは、汎用モデルよりも10から15%高い平均正確度を有することがわかる。また、標準偏差値に基づくと、すべての場合に対しては明らかではないが、個別モデルは、通常、正確度において低い変動をもたらす。ただし、より詳細な結果は後述する。
主に汎用モデルでは、ニューラルネットワークがランダムフォレストよりも良好に動作する(5%良好)。ただし、これは、主に、後述するように腋窩の特定のより良好なパフォーマンスに起因する。汎用モデルの場合、ニューラルネットワーク及びランダムフォレストはより類似して動作し、ランダムフォレストは時間的特徴処理により、いくつかの利点を有する。
時間的特徴処理が高い正確度を実現する個別ランダムフォレストモデルを除いて、分類正確度は試料毎処理及び時間的特徴処理場合も同様に見える。
上記の分類のより詳細な結果を、汎用ランダムフォレスト(図10)、汎用ニューラルネットワーク(図11)、個別ランダムフォレスト(図12)、及び個別ニューラルネットワーク(図13)に関して図10~図13に示す。これらの図において、身体部位毎に、異なる対象者に対して得られた正確度の分散がボックスプロットで示される。加えて、対象者の「身体部位平均化」正確度における分散は、「平均」と表記されるボックスプロットによって示される。図10~図13のそれぞれにおけるボックスプロット(a)は、試料毎処理を使用した場合に得られた正確度に関し、図10~図13のそれぞれにおけるボックスプロット(b)は、時間的特徴処理を使用した場合に得られた正確度に関する。
ビキニライン、顔、及び腋窩に関して正確度が通常最も高くなる一方、腕、脚、及び腹-ビキニに関して正確度は非常に低いことがわかる。これは、ニューラルネットワークモデルに関して最も明らかである。なお、ビキニライン、顔、及び腋窩は、ハンドヘルドデバイス2、32に専用アタッチメントをつけて処置されることが可能である(訓練測定信号が得られた場合は、処置された)が、一方、腕、脚、及び腹-ビキニは全身アタッチメントを使用して処置されることに留意されたい。上述したように、肌接触センサ14、16の感度は、アタッチメントタイプに依存することが可能であり、これは、表示される結果に対して修正される。したがって、身体部位ではなくアタッチメントタイプに基づく分類は、可能な限り除外される。アタッチメントタイプに起因する分類正確度におけるバイアスの存在(すなわち、肌接触センサ感度に関して修正が全く行われない場合)について以下で説明する。
汎用モデルに関して、図10~図13では、特に腕、脚、及び腹-ビキニに対して正確度の変動が非常に大きいことがわかる。全体として、個別モデルに関して、正確度の変動は非常に小さく、ランダムフォレスト時間的特徴モデルを使用した場合、全身体部位/対象者に対して50%の最小正確度が可能である(いくつかの外れ値を除く)。
ランダムフォレストモデルにおけるステップ111における出力モードフィルタリングの適用の効果(上述の結果に到達するために使用される)を図14のプロットによって示す。各プロットは、出力モードフィルタリングウィンドウの長さに対する平均分類正確度を示す。図14(a)は、試料毎処理を有する汎用モデルに関し、図14(b)は時間的特徴処理を有する汎用モデルに関する。図14(c)は、試料毎処理を有する個別モデルに関し、図14(d)は時間的特徴処理を有する個別モデルに関する。全体として、4から7%の正確度の増加は、ウィンドウの長さを50個から150個の試料に増加することによって得ることができる。ニューラルネットワークモデルに関して、同様の結果が得られる。
表6~表13は、試料毎処理及び時間的特徴処理の両方のための汎用ランダムフォレスト、汎用ニューラルネットワークモデル、個別ランダムフォレスト、及び個別ニューラルネットワークモデルに対する全15人の対象者のコンフュージョンマトリックスを示す。このコンフュージョンマトリックスは、実際の身体部位毎に(表の行に沿って)、特定の身体部位が分類器によって出力される試料の割合を(表の列に沿って)示す。各表の対角線は、異なる身体部位に対する分類正確度を示す。
Figure 2022545073000007
表6は、試料毎処理を有する汎用ランダムフォレスト分類器のコンフュージョンマトリックスを示す。
Figure 2022545073000008
表7は、試料毎処理を有する汎用ニューラルネットワーク分類器のコンフュージョンマトリックスを示す。
Figure 2022545073000009
表8は、試料毎処理を有する個別ランダムフォレスト分類器のコンフュージョンマトリックスを示す。
Figure 2022545073000010
表9は、試料毎処理を有する個別ニューラルネットワーク分類器のコンフュージョンマトリックスを示す。
Figure 2022545073000011
表10は、時間的特徴処理を有する汎用ランダムフォレスト分類器のコンフュージョンマトリックスを示す。
Figure 2022545073000012
表11は、時間的特徴処理を有する汎用ニューラルネットワーク分類器のコンフュージョンマトリックスを示す。
Figure 2022545073000013
表12は、時間的特徴処理を有する個別ランダムフォレスト分類器のコンフュージョンマトリックスを示す。
Figure 2022545073000014
表13は、時間的特徴処理を有する汎用ランダムフォレスト分類器のコンフュージョンマトリックスを示す。
上述したように、何らかのハンドヘルドデバイス2、32の場合、腕、脚、及び腹-ビキニなどの身体部位は、それらの身体部位に特化しないハンドヘルドデバイス2、32に全身アタッチメントを付けて処置されることが可能である一方、ビキニライン、顔、及び腋窩など他の身体部位はそれ自体の専用アタッチメントを使用して処置されることが可能である。容量に基づく肌接触センサ14、16の場合、アタッチメント上に存在する肌接触センサの部分間の反応の系統的差異は、寸法及び/又は使用される金属量の差に起因して存在し得る。さらに、製造再現性に起因して、肌接触センサと肌色センサとの両方に対して不規則変動が予想される。
上述した結果を得る際に、異なるアタッチメント間の肌接触センサ感度の系統的差異が修正される。この修正は、銅と接触するように配置される際に異なるアタッチメントに対する肌接触センサの反応の検査に基づく。これらの結果を以下の表14に示す。
Figure 2022545073000015
表14において、アタッチメントタイプ間の系統的差異に加えて、SDS1とSDS2との間の系統的差異(すなわち反応SDS1>反応SDS2)もさらに存在することがわかる。上記の分類結果において、肌接触測定信号は表14で与えられている感度によって分割される。
以下の表15に示すコンフュージョンマトリックス及び図15の正確度ボックスプロットは、アタッチメントバイアスの潜在的影響を示すために、試料毎処理を有する個別ランダムフォレスト分類のアタッチメント依存の肌接触センサ感度に対する修正を行わない場合の影響を示す。したがって、MLMは、肌接触測定信号がアタッチメント間の肌接触センサ変動性に対して修正が行われない学習データを使用して訓練され、検証は、同様にして未修正の肌接触測定信号を用いて実行される。
Figure 2022545073000016
表15及び図15に示す結果と表8及び図12に示す結果(修正済み肌接触測定信号を使用)との比較は、全体的な分類パフォーマンスがあまり影響を受けないことを示す。
上述したように、決定木を視覚化することによってランダムフォレストモデルの作動原理に対する洞察を得ることが可能である。図16及び図17は、肌接触センサ14、16及び肌色センサ18からの測定信号に基づく個別ランダムフォレストモデルのための決定木のうちの1つの上記のような視覚化を示す。図16の例示の決定木は異なるアタッチメントの使用に起因するセンサ反応の変動が修正されない肌接触測定信号に基づく一方、図17の例示の決定木は、異なるアタッチメントの使用に起因するセンサ反応の変動が修正された肌接触測定信号に基づく。各決定木は、決定ノードと、分類器決定を行うために使用される対応特徴及び特徴値とを含む。したがって、各ノードは、どの測定信号が決定ノードの一部として評価されるかを示すために測定信号(すなわち、SDS1、SDS2、STSRed、STSIR、又はSTSS)と、次のノードに続く特定の分岐のための特徴値又は条件とが表記される。例えば、図16の第1のノードの場合、SDS1が評価され、値が77.50よりも大きい場合、右への分岐が行われ、値が77.50以下の場合、左への分岐が行われる。図16及び図17において、各身体部位クラス(すなわち、腕、脚、腹-ビキニなど)の決定木を通るフローは、それぞれの灰色のそれぞれの濃淡によって表される。
図16に示すように、第1の決定(木の最上部)は、SDS1信号に基づいて行われる。この決定は、主に、腕、脚、及び腹-ビキニのクラス(主に決定木の右手側を下方に進む)を、ビキニライン、顔、及び腋窩のクラス(主に決定木の左手側を下方に進む)から分離する。第1の決定ノードの後、さらなる分類はSTS信号に主に基づくことがわかる。
図17の肌接触測定信号のアタッチメント修正を有する場合、決定ノードの第1の「層」から、分類が主に肌色測定信号(STSRed、STSIR、及びSTSS)に基づくことがわかる。
したがって、両方の例において、ランダムフォレストモデルは、基本的に、肌接触測定信号に基づいて身体部位を特定することがわかる。
図18のフローチャートは、ハンドヘルドデバイス2、32が使用されている身体部位を特定するための、本明細書に記載の技法による例示の方法を示す。この方法のステップのうちの1つ又は複数のステップは、必要に応じて、装置44のメモリ部48及びインターフェースサーキットリー50、及び/又は1つ又は複数のセンサ52のいずれかとともに、装置44の処理部46によって実行されることが可能である。処理部46は、例えば、メモリ部48などのコンピュータ可読媒体上に格納され得るコンピュータプログラムコードの実行に応答して1つ又は複数のステップを実行する。
ステップ201において、処理部44は、1つ又は複数のセンサ52のそれぞれから各測定信号を取得する。上述したように、各センサ52は、ハンドヘルドデバイスが対象者の肌上で使用される時のそれぞれのパラメータを測定し、センサ52は、それぞれのパラメータの測定結果の時系列を含む測定信号を生成する。さらに上述したように、1つ又は複数のセンサは、肌接触センサ14、16、肌色センサ18、及び近接センサ34のうちの少なくとも1つを備える。
いくつかの実施形態では、1つ又は複数のセンサ52は、少なくとも肌接触センサ14、16を備える。いくつかの実施形態では、1つ又は複数のセンサ52は、少なくとも肌色センサ18を備える。いくつかの実施形態では、1つ又は複数のセンサ52は少なくとも近接センサ34を備える。いくつかの実施形態では、1つ又は複数のセンサ52は少なくとも1つの肌接触センサ14、16と、肌色センサ18とを備える。いくつかの実施形態では、1つ又は複数のセンサ52は、少なくとも1つの肌接触センサ 14、16と、肌色センサ18と、1つ又は複数の近接センサ34とを備える。いくつかの実施形態では、1つ又は複数のセンサ52は少なくとも複数の近接センサ34を備える。複数の近接センサ52は、各近接センサ34が、当該近接センサ34から、ヘッド部6が接触している肌と隣接する肌のそれぞれの部位までの距離を測定するように、ハンドヘルドデバイス2、32中又はハンドヘルドデバイス2、32上に配置され得る。
一例では、近接センサ34は、垂直共振器型面発光レーザ(VCSEL)センサを備える。VCSELセンサは、知られており、特に、距離及び速度の測定のために使用される。VCSELセンサは、例えば、スマートフォン、及び例えばハイエンド光学コンピュータマウスなどのコンピュータ入力デバイスにおいて適用される。距離測定は、パルスVCSELが光源として使用される飛行時間技法に基づくことが可能であり、距離はその光源による光パルス出射と、センサによる反射光の検出との間の時間から導出される。別の技法は、対象物から散乱して返ってくるコヒーレントなレーザ光子を有するVCSELレーザ共振器における干渉に依拠する自己混合干渉(SMI)である。VCSEL駆動電流の特定の変調によって、レーザのビーム方向における対象物の速度及び距離が判断可能である。上記で詳述したような身体部位検出のためのVCSELセンサによる距離測定の使用に加えて、VCSELセンサの出力信号は、ユーザの肌に関するハンドヘルドデバイス2、32の変位の測定のためにも使用されることが可能である。この変位測定は、処置の網羅範囲を改善し、処置スポットを見失うことを最小限にするために、処置中にユーザに対する案内を可能にする。変位測定の場合、VCSELセンサは、通常、ハンドヘルドデバイス2、32の処置ウィンドウに平行な平面における(準)2Dモーションが最適に検出されるようにされている必要がある。したがって、VCSELセンサの使用は、身体部位検出と変位測定との両方を可能にするために単一の種類のセンサのみの使用を可能にする。
ステップ201で得られた各測定信号は、時間ウィンドウ中の対象者に関係する複数の測定結果を含む。ステップ201において、処理部46は、それぞれのセンサ52から直接的、又はそれぞれのセンサ52から間接的に(例えばインターフェースサーキットリー50及びインターフェースサーキットリー54を介して)測定信号を取得することができる。これらの実施形態では、処理部46は、リアルタイムでハンドヘルドデバイス2、32が接触している身体部位を特定するために、受信時に(例えばリアルタイム又はほぼリアルタイムで)測定信号又は測定試料を処理することができる。若しくは、測定信号は、事前に取得されてメモリ部48に格納しておいてもよく、その場合、ステップ201において、処理部46はメモリ部48から測定信号を取り出すことができる。
ステップ203において、処理部46は、ハンドヘルドデバイス2、32が使用された対象者の身体部位を特定するために、学習済みMLMを使用してステップ201で取得された1つ又は複数の測定信号を解析する。この学習済みMLMは、身体部位を特定するために、取得された1つ又は複数の測定信号のそれぞれの時間ウィンドウの複数の測定結果を解析するように構成される。
ステップ205において、処理部46は特定された身体部位の標示を出力する。例えば、処理部46は、特定された身体部位の識別情報を出力できる。特定された身体部位の標示は、処理部46により、ユーザインターフェースを介して、例えばユーザ又は対象者に対して出力されることが可能であり、及び/又は特定された身体部位の標示は、信号の形態で、インターフェースサーキットリー50を介して、コンピュータ、ラップトップコンピュータ、サーバなどの別の電子デバイス又は装置へ、又はハンドヘルドデバイス2、32へも処理部46によって出力されることが可能である。ハンドヘルドデバイス2、32へ出力される場合、ハンドヘルドデバイス2、32は、毛髪を切る長さ/剃る長さ、光パルス強度など、ハンドヘルドデバイス2、32の動作パラメータを調節するために、身体部位の識別情報を使用する。
様々な実施形態では、学習済みMLMは、ロジスティック回帰モデル、サポートベクターマシン、ランダムフォレスト、単純ベイズ分類器、最近傍分類器、決定木分類器、人工ニューラルネットワーク、又はこの組み合わせでもあり得る。
MLMによって特定可能な身体部位は、そのMLMを訓練するために使用された情報(学習データ)に依存することが理解されるであろう。一例として、MLMは、対象者の身体部位を、足、脚、下腿、上腿、腹、胴、胸、背中、手、腕、前腕、上腕、腋窩、肩、首、顔、上唇、頭皮、又は頭のいずれかとして特定できる。別の例として、学習データが足、脚、腕、腹、頭に関する注釈を含む場合、MLMはそれらの身体部位のうちの1つを示す出力の提供のみ可能である。
ステップ203は、ハンドヘルドデバイス2、32が接触している身体部位のさらなる標示を提供するために反復され得る。ステップ203の反復は、ステップ201(この場合、ステップ201は反復されない)で得られた測定信号のさらなる測定試料に基づくことができ、又はステップ203は新規の測定結果(例えば新規に取得された測定信号、又はステップ201の反復後に新規で取得された測定試料)に基づくことができる。
いくつかの実施形態では、ステップ203は、取得された測定信号の測定結果(測定試料)毎に反復されることが可能であり、それによってMLMは測定結果(測定試料)毎の身体部位の標示を提供する。1つ又は複数のセンサ52が少なくとも肌接触センサ14、16を備える実施形態では、学習済みMLMは、肌接触があることを肌接触センサ14、16からの測定信号が示す場合、例えば肌接触センサ14、16によって測定されたパラメータの大きさが閾値を上回っている場合に、身体部位を特定するためにのみ使用される。その場合、ステップ203は、肌接触がある場合にのみ実行され、又は、肌接触がある場合に測定信号がMLMに入力のみされる。
他の実施形態では、ステップ203(及びステップ203の反復)において、学習済みMLMは、測定信号の時間的解析に基づいて対象者の身体部位を特定できる。これらの実施形態では、測定信号それぞれの一部(一部は、測定信号毎の1つの測定試料よりも多い)がMLMに入力されることが可能であり、MLMはその一部における測定試料に対して動作する。その一部は、スライディングウィンドウを各測定信号に適用することによって決定されることが可能であり、そのウィンドウの測定結果(測定試料)はMLMに入力される。MLMは、MLMに入力された測定結果のセット毎に特定された身体部位の標示を出力する。ステップ203の反復のため、MLMに入力される測定試料の新規セットを特定するために、スライディングウィンドウは測定信号を横切って移動される(例えば1つ又は複数の試料に沿って移動される)。
上記の実施形態において、各測定信号の一部は、MLMに直接入力され得る。代替の実施形態では、その一部は、1つ又は複数の特徴の値を決定するために解析されることが可能であり、それらの特徴値は、ステップ203でMLMに入力される。特徴は、センサ52によって測定されたパラメータの平均値、センサ52毎の測定パラメータの標準偏差、及び/又はスライディングウィンドウ中の測定試料からそれぞれ決定されたパラメータの統計学的特性に関連する他の特徴であることが可能である。
ステップ203が特定された身体部位を示す一連の出力を提供するように反復される実施形態では、その出力は身体部位特定の正確度を改善するために「平滑化され」、すなわちスプリアス身体部位特定がフィルタリングされて除去されることが可能である。したがって、いくつかの実施形態では、出力のセットにおいて最も頻繁に発生する身体部位として、最終的な出力特定身体部位を決定するために、MLMから一連の出力に対してモードフィルタが適用可能である。いくつかの実施形態では、出力のセットに対してスライディングウィンドウが適用可能であり、ウィンドウの出力に対してモードフィルタが適用可能である。
いくつかの実施形態では、MLMは、1つ又は複数のセンサ52からの測定信号と、ハンドヘルドデバイス2、32が使用された身体部位を示す測定信号の注釈(確認)とを利用することによって、対象者に合わせてカスタマイズ又は校正されることが可能である。MLMは、注釈/確認及び測定信号の関連部分に基づいて更新(訓練)されることが可能である。
ハンドヘルドデバイス2、32のヘッド部6が取り外し可能なヘッド部のセットから選択可能な実施形態では、上記方法は、パーソナルケア動作中にハンドヘルドデバイス2、32で使用された取り外し可能なヘッド部の標示を取得することをさらに有することが可能であり、身体部位を特定するために測定信号を解析する際に、この標示が考慮されることが可能である。例えば、センサ52のパフォーマンスが取り外し可能なヘッド部間で変動する場合、センサ52からの測定信号が解析のためにMLMに与えられる前に、その変動が修正可能である。若しくは、MLMは、入力として取り外し可能なヘッド部の識別情報を用いて訓練され、したがって、取り外し可能なヘッド部の識別情報の標示は、ステップ203において測定信号とともにMLMに入力されることが可能である。別の代替例として、身体部位を示すMLMの出力は、ハンドヘルドデバイス2、32で使用されている取り外し可能なヘッド部のタイプと比較され得る。一致がある場合、これは特定された身体部位が正しいという高い信頼度を実現可能である。ただし、不一致がある場合(例えば、腋窩アタッチメントが使用されているが、MLMによって特定された身体部位が顔である場合)、これが示されることが可能である。いくつかの場合では、この不一致は、ユーザが誤ったアタッチメントをハンドヘルドデバイス2、32に取り付けたことに起因し、正しいアタッチメントがユーザ又は対象者に示されることが可能である。
1つ又は複数のセンサ52が肌接触センサ14、16と、肌色センサ18及び近接センサ34のうちの少なくとも1つとを備える実施形態では、ステップ203は、ハンドヘルドデバイス2、32が肌に接触している接触時間を特定するために、肌接触センサ14、16からの測定信号を解析することを有することが可能である。ハンドヘルドデバイス2、32が身体部位間で移動された時に、ハンドヘルドデバイス2、32は身体から持ち上げられ、したがって、肌接触の連続的な喪失の間で、ハンドヘルドデバイス2、32が同一の身体部位が使用されることが仮定され得る。その場合、ステップ203は、特定された接触時間における単一の身体部位を特定するために、MLMがその接触時間における肌色センサ18及び/又は近接センサ34からの測定信号を解析することを有することが可能である。いくつかの実施形態では、接触時間は、ハンドヘルドデバイス2、32が肌と継続的に接触している時間として特定されることが可能である。若しくは、接触時間は、接触の短い喪失(例えば閾値時間量未満の喪失、例えば1秒又は2秒未満の喪失)があるものの、ハンドヘルドデバイス2、32が肌と継続的に接触している時間として特定されることが可能である。具体的には、接触時間は、複数の時間にわたるとして特定されることが可能であり、その複数の時間のそれぞれにおいて、ハンドヘルドデバイス2、32は肌と継続的に接触しており、時間の連続した各対の間の時間間隔は閾値時間量未満である。
光パルスを使用することによってハンドヘルドデバイス2、32がパーソナルケア動作を実行する実施形態において、身体部位特定を改善するために、身体部位に印加された光パルスの数は、MLMによって記録及び使用されることが可能である。特に、脚、腋窩、上唇、腕、及びビキニラインなどの身体部位は異なる表面領域を有し、それによって処置するために異なる量の光パルスを必要とし、したがって光パルスの数は、身体部位の指標としてMLMによって使用可能である。
特定された身体部位に関する情報は、多くの異なる手法で使用されることが可能である。いくつかの例を以下に示す。
パーソナルケア動作は定期的に反復される必要があり、処置された身体部位に関する情報は、特定の身体部位を再度処置する際にスケジュールを設定し、及び/又は対象者に思い出させるために使用されることが可能であり、後続して処置された身体部位に関する情報は、そのスケジュールを更新するために使用可能である。
例えばパーソナルケア動作中の身体部位の低網羅度に起因する最適以下の処置結果は、ハンドヘルドデバイス2、32に対する対象者の満足度に悪影響を与え得る。特定された身体部位と、その身体部位に印加された光パルスの数または身体部位の処置のために費やされた時間などの他の情報とに基づいて、身体部位の網羅度に関して対象者及び/又はユーザにフィードバックを提供することが可能である。これは、ハンドヘルドデバイス2、32が正しく使用されているという安心感を対象者に与え、又は身体部位がある程度の時間処置される必要があることを示す。
したがって、ハンドヘルドデバイスが使用されている身体部位の特定において改善が実現される。
図面、本開示、及び添付の特許請求の範囲の熟慮により、本明細書に記載の原理及び技法を実践する上で、本開示の実施形態の変形は当業者によって理解され、実現されることが可能である。請求項において、「備える」という語は、他の要素又はステップを排除せず、単数形は、複数性を排除しない。単一のプロセッサ又は他のユニットは、請求項に記載されるいくつかの要素の機能を果たす。特定の手段が互いに異なる従属項に記載されているという事実だけで、それらの手段の組み合わせが効果的に使用されることができないことを示すものではない。コンピュータプログラムは、他のハードウェアとともに、又はその一部として供給される光学格納媒体又はソリッドステート媒体などの適切な媒体上に格納又は分散されてもよいが、さらにインターネット又は他の有線又は無線通信システムを介するなど、他の形態で分散されてもよい。請求項におけるあらゆる参照番号は、範囲を限定すると解釈されるべきではない。

Claims (15)

  1. 対象者に対してパーソナルケア動作を実行するハンドヘルドデバイスが使用された対象者の身体部位を特定するコンピュータ実施方法であって、前記ハンドヘルドデバイスは前記パーソナルケア動作中に前記対象者の肌に接触するヘッド部を備え、前記ハンドヘルドデバイスは、それぞれのパラメータを測定し前記ハンドヘルドデバイスが前記対象者の前記肌に使用された時にそれぞれの測定信号を生成するための1つ又は複数のセンサをさらに備え、前記1つ又は複数のセンサは、
    (a)前記ヘッド部が肌に接触しているかを示すパラメータを測定する肌接触センサと、
    (b)前記ヘッド部が接触している肌の肌色を示す、又は前記ヘッド部が接触している肌に隣接する肌の肌色を示すパラメータを測定する肌色センサと、
    (c)近接センサから前記ヘッド部が接触している肌に隣接する肌までの距離を示すパラメータを測定する当該近接センサと
    のうちの少なくとも1つを備え、
    前記方法は、
    前記1つ又は複数のセンサのそれぞれから各測定信号を取得するステップであって、各測定信号は、前記ハンドヘルドデバイスが前記対象者の肌に使用された時、前記それぞれのパラメータの測定結果の時系列を含む、ステップと、
    前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、学習済み機械学習モデル(MLM)を使用して、取得された前記1つ又は複数の測定信号を解析するステップであって、前記学習済みMLMは、前記身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれの時間ウィンドウにおける複数の測定結果を解析する、ステップと、
    特定された前記身体部位の標示を出力するステップと
    を有する、方法。
  2. 前記学習済みMLMは、前記測定結果に対応する身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれにおける測定結果を解析する、請求項1に記載の方法。
  3. 特定された身体部位を示す一連の出力を提供するために、前記1つ又は複数の測定信号における後続の測定結果に対して、前記解析するステップを反復するステップと、
    前記ハンドヘルドデバイスが使用された身体部位を示す最終的な出力を決定するために、前記一連の出力に対してフィルタを適用するステップと
    をさらに有する、請求項1又は2に記載の方法。
  4. 第1の時間において前記ハンドヘルドデバイスが使用された前記対象者の身体部位に関するユーザからの確認を受信するステップと、
    受信された前記確認と、前記第1の時間に対応する、取得された前記1つ又は複数の測定信号の一部とに基づいて前記学習済みMLMを更新するステップと
    をさらに有する、請求項1から3のいずれか一項に記載の方法。
  5. 前記ハンドヘルドデバイスの前記ヘッド部は、取り外し可能なヘッド部のセットから選択され、前記セットの各ヘッド部は、それぞれの身体部位との使用のためのものであり、前記方法は、前記パーソナルケア動作中に前記ハンドヘルドデバイスで使用される前記取り外し可能なヘッド部の標示を取得するステップをさらに有し、前記学習済みMLMは、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、取得された前記1つ又は複数の測定信号とともに、取得された前記標示をさらに解析する、請求項1から4のいずれか一項に記載の方法。
  6. 前記1つ又は複数のセンサは、肌接触センサと、肌色センサ及び近接センサのうちの少なくとも1つとを備え、前記解析するステップは、
    前記ハンドヘルドデバイスが前記肌に接触している接触時間を特定するために、前記肌接触センサからの前記測定信号を解析するステップと、
    特定された前記接触時間に、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、前記学習済みMLMを使用して特定された前記接触時間の、前記肌色センサ及び前記近接センサのうちの前記少なくとも1つからの取得された前記1つ又は複数の測定信号を解析するステップと
    を有する、請求項1から5のいずれか一項に記載の方法。
  7. 具現化されたコンピュータ可読コードを有するコンピュータ可読媒体であって、前記コンピュータ可読コードは、適切なコンピュータ又は処理部による実行時に、前記コンピュータ又は処理部に請求項1から6のいずれか一項に記載の方法を実行させるように構成される、コンピュータ可読媒体。
  8. 対象者に対してパーソナルケア動作を実行するためのハンドヘルドデバイスと、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するための装置とを備えるシステムであって、前記ハンドヘルドデバイスは前記パーソナルケア動作中に前記対象者の肌に接触するためのヘッド部を備え、前記ハンドヘルドデバイスは、それぞれのパラメータを測定し前記ハンドヘルドデバイスが前記対象者の前記肌に使用された時にそれぞれの測定信号を生成するための1つ又は複数のセンサをさらに備え、前記1つ又は複数のセンサは、
    (a)前記ヘッド部が肌に接触しているかを示すパラメータを測定する肌接触センサと、
    (b)前記ヘッド部が接触している肌の肌色を示す、又は前記ヘッド部が接触している肌に隣接する肌の肌色を示すパラメータを測定する肌色センサと、
    (c)近接センサから前記ヘッド部が接触している肌に隣接する肌までの距離を示すパラメータを測定する当該近接センサと
    のうちの少なくとも1つを備え、
    前記装置は、
    前記1つ又は複数のセンサのそれぞれから各測定信号を取得することであって、各測定信号は、前記ハンドヘルドデバイスが前記対象者の肌に使用された時、前記それぞれのパラメータの測定結果の時系列を含む、取得することと、
    前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、学習済み機械学習モデル(MLM)を使用して、取得された前記1つ又は複数の測定信号を解析することであって、前記学習済みMLMは、前記身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれの時間ウィンドウにおける複数の測定結果を解析するように構成される、解析することと、
    特定された前記身体部位の標示を出力することと
    を行う処理部を備える、システム。
  9. 前記学習済みMLMは、前記測定結果に対応する身体部位を特定するために、取得された前記1つ又は複数の測定信号のそれぞれにおける測定結果を解析する、請求項8に記載のシステム。
  10. 前記処理部は、
    前記特定された身体部位を示す一連の出力を提供するために、前記1つ又は複数の測定信号における後続の測定結果に対して前記解析を反復し、
    前記ハンドヘルドデバイスが使用された身体部位を示す最終的な出力を決定するために、前記一連の出力に対してフィルタを適用する、
    請求項8から9のいずれか一項に記載のシステム。
  11. 前記処理部は、
    第1の時間において前記ハンドヘルドデバイスが使用された前記対象者の身体部位に関するユーザからの確認を受信し、
    受信された前記確認と、前記第1の時間に対応する、取得された前記1つ又は複数の測定信号の一部とに基づいて前記学習済みMLMを更新する、
    請求項8から10のいずれか一項に記載のシステム。
  12. 前記ハンドヘルドデバイスの前記ヘッド部は、取り外し可能なヘッド部のセットから選択され、前記セットの各ヘッド部は、それぞれの身体部位との使用のためのものであり、前記処理部は、前記パーソナルケア動作中に前記ハンドヘルドデバイスで使用される前記取り外し可能なヘッド部の標示を取得し、前記処理部は、前記ハンドヘルドデバイスが使用された前記対象者の身体部位を特定するために、前記学習済みMLMを使用して、取得された前記1つ又は複数の測定信号とともに、取得された前記標示を解析する、請求項8から11のいずれか一項に記載のシステム。
  13. 前記ハンドヘルドデバイスが、前記身体部位を特定するための前記装置を備える、請求項8から12のいずれか一項に記載のシステム。
  14. 前記身体部位を特定するための前記装置が前記ハンドヘルドデバイスから分離されている、請求項8から12のいずれか一項に記載のシステム。
  15. 前記近接センサが、垂直共振器型面発光レーザ(VCSEL)センサを備える、請求項8から14のいずれか一項に記載のシステム。
JP2022510125A 2019-08-20 2020-08-17 身体部位の特定 Pending JP2022545073A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19192688.0A EP3782536A1 (en) 2019-08-20 2019-08-20 Identifying a body part
EP19192688.0 2019-08-20
PCT/EP2020/072985 WO2021032670A1 (en) 2019-08-20 2020-08-17 Identifying a body part

Publications (1)

Publication Number Publication Date
JP2022545073A true JP2022545073A (ja) 2022-10-25

Family

ID=67659543

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022510125A Pending JP2022545073A (ja) 2019-08-20 2020-08-17 身体部位の特定

Country Status (8)

Country Link
US (1) US20220280119A1 (ja)
EP (2) EP3782536A1 (ja)
JP (1) JP2022545073A (ja)
KR (1) KR20220052338A (ja)
CN (1) CN114258282A (ja)
BR (1) BR112022003249A2 (ja)
MX (1) MX2022002027A (ja)
WO (1) WO2021032670A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114521956B (zh) * 2021-12-31 2023-12-19 广州星际悦动股份有限公司 基于肤色控制输出能量的方法、装置、介质,及脱毛仪

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5733032B2 (ja) * 2011-06-06 2015-06-10 ソニー株式会社 画像処理装置および方法、画像処理システム、プログラム、および、記録媒体
EP3363606A1 (en) * 2017-02-20 2018-08-22 Koninklijke Philips N.V. Operatig a personal care device

Also Published As

Publication number Publication date
WO2021032670A1 (en) 2021-02-25
MX2022002027A (es) 2022-03-11
KR20220052338A (ko) 2022-04-27
US20220280119A1 (en) 2022-09-08
CN114258282A (zh) 2022-03-29
BR112022003249A2 (pt) 2022-05-17
EP3782536A1 (en) 2021-02-24
EP4017342A1 (en) 2022-06-29

Similar Documents

Publication Publication Date Title
US10045820B2 (en) Internet connected dermatological devices and systems
KR102605896B1 (ko) 생체정보 검출을 위한 특징 추출 장치 및 방법과, 생체정보 검출 장치 및 웨어러블 기기
CN112584788B (zh) 用于在皮肤上执行处理操作的手持设备
CN216124549U (zh) 被配置为在受试者的皮肤上执行个人护理操作的系统
CN110312598B (zh) 操作个人护理设备
EP4076641B1 (en) Treatment device and method
CN115668387A (zh) 用于为美容皮肤处理单元确定最佳操作参数集的方法和系统
EP3842002A1 (en) Providing feedback on a treatment operation performed on a body part of a subject
KR20210014305A (ko) 생체정보 추정 장치 및 방법
JP2022545073A (ja) 身体部位の特定
CN110251081B (zh) 照射参数处理方法、装置、系统及计算机可读存储介质
EP3815601A1 (en) Evaluating skin
EP4031048B1 (en) Determining whether hairs on an area of skin have been treated with a light pulse
EP4193950A1 (en) Light treatment device for treating skin
US11969232B2 (en) Apparatus and method for estimating bio-information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240520