JP2020516325A - ヒトケラチン物質の状態について使用者に知らせるための方法 - Google Patents

ヒトケラチン物質の状態について使用者に知らせるための方法 Download PDF

Info

Publication number
JP2020516325A
JP2020516325A JP2019522755A JP2019522755A JP2020516325A JP 2020516325 A JP2020516325 A JP 2020516325A JP 2019522755 A JP2019522755 A JP 2019522755A JP 2019522755 A JP2019522755 A JP 2019522755A JP 2020516325 A JP2020516325 A JP 2020516325A
Authority
JP
Japan
Prior art keywords
skin
data
hair
generating
user signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019522755A
Other languages
English (en)
Inventor
麻利子 野村
麻利子 野村
明子 上郡
明子 上郡
ダミアン・ヴァルマン
フレデリック・フラモン
祐昭 井出
祐昭 井出
このみ 一色
このみ 一色
文久 田中
文久 田中
咲恵 浦上
咲恵 浦上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LOreal SA
Original Assignee
LOreal SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=60331574&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2020516325(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by LOreal SA filed Critical LOreal SA
Publication of JP2020516325A publication Critical patent/JP2020516325A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/448Hair evaluation, e.g. for hair disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • A61B5/7415Sound rendering of measured values, e.g. by pitch or volume variation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7455Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Dermatology (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

ヒトケラチン物質、特に皮膚または毛髪の状態について使用者に知らせるための方法であって、a)測定デバイスを介して評価中の領域についての測定データを取得するステップと、b)測定データを整形して整形データを取得するステップと、c)好ましくはリアルタイムで、整形データに基づき音声および/または触覚の使用者信号を生成するステップであって、使用者信号の周波数は前記整形データに依存する、ステップとを含む方法。

Description

本発明はヒトケラチン物質、より具体的には皮膚および毛髪を評価し、かつ前記物質の状態について使用者に知らせるための方法および装置に関する。
ケラチン基質の物理的評価は年月とともにますます正確に、複雑になり、複数分野(民俗学、環境など)における分析が行われ、療法の純粋な全体的効果が説明され、これにより主張が裏付けされている。顔全体の皮膚または毛髪に対する影響について、厳密かつ全体的な結論を出すため、いくつかの寸法の組合せが必須となることが非常に多い。
局所的に適用された製品の効果の評価において、これらすべての技法(科学的専門知識を伴う)により得られた結果は、たいていの場合、法的主張の実証に必要な部分、すなわちしばしば市場に出す権利を制限する公式調査書類を構成している。しかしながら、これらの技法はその複雑さを増していることに加え、多くの人々の科学的知識レベルが不十分あるいは低いことにより、社会全体(化粧品の消費者または皮膚科の患者)に対する情報伝達が非常に困難なままである。
米国特許出願公開第2015/0201889号では、脳のスキャン結果を解釈するためのソニフィケーションの利用法を説明している。音声は検査、分析、診断のための相補的ツールとして機能する。
特開2012-226472では、主に信号処理の手法を用いて、音声により対象物の特徴を識別する方法および装置を説明している。
米国特許第8,440,902号は、多次元的数値データを、複数の音質可変チャネルを介して可聴周波数の波形で表すための方法に関する。使用者はこの可聴周波数の波形を音声として認識する。
したがって、皮膚、毛髪、または他のヒトケラチン物質の状態の評価結果に対する使用者の認識をさらに向上、促進することが必要とされている。
米国特許出願公開第2015/0201889号 特開2012-226472 米国特許第8,440,902号
第1の態様によれば、本発明は、ヒトケラチン物質、特に皮膚または毛髪の状態について使用者に知らせるための方法であって、
a)測定デバイスを介して評価中の領域についての測定データを取得するステップと、
b)測定データを整形して整形データを取得するステップと、
c)好ましくはリアルタイムで、整形データに基づき音声および/または触覚の使用者信号を生成するステップであって、使用者信号の周波数は前記整形データに依存する、ステップと
を含む方法に関する。
本発明のおかげで使用者によって認識しやすい知覚信号が生成される。
これにより、皮膚科学および美容の分野における消費者体験を転換し、向上することができる。さらに、使用者に効果の表れや診断結果を伝達しやすくなり、個別化および潜在性指導が拡大する。
あらゆる種類の客観的評価、または物理データ(たとえば皮膚のしわまたは毛穴の粗さ、毛髪表面の損傷、皮膚および毛髪の艶、皮膚および毛髪の色の不均一性、皮膚および頭皮の炎症、皮膚または毛髪の構造変化、皮膚の含水量、毛髪の多孔性など)を、スマートフォンなどのすべてのデジタルサポートにおいて提供され得る選択された動的知覚方法(連続音、動く画像、触覚振動など)で変換可能にすることは、消費者に診断や美容処置の効率性を理解し、感じ取ってもらうことによって消費者体験を個別化する手段である。
測定データの整形は測定データのフィルタリング、好ましくは低域または高域フィルタによるフィルタリングを含んでもよい。測定データから使用者信号生成に適した整形データを生成するために他のあらゆるフィルタリング技法を用いてもよい。たとえば、高域または低域フィルタ、帯域消去または通過フィルタ、オフセットなどである。
使用する測定デバイスによっては、測定デバイスによって生成されたデータがすでに整形データであってもなくてもよい。
整形は使用者信号生成に役立つあらゆる所望の変換、たとえば空間の時間領域への変換も含んでよい。これは使用者の音声信号が整形データに基づきリアルタイムで直接生成される場合に特に役立つことがわかるであろう。
整形は測定データと参照データの比較に基づくデータの生成を含んでもよく、たとえば整形データは参照データとの比較に基づく様々な既定形式または内容を含む。参照データは様々な状態の程度、たとえば毛髪表面の損傷の程度に関係してよい。
整形は、音声または触覚の使用者信号を生成するために用いるデバイス、たとえば触覚型デバイスへの、フィルタ処理された測定データの適合に基づくデータ生成を含んでもよい。たとえば、フィルタ処理された測定データは振動曲線の形式をとる。これらの曲線は触覚型デバイスへ適合するように調整および/またはオフセットされる。触覚の使用者信号はこの適合に基づいて生成される。
測定データは皮膚の状態を測定するように構成された測定デバイスによって生成されてよい。
そのような皮膚の状態は、特に、皮膚の粗さ、皮膚のしわまたは毛穴の粗さの程度、皮膚の艶、皮膚の色の不均一性、皮膚または頭皮の炎症、皮膚の構造変化、皮膚の含水量、皮膚の色、経表皮水分蒸散量、皮膚の水和度、皮膚の色素沈着、皮膚の弾力性、皮膚の構造の中から選ばれてよい。
測定デバイスはまた、毛髪の状態に関する測定データを生成するように構成されてもよい。
そのような毛髪の状態は、毛髪表面の損傷、毛髪の艶、毛髪の色の不均一性、毛髪の構造変化、毛髪の多孔性、毛髪の構造、毛髪の摩擦係数の中から選ばれてよい。
本発明は、皮膚または毛髪の評価に限定されるものではなく、唇や爪などの他のヒトケラチン物質にも適用される。
好ましくは、使用者信号は、音楽変換に基づき生成された音声配列、たとえば音声生成を含む音声信号である。
言い換えれば、使用者信号は、好ましくは使用者が評価中のケラチン物質の様々な状態を識別しやすくする音声配列である。
方法は評価中のケラチン物質の状態のそれぞれの程度に依存する様々な音声配列を備える使用者信号を生成するステップを含んでよい。使用者信号は、測定デバイスが作動されるのと同時に、リアルタイムで生成されてよい。
たとえば、状態は毛髪への損傷レベルであり、音声配列は損傷レベルに依存した様々な高さ、振幅、包絡線、および/または音質の音声を含む。
したがって、高さ、振幅、包絡線、および/または音質の変動は、整形データと参照データの比較結果に基づいて生じてよい。
使用者信号は音符および好ましくはメロディを含んでよい。
変形において、音声または触覚の使用者信号は信号変換、たとえば空間から時間および周波数領域への変換により生成される。これにより、空間領域におけるデータのプロファイルに依存する音声を簡単に生成することができる。
方法は、整形データ、たとえば整形データから生成される音声に基づき、スペクトログラムを生成するステップを含んでよく、スペクトログラムに基づき音声および/または触覚の使用者信号を生成するステップを含んでよい。
音声または触覚の使用者信号はカスタマイズされた使用者プロファイルに基づき生成されてよい。方法は使用者選好、たとえば楽器の好みなどの収集を含んでよく、音声の使用者信号はこの使用者選好、たとえばこの楽器で演奏された音符に基づき生成されてよい。
さらに本発明は、上で定義された本発明による方法を実施するためのデバイスであって、
- ヒトケラチン物質に関する測定データを生成するための収集手段と、
- 測定データを処理し、整形データを生成するための処理手段と、
- 整形データに基づき、好ましくはリアルタイムで、音声および/または触覚の使用者信号を生成するための生成手段であって、使用者信号の周波数は整形データに依存する、生成手段と
を備えるデバイスを対象とする。
収集手段はヒトケラチン物質の状態、たとえば皮膚または毛髪の状態を測定するように構成されたあらゆる測定デバイスを備えてよい。
収集手段は、ヒトケラチン物質、たとえば皮膚または毛髪の一部に沿って動かされ、かつ測定デバイスと評価中の部分との間の相互作用に依存する測定データを生成するように構成されたデバイスを備えてよい。
測定デバイスは摩擦に対する感度が高く、ヒトケラチン物質のしわの程度、たとえば皮膚のしわの程度または毛髪の摩擦係数を表す情報を提供してよい。
測定デバイスは皮膚または毛髪に沿って測定デバイスをこすりつける間の圧力変化を捉えるセンサを備えてよい。これらの圧力変化の変動はいくつかの数学的変換を介して音楽などの使用者信号に変換されてよい。
測定デバイスは比色計、蒸発計、インピーダンスまたは容量測定センサ、強度測定デバイス、OCT(光干渉断層計)、および超音波デバイスの中から選ばれてよい。
処理手段は必要とされる動作を実行できるあらゆる電子回路であってよい。
処理手段は測定デバイス、または測定デバイスに結合された使用者デバイスの一部であり得、かつ使用者デバイスからデータを受け取る集積回路、たとえばマイクロプロセッサまたはマイクロコントローラを備えてよい。
たとえば、処理手段は、有線接続またはワイヤレス接続、たとえばブルートゥース(登録商標)、WiFiまたはLiFiのようなあらゆる接続手段を介して測定デバイスが接続されるパーソナルコンピュータである。
処理手段はまた、測定デバイスが接続される携帯電話も備えてよい。
生成手段は、処理手段がすでに音声および/または触覚の機能を持つ場合、処理手段とは別のデバイスまたは処理手段と同じデバイスであってよい。
たとえば、処理手段および生成手段は、測定デバイスに結合された同じ携帯電話で構成されている。
生成手段はまた、音声処理カードおよびスピーカを搭載したコンピュータであってもよい。
使用者信号が触覚信号である場合、信号は触覚型スクリーンを搭載した携帯電話により、触覚型スクリーンの振動機能を用いて生成されてよい。
触覚信号は、電気的振動、電気的誘引力、または電気的潤滑などのような、圧電素子を用いた触覚パターンを生成するように構成された適切なインターフェースによって生成されたあらゆる触覚信号であってよい。
さらに本発明は、美容処置の美容効果を評価するための方法であって、
a)上で定義された本発明の方法でヒトケラチン物質の状態の評価を実施するステップと、
b)美容処置を実施するステップと、
c)上で定義された本発明の方法で同一状態の評価を実施するステップと
を含む美容処置の効果を評価するための方法も対象とする。
ステップa)およびc)において、使用者は、好ましくはリアルタイムで、評価中の領域の状態を表す音声または触覚信号を受け取ってよい。
使用者は生成された使用者信号の中の差異を認識してよく、あらゆる助言または説明が自動的にまたは第三者によって使用者に与えられてよく、また処置の効果について使用者に示してよい。
美容処置は皮膚、毛髪、爪および/または唇の少なくとも一つに対する化粧品の塗布を含んでよい。
美容処置はまた、ケラチン物質の洗浄も含んでよい。
美容処置は測定デバイスとは異なるあらゆるデバイスを用いて実施されてよい。変形において、美容処置を実施するために使用されるデバイスはまた、測定機能を有し、測定データを生成することができる。
本発明のさらなる利点および特徴は、以下の本発明の非限定的な実施形態の説明に関して、および下記に説明する添付の図面に鑑みて現れ得る。
本発明による例示的方法のブロック図である。 測定生データを示すグラフである。 図2の生データのフィルタ処理後の整形データを示すグラフである。 摩擦係数データから音符分解への変換を示す図である。 データの音声配列を示す図である。 音声の使用者信号を生成するさらなるデータ配列を示す図である。 単純な音声信号としての摩擦データの表現を示す図である。 測定データの例の空間プロファイルを表す図である。 測定データの例の空間プロファイルを表す図である。 図8Aのデータの数学的変換後の時間領域におけるプロファイルを示す図である。 図8Bのデータの数学的変換後の時間領域におけるプロファイルを示す図である。 図9Aのデータのさらなる変換を示す図である。 図9Bのデータのさらなる変換を示す図である。 人間が認識できる音響信号を生成するための図10Aのデータの最終変換を示す図である。 人間が認識できる音響信号を生成するための図10Bのデータの最終変換を示す図である。 測定データの触覚の使用者信号への変換の例のフローチャートである。
本発明による方法は図1に図示したような、皮膚または毛髪のようなケラチン物質の領域についての測定データを測定デバイスを介して取得するステップ10を含む。
測定デバイスはたとえば毛髪に対してこすりつけられるように構成され、たとえば高感度触覚型プローブ(HRT、株式会社トリニティラボ、東京都)の下で利用可能である。
そのようなデバイスは、デバイスが毛髪の軸に沿ってこすりつけられた場合、図2に図示したような測定生データを生成する。
本発明による方法は、測定データを、ステップ30にてさらに処理して音声および/または触覚の使用者信号を生成することができる適切な整形データへと整形するステップ20をさらに含む。
図2の生データの例においては、整形するステップ20はノイズをフィルタリングで除去するための高域フィルタを含んでよい。10msごとのレートでサンプリングされた生データは、たとえば、125msごとのレートでピーク点を取る。高域フィルタのおかげで、それぞれの2つの隣接する点の間の値が移動平均で平滑化され、図3に示すようにフィルタ処理されたデータが得られる。
生成するステップ30は図4に図示したようにフィルタ処理済みデータから音階分解への第1の変換を含んでよい。この変換は、一例においては、マッピングの中で、毛髪繊維に対して同定された摩擦の最大値と最小値との間の88のキーで構成されてよい。摩擦の最大および最小値は、ヘアトリートメントを施した後の高度に損傷した毛髪および自然の毛髪の摩擦値に基づき同定される。
このステップにおいて、125msごとに求められ、マッピングされた音符からなる音声が生成されてもよい。したがって、データの各ピークが88のキーの一つに対応する。
好ましくは、音符変換は聴くことが困難なほど過度に広い音域を生成し得る過度に高いピッチを回避するために行われる。
変換は低すぎて聞きづらいまたは使用者に悪いイメージを与える音の生成を回避してもよい。同時に、変換はノイズの多い音声や、使用者の不快感を回避するように行われる。
生成するステップ30は音符の範囲を縮小した後、楽器および音量の選択をさらに含んでよい。
楽器の選択はたとえば音域によって事前に設定してもよい。好ましくは、楽器はカスタマイズされた使用者プロファイルに基づき選択される。したがって方法は、音声信号を生成する前に使用者選好の入力を含んでよい。使用者選好は好適な楽器に関係してよい。
音声はまた、ブランドの特徴に基づき生成されてもよい。たとえば、化粧品の広告に既定の楽器のメロディを使用する場合、このブランドの製品の販売時点で評価が行われ、音声の使用者信号は広告用の楽器と同じ楽器を用いて生成されてよい。
方法はまた、図5に図示したように、初めにマッピングされた88の音符の中の音符一式の選択をさらに含んでよい。選択の基準は各基質および測定方法のための特定のメロディを得ることである。
たとえば、図5は毛髪の摩擦に関係している。各音符の範囲は選択された音符の総量と最小および最大電位値との間で比例するよう固定される。
摩擦値が音符の範囲内にある場合、対応する音符が演奏される。
たとえば、様々な楽器で演奏された、あらかじめ録音された音符を含む音声データベースから、ピーク値および/または移動平均の値などに対応する音符が125msごとに演奏される。背景音楽を最終的な音声に追加することができ、その音量は調整可能である。
図6の例においては、毛髪の損傷は各損傷レベルに対応する4つのカテゴリにマッピングされ、音声は使用者に対応するカテゴリに基づき生成される。
したがって、図6上では、整形データが損傷レベル2の下限および損傷レベル3の上限の範囲内にある極値間で展開されるので、使用者は損傷レベル2および損傷レベル3の規定の音声に対応する音声を聴く。
音符変換は使用者に自身の毛髪の状態について知らせる好適な方法であるが、本発明の範囲を逸脱することなく、音符変換なしで音声の使用者信号を生成することが可能である。
たとえば、図7に図示したように、毛髪の摩擦係数の値は音声に変換され、音声の周波数は、周波数の特徴を見るためにFFTによってスペクトログラムとして示される。
図7の例においては、生成された音声は摩擦係数値に対応する2つの測定データに対し、下側の曲線で0.4程度、上側の曲線で0.5程度異なることがわかる。
数学的変換の別の例を図8A〜図10Bを参照して説明する。
図8Aおよび図8Bは皮膚表面のしわの程度を測定するために皮膚に対してこすりつけられた測定デバイスで得られたプロファイルを示す。プロファイルは指紋上で得られた縞の投影画像から抽出された実際の粗さプロファイルである。約18×14mmの皮膚領域が測定され、14μmの分解能で3次元取得によりプロファイルが得られる。
1000ピクセルの5つの並行プロファイルがプロットされ、各プロファイルの長さは14mmである。5つのプロファイルは連結されて70mmのプロファイルを形成する。
図8Aは第1の測定時間T0における測定データに対応し、図8Bは第2の測定時間T1における測定データに対応する。
図9Aおよび図9Bは、図8Aおよび図8Bの空間プロファイルを時間プロファイルに数学的変換した後のプロファイルに対応する。数学的変換の第1の部分は、補間を用いて十分な数の点を追加している。プロファイルは同じままであるが、高度なサンプリングができる。数学的変換の第2の部分はプロファイルの複製に関する。プロファイルの複製により擬似周波数が生じるが、下記に説明する「帯域消去フィルタ」のおかげで、この擬似周波数の問題は補正される。補間および複製の最後に、22KHzでサンプリングされたかなりの持続時間を有する信号が得られる(ここでは約10秒)。
図10Aおよび図10Bは、フーリエ変換によるさらなる数学的変換の後の図9Aおよび図9Bのデータに対応する。フーリエ変換の後、わずかな増幅を適用し、信号強度を改善してもよい。プロファイル複製が行われたときに導入された擬似周波数を除去するためにフィルタリングを適用してもよい。このさらなる数学的変換の目的は、測定により最も影響を受けるスペクトルの部分を分離することである。フィルタリングは帯域消去フィルタリングであってよい。
図11Aおよび図11Bは、20〜40Hzから20KHzの範囲の可聴信号への数学的変換の後の図10Aおよび図10Bの周波数成分に対応する。ここでの数学的変換は逆フーリエ変換である。
図11Aおよび図11Bは逆フーリエ変換後に得られる信号の一種を示す。逆フーリエ変換から修正された信号を取得した後、「.wav」形式の音声ファイルがエクスポートされる。
本発明は音声信号である使用者信号に限定されない。使用者信号は触覚信号であってもよい。
図12は触覚の使用者信号を生成するための方法を示す。この例における初期測定は毛髪表面に関係する。ステップ38における毛髪表面の事前3次元画像形成およびステップ39における表面プロファイルの計算に基づき、ステップ40において毛髪の粗さプロファイルが生成されてもよい。ステップ41におけるFFTまたはFWTのような数学的変換およびステップ42におけるフィルタ処理および/またはオフセット適用により、触覚型インターフェースのための振動曲線43が生成されてもよい。これらの曲線は、所望の触覚パターンを触覚型インターフェース上に生成できるように、適宜さらに適合されてもよい。触覚型インターフェースはスマートフォンの触覚スクリーンの一部であってよい。
本発明は開示した実施形態に限定されない。
特に、本発明は多様な測定デバイスおよびヒトケラチン物質の状態に適用される。
たとえば、本発明は比色計および皮膚の色の状態に適用することができる。皮膚の色は日光への曝露および古典的な脱色について明らかにするための重要な特徴である。
電子インターフェースにより、比色計から調べた皮膚の部位のL*およびa*の値(L*が高いほど皮膚は青白く、a*が高いほど皮膚は赤い)を抽出することができ、これらの値は数学的変換によりさらに音声に変換される。L*およびa*の値の変化(0から1、0から2もしくは3単位、またはそれ以上)のしきい値は都合に応じて固定してもよく、したがって使用者に、考えられる警告(日光への過度の曝露)として音声周波数の変化を検出し、聴かせることができる。
同様に、古典的な脱色法として局所的に適用されたコルチコイドの皮膚科学的副作用または化粧品の美白作用も音声に変換することができる。
さらに、本発明は日焼け防止にも使用することができる。本発明の方法と結合されたUVセンサは音声の使用者信号を生成し、日光に曝露された対象に対して皮膚の健康状態について警告するのに役立てることができる。このUVセンサは音声の使用者信号を生成するための携帯電話などの接続機器にさらに結合することができる。
本発明はさらに、蒸発計および皮膚の状態を表す経表皮水分蒸散量(TEWL)に適用できる。皮膚の最外層を流れる無感覚の水分の流れ(単位g/m2/hour)は音声で示すことができる。
本発明はさらに、
- インピーダンス測定センサおよび皮膚水和度の状態
- 強度測定デバイスおよび皮膚色素沈着の状態
- 生物物理学的記録デバイスおよび皮膚の弾性特性の状態
- 領域測定デバイス(顔、唇、毛髪)の全体状態および艶の状態
に適用できる。
10、20、30 ステップ

Claims (15)

  1. ヒトケラチン物質、特に皮膚または毛髪の状態について使用者に知らせるための方法であって、
    a)測定デバイスを介して評価中の領域についての測定データを取得するステップと、
    b)前記測定データを整形して整形データを取得するステップと、
    c)好ましくはリアルタイムで、前記整形データに基づき音声および/または触覚の使用者信号を生成するステップであって、前記使用者信号の周波数は前記整形データに依存する、ステップと
    を含む方法。
  2. 前記生成するステップはリアルタイムで行われる、請求項1に記載の方法。
  3. 前記整形することは前記測定データをフィルタリングすることを含む、請求項1または2に記載の方法。
  4. 前記整形することは測定データの参照データとの比較に基づきデータを生成することを含む、請求項1から3のいずれか一項に記載の方法。
  5. 前記測定データは皮膚の状態を測定するように構成された測定デバイスにより生成される、請求項1から4のいずれか一項に記載の方法。
  6. 前記皮膚の状態は、皮膚の粗さ、皮膚のしわまたは毛穴の粗さの度合い、皮膚の艶、皮膚の色の不均一性、皮膚または頭皮の炎症、皮膚の構造変化、皮膚の含水量、皮膚の色、経表皮水分蒸散量、皮膚の水和度、皮膚の色素沈着、皮膚の弾性特性、および皮膚の構造からなる群から選択される、請求項5に記載の方法。
  7. 前記測定デバイスは毛髪の状態に関係する測定データを生成するように構成される、請求項1から6のいずれか一項に記載の方法。
  8. 前記毛髪の状態は、毛髪表面の損傷、毛髪の艶、毛髪の色の不均一性、毛髪の構造変化、毛髪の多孔性、毛髪の構造、および毛髪の摩擦係数からなる群から選択される、請求項7に記載の方法。
  9. 前記使用者信号は音符を含む、請求項1から8のいずれか一項に記載の方法。
  10. 前記使用者信号はメロディを含む、請求項9に記載の方法。
  11. 高さ、振幅、包絡線、および音質の変動は、前記整形データと参照データの比較結果に基づき生じる、請求項9および/または10に記載の方法。
  12. 前記方法は前記整形データに基づきスペクトログラムを生成するステップと、前記スペクトログラムに基づき音声および/または触覚の使用者信号を生成するステップとを含む、請求項1から8のいずれか一項に記載の方法。
  13. 前記音声または触覚の使用者信号はカスタマイズされた使用者プロファイルに基づき生成される、請求項1から12のいずれか一項に記載の方法。
  14. 請求項1から13のいずれか一項に記載の方法を実施するためのデバイスであって、
    - ヒトケラチン物質に関する測定データを生成するための収集手段と、
    - 前記測定データを処理し、整形データを生成するための処理手段と、
    - 前記整形データに基づき、好ましくはリアルタイムで、音声および/または触覚の使用者信号を生成するための生成手段であって、前記使用者信号の周波数は前記整形データに依存する、生成手段と
    を備えるデバイス。
  15. 美容処置の美容効果を評価するための方法であって、
    a)請求項1から13のいずれか一項に記載の方法でヒトケラチン物質の状態の評価を実施するステップと、
    b)前記美容処置を実施するステップと、
    c)請求項1から13のいずれか一項に記載の方法で同一状態の評価を実施するステップと
    を含む方法。
JP2019522755A 2016-10-28 2017-10-26 ヒトケラチン物質の状態について使用者に知らせるための方法 Pending JP2020516325A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016211669 2016-10-28
JP2016211669A JP6492044B2 (ja) 2016-10-28 2016-10-28 ヒトケラチン物質の状態について使用者に知らせるための方法
PCT/EP2017/077515 WO2018078052A1 (en) 2016-10-28 2017-10-26 A method for informing a user about a condition of human keratinous

Publications (1)

Publication Number Publication Date
JP2020516325A true JP2020516325A (ja) 2020-06-11

Family

ID=60331574

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016211669A Active JP6492044B2 (ja) 2016-10-28 2016-10-28 ヒトケラチン物質の状態について使用者に知らせるための方法
JP2019522755A Pending JP2020516325A (ja) 2016-10-28 2017-10-26 ヒトケラチン物質の状態について使用者に知らせるための方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016211669A Active JP6492044B2 (ja) 2016-10-28 2016-10-28 ヒトケラチン物質の状態について使用者に知らせるための方法

Country Status (4)

Country Link
EP (1) EP3531896B1 (ja)
JP (2) JP6492044B2 (ja)
CN (1) CN109963500A (ja)
WO (1) WO2018078052A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3627444A1 (en) * 2018-09-20 2020-03-25 L'oreal Method and system for determining a characteristic of a keratinous surface and method and system for treating said keratinous surface

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05146412A (ja) * 1991-02-06 1993-06-15 Pola Chem Ind Inc 皮膚表面形態の評価方法及び装置
JP2003024282A (ja) * 2001-07-11 2003-01-28 Shiseido Co Ltd 皮膚の状態の評価方法
JP2004527730A (ja) * 2000-09-25 2004-09-09 ザ プロクター アンド ギャンブル カンパニー 毛髪の状態を評価するための方法、装置、及びシステム
JP2007526473A (ja) * 2004-03-04 2007-09-13 セントレ ナシオナル デ ラ ルシェルシェ シエンティフィーク セエヌエールエス 摩擦音響センサ
JP2009082338A (ja) * 2007-09-28 2009-04-23 Masahiro Nakagawa エントロピーを用いた肌の鑑別方法
JP2012093144A (ja) * 2010-10-25 2012-05-17 Kao Corp 角層細胞の物性測定方法
JP2012226472A (ja) * 2011-04-18 2012-11-15 Mitsubishi Chemical Holdings Corp 要素構造体の特徴識別指標設定方法及び同装置、分子/分子集合体の特徴識別指標設定方法及び同装置、要素構造体から得られた音情報に基づく発光制御信号用光データ生成方法及び同装置、要素構造体から得られた音情報に基づく発光制御信号生成装置、要素構造体から得られた音情報に基づいて発光制御される発光装置、並びにコンピュータ読み取り可能な記録媒体及びコンピュータに実行させるためのプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0158336A3 (en) * 1984-04-11 1987-08-19 William E. Woodley Apparatus for locating and detecting pain
JP2941114B2 (ja) * 1992-03-13 1999-08-25 ポーラ化成工業株式会社 毛髪表面形態の評価方法及びその装置
US7183480B2 (en) * 2000-01-11 2007-02-27 Yamaha Corporation Apparatus and method for detecting performer's motion to interactively control performance of music or the like
JP2004159830A (ja) * 2002-11-12 2004-06-10 Lion Corp 毛髪評価システム
FR2849764B1 (fr) * 2003-01-14 2012-12-14 Oreal Dispositif et procede visant notamment a evaluer l'hydratation de la peau ou des muqueuses
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
JP2006158526A (ja) * 2004-12-03 2006-06-22 Lion Corp 毛髪評価方法および毛髪評価システム
US7472577B2 (en) * 2005-01-24 2009-01-06 Kao Corporation Hair sensor
WO2007026340A2 (en) * 2005-09-02 2007-03-08 The Procter & Gamble Company Methods for measuring moisture as a predictor of scalp health
KR20080067433A (ko) * 2007-01-16 2008-07-21 전병문 모발 손상 측정시스템과 그 측정방법
US8247677B2 (en) 2010-06-17 2012-08-21 Ludwig Lester F Multi-channel data sonification system with partitioned timbre spaces and modulation techniques
US20120041282A1 (en) * 2010-08-13 2012-02-16 Conopco, Inc., D/B/A Unilever Device and system for evaluating condition of skin, scalp and hair
TW201410203A (zh) * 2012-07-05 2014-03-16 Panasonic Corp 攜帶終端及肌膚特性測定器
KR200474471Y1 (ko) * 2013-03-05 2014-09-18 (주)아모레퍼시픽 진동기반 피부진단장치
US20150201889A1 (en) 2013-12-13 2015-07-23 New York University Sonification of imaging data
US20150173996A1 (en) * 2013-12-20 2015-06-25 L'oreal Method for treating the skin and device
CN104490377A (zh) * 2015-01-10 2015-04-08 钛脉科技(北京)有限公司 一种基于平板电脑的具有肤质识别功能的远程医护系统
US9855004B2 (en) * 2015-02-26 2018-01-02 Empire Technology Development Llc Devices and methods for measuring hair condition
KR101641268B1 (ko) * 2015-03-20 2016-07-20 엘지전자 주식회사 피부 측정기기 및 그 제어방법

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05146412A (ja) * 1991-02-06 1993-06-15 Pola Chem Ind Inc 皮膚表面形態の評価方法及び装置
JP2004527730A (ja) * 2000-09-25 2004-09-09 ザ プロクター アンド ギャンブル カンパニー 毛髪の状態を評価するための方法、装置、及びシステム
JP2003024282A (ja) * 2001-07-11 2003-01-28 Shiseido Co Ltd 皮膚の状態の評価方法
JP2007526473A (ja) * 2004-03-04 2007-09-13 セントレ ナシオナル デ ラ ルシェルシェ シエンティフィーク セエヌエールエス 摩擦音響センサ
JP2009082338A (ja) * 2007-09-28 2009-04-23 Masahiro Nakagawa エントロピーを用いた肌の鑑別方法
JP2012093144A (ja) * 2010-10-25 2012-05-17 Kao Corp 角層細胞の物性測定方法
JP2012226472A (ja) * 2011-04-18 2012-11-15 Mitsubishi Chemical Holdings Corp 要素構造体の特徴識別指標設定方法及び同装置、分子/分子集合体の特徴識別指標設定方法及び同装置、要素構造体から得られた音情報に基づく発光制御信号用光データ生成方法及び同装置、要素構造体から得られた音情報に基づく発光制御信号生成装置、要素構造体から得られた音情報に基づいて発光制御される発光装置、並びにコンピュータ読み取り可能な記録媒体及びコンピュータに実行させるためのプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
仲谷 正史 他: "「触感表現の一般普及に向けた方法論とテクタイルワークショップを通したその実践」", 日本バーチャルリアリティ学会論文誌, vol. 19, no. 4, JPN6021030899, 31 December 2014 (2014-12-31), pages 593 - 603, ISSN: 0004567174 *

Also Published As

Publication number Publication date
EP3531896B1 (en) 2022-10-05
WO2018078052A1 (en) 2018-05-03
EP3531896A1 (en) 2019-09-04
JP6492044B2 (ja) 2019-03-27
JP2018068601A (ja) 2018-05-10
CN109963500A (zh) 2019-07-02

Similar Documents

Publication Publication Date Title
Manfredi et al. Smartphones offer new opportunities in clinical voice research
US11484247B2 (en) Phonodermoscopy, a medical device system and method for skin diagnosis
Aiken et al. Envelope following responses to natural vowels
Mehta et al. Relationships between vocal function measures derived from an acoustic microphone and a subglottal neck-surface accelerometer
Cleveland et al. Aerodynamic and acoustical measures of speech, operatic, and Broadway vocal styles in a professional female singer
US11045150B2 (en) Method of sonifying brain electrical activity
Bidelman et al. Functional organization for musical consonance and tonal pitch hierarchy in human auditory cortex
US20050018858A1 (en) Rapid screening, threshold, and diagnostic tests for evaluation of hearing
WO2006059325A1 (en) Method and system of indicating a condition of an individual
JPH07204168A (ja) 生体情報自動識別装置
Kühnis et al. Musicianship boosts perceptual learning of pseudoword-chimeras: an electrophysiological approach
Gutschalk et al. Sustained responses for pitch and vowels map to similar sites in human auditory cortex
Uloza et al. Correlation between the basic video laryngostroboscopic parameters and multidimensional voice measurements
Gupta et al. PhySyQX: A database for physiological evaluation of synthesised speech quality-of-experience
Susini et al. Loudness asymmetries for tones with increasing and decreasing levels using continuous and global ratings
Kisenwether et al. The effect of microphone type on acoustical measures of synthesized vowels
Thwaites et al. Tracking cortical entrainment in neural activity: auditory processes in human temporal cortex
Zhang et al. Correlation between the frequency difference limen and an index based on principal component analysis of the frequency-following response of normal hearing listeners
JP6492044B2 (ja) ヒトケラチン物質の状態について使用者に知らせるための方法
Núñez-Batalla et al. Application of the acoustic voice quality index for objective measurement of dysphonia severity
Buder et al. Quantitative and graphic acoustic analysis of phonatory modulations
Anand et al. Using pitch height and pitch strength to characterize type 1, 2, and 3 voice signals
JP6859622B2 (ja) 脳波信号処理システム、脳波信号処理方法及びプログラム
KR20070113781A (ko) 우울감성 개선을 위한 색상 제시형 뉴로피드백 장치 및방법
Dourou et al. IoT-enabled analysis of subjective sound quality perception based on out-of-lab physiological measurements

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190614

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20191007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210810

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220411