JP2019523936A - ユーザーに対する触覚フィードバックをレンダリングするデバイス及びデバイスの動作方法 - Google Patents
ユーザーに対する触覚フィードバックをレンダリングするデバイス及びデバイスの動作方法 Download PDFInfo
- Publication number
- JP2019523936A JP2019523936A JP2018563569A JP2018563569A JP2019523936A JP 2019523936 A JP2019523936 A JP 2019523936A JP 2018563569 A JP2018563569 A JP 2018563569A JP 2018563569 A JP2018563569 A JP 2018563569A JP 2019523936 A JP2019523936 A JP 2019523936A
- Authority
- JP
- Japan
- Prior art keywords
- user
- haptic feedback
- sensor signal
- determined
- interaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B6/00—Tactile signalling systems, e.g. personal calling systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
- G09B23/283—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for dentistry or oral hygiene
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0004—Arrangements for enhancing monitoring or controlling the brushing process with a controlling means
-
- A—HUMAN NECESSITIES
- A46—BRUSHWARE
- A46B—BRUSHES
- A46B15/00—Other brushes; Brushes with additional arrangements
- A46B15/0002—Arrangements for enhancing monitoring or controlling the brushing process
- A46B15/0004—Arrangements for enhancing monitoring or controlling the brushing process with a controlling means
- A46B15/0006—Arrangements for enhancing monitoring or controlling the brushing process with a controlling means with a controlling brush technique device, e.g. stroke movement measuring device
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computational Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Public Health (AREA)
- Chemical & Material Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Medicinal Chemistry (AREA)
- Algebra (AREA)
- Epidemiology (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
ユーザーに対する触覚フィードバックをレンダリングするデバイス、及びデバイスのユーザーに対する触覚フィードバックをレンダリングするようにデバイスを動作させる方法が提供される。デバイスは、ユーザーの身体の一部分に非侵襲的アクションを適用するように動作し得る第1パートと、ユーザーにより保持され且つユーザーに対する触覚フィードバックをレンダリングするように動作し得る第2パートとを有する。デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号が取得される(402)。取得された少なくとも1つのセンサー信号は、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す触覚フィードバックを決定するように処理される(404)。決定された触覚フィードバックはデバイスの第2パートでユーザーに対してレンダリングされる(406)。(選択図)図2
Description
本発明は、ユーザーに対する触覚フィードバックをレンダリングするデバイス、及び触覚フィードバックをレンダリングするデバイスを動作させる方法に関連する。
デバイスを動作させるユーザーは、彼らがデバイスとともに実行している活動(アクティビティ)に対する注意力又は集中力をしばしば失ってしまう可能性がある。ユーザーにより操作されるデバイスで実行される或るアクティビティは、退屈になる又は面白くなくなる可能性がある。このようなことは、これらのアクティビティが日常的に又はしばしばユーザーにより実行されるべき場合に、特にそうである。例えば、(ひげ剃り、肌の洗浄、歯磨き、デンタルフロスで歯を掃除すること等のような)個人的なケア・アクティビティは平凡なタスクになり得る。また、多くのヘルス・ケア・デバイスがユーザーによりしばしば使用される必要があり、ユーザーはこれらのデバイスを利用することに関心を失う可能性がある。このような事態は、これらのデバイスを利用することによりモニタリングの目的で健康関連データを獲得することをユーザーが意図している場合に、特に問題となり得る。
上記のこれらのアクティビティの最中の注意力や集中力を増加させることは或る期間にわたる訓練によって達成されることが可能である。しかしながらそのようなことは、ユーザーの注意力及び集中力を訓練及び向上せようとする意志力をユーザーが持っていることを当てにする。注意力や集中力を維持する際にアラームのようなマニュアル的な介入によりユーザーを支援する方法が存在する。しかしながら、マニュアル的な介入は軽視されやすい。
日常のアクティビティが平凡になり得る1つの理由は、ユーザーに対してなされるフィードバックが存在しないからであり、またデバイスがインタラクティブでないからでもである。フィードバックもインタラクションも無い場合、ユーザーは、それらが全く進行していないことを感じてしまうかもしれないし、アクティビティを正しく実行していないことを心配してしまうかもしれない。所定のタスクを実行するようにアクティビティを訓練するために、ユーザーが仮想的なモデルで練習できるツールが存在する。
例えば、US2010/0015589A1は、トレーニング目的の力フィードバック触覚デバイスに物理的に接続される歯ブラシを開示している。触覚デバイスは、仮想モードにおいて、歯を磨くことに関連するものに似た力、振動及び/又は動きによるフィードバックを提供する。しかしながら、この形式のトレーニングは時間を費やす上に、それでもユーザーは日常生活でのこれらの努力についての進捗、効き目、或いは完全性に関する情報を得られない。
WO2014/036423A1は子供用の歯ブラシ・トレーニング・システムを開示している点に留意すべきであり、このシステムにおける歯ブラシは振動するように構成される触覚フィードバック・ユニットを有する。この特許文献では、所望の迎え角(the desired angle of attack)からの逸脱に対するフィードバックを提供するために、触覚フィードバックは有効であることが発見されたことを述べている。振動の振幅は逸脱の増加を示すように増加してもよい。
従って、デバイスの利用を必要とする所定のアクティビティに関するユーザーの注意力を増やす改善された方法であって、これらのアクティビティからより良い結果をもたらすフィードバックによりアクティビティを向上させる改善された方法のニーズが存在する。
上述したように、既存のデバイスの限界は、ユーザーがデバイスとともに実行するタスクについての進捗、効き目、及び完全性にユーザーが気付けない点であり、そのような気付けないことはこれらのタスクを実行する際にユーザーの注意力を減らしてしまう。
デバイスとともに実行される平凡なタスクがプラスの効果を有することに気付くことがユーザーにとって好ましい。と同時に、より良い結果を達成するためにリアル・タイムでユーザーが各自のパフォーマンスを改善できる方法を意識させることは、ユーザーにとって有用である。特に、デバイスの利用法を適合させるユーザーのために、ユーザーがデバイスを利用している際のアクティビティの最中に、それらのアクションについての可能性のある結果又は成果の通知を受けることはユーザーにとって有益なものとなるであろう。例えば、シェービング・デバイスを利用する場合に残存する毛や剃刀負け、或いはスキン・ケア・デバイスを利用する場合に残存する不純物や皮膚の不規則生、或いは歯ブラシを利用する場合に残存する歯垢や歯茎のみがき過ぎ等々に気付くことはユーザーにとって有用である。
従って、本発明の第1側面によれば、デバイスのユーザーに対する触覚フィードバック(haptic feedback)をレンダリングするようにデバイスを動作させる方法が提供され、デバイスは、ユーザーの身体の一部分に非侵襲的アクションを適用するように動作し得る第1パートと、ユーザーにより保持され且つユーザーに対する触覚フィードバックをレンダリングするように動作し得る第2パートとを有する。本方法は、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号を取得するステップと、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す触覚フィードバックを決定するように、取得された少なくとも1つのセンサー信号を処理するステップと、デバイスの第2パートにおいて、ユーザーに対する決定された触覚フィードバックをレンダリングするステップとを含む。
デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す取得された少なくとも1つのセンサー信号は、ユーザーの身体の一部分の表面構造、及びユーザーの身体の一部分の特性のうちの1つ以上を示してもよい。
いくつかの実施形態において、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す取得された少なくとも1つのセンサー信号は、デバイスの第1パートがユーザーの身体の一部分上を動く速度を示してもよい。
いくつかの実施形態において、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す取得された少なくとも1つのセンサー信号は、デバイスの第1パートがユーザーの身体の一部分上を動く方向を示してもよい。
いくつかの実施形態において、本方法は、ユーザーにより保持されるデバイスの第2パートの少なくとも1つのエリアを感知するステップを更に含んでいてもよい。
いくつかの実施形態において、デバイスの第2パートを利用して、ユーザーに対する決定された触覚フィードバックをレンダリングするステップが、ユーザーにより保持されるデバイスの第2パートの1つ以上の感知された少なくとも1つのエリアのうちの少なくとも一部を利用して、ユーザーに対する決定された触覚フィードバックをレンダリングするステップを含んでもよい。
いくつかの実施形態において、本方法は、ユーザーにより保持されるデバイスの第2パートの感知された少なくとも1つのエリアのうちの何れが、デバイスの第1パートから最小距離であるかを決定するステップを更に含んでもよい。
いくつかの実施形態において、デバイスの第2パートを利用して、ユーザーに対する決定された触覚フィードバックをレンダリングするステップが:ユーザーにより保持されるデバイスの第2パートの1つ以上の感知された少なくとも1つのエリアのうち、デバイスの第1パートから最小距離であると決定された少なくとも一部を利用して、ユーザーに対する決定された触覚フィードバックをレンダリングするステップを含んでもよい。
いくつかの実施形態において、本方法は、決定された触覚フィードバックを時間経過とともに修正するステップ、及び取得された少なくとも1つのセンサー信号に従って、決定された触覚フィードバックを修正するステップのうちの1つ以上をッ更に含んでもよい。
いくつかの実施形態において、本方法は、取得された少なくとも1つのセンサー信号に基づいて、デバイスの第1パートとユーザーの身体の一部分との間の相互作用の影響を確認するステップを更に含み、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す触覚フィードバックを決定するように、取得された少なくとも1つのセンサー信号を処理するステップが、デバイスの第1パートとユーザーの身体の一部分との間の相互作用の確認された影響を表す触覚フィードバックを決定するように、取得された少なくとも1つのセンサー信号を処理するステップを含んでもよい。
本発明の第2側面によれば、コンピュータ読み取り可能な媒体を含むコンピュータ・プログラム・プロダクトが提供され、コンピュータ読み取り可能な媒体はそこに組み込まれるコンピュータ読み取り可能なコードを有し、コンピュータ読み取り可能なコードは、適切なコンピュータ又はプロセッサにより実行されると、コンピュータ又はプロセッサによる上記の1つ以上の方法の実行を引き起こす。
本発明の第3側面によれば、ユーザーに対する触覚フィードバックをレンダリングするデバイスが提供され、デバイスは、ユーザーの身体の一部分に非侵襲的アクションを適用するように動作し得る第1パートと、ユーザーにより保持されるように動作し得る第2パートと、制御ユニットとを含む。制御ユニットは、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号を取得するステップと、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す触覚フィードバックを決定するように、取得された前記少なくとも1つのセンサー信号を処理するステップを行うように構成される。取得される少なくとも1つのセンサー信号は、ユーザーの身体の一部分の表面構造、及びユーザーの身体の一部分の特性のうちの1つ以上を示す。第2パートは、ユーザーに対する決定された触覚フィードバックをレンダリングするように構成される少なくとも1つの触覚フィードバック・コンポーネントを有する。
いくつかの実施形態において、デバイスの第1パートは1つ以上の第1センサーを含み、制御ユニットは、少なくとも1つのセンサー信号を取得するように1つ以上の第1センサーを制御するように構成されてもよい。
いくつかの実施形態において、触覚フィードバック・コンポーネントは、温度を変える、振動させる;表面の或る面を変える、圧力を変える、電気的な刺激を提供する、超音波を提供する、空気又は液体を解放する、又はテクスチャを変えるように構成される1つ以上のコンポーネントを含んでもよい。
いくつかの実施形態において、デバイスは、トゥース・ケア・デバイス、スキン・ケア・デバイス、グルーミング・デバイス、ヘア・ケア・デバイス、マッサージ・デバイス、或いはスキン・ヘルス・デバイスであってもよい。
上記の側面によれば、デバイスを利用して実行されるタスクの最中にユーザーの注意力は、それらのアクションに直接的に相関する触覚フィードバックにより増進させられる。また、ユーザーは、ユーザーの身体上でのデバイスのリアル・タイム相互作用を直接的に表現する触覚フィードバックを利用することにより、タスクの実行により達成される結果を改善することが可能である。このようにして、ユーザーは、それらのアクションの進捗、効き目、及び完全性についての情報の提供を受けることが可能であり、タスクを実行するユーザーのモチベーションを増進させる。
デバイスを利用するユーザーの注意力を増進させ、デバイスを利用するタスクのユーザーのパフォーマンスをユーザーが向上させることができるようにする改善されたデバイス及び方法が提供される。
本発明のより良い理解のため、及び本発明がどのように効果をもたらすかを更に明確に示すために、単なる具体例として、添付図面が参照される。
図1は実施形態によるデバイスのブロック図である。
図2は実施形態による方法を示すフローチャートである。
図3は別の実施形態による方法を示すフローチャートである。
図4は別の実施形態による方法を示すフローチャートである。
図5は例示的な実施形態による方法を示すフローチャートである。
上述したように、本発明は、既存の問題を克服する、触覚フィードバックを提供する改善されたデバイス及び方法を提供する。
図1はデバイス100のユーザーに触覚フィードバック(例えば、触覚的なフィードバック(tactile feedback))を提供するために使用されることが可能な本発明の実施形態によるデバイス100のブロック図を示す。デバイス100は、ユーザーの身体の一部分(例えば、皮膚、歯、ヘア等)に非侵襲的なアクションを適用するように動作可能な第1パート100aと、ユーザーにより保持されるように操作可能な第2パート100bとを有する。デバイス100の第1パート100aは例えばデバイスの実用端部100(a utility end of the device 100)である。デバイスの第2パート100bは例えばデバイス100のハンドルである。
ここで使用される「非侵襲的なアクション(non-invasive action)」という用語は、手術による挿入、切開、又は注入によってユーザーの身体を貫かない任意のアクションを指すことが、理解されるであろう。非侵襲的なアクションの具体例は、歯を掃除すること、歯をデンタルフロスで掃除すること、皮膚を掃除すること、毛を除去すること(例えば、シェービング)、マッサージすること、毛髪の直毛化などを含む。非侵襲的なアクションの具体例が与えられているが、他の非侵襲的なアクションも認められるであろう。
デバイス100は、ユーザーの身体に非侵襲的なアクションを適用するように動作可能な任意のタイプのデバイスであるとすることが可能である。例えば、デバイスは、パーソナル・ケア・デバイス、又はヘルス・ケア・デバイスであってもよい。パーソナル・ケア・デバイスの具体例は、トゥース・ケア・デバイス(例えば、歯ブラシ、糸式ようじ、タング・クリーナー等)、スキン・ケア・デバイス(例えば、クレンジング・デバイス、マイクロクリスタル・ピーリング(microdermabrasion)デバイス、極短パルス光(an Intense Pulsed Light:IPL)デバイス等)、グルーミング・デバイス(例えば、ヘア・トリマー、除毛デバイス(例えば、シェービング・デバイス、又は脱毛器))、ヘア・ケア・デバイス(例えば、ストレートナー、カーラー(curlers)、スタイリング・ツール等)、或いは他の任意のパーソナル・ケア・デバイスを含む。ヘルス・ケア・デバイスの具体例は、マッサージ・デバイス、スキン・ヘルス・デバイス、或いは他の任意のヘルス・ケア・デバイスを含む。スキン・ヘルス・デバイスは、血管、リンパ管、リンパ節、脂肪組織のような皮膚特性、又は他の皮膚特性を感知するように構成されるデバイスであってよい。一例において、スキン・ヘルス・デバイスは、皮膚の事柄を評価するためにユーザーの皮膚に向かって保持される又はその上で維持するように動作することが可能なカメラを有していてもよい。例示的なタイプのデバイスが提供されているが、デバイス100は、ユーザーの身体に非侵襲的なアクションを適用するように動作することが可能な他の任意のタイプのデバイスであってもよいことが、理解されるであろう。
図1に図示される実施形態では、デバイス100の第1パート100aは1つ以上の第1センサー102を有する。1つ以上の第1センサー102は、デバイスの第1パート100aとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号を取得するように構成されることが可能である。デバイス100の第1パート100aは図示されるこの実施形態では1つ以上の第1センサー102を有しているが、1つ以上の第1センサー102又は1つ以上の第1センサー102のうちの少なくとも何れかは、デバイス100の外部にあるとする(即ち、デバイスと別々であるとする、又はデバイスから離れているものとする)ことが可能である点が理解されるであろう。
1つ以上の第1センサー102は、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を感知することに適した任意のセンサー又はセンサーの組み合わせであってもよい。そのようなセンサーの具体例は、視覚的センサー又は画像センサー(例えば、カメラ、ビデオ、赤外線センサー、マルチスペクトル画像センサー、ハイパースペクトル画像センサー、又はその他の任意の視覚的センサー)、音響センサー(例えば、マイクロフォン、又はその他の任意の音響センサー)、モーション・センサー又は慣性センサー(例えば、加速度計、ジャイロスコープ(例えば、慣性ジャイロスコープ、又はマイクロエレクトロメカニカルMEMSジャイロスコープ)、磁力計、ビジュアル・センサー、又はその他の任意のモーション・センサー)、圧力センサー、温度センサー、湿度センサー等を含む。モーション又は慣性センサーは、ユーザーに対するデバイス100の動き、及び選択的にデバイス100の向きを検出するように動作可能なセンサーである。1つ以上の第1センサー102は単独のセンサー、又は1つより多いセンサーを含むことが可能であること、及び1つより多いセンサーは、1つのタイプのセンサー、或いは様々なタイプのセンサーの任意の組み合わせを含んでもよいことが、理解されるであろう。例えば、トゥース・ケアの実施形態において、或るセンサーが歯を検出し、別のセンサー(例えば、慣性又はモーション・センサー)が、歯が磨かれる回数を検出してもよい。グルーミングの実施形態では、単独のセンサー(例えば、カメラ)がひげ剃りの動きを検出してもよい。
具体例は1つ以上のセンサー102を備えているが、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知するのに適した他のセンサー又はセンサーの組み合わせが使用されてよいことが理解されるであろう。
説明される実施形態において、デバイス100の第2パート100bは、デバイス100の動作を制御し且つ本願で説明される方法を実行することが可能な制御ユニット104を有する。制御ユニット104は、本願で説明される方法でデバイスを制御するように構成又はプログラムされる1つ以上のプロセッサ、処理ユニット、マルチ・コア・プロセッサ、又はモジュールを含むことが可能である。特定の実施形態において、制御ユニット104は複数のソフトウェア及び/又はハードウェア・モジュールを有することが可能であり、複数のソフトウェア・モジュール等の各々は本発明の実施形態による方法の個々の又は複数のステップを実行するように構成されている又は実行するためのものである。図示のこの実施形態ではデバイス100の第2パート100bが制御ユニット104を含んでいるが、その代わりに、デバイス100の第1パート100aが制御ユニット104を含んでいてもよいし、或いは制御ユニット104は、デバイス100の第1パート100a及び第2パート100bの間のインターフェースの場所に配置されてもよいことが、理解されるであろう。
手短に言えば、制御ユニット104は、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号を獲得し、獲得した少なくとも1つのセンサー信号を処理することで、デバイスの第1パートとユーザーの身体の一部分との間の相互作用を表す触覚フィードバックを決定するように構成される。いくつかの実施形態では、制御ユニット104は、少なくともセンサー信号を獲得するために1つ以上の第1センサー102を制御するように構成されてよい。
1つ以上の第1センサー102、又は1つ以上の第1センサー102のうちの少なくとも1つがデバイス100の外部にある(即ち、デバイス100とは別々である又はそこから離れている)実施形態では、制御ユニット104は、無線により又は有線接続により外部の第1センサー102と通信する。例えば、制御ユニット104は、無線により又は有線接続により少なくとも1つのセンサー信号を獲得するように外的な第1センサー102を制御するように構成されてもよい。
図示される実施形態では、デバイスの第2パート100bは少なくとも1つの触覚フィードバック・コンポーネント106も含んでいる。例えば、触覚フィードバック・コンポーネント106は、ユーザーにより保持されるデバイス100の第2パート100bの表面の一部分又はパートを形成することが可能である。触覚フィードバック・コンポーネント106は、制御ユニット104からの信号に応答して、ユーザーに対する決定された触覚フィードバックをレンダリングするように構成される。言い換えれば、触覚フィードバック・コンポーネント106は、触覚的な感覚をユーザーに伝えることが可能である。
触覚フィードバック・コンポーネント106は、ユーザーに触覚フィードバックを提供するのに相応しい任意のコンポーネントであるとすることが可能である。触覚フィードバック・コンポーネント106の具体例は、(例えば、ペルチェ・コンポーネント、又は他の任意の熱刺激コンポーネントのように)温度を変更する、(例えば、振動触覚刺激コンポーネント等のように)振動する、(例えば、表面の少なくとも一部分を上昇又は下降させることに適したコンポーネント、空間的及び/又は時間的に可変なコンポーネント、電気−振動に基づく摩擦ディスプレイ・コンポーネントのように)表面の或る面を変更する、(例えば、圧電式、誘電体エラストマー、又は表面張力を変える電気活性コンポーネントのように)圧力を変更する、(例えば、ガルバニック・コンタクトを介するAC又はDC電圧開放のような)電気的知覚を提供する、(例えば、圧電式、誘電体エラストマー、又は電気活性コンポーネントのように)超音波を提供する、(例えば、空気式コンポーネント、圧電式、誘電体エラストマー、又は電気活性コンポーネント(バルブ及び圧縮チャンバーを駆動するもの))空気又は液体(例えば、水)を開放する、(振動触覚刺激コンポーネント、圧電コンポーネント、電磁コンポーネント、空気式コンポーネント、電気活性コンポーネント等を利用して)テクスチャを変更するように構成されるコンポーネントを含む。具体例は触覚フィードバック・コンポーネントを備えているが、他の触覚フィードバック・コンポーネント又は任意の組み合わせの触覚フィードバック・コンポーネントが使用され得ることが認められるであろう。
図1の例示の実施形態に関し、デバイス100の第2パート100bは、説明される実施形態において、1つ以上の第2センサー108も含んでいる。1つ以上の第2センサー108は、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知するように構成される。いくつかの実施形態において、制御ユニット104は、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知するために、1つ以上の第2センサー108を制御するように構成されることが可能である。1つ以上の第2センサー108は、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知することに適した任意のセンサー又はセンサーの組み合わせであってよい。そのようなセンサーの具体例は、視覚的センサー又は画像センサー(例えば、カメラ、ビデオ、赤外線センサー、マルチスペクトル画像センサー、ハイパースペクトル画像センサー、又はその他の任意の視覚的センサー)、音響センサー(例えば、マイクロフォン、又はその他の任意の音響センサー)、圧力センサー、温度センサー、湿度センサー、或いは、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知することに適した他の任意のセンサー又はセンサーの組み合わせを含む。いくつかの実施形態では、1つ以上の第2センサー108は、圧力又はタッチ・センサーのアレイのようなセンサーのアレイ(例えば、マトリクス)の形式におけるものであってもよい。
デバイス100の第2パート100bは、図示されるこの実施形態では、1つ以上の第2センサー108と別個の触覚フィードバック・コンポーネント106とを含むように図示されているが、他の実施形態において、触覚フィードバック・コンポーネント106それ自体が1つ以上の第2センサー108を含んでもよいことが理解されるであろう。
図2は実施形態によるデバイス100のユーザーに対する触覚フィードバック(例えば、触覚的なフィードバック)をレンダリングするようにデバイス100を動作させる方法を示すフローチャートである。説明される方法は、一般に、デバイス100の制御ユニット104により実行される又はその制御の下で実行されることが可能である。
図2に関し、ブロック402において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号が、獲得される。例えば、1つ以上のセンサー102が、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号を獲得してもよい。上述したように、制御ユニット104は、少なくとも1つのセンサー信号を獲得するために、1つ以上の第1センサー102を制御するように構成されてもよい。いくつかの実施形態において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号は、或る設定波長の光源照明、歯垢染色錠剤のようなセンシング補助方法、又は他の任意のセンシング補助方法の利用中に獲得されてもよい。
実際、1つ以上の第1センサー102は、デバイス100の第1パート100aにより適用される非侵襲的なアクションをセンシングすることが可能である。例えば、1つ以上のセンサー102は、口又は歯茎の所定エリアをブラッシングすること、特定のエリアを剃ること、特定のタイプのヘア又は特定の長さのヘアをカットすること等のような非侵襲的なアクション、その他の任意の非侵襲的なアクション、或いは非侵襲的なアクションの組み合わせ等をセンシングすることが可能であってもよい。更に、1つ以上の第1センサー102は、非侵襲的なアクションに関する情報を提供することが可能である。例えば、1つ以上の第1センサー102は、カットされるヘアの密度、歯の歯垢の量のような情報、又はイベントに関連する他の任意の情報を提供することが可能であってもよい。
いくつかの実施形態において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す獲得された少なくとも1つのセンサー信号は、ユーザーの身体の一部分の表面構造を示す。上述したように、ユーザーの身体の一部分の表面構造の具体例は、歯、ヘア、皮膚、又はユーザーの身体の他の任意の一文の表面構造であってもよい。
いくつかの実施形態において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す獲得された少なくとも1つのセンサー信号は、ユーザーの身体の一部分の特性を示す。ユーザーの身体の一部分の特性の具体例は、皮膚の特性(例えば、スキン・ケア・デバイスの使用中における、水分レベル、清潔度合い、乾燥度合い等)、歯の特性(例えば、トゥース・ケア・デバイスの使用中に歯についている歯垢の量等)、筋肉の特性(例えば、筋肉の張力のような)、ヘアの特性(例えば、ヘア・ケア・デバイスの使用中におけるヘアの温度、水分等)、グルーミング特性(例えば、グルーミング・デバイスの使用中における顔の毛の密度、長さ等)等であってよい。具体例はユーザーの身体の一部分の特性について与えられているが、特性は、ユーザーの身体の任意の部分の任意の特性であってよいことが、理解されるであろう。
いくつかの実施形態において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す獲得された少なくとも1つのセンサー信号は、デバイス100の第1パート100aがユーザーの身体の一部分上で動くスピードを示す。いくつかの実施形態において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す獲得された少なくとも1つのセンサー信号は、デバイス100の第1パート100aがユーザーの身体の一部分上で動く方向を示す。いくつかの実施形態において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す獲得された少なくとも1つのセンサー信号は、デバイス100の第1パート100aがユーザーの身体の一部分上で動く際の動作速度及び方向を示す。
いくつかの実施形態において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す獲得された少なくとも1つのセンサー信号は、ユーザーの身体の一部分の表面構造、ユーザーの身体の一部分の特性、デバイス100の第1パート100aがユーザーの身体の一部分上で動く速度、及びデバイス100の第1パート100aがユーザーの身体の一部分上で動く方向の何らかの組み合わせを示す。具体例は少なくとも1つのセンサー信号を提供しているが、獲得される少なくとも1つのセンサー信号は、デバイス100の第1パート100aとユーザーの身体の一部分との間の他の何らかの相互作用、或いはデバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用の何らかの組み合わせを示してもよい。
ブロック404において、獲得される少なくとも1つのセンサー信号は、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を表現する触覚フィードバックを決定するように処理される。言い換えれば、獲得される少なくとも1つのセンサー信号は、ユーザーに対してレンダリングされる場合に、デバイス100の第1パート100aにより適用される非侵襲的アクションに関するフィードバックをユーザーに提供する触覚的な感覚を決定するように処理される。
いくつかの実施形態において、触覚フィードバックは、所定のアクション又はイベントの特徴である保存済みのセンサー信号のデータベースに対して、少なくとも1つのセンサー信号を比較することにより決定されてもよい。例えば、保存済みのセンサー信号は、少なくとも1つのセンサー信号において存在することが識別された場合に、所定のイベント又はアクションが実行される指示を提供することが可能なセンサー・データのシーケンスを含むことが可能である。例示の実施形態において、保存済みのセンサー信号は、皮膚を横断する剃刀、歯を磨く歯ブラシ等の信号特徴を含むことが可能である。センサー信号のデータベースはルックアップ・テーブル等の形式におけるものであってもよい。デバイス100はデータベースを含んでもよいし、データベースはデバイス100に対して外部にあってもよい(即ち、別々であってもよいし、そこから離れていてもよい)。制御ユニット104は、無線により又は有線接続により、保存済みセンサー信号に対して少なくとも1つのセンサー信号を比較するためにデータベースにアクセスしてもよい。
いくつかの実施形態において、決定された触覚フィードバックは、デバイス100の第1パート100aがユーザーの身体の一部分上で動かされる場合に、ユーザーに情報を運ぶように、決定される触覚フィードバックを変化させるために使用される関連する変数成分を有することが可能である。例えば、決定される触覚フィードバックは、ユーザーに情報を運ぶように設定される振幅を有していてもよい。具体的には、決定される触覚フィードバックの振幅は、デバイス100の第1パート100aが相互作用するユーザーの身体の一部分の特性に比例しているとすることが可能である。例えば、グルーミングの実施形態において、決定される触覚フィードバックは、剃り落とされるヘアの長さに依存して変えられてもよい。ここで、決定される触覚フィードバックの振幅の増加は、剃り落とされるヘアの長さの増加を表現し、同様に、決定される触覚フィードバックの振幅の減少は、剃り落とされるヘアの長さの減少を表現することが可能である。トゥース・ケアの実施形態において、歯ブラシの動き及び位置の組み合わせられた情報は、清潔度の尺度を決定するために使用されてもよく、清潔度に関する決定された尺度は、決定される触覚フィードバックで表現されるように変換関数により変換されることが可能であり、その尺度はより良いブラッシングを動機付けることが可能である。いくつかの実施形態において、決定される触覚フィードバックは、デバイス100の第1パート100aが荒れた肌や歯垢等のエリアで動かされる場合に、粗さ(rouphness)の感覚を提供するように変化させられることが可能である。
いくつかの実施形態において、獲得される少なくとも1つのセンサー信号は、触覚的な知覚に直接的にマッピングされる。言い換えれば、決定される触覚フィードバックは、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を直接的に表現してもよい。例えば、非侵襲的なアクションの最中にデバイス100の第1パート100aに生じるバンプ(a bump)は、決定される触覚フィードバックにおける等しい大きさ及び持続時間のバンプによって表現されることになる。
他の実施形態において、獲得される少なくとも1つのセンサー信号は、デバイス100の第1パート100aが相互作用している身体の一部分における未だ生じていない感覚を表現する触覚的知覚にマッピングされてもよい。言い換えれば、身体の一部分における知覚が予測され得る。具体的には、決定される触覚フィードバックは、結果的に生じる知覚、或いはデバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用に関連付けられる感覚を表現してもよい。例えば、シェーバーが、肌の同じ場所で過剰に頻繁に及び/又は過剰に大きな圧力で適用される場合、シェービングに付随する剃刀負けが生じるかもしれないので、そのアクションは剃刀負けを予測するために使用されることが可能であり、そしてそのアクションは、剃刀負けが実際に生じてしまう前でも触覚フィードバックで熱の増加により表現されてよい。熱の形態で触覚フィードバックを提供するその信号は、剃刀負けを防止するために(或いは、剃刀負けの程度を少なくとも減らすために)ユーザーへ早期警告を提供するように増幅されることが可能である。ユーザーは、増幅に対する感度(the sensitivity)について好みを設定してもよい。このように、決定される触覚フィードバックは、結果的に生じる知覚、又は知覚が生じる前に相互作用に関連付けられる感覚を表現し、それによりユーザーが(例えば、皮膚の炎症、剃刀負け、歯茎の炎症などのような)マイナスの結果を回避するようにデバイス100の利用法を適合させることが可能になる。
獲得される少なくとも1つのセンサー信号がユーザーの身体の一部分の表面構造を表す実施形態では、決定される触覚フィードバックはユーザーの身体の一部分の表面構造を表現する。例えば、表面構造の中で高くなっている部分(a raised portion)は、決定される触覚フィードバックの中で高くなっている部分により表現される。獲得される少なくとも1つのセンサー信号がユーザーの身体の一部分の特性を表す実施形態では、決定される触覚フィードバックはユーザーの身体の一部分の特性を表現する。獲得される少なくとも1つのセンサー信号が、デバイス100の第1部分100aがユーザーの身体の一部分の上を移動する速度を表す実施形態では、決定される触覚フィードバックは、デバイス100の第1部分100aがユーザーの身体の一部分の上を移動する速度を表現する。例えば、デバイス100の第1部分100aが所定の速度で移動していることは、決定される触覚フィードバックにおける同じ速度の動きにより表現される。獲得される少なくとも1つのセンサー信号が、デバイス100の第1部分100aがユーザーの身体の一部分の上を移動する方向を表す実施形態では、決定される触覚フィードバックは、デバイス100の第1部分100aがユーザーの身体の一部分の上を移動する方向を表現する。例えば、デバイス100の第1部分100aが所定の方向に移動していることは、決定される触覚フィードバックにおける同じ方向の動きにより表現される。
獲得される少なくとも1つのセンサー信号が、デバイス100の第1部分100aとユーザーの身体の一部分との間の1つより多い相互作用を表す実施形態では、決定される触覚フィードバックは、デバイス100の第1部分100aとユーザーの身体の一部分との間の1つより多いそのような相互作用を表すことが可能である。例えば、幾つかの実施形態において、決定される触覚フィードバックは、ユーザーの身体の一部分の表面構造と、ユーザーの身体の一部分におけるデバイス100の第1パート100aの動き(例えば、速度及び方向のうちの1つ以上)と、を表現することが可能である。
図2を再び参照し、ブロック406において、決定された触覚フィードバックは、デバイス100の第2パート100bにおいてユーザーに対してレンダリングされる。いくつかの実施形態において、レンダリングされた触覚フィードバックはユーザーに或る感覚を提供することが可能であり、その感覚は、デバイス100の第1部分100aが動いている(又は非侵襲的なアクションを適用している)身体の一部分が、デバイス100の第2パート100bを保持しているユーザーの手の一部分の下で仮想的に動いているような感覚である。決定される触覚フィードバックがレンダリングされる場所は、自由に選択してよい何らかの1つ以上の固定位置であってもよいし、或いはユーザーが保持しているデバイス100の第2パート100bのエリアを完治することにより動的に決定されてもよい(この点については、図3及び図4に示される実施形態に関連して更に詳細に説明される)。
図3は、別の実施形態によりデバイス100のユーザーに対する触覚フィードバックをレンダリングするようにデバイス100を動作させる方法を示すフローチャートである。説明される方法は、概して、デバイス100の制御ユニット104により実行される、或いはその制御の下で実行されることが可能である。
図3に関し、ブロック502において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号が獲得され、ブロック504において、獲得された少なくとも1つのセンサー信号は、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を表す触覚フィードバックを決定するように処理される。即ち、図2のブロック402及びブロック404に関連して上述した方法が実行され、これらについて説明を繰り返さないが、その説明を適用できることは理解されるであろう。
次に、図3のブロック506において、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアが感知される。例えば、1つ以上の第2センサー108が、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知してもよい。言い換えれば、1つ以上の第2センサー108は、ユーザーが触れているデバイス100の第2パート100bの少なくとも1つのエリアを感知してもよい。例えば、1つ以上の第2センサー108は、表面が触れられている場所を判定することが可能な少なくとも1つのタッチ・センサー(例えば、タッチスクリーンで使用されるようなもの)を含むことが可能である。上述したように、制御ユニット104は、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知するように1つ以上の第2センサー108を制御するように構成されることが可能である。
ブロック508において、ユーザーにより保持されるデバイス100の第2パート100bの1つ以上の感知される少なくとも1つのエリアのうちの少なくとも一部分を利用して、決定された触覚フィードバックがユーザーに対してレンダリングされる。いくつかの実施形態において、レンダリングされた触覚フィードバックはユーザーに或る感覚を提供することが可能であり、その感覚は、決定された触覚フィードバックがレンダリングされる場所である、デバイス100の第2パート100bを保持しているユーザーの手の一部分の下で、デバイス100の第1パート100aが動いている(或いは、非侵襲的なアクションを適用している)身体の一部分が、仮想的に動いているような感覚である。
図4は、別の実施形態によりデバイス100のユーザーに対する触覚フィードバックをレンダリングするようにデバイス100を動作させる方法を示すフローチャートである。説明される方法は、概して、デバイス100の制御ユニット104により実行される、或いはその制御の下で実行されることが可能である。
図4に関し、ブロック602において、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を示す少なくとも1つのセンサー信号が獲得され、ブロック604において、獲得された少なくとも1つのセンサー信号は、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を表す触覚フィードバックを決定するように処理される。即ち、図2のブロック402及びブロック404に関連して上述した方法が実行され、これらについて説明を繰り返さないが、その説明を適用できることは理解されるであろう。
次に、図4のブロック606において、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアが感知される。例えば、1つ以上の第2センサー108が、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知してもよい。上述したように、制御ユニット104は、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアを感知するように1つ以上の第2センサー108を制御するように構成されることが可能である。
ブロック608において、ユーザーにより保持されるデバイス100の第2パート100bの感知された少なくとも1つのエリアの何れが、デバイス100の第1パート100aから最小距離にあるか(即ち、最も接近しているか)が、決定される。言い換えれば、デバイスの第2パート100bにおけるユーザーの手の位置が確認され、手の何れの部分が、非侵襲的なアクションが適用されているエリアに最も接近しているかが、判断される。いくつかの実施形態において、手の何れの部分が、非侵襲的なアクションが適用されているエリアに最も接近しているか、についての判断は、デバイス100が動かされる確認された方法を考慮に入れてもよい。トゥース・ケアの実施形態において、非侵襲的なアクションが適用されるエリアに最も近い手の部分は、歯ブラシのブラシ・ヘッドに最も近い手の部分、或いは掃除される歯のエリアに最も近い手の部分であるかもしれない。グルーミングの実施形態において、非侵襲的なアクションが適用されるエリアに最も近い手の部分は、シェービングの刃に最も近い手の部分、或いはシェービングされる頬のエリアに最も近い手の部分であるかもしれない。
次に、ブロック610において、ユーザーにより保持されるデバイス100の第2パート100bの1つ以上の感知された少なくとも1つのエリアのうちの少なくとも一部を利用して、決定された触覚フィードバックがユーザーのためにレンダリングされ、そのエリアはデバイス100の第1パート100aから最小距離にある(即ち、最も接近している)と判断されている。いくつかの実施形態において、レンダリングされた触覚フィードバックはユーザーに或る感覚を提供することが可能であり、その感覚は、決定された触覚フィードバックがレンダリングされる場所である、デバイス100の第2パート100bを保持しているユーザーの手の一部分の下で、デバイス100の第1パート100aが動いている(或いは、非侵襲的なアクションを適用している)身体の一部分が、仮想的に動いているような感覚である。
ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアが感知される実施形態において(図3のブロック506において、及び図4のブロック606において)、本方法は、ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアが変更されたか否かを感知するステップを更に含んでいてもよい。例えば、ユーザーの手の位置が、デバイス100の第2パート100bの上で動いたか否かが感知されてもよい。ユーザーにより保持されるデバイス100の第2パート100bの少なくとも1つのエリアが変わったことが感知された場合、少なくとも1つのエリアがアップデートされ、1つ上のアップデートされた少なくとも1つのエリアにおいて、決定された触覚フィードバックがユーザーに対してレンダリングされる。
いくつかの実施形態において、デバイス100の第2パート100bを保持しているユーザーの身体の一部分(例えば、手、指など)が、確認されてもよい。例えば、ユーザーの手の何れの部分(例えば、手のひらのどの部分)がデバイス100の第2パート100bを保持しているか、或いはユーザーの手の何れの指が(又は指のどの部分が)デバイス100の第2パート100bを保持しているかが、確認されてもよい。この確認は、デバイス100の第2パート100bを保持するユーザーを表すデバイスの1つ以上の第2センサー108から取得される信号と、データベースに保存される身体の部分の少なくとも1つのモデル(又はテンプレート)との比較を含んでもよい。例えば、モデルは、ユーザーの手のモデルであってもよいし、手に関連する情報を含んでいてもよい。モデルは、一般的なモデルであってもよいし、或いはユーザー自身に固有であってもよい。いくつかの実施形態において、データベースは、大人の手の少なくとも1つのモデル、及び子供の手の少なくとも1つのモデルを保存していてもよい。これらの実施形態において、デバイス100の第2パート100bを保持するユーザーの手を表す、デバイスの1つ以上の第2センサー108から取得される信号と、データベースに保存されるモデルとの比較により、ユーザーは大人であるか又は子供であるかが判断されてもよい。いくつかの実施形態において、デバイス100の第2パート100bを保持するユーザーの手を表す、デバイスの1つ以上の第2センサー108から取得される信号と、データベースにおける少なくとも1つのモデルとの比較により、ユーザーの左手又は右手の何れがデバイス100の第2パート100bを保持しているかが、判断されてもよい。
データベースに保存される少なくとも1つのモデルとの比較に対して代替的又は追加的に、ユーザーの手の何れの部分がデバイス100の第2パート100bを保持しているかを確認することは、画像センサー(例えば、カメラ)から取得される信号に基づいていてもよい。画像センサーは、1つ以上の第1センサー102であってもよいし、或いはユーザーにより保持されるデバイス100の第2パート100bの画像を取得することが可能な外部センサーであってもよい。代替的又は追加的に、ユーザーの手のどの部分がデバイス100の第2パート100bを保持しているかを確認することは、(1つ以上の指、1つ以上の毛細血管、或いは他の何らかのバイオメトリック尺度のような)バイオメトリック測定を含んでもよく、バイオメトリック測定は、デバイス100の第2パート100bを保持する手の部分を確認するために使用されることが可能である。
デバイス100の第2パート100bを保持するユーザーの身体の一部分が確認される実施形態において、確認される触覚フィードバックは、デバイス100の第2パート100bを保持するように確認されたユーザーの身体の一部分の感度に基づいて調整されてもよい。言い換えれば、決定される触覚フィードバックは、身体のその部分における皮膚の、感覚を解明する能力に基づいて、調整されてもよい。例えば、指先は、手の他の部分よりも、感覚を解明するより高い能力を有する。従って、一実施形態において、決定される触覚フィードバックの強度又は空間分解能は、指先が使用されるか否かを考慮して調整されてもよい。代替的又は追加的に、いくつかの実施形態において、触覚フィードバックをレンダリングする場所は、ユーザーの身体のうち確認された部分(又は複数の部分)に基づいて決定され、その確認された部分に関してユーザーはデバイス100の第2パート100bを保持している。
いくつかの実施形態において、デバイス100の第2パート100bを保持しているユーザーの身体の一部分(例えば、ユーザーの手又は指)が動いていることが感知されてもよく、感知された動きは、決定される触覚フィードバックを修正するために使用されてもよい。例えば、決定される触覚フィードバックが「動き」を含む場合、レンダリングされる触覚フィードバックの「動き」は、デバイス100の第2パート100bを保持する身体の一部分の動きに応じて減少又は増加させられてもよい。
いくつかの実施形態において、(例えば、ユーザーの手又は指のような)デバイス100の第2パート100bを保持するユーザーの身体の一部分のうち何れのエリアをユーザーは、身体のその部分に関する非侵襲的なアクションを実行する練習に使用しそうであるかが、決定される。この実施形態において、触覚フィードバックは、決定されたそのエリアに対してレンダリングされる。例えば、ユーザーが自身の指で自身の顔をシェービングする練習をする場合に、デバイス100の第2パート100bに接触する指のうち何れのエリアを、そのユーザーは使用しそうであるかが決定されてもよく、こうして触覚フィードバックは自身の指のうち決定されたそのエリアに対してレンダリングされる。
図2、図3、図4に示される何れの実施形態においても、決定された触覚フィードバックは時間経過とともに修正されてよく、代替的又は追加的に、決定された触覚フィードバックは獲得された少なくとも1つのセンサー信号に従って修正されてよい。言い換えれば、決定される触覚フィードバック・コンポーネント108は、時間経過とともに、代替的又は追加的に、獲得された少なくとも1つのセンサー信号に従って修正されることが可能な可変の触覚フィードバック・コンポーネント108であってもよい。このように、ユーザーは、デバイス100を利用する際に(例えば、進捗、効き目、及び/又は完全性のような)そのアクションのフィードバックの提供を受けることが可能である。
例えば、トゥース・ケアの実施形態において、触覚フィードバック・コンポーネント106により提供されるテクスチャの粗さ(the roughness of the texture)は、一定期間にわたって歯が掃除されるにつれて減少させられることが可能であり、或いは、歯茎が閾値回数より多くブラッシングされると、触覚フィードバック・コンポーネント106の温度が上昇させられることが可能である。別のトゥース・ケアの実施形態において、触覚フィードバックの振幅は、一定期間にわたって、或いは少なくとも1つの所定の歯において歯ブラシが動かされた回数、及び/又は所定のエリア又は少なくとも1つの所定の歯をブラッシングするのに費やした時間に関連付けられることが可能である。例えば、触覚フィードバックの振幅は、(例えば、1つ以上のモーション・センサーにより)所定のエリア又は少なくとも1つの所定の歯を超えて動くように歯ブラシが検出される毎に減少させられ、及び/又は所定のエリア又は少なくとも1つの所定の歯がブラッシングされる期間がより長くなる。触覚フィードバックの振幅は、所定のエリア又は少なくとも1つの所定の歯を過ぎ越した後に(例えば、2回、3回、4回、又は他の任意の設定回数通り過ぎた後に)、或いは所定のエリア又は少なくとも1つの所定の歯がブラッシングされる所定の期間の後に、ゼロに減らされてもよい。別のトゥース・ケアの実施形態において、所定のエリア又は少なくとも1つの所定の歯は、より多くの注意を払う必要があるかもしれない。その実施形態では、その所定のエリア又はその少なくとも1つの所定の歯を通り過ぎる回数、及び/又はそれをブラッシングするのに費やされる期間は、より高い値に設定されてもよい。(ユーザー入力を介して提供されてもよい)この情報は、触覚フィードバックで表現されることが可能である。グルーミングの実施形態において、触覚フィードバック・コンポーネント106により提供される触覚フィードバックの振幅は、顔のエリアが複数回シェービングされるにつれて減らされることが可能である。このように、デバイス100を利用してアクションが実行される場合に、ユーザーはフィードバックの提供を受ける。
図2、図3、図4に示される任意の実施形態において、本方法は、取得された少なくとも1つのセンサー信号に基づいて、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用の影響を決定するステップを更に有してもよい。デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用を表す触覚フィードバックを決定するように、取得された少なくとも1つのセンサー信号を処理するステップは、デバイス100の第1パート100aとユーザーの身体の一部分との間の相互作用の確認された影響を表現する触覚フィードバックを決定するように、取得された少なくとも1つのセンサー信号を処理するステップを含む。
図5は、実施例に従ってデバイス100のユーザーに対する触覚フィードバックをレンダリングするようにデバイス100を動作させる方法を示すフローチャートである。説明される方法は、概して、デバイス100の制御ユニット104により実行される又はその制御の下で実行されることが可能である。
図5に関し、ブロック702において、デバイス100を拾い上げるユーザーのアクションが検出され、デバイスが使用される目的のアクションが確認される。一実施形態において、デバイスが使用される目的のアクションは、デバイスがシングル・ユース・デバイス(a single use device)である旨の事実に基づいて確認されてもよい。例えば、デバイスは、シングル設定(a single setting)を伴う歯ブラシであってもよい。別の実施形態において、デバイスが使用される目的のアクションは、ユーザー入力に基づいて決定されてもよい。例えば、デバイス100は、(例えば、複数のシェービング・タスクを実行するように動作することが可能なシェーバーのような)マルチ・ユース・デバイス(a multi-use device)であってもよく、ユーザー入力はデバイスに関する特定の設定の選択であってもよい。別の実施形態において、デバイスが使用される目的のアクションは、1つ以上の第1センサー102、1つ以上の第2センサー108、又はこれらのセンサーの任意の組み合わせに基づいて決定されてもよい。
ブロック704において、決定されたアクションに関連するイベントの特徴が確認される。例えば、特徴は、関連する触覚的な感覚、及びこれらの触覚的な感覚に対する任意の変量コンポーネントとともに、特徴が保存されているデータベースから取得されてもよい。
ブロック706において、1つ以上の第1センサー102がデバイス100の利用を連続的にモニタリングし、1つ以上の第1センサー102から取得される信号は、(例えば、取得された信号にその特徴が存在するか否かの確認により)決定されるアクションに関連する任意のイベントの出現を検出するように分析される。関連する触覚信号の任意の関連する変量コンポーネントを適用するために必要とされる任意の追加的なセンサー情報も収集される。収集される情報は、(例えば、触覚フィードバックのレンダリングに使用されるのに十分長い期間のような)所定の期間の間にわたって保存され、最早必要とされなくなると削除されることが可能である。選択的に、その時点におけるデバイス100の動き及びその他の機械的変量(例えば、圧力)に関するデータが収集され保存されてもよい。上述したように、データは所定の期間に限って保存されてもよい。
ブロック708において、決定されるアクションに関連するイベントが生じていることが確認される。また、(例えば、データベースから)これらの触覚的な感覚に対するイベント及び何らかの変量コンポーネントに関連する触覚的な感覚が確認され取得される。これに基づいて触覚フィードバックが決定される。ブロック710において、決定された触覚フィードバックは、何らかの関連する変量コンポーネントを適用するために取得される追加的なセンサー情報と組み合わせられ、これに基づいて、決定された触覚フィードバックに対するコンフィギュレーションが設定される。ブロック712において、デバイス100の一部分がユーザーにより保持されていることが確認され、ブロック714において、決定された触覚フィードバックを適用するデバイス100のその部分のエリアが選択される。
ブロック716において、決定された触覚フィードバックは、選択されたエリアでレンダリングされる(又は提供される)。例えば、触覚フィードバックは、デバイス100に接触しているユーザーの手の少なくとも一部分に適用される。
以上により、デバイスを利用するユーザーの注意力を増加させ、デバイスとともに実行されるタスクのパフォーマンスをユーザーが改善できるようにする改善されたデバイス及び方法が提供される。これは、触覚フィードバックがユーザーに感覚を提供することが可能な任意の携帯デバイスにとって有用である可能性があり、その感覚は、本願によらなければ、ユーザーがデバイスの静止した本体を保持することになるので欠落している。具体例は、上述したようなパーソナル・ケア・デバイス及びヘルス・ケア・デバイスを含む。
例示的な実施形態によれば、スキン・ケア・デバイスは、人間の眼には不可視である、カバレッジ、皮膚の純粋さ、又は皮膚の健康に関する触覚フィードバックを提供することが可能である。この実施形態において、触覚フィードバックは、処置されたエリア及び処置されていないエリアの間を区別するために使用されてもよい。別の例示的な実施形態によれば、グルーミング・デバイスは、ヘアの密度、ヘアの厚み、カバレッジ、スタイル・ガイダンス(例えば、処置のエリアを定めるために触覚的なエッジをレンダリングすること)等を提供することが可能である。別の例示的な実施形態によれば、ヘア・ケア・デバイスは、ヘアの密度、ヘアの厚み、湿気、温度、カバレッジ等に関して触覚フィードバックを提供することが可能である。別の例示的な実施形態によれば、トゥース・ケア・デバイスは、残存する歯垢、カバレッジ、舌の清潔さ等に関する触覚フィードバックを提供することが可能である。
開示される実施形態に対する変形例は、図面、本開示、及び添付の特許請求の範囲を学ぶことにより、請求項に係る発明を実施する当業者によって理解及び把握されることが可能である。特許請求の範囲において「有する」又は「含む」(comprising)という用語は他の要素又はステップを排除しておらず、「或る(“a” or “an”)という不定冠詞的な語は複数を排除していない。単独のプロセッサ又は他のユニットが請求項に列挙されている複数の事項の機能を発揮してもよい。所定の複数の事項が相互に異なる従属請求項で引用されているという唯それだけの事実は、これらの複数の事項の組み合わせが有利に使用できないことを意味しない。コンピュータ・プログラムは、他のハードウェアとともに又はその一部として供給される光ストレージ媒体又はソリッド・ステート媒体のような適切な媒体に保存/分散されてよいが、他の形態では、例えばインターネットその他の有線又は無線の通信システムを介するようにして分散されていてもよい。
特許請求の範囲における如何なる符号も範囲を限定するように解釈されるべきでない。
Claims (14)
- デバイスのユーザーに対する触覚フィードバックをレンダリングするように前記デバイスを動作させる方法であって、前記デバイスは、前記ユーザーの身体の一部分に非侵襲的アクションを適用するように動作し得る第1パートと、前記ユーザーにより保持され且つ前記ユーザーに対する触覚フィードバックをレンダリングするように動作し得る第2パートとを有し、前記方法は:
前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の相互作用を示す少なくとも1つのセンサー信号を取得するステップであって、前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の相互作用を示す取得された前記少なくとも1つのセンサー信号は、前記ユーザーの前記身体の前記一部分の表面構造、及び前記ユーザーの前記身体の前記一部分の特性のうちの1つ以上を示す、ステップ;
前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の前記相互作用を示す触覚フィードバックを決定するように、取得された前記少なくとも1つのセンサー信号を処理するステップ;及び
前記デバイスの前記第2パートにおいて、前記ユーザーに対する決定された前記触覚フィードバックをレンダリングするステップ;
を有する、方法。 - 前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の相互作用を示す取得された前記少なくとも1つのセンサー信号は、前記デバイスの前記第1パートが前記ユーザーの前記身体の前記一部分上を動く速度を示す、請求項1に記載の方法。
- 前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の相互作用を示す取得された前記少なくとも1つのセンサー信号は、前記デバイスの前記第1パートが前記ユーザーの前記身体の前記一部分上を動く方向を示す、請求項1又は2に記載の方法。
- 前記ユーザーにより保持される前記デバイスの前記第2パートの少なくとも1つのエリアを感知するステップ;
を更に含む請求項1ないし3のうちの何れか一項に記載の方法。 - 前記デバイスの前記第2パートを利用して、前記ユーザーに対する決定された前記触覚フィードバックをレンダリングするステップが:
前記ユーザーにより保持される前記デバイスの前記第2パートの1つ以上の感知された少なくとも1つのエリアのうちの少なくとも一部を利用して、前記ユーザーに対する決定された前記触覚フィードバックをレンダリングするステップ;
を有する、請求項4に記載の方法。 - 前記ユーザーにより保持される前記デバイスの前記第2パートの感知された少なくとも1つのエリアのうちの何れが、前記デバイスの前記第1パートから最小距離であるかを決定するステップ;
を更に有する請求項4又は5に記載の方法。 - 前記デバイスの前記第2パートを利用して、前記ユーザーに対する決定された前記触覚フィードバックをレンダリングするステップが:
前記ユーザーにより保持される前記デバイスの前記第2パートの1つ以上の感知された少なくとも1つのエリアのうち、前記デバイスの前記第1パートから最小距離であると決定された少なくとも一部を利用して、前記ユーザーに対する決定された前記触覚フィードバックをレンダリングするステップ;
を有する、請求項6に記載の方法。 - 決定された前記触覚フィードバックを時間経過とともに修正するステップ;及び
取得された前記少なくとも1つのセンサー信号に従って、決定された前記触覚フィードバックを修正するステップ;
のうちの1つ以上を更に含む請求項1ないし7のうちの何れか一項に記載の方法。 - 取得された前記少なくとも1つのセンサー信号に基づいて、前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の前記相互作用の影響を確認するステップ;
を更に含み、前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の前記相互作用を示す触覚フィードバックを決定するように、取得された前記少なくとも1つのセンサー信号を処理するステップが:
前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の前記相互作用の確認された影響を表す触覚フィードバックを決定するように、取得された前記少なくとも1つのセンサー信号を処理するステップ;
を含む、請求項1ないし8のうちの何れか一項に記載の方法。 - コンピュータ読み取り可能な媒体に記憶されるコンピュータ・プログラムであって、前記コンピュータ読み取り可能な媒体はそこに組み込まれるコンピュータ読み取り可能なコードを有し、前記コンピュータ読み取り可能なコードは、適切なコンピュータ又はプロセッサにより実行されると、前記コンピュータ又はプロセッサに請求項1ないし9のうちの何れか一項に記載の方法を実行させる、コンピュータ・プログラム。
- ユーザーに対する触覚フィードバックをレンダリングするデバイスであって:
前記ユーザーの身体の一部分に非侵襲的アクションを適用するように動作し得る第1パート;
前記ユーザーにより保持されるように動作し得る第2パート;及び
制御ユニット;
を有し、前記制御ユニットは:
前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の相互作用を示す少なくとも1つのセンサー信号を取得するステップであって、前記センサー信号は、前記ユーザーの前記身体の前記一部分の表面構造、及び前記ユーザーの前記身体の前記一部分の特性のうちの1つ以上を示す、ステップ;及び
前記デバイスの前記第1パートと前記ユーザーの前記身体の前記一部分との間の前記相互作用を示す触覚フィードバックを決定するように、取得された前記少なくとも1つのセンサー信号を処理するステップ;
を行うように構成され、前記第2パートは、前記ユーザーに対する決定された前記触覚フィードバックをレンダリングするように構成される少なくとも1つの触覚フィードバック・コンポーネントを有する、デバイス。 - 前記デバイスの前記第1パートは1つ以上の第1センサーを含み、前記制御ユニットは、前記少なくとも1つのセンサー信号を取得するように前記1つ以上の第1センサーを制御するように構成される、請求項11に記載のデバイス。
- 前記触覚フィードバック・コンポーネントは:
温度を変える;
振動させる;
表面の或る面を変える;
圧力を変える;
電気的な刺激を提供する;
超音波を提供する;
空気又は液体を解放する;又は
テクスチャを変える;
ように構成される1つ以上のコンポーネントを含む、請求項11又は12に記載のデバイス。 - 前記デバイスは、トゥース・ケア・デバイス、スキン・ケア・デバイス、グルーミング・デバイス、ヘア・ケア・デバイス、マッサージ・デバイス、或いはスキン・ヘルス・デバイスである、請求項11ないし13のうち何れか一項に記載のデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16173413.2 | 2016-06-07 | ||
EP16173413 | 2016-06-07 | ||
PCT/EP2017/063550 WO2017211740A1 (en) | 2016-06-07 | 2017-06-02 | A device for rendering haptic feedback to a user and a method for operating the device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019523936A true JP2019523936A (ja) | 2019-08-29 |
Family
ID=56120943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018563569A Pending JP2019523936A (ja) | 2016-06-07 | 2017-06-02 | ユーザーに対する触覚フィードバックをレンダリングするデバイス及びデバイスの動作方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200320835A1 (ja) |
EP (1) | EP3465388A1 (ja) |
JP (1) | JP2019523936A (ja) |
CN (1) | CN109313499A (ja) |
WO (1) | WO2017211740A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108989553A (zh) * | 2018-06-29 | 2018-12-11 | 北京微播视界科技有限公司 | 场景操控的方法、装置及电子设备 |
EP4094908A1 (en) * | 2021-05-28 | 2022-11-30 | BIC Violex Single Member S.A. | Shavers and methods |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9072370B2 (en) * | 2008-06-19 | 2015-07-07 | Colgate-Palmolive Company | User health profiles derived from oral care implements |
WO2010009393A2 (en) | 2008-07-17 | 2010-01-21 | Idea International, Inc. | Dental training system and method of use |
US9223903B2 (en) * | 2012-04-19 | 2015-12-29 | International Business Machines Corporation | Analyzing data from a sensor-enabled device |
US20140065588A1 (en) | 2012-08-31 | 2014-03-06 | Ideas That Work, Llc | Toothbrush Training System |
US10109220B2 (en) * | 2013-03-13 | 2018-10-23 | Dh Cubed, Llc | Instrument skill instruction and training system |
-
2017
- 2017-06-02 CN CN201780035574.4A patent/CN109313499A/zh active Pending
- 2017-06-02 US US16/305,185 patent/US20200320835A1/en not_active Abandoned
- 2017-06-02 WO PCT/EP2017/063550 patent/WO2017211740A1/en unknown
- 2017-06-02 EP EP17734996.6A patent/EP3465388A1/en not_active Withdrawn
- 2017-06-02 JP JP2018563569A patent/JP2019523936A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
CN109313499A (zh) | 2019-02-05 |
EP3465388A1 (en) | 2019-04-10 |
US20200320835A1 (en) | 2020-10-08 |
WO2017211740A1 (en) | 2017-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6885979B2 (ja) | パーソナルケア装置及びその操作方法 | |
JP7386213B2 (ja) | 個人衛生システム | |
US11752650B2 (en) | Apparatus and method for operating a personal grooming appliance or household cleaning appliance | |
EP3790500B1 (en) | Methods and systems for adjusting behavior of oral care device based on status of oral cavity | |
JP2023544524A (ja) | パーソナルケア装置のユーザとのインタラクト | |
JP2019523936A (ja) | ユーザーに対する触覚フィードバックをレンダリングするデバイス及びデバイスの動作方法 | |
JP2020527061A (ja) | シェーバハンドルと使用方法 | |
JP6968671B2 (ja) | ヒトの肌又は化粧料の評価方法 | |
US20220225928A1 (en) | Detection of paralysis, weakness and/or numbness in a part of a body of a subject | |
Stepp et al. | Contextual effects on robotic experiments of sensory feedback for object manipulation | |
JP7292396B2 (ja) | 想定される手動で移動可能な消費者製品の使用を評価するためのシステム | |
Liu et al. | Neural Reactivity to Haptics: Virtual Tasks versus Physical Tasks | |
Bochereau | Perception, recording and reproduction of physical invariants during bare fingertip exploration of tactile textures | |
JP2024155426A (ja) | 触感または物性の評価方法、および触感または物性の評価装置 | |
André | Fingertip skin as an optimal interface to manipulate objects: the role of moisture |