JP2022520412A - 想定される手動で移動可能な消費者製品の使用を評価するためのシステム - Google Patents

想定される手動で移動可能な消費者製品の使用を評価するためのシステム Download PDF

Info

Publication number
JP2022520412A
JP2022520412A JP2021547253A JP2021547253A JP2022520412A JP 2022520412 A JP2022520412 A JP 2022520412A JP 2021547253 A JP2021547253 A JP 2021547253A JP 2021547253 A JP2021547253 A JP 2021547253A JP 2022520412 A JP2022520412 A JP 2022520412A
Authority
JP
Japan
Prior art keywords
data
manually movable
consumer product
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021547253A
Other languages
English (en)
Other versions
JP7292396B2 (ja
Inventor
リーツラー ミリアム
フリードリヒ アネッテ
ビールフェルト ウーヴェ
Original Assignee
ブラウン ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブラウン ゲーエムベーハー filed Critical ブラウン ゲーエムベーハー
Publication of JP2022520412A publication Critical patent/JP2022520412A/ja
Application granted granted Critical
Publication of JP7292396B2 publication Critical patent/JP7292396B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0217Discounts or incentives, e.g. coupons or rebates involving input on products or services in exchange for incentives or rewards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools

Abstract

本開示は、ユーザによる想定される手動で移動可能な消費者製品の使用を評価するためのシステムであって、使用中にユーザの手の少なくとも一方に保持されることを意図した手動で移動可能な消費者製品モックアップと、少なくとも部分的にシミュレートされたコンテンツを提示するためのディスプレイユニットと、シミュレートされたコンテンツを提供するためのシミュレーション処理ユニットと、を備えるシミュレーションサブシステムと、少なくとも手動で移動可能な消費者製品モックアップの動きを基準システムに対して追跡するように構成された追跡サブシステムであって、追跡サブシステムは、少なくとも1つの追跡データ生成ユニットと、追跡データからの位置及び/又は向き及び/又は動きデータを決定する追跡データ処理ユニットと、を備える、追跡サブシステムと、少なくとも位置及び/又は向き及び/又は動きデータを含む使用データを受信するためのデータ処理サブシステムとを備え、シミュレーションサブシステムは、想定される手動で移動可能な消費者製品の少なくとも1つの特性又は特徴をシミュレートし、ディスプレイユニットを介してシミュレートされたコンテンツとして、この特性又は特徴を提示するように構成され、データ処理サブシステムは、受信した使用データの少なくとも一部を処理して、派生使用データを計算し、想定される手動で移動可能な消費者製品の使用を評価することを可能にする、ように構成され、データ処理サブシステムは、ディスプレイユニットを介して、又はユーザ対話デバイスのディスプレイを介して、派生使用データを表示するように更に構成されている、システムに関する。

Description

本出願は、ユーザによって想定される手動で移動可能な消費者製品の使用を評価するためのシステム及びそれぞれの方法に関する。
手動で移動可能な消費者製品に実装されると考えられる手動で移動可能な消費者製品の特性又は特徴は、例えば、想定される特性を含む想定される手動で移動可能な消費者製品のユーザ利便性に関するユーザフィードバックを得るためにユーザによって試験され得ることが一般に知られている。ユーザは、想定される特性を含む想定される手動で移動可能な消費者製品の画像を示すことができ、ユーザは、更に、想定される手動で移動可能な消費者製品の意図される使用に関する情報を得ることができ、その結果、ユーザは、想定される使用の容易さに関するフィードバックを提供することができることが知られている。画像の代わりに、ユーザは、想定される特性を有する想定される手動で移動可能な消費者製品の使用に関する動画を示すことができる。これは、仮想現実ゴーグルによってユーザに提示される仮想現実内の適応動画を示すことによって行うことができ、動画コンテンツはユーザの頭の向きに適応する(すなわち、VRゴーグルのディスプレイに表示されるシーンは、ユーザの頭部が動くとシフトする)。想定される手動で移動可能な消費者製品の他の評価は、ユーザによってライブ試験のための想定される特性を有する想定される手動で移動可能な消費者製品のプロトタイプの作成を含むことができる。
試験結果を評価する際に既知のシステムよりも大きな自由度を可能にする、ユーザによって想定される特性又は特徴を有する想定される手動で移動可能な消費者製品の使用を評価するためのシステムを提供することが一般的に必要とされている。
一態様によれば、ユーザによって想定される手動で移動可能な消費者製品の使用を評価するためのシステムが提供され、システムは、使用中にユーザの手の少なくとも一方に保持されることを意図した手動で移動可能な消費者製品モックアップと、少なくとも部分的にシミュレートされたコンテンツを提示するためのディスプレイユニットと、シミュレートされたコンテンツを提供するためのシミュレーション処理ユニットと、を備えるシミュレーションサブシステムと、少なくとも手動で移動可能な消費者製品モックアップの動きを基準システムに対して追跡するように構成された追跡サブシステムであって、追跡サブシステムは、少なくとも1つの追跡データ生成ユニットと、追跡データからの位置及び/又は向き及び/又は動きデータを決定する追跡データ処理ユニットと、を備える、追跡サブシステムと、少なくとも位置及び/又は向き及び/又は動きデータを含む使用データを受信するためのデータ処理サブシステムとを備え、シミュレーションサブシステムは、想定される手動で移動可能な消費者製品の少なくとも1つの特性又は特徴をシミュレートし、ディスプレイユニットを介してシミュレートされたコンテンツとして、この特性又は特徴を提示するように構成され、データ処理サブシステムは、受信した使用データの少なくとも一部を処理して、派生使用データを計算し、想定される手動で移動可能な消費者製品の使用を評価することを可能にする、ように構成され、データ処理サブシステムは、ディスプレイユニットを介して、又はユーザ対話デバイスのディスプレイを介して、派生使用データを表示するように更に構成されている。
一態様によれば、ユーザによって想定される手動で移動可能な消費者製品の使用を評価する方法は、
ユーザによって、手動で移動可能な消費者製品モックアップを使用するステップであって、ユーザが手動で移動可能な消費者製品モックアップを少なくとも一方の手で保持するステップと、
基準システムに対する手動で移動可能な消費者製品モックアップの少なくとも動きを追跡し、任意選択で、基準システムに対するユーザの少なくとも1つの身体部分の位置及び/又は向き及び/又は動きを追跡するステップと、
少なくとも位置及び/又は向き及び/又は動きデータを含む使用データを生成し、任意選択で、ユーザからの生理学的データを更に含む使用データを生成するステップと、
使用データを使用してシミュレートされたコンテンツを生成するステップであって、シミュレートされたコンテンツが、想定される手動で移動可能な消費者製品の少なくとも1つの特性又は特徴を表す、ステップと、
少なくともシミュレートされたコンテンツをディスプレイユニット上に提示するステップと、
使用データの少なくとも一部を使用して派生使用データを計算するステップと、
派生使用データを分析して、想定される手動で移動可能な消費者製品の使用を評価するステップと、
派生使用データをディスプレイユニット上に、又はユーザ対話デバイスのディスプレイを介して表示するステップと、
を含む。
本明細書は、例示的実施形態の詳細な説明及び図面の参照により、明瞭にされる。図中、
本開示によるシステムの一例の概略図である。 本開示による例示的なシステムの一部である例示的なディスプレイユニット及び手動で移動可能な消費者製品モックアップの概略図である。 手動で移動可能な消費者製品の使用中又は使用後にユーザ又は製品開発者に示すことができるディスプレイコンテンツの例であり、図3Aは、使用開始前のディスプレイコンテンツを示し、図3Bは、使用終了時のディスプレイコンテンツを示す。 手動で移動可能な消費者製品の使用中又は使用後にユーザ又は製品開発者に示すことができるディスプレイコンテンツの例であり、図3Aは、使用開始前のディスプレイコンテンツを示し、図3Bは、使用終了時のディスプレイコンテンツを示す。
本明細書によれば、ユーザによる想定される手動で移動可能な消費者製品の使用を評価することを可能にするシステムが提供され、想定される手動で移動可能な消費者製品の少なくとも1つの特性又は特徴はまだ実現されておらず、この特性又は特徴はシミュレートされ、ディスプレイユニット上のシミュレートされたコンテンツによってユーザに提示される。ディスプレイユニットは、特に、シミュレートされたコンテンツをユーザに提示するための頭部装着式ディスプレイを備えてもよい。シミュレートされたコンテンツは、実際のビデオストリーム上にオーバーレイされてもよく、又は想定される手動で移動可能な消費者製品の想定される特性に関するシミュレートされたコンテンツは、ユーザを完全にシミュレートされた環境に没入させることができるより広範なシミュレーションの一部であってもよい。
システムの目的は、想定される手動で移動可能な消費者製品の想定される特性又は特徴を評価し、ユーザが実際の特性又は特徴としてこのシミュレートされた特性又は特徴を体験する少なくとも部分的な仮想現実にユーザを没入させる能力を有することである。簡単な例では、シミュレートされた特性は、想定される手動で移動可能な消費者製品の外面の少なくとも一部の色である。より洗練された例では、シミュレートされた特性は、想定される手動で移動可能な消費者製品の正しい取り扱いに関する想定される手動で移動可能な消費者製品の視覚フィードバック機能である。シミュレートされた特性は、手持ち式の手動で移動可能な消費者製品自体によって、又は別個のディスプレイ、例えばスマートフォンなどの別個のデバイスによって提供されてもよい。次に、手持ち式の想定される手動で移動可能な消費者製品及び別個のデバイスは、想定される手動で移動可能な消費者製品を表すと考えられる。少なくとも部分的な仮想環境へのユーザのこの没入を可能にするために、ユーザの少なくとも一方の手に保持することができる手動で移動可能な消費者製品モックアップが使用される。手動で移動可能な消費者製品モックアップは、ユーザが手動で移動可能な消費者製品モックアップを保持する少なくとも把持において、想定される手動で移動可能な消費者製品の形状に少なくとも似ており、その結果、触覚的印象は想定される手動で移動可能な消費者製品の触覚的印象である。手動で移動可能な消費者製品モックアップは、追加の特徴を有してもよく、生成される仮想環境のタイプに応じて、想定される手動で移動可能な消費者製品により完全に類似してもよい。手動で移動可能な消費者製品モックアップは、実際の手動で移動可能な消費者製品であってもよく、想定される手動で移動可能な消費者製品は、同じ手動で移動可能な消費者製品であるが、更なる機能又は異なる審美的外観を有する。
想定される特性又は特徴のみが、評価手順中にディスプレイユニットのディスプレイ上のシミュレートされたコンテンツとしてユーザに提示されることが考えられるが、ユーザは完全にシミュレートされた環境に没入することもできる。これは、シミュレーションサブシステムが拡張現実若しくは複合現実(AR若しくはMR)又は完全な仮想現実(VR)をユーザに提示することができることを意味する。
本明細書において、「ユーザ」は、人間の被験者を意味する。
「手動で移動可能な消費者製品」は、一般に、典型的には一人の人間のユーザが家庭で使用することを意図した製品(デバイスを含む)を意味し、特に、ユーザによって手動で操作され、使用されるときにユーザの少なくとも一方の手に保持されるデバイスを意味する。これは、ユーザが手動で移動可能な消費者製品を別の対象で使用できることを排除するものではない。手動で移動可能な消費者製品とは、特に、例えば、皮膚を処置するために手動で移動可能な消費者製品を使用することによって、ユーザが自分自身を処置するために使用する手動で移動可能な消費者製品を意味する。したがって、手動で移動可能な消費者製品は、パーソナルケアデバイスであってもよい。本明細書の文脈において、「パーソナルケア」とは、皮膚及びその付属器(すなわち、毛及び爪)並びに、歯及び口腔(舌、歯茎などを含む)の育成(又はケア)を意味するものとし、一方では、疾病の予防並びに健康の維持及び増強(「ケア」)を目指し、また一方では、皮膚及びその付属器の美容的処置並びに外観の改善を目指すものである。これは、ウェルビーイングの維持及び強化を含む。これは、スキンケア、ヘアケア、口腔ケア、及びネイルケアを含む。これは、顎ひげケア、シェービング、及び脱毛など、その他の整容動作も更に含む。したがって、「パーソナルケアデバイス」とは、このような育成又は整容動作を実行するための任意のデバイス、例えば、皮膚マッサージデバイス又は皮膚ブラシなどの(美容)皮膚処置デバイス;湿式かみそり;電気シェーバー又はトリマー;電動機械又は光ベースの脱毛器、及び手動又は電動の歯ブラシ、(電気)フロスサー、(電気)洗浄器、(電気)舌クリーナー、又は(電気)歯肉マッサージ器などの口腔ケアデバイスを意味する。
手動で移動可能な消費者製品は、上述したような消費者デバイスであってもよいし、機能性包装、例えば洗浄されるべき標的表面上に洗浄液の微細ミストを塗布するためのボトルであってもよい。機能的包装は、2つの目的を果たし、すなわち、消費可能な製品(例えば、洗浄流体又は香料又は空気リフレッシャー又はボディローションなど)のための安全なケーシング、及び消費可能な消費者のユーザ制御影響、例えば、収納された消耗品を分配するための手動対話のためのインタフェースを提供することである。
「手動で移動可能な消費者製品モックアップ」とは、少なくともユーザの身体と接触する部分において、評価される想定される手動で移動可能な消費者製品の形状を有する3次元物体を意味する。手動で移動可能な消費者製品モックアップは、評価される(実際には、手動で移動可能な消費者製品モックアップは、想定される手動で移動可能な消費者製品のすべての特性を有することができるが、シミュレートされた特性を有することはできない)想定される手動で移動可能な消費者製品の1つ又はいくつかの特性又は特徴を有してもよいが、提案されたシステムのシミュレーション能力のために、手動で移動可能な消費者製品モックアップはまた、完全に機能しなくてもよい。手動で移動可能な消費者製品モックアップは、想定される手動で移動可能な消費者製品の一部ではない追加の機能を有し得る。例えば、手動で移動可能な消費者製品モックアップは、評価手順を実行するのに有用であり得る少なくとも1つの慣性センサ又は可聴フィードバックユニット又は皮膚接触センサなどを含み得る。手動で移動可能な消費者製品モックアップは、手動で移動可能な消費者製品モックアップの追跡を支援するためのマーカを含んでもよい。マーカは、光源(例えば、LED)又は音響エネルギー源(例えば、超音波エミッタ)などの電磁エネルギー源などの、単純な色ドット又は活性マーカなどのパッシブマーカであってもよい。手動で移動可能な消費者製品モックアップは、触覚フィードバックユニット、音響フィードバックユニット、熱フィードバックユニット、嗅覚フィードバックユニット、又は視覚フィードバックユニットなどの少なくとも1つのフィードバックユニットを含んでもよい。このフィードバックユニットは、特に、想定される手動で移動可能な消費者製品が備え得るフィードバックユニットと一致しなくてもよい。しかし、手動で移動可能な消費者製品モックアップは機能デバイスではなく、処置機能(例えば、電気シェービングヘッドによるひげの電気シェービング)は、手動で移動可能な消費者製品モックアップによって利用できない可能性があり、実際のシェービングヘッドの代わりに、音響フィードバックユニットが実際のシェービングヘッドの音を提供して、ユーザを「実際の」手動で移動可能な消費者製品を使用する印象に没入させることができる。手動で移動可能な消費者製品モックアップは、例えば、手動で移動可能な消費者製品モックアップの処置ヘッド部分が実際に皮膚と接触すると、音響フィードバックユニットが活性化されるように、接触センサを含んでもよい。
「シミュレートされた特性/シミュレーションされた特徴」とは、手動で移動可能な消費者製品モックアップによって実現されない想定される手動で移動可能な消費者製品の少なくとも部分的外観、又は手動で移動可能な消費者製品モックアップによって実現されない想定される手動で移動可能な消費者製品の機能を意味するが、特性/特徴は、シミュレートされたコンテンツとして追加され、ディスプレイユニットを介してユーザに提示される。本明細書で提案されるシステムを用いて実行される評価手順は、手動で移動可能な消費者製品開発者が、最終的な手動で移動可能な消費者製品にどの特性又は特徴を実装すべきかを、改善された手動で移動可能な消費者製品が結果として生じるように、より良好に決定することができるように、ユーザの好み、ユーザ利便性、客観的な使用改善、製品受け入れ、ユーザ満足度、性能パラメータ又は機能的特徴などの態様への洞察を提供するものとする。本システムを用いたシミュレートされた特性/特徴の試験は、これらの異なる特性/特徴を有する多数の実際の手動で移動可能な消費者製品を製造する必要なしに、この特性/特徴の多くの異なる実施形態又は変形を試験することを可能にする。このより洗練された評価能力は、既知の評価方法によって開発された手動で移動可能な消費者製品よりも、一般に消費者のニーズを満たす手動で移動可能な消費者製品をもたらすことができる。シミュレートされた特性/特徴は、手動で移動可能な消費者製品フィードバック機能、手動で移動可能な消費者製品制御機能、又は手動で移動可能な消費者製品外観のうちの少なくとも1つである。
「使用データ」とは、手動で移動可能な消費者製品モックアップとシミュレートされた特徴との組み合わせによって実現される、想定される手動で移動可能な消費者製品の使用の評価に関連する任意の種類のデータを意味する。使用データは、少なくとも手動で移動可能な消費者製品モックアップの位置及び/又は向き及び/又は動きデータを含むが、ユーザの少なくとも1つの身体部分の動きデータ、ユーザの生理学的データ、及びユーザ(皮膚)と手動で移動可能な消費者製品モックアップの特定の部分との接触に関する皮膚接触データなどの他のデータを更に含んでもよい。
「派生使用データ」とは、使用データの少なくとも一部に基づき、使用データの単なるストリームを超える任意のデータを意味する。したがって、派生使用データは、ディスプレイ上への提示又は試験手順後の印刷出力のためにソートされた使用データであってもよい。派生使用データは、特に、使用データの少なくとも一部に基づいており、想定される手動で移動可能な消費者製品の使用の評価に役立つ特定の情報を提供するために数学的演算によって処理されるデータを意味する。一例として、派生使用データは、期間ごとに処置された皮膚の面積に関連し得る。より一般的に言えば、派生使用データは表面処置に関連し得る。使用データを処理するための数学的方法は、統計的分析及び人工ニューラルネットワークなどの機械学習アルゴリズムを含むことができる。派生使用データの特定の形態として、「表面関連の派生使用データ」という用語が使用され、処置された表面に対する空間上の手動で移動可能な消費者製品の経路、処置された表面領域の表示、表面上の位置の関数としてのデータのマップ(例えば、色分けされたマップ)(例えば、閾値を超える面積当たりの処置時間、又は表面のこの特定の位置を処置している間のユーザ心拍数の特定の増加など、何らかの異常な使用が発生した処置された表面上のスポットの描写)などの、処置された表面の描写と共に視覚化され得るそのような派生使用データを意味するものとする。
本出願によるシミュレーションサブシステムは、シミュレートされたコンテンツをユーザに提供することに関与するシステム全体の一部である。シミュレーションサブシステムは、ディスプレイユニットとシミュレーション処理ユニットとを備える。ディスプレイユニットは、少なくとも部分的にシミュレートされたコンテンツをユーザに提示するためのディスプレイを備える。ディスプレイは、頭部装着式仮想現実ゴーグルの一部であってもよい。ディスプレイは、特に、ユーザが3次元環境に没入することを可能にする立体ディスプレイであってもよい。当技術分野で知られているように、ディスプレイユニットは、少なくとも1つの動きセンサ(例えば、ジャイロスコープ、加速度計、磁力計、構造化光システムなどを含む)と、任意選択で視線追跡センサとを備えてもよい。シミュレーション処理ユニットは、手動で移動可能な消費者製品モックアップ、ユーザの関連する身体部分、ディスプレイユニットなどの絶対又は相対位置情報などの利用可能な情報に基づいて、シミュレートされたコンテンツを提供するコンピューティングユニットである。したがって、シミュレーションサブシステムは、シミュレートされたコンテンツを提供するために必要なデータを受信するために、有線又は無線接続によって追跡サブシステム、データ処理サブシステム、又は手動で移動可能な消費者製品モックアップと結合されてもよい。上述したように、シミュレーションサブシステムは、例えば想定される手動で移動可能な消費者製品のシミュレートされた特性/特徴など、小さな追加の仮想コンテンツのみを提供することができるが、シミュレーションサブシステムは実際に、シミュレートされたバスルームなどの完全にシミュレートされた環境を提供することができ、ユーザの身体部分もシミュレートされたコンテンツとして提示することができる。
本出願による追跡サブシステムは、特に基準システムに対する少なくとも手動で移動可能な消費者製品モックアップに関する位置及び/又は向き及び/又は動きデータを提供する。更に、追跡サブシステムは、特に基準システムに対するユーザの頭部の位置及び/又は向き及び/又は動きを含む、ユーザの少なくとも1つの身体部分の位置及び/又は向き及び/又は動きデータを提供することができる。上述の位置及び/又は向き及び/又は動きデータを提供するために、追跡サブシステムは、手動で移動可能な消費者製品モックアップを追跡し、任意選択でユーザの1つ以上の身体部分を追跡し、更に任意選択でシミュレーションサブシステムのディスプレイユニットを追跡するように構成された追跡データ生成ユニットを備える。追跡データ生成ユニットは、加速度計、磁力計、又はジャイロスコープなどの1つ又は複数の慣性センサを備えることができる。これらの慣性センサは、特に、手動で移動可能な消費者製品モックアップに、又は例えば1つ又は複数のウェアラブルデバイス(上述の頭部装着型VRゴーグルを含む)によってユーザに配置されてもよい。追跡データ生成ユニットは、特に1つ又はいくつかの受動的又は能動的なマーカを追跡するための少なくとも1つのカメラを備えることができるが、追跡データ生成ユニットはまた、マーカなしの方法を使用することができる。カメラは、特に深度カメラ又は立体カメラであってもよい。追跡データ生成ユニットによって生成された追跡データは、手動で移動可能な消費者製品モックアップ及びユーザの少なくとも1つの身体部分の位置及び/又は向き及び/又は動きが互いに対して及び/又は基準座標系に対して既知であるように、追跡データから位置及び/又は向き及び/又は動きデータを計算する追跡データ処理ユニットに送信される。位置及び/又は向き及び/又は動きデータは、絶対基準システム(例えば、ユーザの環境に対して固定された座標系)又は相対基準システム(例えば、ユーザの頭部に固定された基準システム)に関して決定することができる。
本明細書に記載のシステムは、ユーザの少なくとも1つの生理学的パラメータを測定するための測定サブシステムを備えることができる。測定サブシステムは、所与の周波数又は準連続で生理学的パラメータを測定するための少なくとも1つの生理学的センサユニットを備えることができる。生理学的パラメータは、心拍数、血圧、皮膚湿度、ユーザの自己トーク(つぶやき)の強度、脳波又はECG波、電気皮膚反応などのうちの1つであり得る。生理学的情報は、想定される手動で移動可能な消費者製品の使用を評価するのに役立つことがあり、例えば、デバイスの使用がユーザフレンドリーではない場合、又はユーザのつぶやきの強度が同じ理由で増加し、ストレス又は不安を引き起こす場合、ユーザの心拍数が増加し得る。生理学的センサユニットは、特に、ユーザウェアラブルデバイスに配置されてもよい。
本明細書に記載のシステムは、少なくとも手動で移動可能な消費者製品モックアップに関連し、任意選択でユーザの少なくとも1つの身体部分に関連する少なくとも位置及び/又は向き及び/又は動きデータを意味する、使用データの時間的シーケンスを受信するデータ処理サブシステムを含み、このデータ処理サブシステムは、派生使用データを計算するために使用データの少なくとも一部を処理するように構成される。派生使用データは、後で分析するために、又は派生使用データの別のセットと後で比較するために、メモリユニットに格納することができる。データ処理デバイスは、派生使用データをディスプレイ上に提示するか、又は派生使用データを印刷出力するように構成されてもよい。データ処理サブシステムは、想定される手動で移動可能な消費者製品のシミュレートされた特性の異なる変形が試験された異なる評価手順に起因する派生使用データの異なるセットを自動的に比較するように構成されてもよい。データ処理サブシステムによって受信された使用データは、測定サブシステムによって測定された生理学的データ、又は手動で移動可能な消費者製品モックアップに配置された接触センサによって測定された接触データなどの追加データを含むことができる。
派生使用データはまた、皮膚処置を目的とした手動で移動可能な消費者製品のヘッドによって時間期間ごとにカバーされる皮膚領域を含むことができる。これは、手動で移動可能な消費者製品使用の性能データと考えることができる。派生使用データはまた、時間期間当たりの手動で移動可能な消費者製品の処置ヘッドの動きの数、ユーザの腕又は身体部分に対するユーザの手の角度などを含むことができる。
データ処理サブシステムは、特に、表面関連の派生使用データを決定し、処置された表面をディスプレイ上に描写し、表面関連の派生使用データの視覚化を、処置セッション中及び/又は処置セッション後にディスプレイ上の処置された表面の描写上にオーバーレイするように、使用データを処置するように構成され得る。処置された表面は、体表面、例えば脚若しくは腕又は口腔の一部であってもよく、又は処置された表面は部屋の一部であってもよい。データ処理サブシステムは、他の派生使用データ、例えば、処置セッションのパーセンテージ値又は総時間としての現在の処置された表面積の量をディスプレイに表示するように更に構成され得る。他の派生使用データは、数字、テーブル、グラフなどとしてディスプレイ上に示されてもよい。
図1は、本開示によるシステム1の一例の概略図である。システム1は、シミュレーションサブシステム100と、手動で移動可能な消費者製品モックアップ200と、追跡サブシステム300と、データ処理サブシステム400とを備える。シミュレーションサブシステム100は、図2に関連してより詳細に説明されるように、ディスプレイユニット120に示されるシミュレートされたコンテンツを生成するためのシミュレーション処理ユニット110を備える。ディスプレイユニット120は、ここでは、可能な一実施形態として仮想現実ヘッドセットとして示されている。ディスプレイユニット120は、最大9つの軸における直線加速度データ及び/又は角速度データ及び/又は向きデータを生成するための少なくとも1つの慣性センサユニット123を備えることができる。
手動で移動可能な消費者製品モックアップ200は、ユーザが手で持つように構成され、ユーザの手810が破線で示されている。手動で移動可能な消費者製品モックアップ200は、シミュレートされた処置セッション中にユーザの身体部分820と接触するように意図された処置ヘッド201を備えてもよい。手動で移動可能な消費者製品モックアップ200は、特に、最大9つの軸に沿った3次元空間における手動で移動可能な消費者製品モックアップの線形及び/又は角度加速度及び/又は向きを決定するために、1軸、2軸又は3軸加速度計、ジャイロスコープ及び/又は磁力計などの少なくとも1つの慣性センサユニット210を備えることができる。慣性センサユニット210の出力は、基準座標系10に関する値に較正又は変換することができる。手動で移動可能な消費者製品モックアップ200はまた、以下でより詳細に説明するように、慣性センサユニット210から受信機にデータを送信するための送信機ユニット又は送受信機ユニット250を備えてもよい。送受信機ユニット250として実現される場合、送受信機ユニット250はまたデータを受信し、図2に関してより詳細に説明するように、手動で移動可能な消費者製品モックアップ200が、受信したデータを手動で移動可能な消費者製品モックアップ200のそれぞれのアクション(例えば、ユーザへのフィードバック動作)に使用できるように構成されてもよい。ユーザの身体部分820は、ここでは脚として非限定的に示されており、この脚は実線で示されているが、当然ながらシステム1の一部ではない。本明細書では、典型的にはユーザの身体部分を参照するが、これは、手動で移動可能な消費者製品モックアップに関係する開示された手順によって、想定される手動で移動可能な消費者製品の使用が評価されるユーザが、別の被験者の身体部分上又はモックアップ身体部分上で手動で移動可能な消費者製品モックアップを使用することを除外するものではない。
システム1はまた、少なくとも1つの追跡データ生成ユニット310、311及び追跡データ処理ユニット320を備える追跡サブシステム300を備える。いくつかの実施形態では、追跡サブシステム300は、手動で移動可能な消費者製品モックアップ200に配置された受動的又は能動的なマーカ360(例えば受動的視覚マーカ又は能動的IR発光マーカ、例えばIR LED)、及び/又は処置される身体部分820に配置されたマーカ370を含む。次いで、追跡データ生成ユニット310、311は、特に基準システム10の3つの座標x、y、zに及ぶ3次元空間に関して、3次元空間内の視覚マーカ360、370を追跡するように配置された少なくとも1つのカメラ、例えば立体カメラを備えることができる。追跡データ生成ユニット310、311は、複数のカメラ、例えば、2つ、3つ、4つ、5つなどのカメラを備え、その結果、手動で移動可能な消費者製品モックアップ、及び任意選択で処置された身体部分820も本質的に不可視領域なしに3次元空間内で追跡できることが保証され得る。カメラを使用するとき、記載された動きのキャプチャは、追跡されるオブジェクト上のマーカ(手動で移動可能な消費者製品モックアップ及び身体部分又は完全なユーザ)又は(例えば、解剖学的ランドマーク若しくは他のパターン、又はシルエット追跡に基づいて)マーカなしの動きのキャプチャを使用することができる。カメラの代わりに、又はカメラ(又は他の技術)に加えて、追跡サブシステムは、少なくとも1つの慣性センサユニット350(例えば、加速度計、ジャイロスコープ、及び/又は磁力計を含む)などの更なる運動捕捉技術を使用して、最大9つの軸を有する3D空間内の少なくとも手動で移動可能な消費者製品モックアップ200の動き及び向きを決定することができる。これに関連して、それぞれの慣性センサユニット123、210、350は、既に説明したように、手動で移動可能な消費者製品モックアップ200に、又はその中に配置され得るが、処置される身体部分820又はユーザの様々な身体部分にも配置することができる。更に、シミュレーションで使用される他のすべての要素は、マーカ又は慣性センサを装備することができ、例えば、ユーザの手810は、別の慣性センサユニットを装備することができる。ディスプレイユニット120は、位置及び/又は動き及び/又は向きデータDを受信機に転送するためのセンサユニット123を備えてもよい(受信機は、例えば、データ処理サブシステム400内に配置される)。慣性センサユニット350は、図1に示すように、例えば接着剤の帯によって、又はウェアラブルデバイス380によって、処置される身体部分820に配置することができる。処置される身体部分820が、互いに対して移動可能であり得る様々な部分(例えば、下側脚部及び上側脚部)を備えてもよく、2つ以上の慣性センサユニット350は、身体部分820に配置されてもよい。これまで説明したものに代えて又は加えて、追跡サブシステム300は、基本的に既知の磁場(すなわち、基準システムに関して定量的に既知である)を生成する少なくとも1つの磁石を備えてもよく、磁力計は、その後、手動で移動可能な消費者製品モックアップ200又は身体部分820に又はその中に配置されてもよく、それにより、磁場の方向及び磁場の強度が基準システム内の絶対位置を提供する。このような慣性センサユニット123、210、350は、無線データ伝送技術(例えば、Bluetooth(登録商標)など)を備えてもよく、又は(例えば追跡データ処理ユニット320に設けられた)データ受信機に有線接続されてもよい。代替的又は追加的に、追跡サブシステム300は、超音波放射ベースの追跡技術(例えば、手動で移動可能な消費者製品モックアップ200内若しくはそこに、又は身体部分820に配置された1つ又は複数の超音波エミッタ)及びそれぞれの超音波受信機を利用することができる。代替的又は追加的に、追跡サブシステムは、IR動きキャプチャ技術を使用してもよい。光学的視覚マーカの代わりに、IR光源が、追跡データ生成ユニット310、311(例えば、ドイツ、Russelsheimにあるsoft2tec GmbHからNexonarというブランドで入手可能である)としてのそれぞれのIRカメラと共にマーカ360、370として使用されてもよい。当業者に知られている他のすべての3D追跡技術も、代替的又は追加的な方法で使用することができる。
追跡データ処理ユニット320は、追跡データ生成ユニット310、311から追跡データDを受信する(ここでは、追跡データ生成ユニット310、311が手動で移動可能な消費者製品モックアップ200とは別個であることが示されているが、追跡データ生成ユニットは、代替的に又は追加的に、例えば、関連する追跡データDを追跡データ処理ユニット320に送信する慣性センサユニット350によって、手動で移動可能な消費者製品モックアップ200又は身体部分820において又はその中で実現されてもよいことを理解されたい。追跡データ処理ユニット320は、追跡データDから、基準システム10内の手動で移動可能な消費者製品モックアップ200及び/又は身体部分820の位置、動き及び/又は向きを提供する位置、動き(例えば、速度及び加速度)及び/又は向きデータDを計算するように構成される。
システム1は、いわゆる使用データDとして追跡データ処理ユニット320から位置、動き及び/又は向きデータDを受信するデータ処理サブシステム400を更に備える。本明細書でのデータ処理サブシステム400は、データ処理ユニット410及びストレージユニット420を備える。いくつかの実施形態では、追跡データ処理ユニット320及びデータ処理サブシステム400は、単一の統合サブシステムとして実現される。追跡データ処理ユニット320によって受信される代わりに、位置及び/又は動き及び/又は向きデータDは、手動で移動可能な消費者製品モックアップ200又は身体部分820のそれぞれのセンサユニット250、350から、データ処理ユニット410、特にデータ処理ユニット410の受信機又は送受信機450に直接送信されてもよい。そのようなデータ転送は、無線方式又は有線方式で起こり得る。そのような位置及び/又は動き及び/又は向きデータDは、使用データDとも見なされる。
データ処理ユニット410は、位置及び/又は動き及び/又は向きデータDをシミュレーションサブシステム300に転送するように構成されてもよい。しかし、データ処理ユニット410はまた、使用データDを処理することができ、その結果、シミュレーションサブシステム100に関連する派生使用データDを供給することができ、シミュレーションサブシステムがシミュレーション処理ユニット110を介して、ディスプレイユニット120に表示されるシミュレートされたコンテンツを提供することを可能にする。次いで、派生使用データDは、手動で移動可能な消費者製品モックアップ200、身体部分820、及び/又はディスプレイユニット120の相対位置、動き、及び/又は向きを含むことができる。シミュレートされたコンテンツを提供するプロセスは、本質的に「ライブ」プロセス(すなわち、リアルタイム)であるべきであり、すなわち、ユーザは、ユーザが手動で移動可能な消費者製品を用いて実行する動作とシミュレートされたコンテンツの提示との間のいかなる関連する遅延にも気付かないものとする。「ライブ」プロセスのこの認識は、試験される想定される手動で移動可能な消費者製品に依存することがあり、約1秒以下、例えば100ms以下であり得る。したがって、遅延は、0.001ms~2秒の範囲、特に0.1ms~1秒の範囲、更に特に1ms~500msの範囲、更に特に1ms~100msの範囲であり得る。
システム1は、生理学的センサユニット510、520によってユーザの生理学的パラメータを決定するように構成された測定サブシステム500を備えることができる。それぞれ測定された生理学的データDは、使用データDとしてデータ処理ユニット400に転送される。生理学的センサユニット510、520によって測定される生理学的データDは、心拍数データ、脳波データ、ECG波データ、皮膚湿度データ、血圧データ、ユーザの自己トークの音響強度に関するデータ、ユーザの眼に関する動きデータ、電気皮膚反応データ、表情データ又は顔の動きデータなどのうちの少なくとも1つであってもよい。そのような生理学的データは、想定される手動で移動可能な消費者製品の使用の理解の更になる層を試験手順及び自動分析に、又は少なくとも後の人間の評価のためのデータ提示の詳細に追加するために測定される。生理学的センサユニット510、520は、処置される身体部分820に配置されてもよく、ウェアラブルデバイス380に組み込まれてもよい。眼の動きデータは、それぞれのセンサを仮想現実ヘッドセットに配置することによって測定することができる。ユーザは、例えば、生理学的センサユニットが含まれるリストバンドを装着することもできる。マイクロフォンを使用して、想定される手動で移動可能な消費者製品のシミュレートされた使用中のユーザの自己トークの強度を測定することができる。明らかに、1つ又は複数の生理学的パラメータを測定するために、ユーザの身体又はユーザの身体に近い様々な位置で1つ又は複数のセンサを使用することができる。次いで、そのような生理学的データを他の使用データDと接続して、使用の質を評価することができる。想定される手動で移動可能な消費者製品のシミュレートされた使用中のユーザの不安又はストレスを示す生理学的パラメータは、シミュレートされた特性又は特徴の使用品質に関する情報を提供し、次いで、これを変更して不安又はストレスを軽減し、評価手順の焦点であるシミュレートされた特性又はシミュレートされた特徴をより消費者に優しい方法で実現することができる。
手動で移動可能な消費者製品モックアップ200、身体部分820及び/又はディスプレイユニット120の少なくとも位置及び/又は動き及び/又は向きデータD並びに任意選択で生理学的データDを意味する使用データDに基づいて、データ処理ユニット410は、派生使用データDを決定し、これは想定される手動で移動可能な消費者製品のシミュレートされた使用の品質の自動化された及び/又は人間のユーザに基づく評価を可能にするデータを含む。例えば、データ処理ユニット410は、特定の身体領域を処置するのに必要とされた合計時間又は評価手順中のユーザの平均ストレスレベルなどを計算することができる。データ処理ユニット410は、現在の評価手順からの使用データD及び/又は派生使用データDを格納するため、及び/又は以前の評価手順からの使用データDU’及び/又は派生使用データDD’を格納するためのストレージユニット420を備えることができ、したがって、データ処理ユニット410が、特定のシミュレートされた特性又は特徴を含む想定される手動で移動可能な消費者製品のシミュレートされた使用の性能パラメータを直接かつ自動化された方法で決定することを可能にする。派生使用データDは、提示のために組み立てられ準備された使用データDを含むことができる。
システム1はまた、ユーザアクセス可能な方法で派生使用データDなどの情報を表示するためのディスプレイ910と、ユーザがユーザ対話ユニット900と対話することを可能にするユーザインタフェース920とを備えることができるユーザ対話ユニット900を備えることができる。ユーザ対話ユニット900のユーザは、特に、手動で移動可能な消費者製品のユーザとは異なる人物であってもよい。ユーザ対話ユニット900のユーザは、特に、提示された派生使用データDを分析する製品開発者であってもよい。
追跡サブシステム300、データ処理サブシステム400、及びシミュレーションサブシステム100は、一体型ユニットとして一緒に(又は少なくとも部分的に、例えば追跡データ生成ユニット310及びディスプレイユニット120を除いて)実現されることを排除するものではなく、例えば、単一のコンピュータによって実現されてもよい。
図2は、ユーザによる想定される手動で移動可能な消費者製品の使用に関する評価手順を実行するための例示的なシステム1Aのいくつかの構成要素の図であり、ここに示す構成要素は、ディスプレイユニット120A、手動で移動可能な消費者製品モックアップ200A、及びデータ処理ユニット400Aを含む。システム1Aの他のすべての必要な構成要素が存在すると考えられ、任意選択の構成要素が存在してもよいことを理解されたい。ここでも、ディスプレイユニット120Aは、ディスプレイ画面121Aを有する仮想現実ヘッドセットとして示されている。ユーザは、試験手順中にディスプレイユニット120Aを着用し、ディスプレイ画面121A上で、シミュレートされたコンテンツ290Bを含む表示されたコンテンツ700Bを見て、図示の実施形態におけるシミュレートされたコンテンツは、ディスプレイ画面121A上に見える手動で移動可能な消費者製品上の照射部分によって示されるような、手動で移動可能な消費者製品の視覚フィードバック機能に関する。図2において、ディスプレイ画面121A上に見えるディスプレイコンテンツ700Bは、手動で移動可能な消費者製品200Bと、ユーザの手810Bと、ユーザの身体部分820Bとを含む。いくつかの実施形態では、(シミュレートされたコンテンツ290Bなしの)手動で移動可能な消費者製品200B及びディスプレイ画面121A上に見える手810B及び身体部分820Bは、実際のオブジェクトの単なるビデオ描写、すなわち、手動で移動可能な消費者製品モックアップ200A、手810A、及び身体部分820Aのビデオ描写である。したがって、カメラ124Aをディスプレイユニット120A上に配置して、ユーザが見ることができるもののライフビデオストリームをキャプチャすることができる。次いで、シミュレーション処理ユニットは、シミュレートされた視覚フィードバック機能のみをシミュレートされたコンテンツ290Bとしてビデオ画像に追加する。いくつかの実施形態では、仮想コンテンツ290Bは、消費者モックアップデバイス上のマーカなどの特定の特徴の削除を含む。いくつかの実施形態では、完全なディスプレイコンテンツ700Bは仮想コンテンツ290Bである。シミュレーションサブシステムは、例えば、仮想身体部分及び完全に仮想の手動で移動可能な消費者製品と共に仮想バスルーム環境の画像を生成することができる。
ディスプレイユニット120Aは、ユーザの眼球運動を追跡するための少なくとも1つの視線追跡センサ122Aを備えてもよい。ディスプレイユニット120Aは、特に、データ処理サブシステム400Aに転送することができる位置及び/又は動き(すなわち、速度及び/又は加速度)及び/又は向きデータDを生成するための少なくとも1つの慣性センサユニット123Aを備えることができ、データ処理サブシステム400Aは、特に、データDを受信するための受信機ユニット又は送受信機ユニット450Aを有するデータ処理ユニット410Aを備えることができる。
手動で移動可能な消費者製品モックアップ200Aは、追跡データ生成ユニットによって検出されるのに適したマーカ360Aと、手動で移動可能な消費者製品モックアップ200Aの位置及び/又は動き及び/又は向きデータDを生成するための慣性センサユニット210Aと、データ処理サブシステム400Aの受信機ユニット450Aにデータを転送するための受信機ユニット又は送受信機ユニット250Aとを備えることができる。任意選択で、手動で移動可能な消費者製品モックアップ200Aは、ユーザの少なくとも1つの生理学的パラメータの値を決定するための少なくとも1つの生理学的センサユニット510A、530Aを備える。ここで、第1の生理学的センサユニット510Aは、ユーザが意図された方法で手動で移動可能な消費者製品モックアップ200Aを把持したときにユーザの手810A(手810Aは破線で示されている)で生理学的パラメータを測定し、したがって生理学的データDを生成することが可能な消費者デバイスモックアップ200A上の位置に配置されてもよい。第2の生理学的センサユニット530Aは、処置ヘッド201Aに配置されてもよく、処置ヘッド201Aが身体部分820Aと接触すると、処置される身体部分820Aで生理学的パラメータを測定することができる。処置ヘッド201Aはまた、処置ヘッド201Aが身体部分820Aと接触しているかどうかを判定するための接触センサ230Aを備えてもよい。追跡サブシステムは、処置ヘッド201Aが身体部分820Bと接触している可能性が高いことを決定するのに十分に装備され、正確であり得るが、接触センサ230Aを使用して接触を確認し、全体的な追跡性能に更になる精度を追加することができる。すべての言及されたセンサ210A、230A、510A、及び/又は530Aは、測定されたデータが使用データとしてデータ処理サブシステム400Aの受信機450Aに送信され得るように、受信機ユニット又は送受信機ユニット250Aと結合され得る。
手動で移動可能な消費者製品モックアップ200Aは、使用中の実際の手動で移動可能な消費者製品によって提供されるフィードバックと同様又はほぼ同一の方法でフィードバックをユーザに提供できるように、フィードバックユニット600Aを備えてもよい。フィードバックユニット600Aは、熱、触覚、視覚、音響、又は嗅覚フィードバックユニットの少なくとも1つであってもよい。フィードバックユニット600Aは、手動で移動可能な消費者製品モックアップ200Aに配置された制御ユニットによって制御されてもよい。フィードバックユニット600Aの1つの潜在的な使用は、実際の手動で移動可能な消費者製品のフィードバックと同様又は少なくともほぼ同一のデバイスフィードバックをユーザに提供することである。例えば、手動で移動可能な消費者製品モックアップ200Aはモータを備えなくてもよいが、想定される手動で移動可能な消費者製品はモータを備える。したがって、フィードバックユニット600Aは、一度オンにされた手動で移動可能な消費者製品のモータの振動と同様の方法でユーザの手810Aに振動を伝達する振動子(例えば圧電振動子)として実現することができる。フィードバックユニット600Aに加えて、又はその代わりに、フィードバックユニット610Aが処置ヘッド201Aに配置されてもよい。このフィードバックユニット610Aは、例えば、熱フィードバックユニットとして実現することができる。手動で移動可能な消費者製品モックアップ200Aは、使用時に皮膚に熱を発生させる光ベースの脱毛デバイスに似た構造にすることができる。熱フィードバックユニット610Aを使用して、この発熱をシミュレートし、シミュレートされた試験手順をより現実的にすることができる。手動で移動可能な消費者製品モックアップ200A内の制御ユニットによって制御される代わりに、又はそのような制御に加えて、データ処理サブシステム400Aは、フィードバックユニット600A、610Aを制御するために、フィードバックデータDを手動で移動可能な消費者製品モックアップ200Aに送信してもよい。
図3A及び3Bは、データ処理サブシステムによって制御されるディスプレイのコンテンツ10A、10Bの描写である。図3Aには、処置された表面12が示されており、この表面12は、図示の実施形態では下腿の表面である。派生使用データの1つ又は複数の値11A、11Bをディスプレイに示すことができる。例として、ディスプレイに示される値11A、11Bは、表示されたコンテンツが属する処置セッション中の時点での処置表面積の割合、すなわち図3Aでは0%、図3Bでは60%を示す。代替的又は追加的に、そのような値は示されなくてもよく、又は更に派生使用データ情報は、例えば、経時的に変化し得る単一の値によって、表によって、グラフなどによって示されてもよい。
本例では、図3Aは、手動移動可能な消費者製品の使用が開始される前のディスプレイコンテンツ10Aを示し、図3Bは、使用期間(図3Bは、使用期間中のディスプレイコンテンツであってもよいが、説明を容易にするために、ここでは、ディスプレイは、使用セッションが完了した後のコンテンツを示すと仮定する。)の終了時のディスプレイコンテンツ10Bを示す。表面関連の派生使用データの視覚化が、処置された表面12の描写の上にオーバーレイされていることが分かる。視覚化されて表示される表面関連の派生使用データは、位置及び速度情報14を含むことができ、処置された表面12に対する手動で移動可能な消費者製品モックアップの空間内の経路が示される。経路14を示す線の幅及び/又は色又は陰影は、速度を示すために変化させることができ、経路線14の幅が大きいと高速を示すことができ、経路線14の幅が小さいと低速を示すことができる。ここでの陰影は、幅に続き、速度情報に下線を引いている。別の実施形態では、陰影又は着色は、他の情報を提供することができ、ユーザの心拍又は任意の他の表面関連の派生使用データに関連することができる。
更に、処置された表面領域13が示される。図示の例は、身体部分の皮膚が一連の光パルスによって処置される、手動で移動可能な消費者製品としての光ベースの皮膚処置デバイスに関することができる。視覚化された個々の矩形の処置された表面領域はそれぞれ、デバイスの矩形出力窓を通って放射された単一の光パルスに関連する。ユーザは、いくつかの領域で重なる光フラッシュを生成し、他の領域で離間した光フラッシュを生成したことが分かる。表面関連の派生使用データのこの描写及び視覚化は、デバイスの使用を評価し、皮膚に適用されたフラッシュがより良好に分散されるようにユーザに対する他のフィードバック機構を企図することを可能にする。新しいフィードバック機能は、例えば、表面上のデバイスの速度が正しい場合には緑色であり、表面上の速度が低すぎるか速すぎる場合には赤色に切り替わるフィードバック光を含むことができる。次いで、消費者製品のそのような新しいフィードバック機能は、本明細書で提案されるシステムで再びチェックすることができ、新しいシミュレートされたフィードバック機能が結果を改善したかどうかを理解するために、処置された表面上のフラッシュの結果として生じる分布をこの以前の分布と比較することができる。視覚フィードバックの代わりに、触覚フィードバック機能も試験することができる。フィードバック機能を反復的に改善することができ(例えば、視覚及び触覚フィードバック機能の組み合わせ)、シミュレーションの終わりに、顕著に改善されたデバイスを設計及び製造することができる。
更に、消費者製品が表面を移動させた第1のストロークのいくつかのフラッシュは、第2のストロークからの隣接するフラッシュと重なり合い、他のフラッシュはそれらの間に間隙を有することが分かる。ここで、一方でストロークの重複フラッシュを回避し、他方でストローク間の間隙も回避するために、左又は右に移動するようにユーザに指示する新しいフィードバック機能がシミュレートされることが考えられる。
使用期間の終わりに、処置された表面の割合を示す値11Bは60%を示す。ディスプレイコンテンツは、図3Aに示すディスプレイコンテンツ10Aから図3Bに示すディスプレイコンテンツ10Bまで時系列に変化することが想定される。
本明細書に開示される寸法及び値は、列挙された正確な数値に厳密に限定されるものとして理解されるべきではない。その代わりに、特に指示がない限り、このような寸法は各々、列挙された値とその値を囲む機能的に同等な範囲との両方を意味することが意図される。例えば、「40mm」と開示された寸法は、「約40mm」を意味することが意図される。

Claims (15)

  1. 想定される手動で移動可能な消費者製品の、ユーザによる使用を評価するためのシステムであって、
    前記使用中に前記ユーザの手の少なくとも一方に保持されることを意図した、手動で移動可能な消費者製品モックアップと、
    少なくとも部分的にシミュレートされたコンテンツを提示するためのディスプレイユニット、及び前記シミュレートされたコンテンツを提供するためのシミュレーション処理ユニットを備えるシミュレーションサブシステムと、
    少なくとも手動で移動可能な前記消費者製品モックアップの動きを、基準システムを基準にして追跡するように構成された追跡サブシステムであって、少なくとも1つの追跡データ生成ユニット、及び前記追跡データからの位置及び/又は向き及び/又は動きデータを決定する追跡データ処理ユニットを備える追跡サブシステムと、
    少なくとも前記位置及び/又は向き及び/又は動きデータを含む使用データを受信するためのデータ処理サブシステムと
    を備え、
    前記シミュレーションサブシステムは、想定される手動で移動可能な前記消費者製品の少なくとも1つの特性又は特徴をシミュレートし、前記ディスプレイユニットを介して、シミュレートされたコンテンツとして、この特性又は特徴を提示するように構成されており、
    前記データ処理サブシステムは、前記受信した使用データの少なくとも一部を処理して、派生使用データを計算し、想定される手動で移動可能な前記消費者製品の前記使用を評価することを可能にするように構成されており、
    前記データ処理サブシステムは、前記ディスプレイユニットを介して、又はユーザ対話デバイスのディスプレイを介して、前記派生使用データを表示するように更に構成されている、システム。
  2. 前記追跡サブシステムは、前記基準システムに対する前記ユーザの少なくとも1つの身体部分の位置及び/又は向き及び/又は動きを追跡するように更に構成されている、請求項1に記載のシステム。
  3. 手動で移動可能な前記消費者製品は表面を処置するように配置されており、前記データ処理サブシステムは、前記受信した使用データの少なくとも一部を処理して、表面関連の派生使用データを計算するように構成されている、請求項1又は2に記載のシステム。
  4. データ処理サブシステムは、前記表面の描写を表示し、前記描写された表面上に前記表面関連の派生使用データの視覚化をオーバーレイするように構成されている、請求項3に記載のシステム。
  5. 前記データ処理サブシステムは、前記描写された表面上に時間連続アニメーションとしてオーバーレイされる前記表面関連の使用データの視覚化を表示するように構成されている、請求項4に記載のシステム。
  6. 前記追跡データ生成ユニットは、手動で移動可能な前記消費者製品モックアップに設けられた少なくとも1つの慣性センサを含み、前記追跡データ生成ユニットは、少なくとも1つの慣性センサを備える少なくとも1つのユーザウェアラブルユニットを備える、請求項1から5のいずれか一項に記載のシステム。
  7. 前記追跡データ処理ユニットは、前記ユーザの身体部分に対する手動で移動可能な前記消費者製品モックアップの位置及び/又は向き、又は前記ユーザの身体部分に対する手動で移動可能な前記消費者製品モックアップの速度を決定するように構成されている、請求項1から6のいずれか一項に記載のシステム。
  8. 前記ユーザの生理学的パラメータを測定し、測定された生理学的データを使用データとして前記データ処理サブシステムに転送するための、少なくとも1つの生理学的センサユニットを有する測定サブシステムを更に備える、請求項1から7のいずれか一項に記載のシステム。
  9. 前記生理学的センサユニットは、手動で移動可能な前記消費者製品モックアップに設けられており、及び/又は前記生理学的センサユニットは、ユーザウェアラブルデバイスに設けられている、請求項8に記載のシステム。
  10. 前記生理学的センサユニットは、前記生理学的パラメータとして、前記ユーザの心拍数、脳波又はECG波、皮膚湿度、血圧、又は自己トークの強度のうちの少なくとも1つを測定するように構成されている、請求項8又は9に記載のシステム。
  11. 前記データ処理サブシステムは、現在の使用セッション中に受信された使用データを、以前の使用セッションから以前に受信された使用データと比較するように構成されているか、又は現在の使用セッションからの派生使用データを、以前の使用セッションからの派生使用データと比較するように構成されている、請求項1から10のいずれか一項に記載のシステム。
  12. 手動で移動可能な前記消費者製品モックアップは、フィードバックユニット、特に、触覚フィードバックユニット、音響フィードバックユニット、熱フィードバックユニット、嗅覚フィードバックユニット、又は視覚フィードバックユニットのうちの少なくとも1つを備える、請求項1から11のいずれか一項に記載のシステム。
  13. 手動で移動可能な前記消費者製品モックアップは、少なくとも1つの接触センサユニットを備え、手動で移動可能な前記消費者製品モックアップは、特に、データ送信ユニットを介して、接触データを使用データとして前記データ処理サブシステムに送信するように構成されている、請求項1から12のいずれか一項に記載のシステム。
  14. 特に表面を処置するように構成された、想定される手動で移動可能な消費者製品の、ユーザによる使用を評価する方法であって、
    手動で移動可能な消費者製品モックアップをユーザにより使用するステップであって、前記ユーザが手動で移動可能な前記消費者製品モックアップを少なくとも一方の手で保持するステップと、
    基準システムを基準にする手動で移動可能な前記消費者製品モックアップの少なくとも動きを追跡し、任意選択で、前記基準システムを基準にする前記ユーザの少なくとも1つの身体部分の位置及び/又は向き及び/又は動きを追跡するステップと、
    少なくとも前記位置及び/又は向き及び/又は動きデータを含む使用データを生成し、任意選択で、前記ユーザからの生理学的データを更に含む使用データを生成するステップと、
    前記使用データを使用してシミュレートされたコンテンツを生成するステップであって、前記シミュレートされたコンテンツは、想定される手動で移動可能な前記消費者製品の少なくとも1つの特性又は特徴を表す、ステップと、
    少なくとも前記シミュレートされたコンテンツをディスプレイユニット上に提示するステップと、
    前記使用データの少なくとも一部を使用して派生使用データを計算するステップと、
    前記派生使用データを分析して、想定される手動で移動可能な前記消費者製品の前記使用を評価するステップと、
    前記派生使用データを前記ディスプレイユニット上に、又はユーザ対話デバイスのディスプレイを介して表示するステップと、
    を含む方法。
  15. 手動で移動可能な前記消費者製品は、表面を処置するように構成されており、前記方法は、前記処置された表面の描写を表示し、表面関連の派生使用データの視覚化を前記描写された表面にオーバーレイする更になるステップを含む、請求項14に記載の方法。
JP2021547253A 2019-02-14 2020-02-06 想定される手動で移動可能な消費者製品の使用を評価するためのシステム Active JP7292396B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP19157178.5 2019-02-14
EP19157178 2019-02-14
EP19196473.3 2019-09-10
EP19196473.3A EP3696740B1 (en) 2019-02-14 2019-09-10 System for assessing the usage of an envisaged manually movable consumer product
PCT/IB2020/050965 WO2020165703A1 (en) 2019-02-14 2020-02-06 System for assessing the usage of an envisaged manually movable consumer product

Publications (2)

Publication Number Publication Date
JP2022520412A true JP2022520412A (ja) 2022-03-30
JP7292396B2 JP7292396B2 (ja) 2023-06-16

Family

ID=65440859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021547253A Active JP7292396B2 (ja) 2019-02-14 2020-02-06 想定される手動で移動可能な消費者製品の使用を評価するためのシステム

Country Status (6)

Country Link
US (1) US11093027B2 (ja)
EP (1) EP3696740B1 (ja)
JP (1) JP7292396B2 (ja)
KR (1) KR102638830B1 (ja)
CN (1) CN113424212A (ja)
WO (1) WO2020165703A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117056831A (zh) * 2023-10-13 2023-11-14 南京龙垣信息科技有限公司 基于卷积神经网络的内心独白识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003250509A (ja) * 2002-02-27 2003-09-09 Japan Tobacco Inc シミュレーションシステム
JP2006501965A (ja) * 2002-10-09 2006-01-19 ボディーメディア インコーポレイテッド 人間の生理学的及びコンテキスト情報を検知、受信、導出及び表示する装置

Family Cites Families (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7160110B2 (en) * 1999-11-30 2007-01-09 Orametrix, Inc. Three-dimensional occlusal and interproximal contact detection and display using virtual tooth models
US6939138B2 (en) * 2000-04-12 2005-09-06 Simbionix Ltd. Endoscopic tutorial system for urology
US9811818B1 (en) * 2002-10-01 2017-11-07 World Award Academy, World Award Foundation, Amobilepay, Inc. Wearable personal digital device for facilitating mobile device payments and personal use
US10073953B2 (en) * 2002-10-01 2018-09-11 World Award Academy, World Award Foundation, Amobilepay, Inc. Wearable personal digital device for facilitating mobile device payments and personal use
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
JP3729829B2 (ja) * 2004-02-13 2005-12-21 国立大学法人岐阜大学 理学的診療訓練用人体装着具
US20050216243A1 (en) * 2004-03-02 2005-09-29 Simon Graham Computer-simulated virtual reality environments for evaluation of neurobehavioral performance
CA2558650A1 (en) * 2004-03-08 2005-09-22 The Johns Hopkins University Device and method for medical training and evaluation
KR20050102803A (ko) * 2004-04-23 2005-10-27 삼성전자주식회사 가상입력장치, 시스템 및 방법
US7731500B2 (en) * 2004-07-08 2010-06-08 Laerdal Medical Corporation Vascular-access simulation system with three-dimensional modeling
DE102004049938B4 (de) * 2004-10-13 2006-11-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Simulation haptisch wahrnehmbarer Vibrationen eines Objektes
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
JP2008165488A (ja) * 2006-12-28 2008-07-17 Fujitsu Ltd 組立操作性評価装置、方法及びプログラム
US8321797B2 (en) * 2006-12-30 2012-11-27 Kimberly-Clark Worldwide, Inc. Immersive visualization center for creating and designing a “total design simulation” and for improved relationship management and market research
KR101001617B1 (ko) * 2007-12-17 2010-12-17 한국전자통신연구원 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법
US8615383B2 (en) * 2008-01-18 2013-12-24 Lockheed Martin Corporation Immersive collaborative environment using motion capture, head mounted display, and cave
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
EP2191788A1 (en) * 2008-11-29 2010-06-02 Braun Gmbh Method and device for three-dimensional measurement of a dental model
JP5200903B2 (ja) * 2008-12-08 2013-06-05 オムロンヘルスケア株式会社 電子血圧計
EP2229916B1 (en) * 2009-03-19 2016-06-01 Braun GmbH Method for determining a pattern of use of an electric toothbrush and electric toothbrush
US8381571B2 (en) * 2010-06-17 2013-02-26 Braun Gmbh Method and apparatus for assessing the penetration of tooth cleaning elements in the gingival pocket
CN101980228A (zh) * 2010-09-01 2011-02-23 张辉 人体信息监测与处理系统及方法
KR101390383B1 (ko) * 2010-11-16 2014-04-29 한국전자통신연구원 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치
US8988465B2 (en) * 2012-03-30 2015-03-24 Ford Global Technologies, Llc Physical-virtual hybrid representation
US8938477B1 (en) * 2012-09-26 2015-01-20 Emc Corporation Simulating data storage system configuration data
US20150072323A1 (en) * 2013-09-11 2015-03-12 Lincoln Global, Inc. Learning management system for a real-time simulated virtual reality welding training environment
WO2015054314A1 (en) * 2013-10-07 2015-04-16 Mentice Inc. Medical procedure simulation-based radiation estimation and protection
US9751149B2 (en) * 2014-01-07 2017-09-05 Illinois Tool Works Inc. Welding stand for a welding system
US9922460B2 (en) * 2014-11-04 2018-03-20 Illinois Tool Works Inc. Stereoscopic helmet display
US10869541B2 (en) * 2014-11-11 2020-12-22 ZeroBrush, Inc. Systems, devices, and methods for customized dental care
CN107205786B (zh) * 2015-02-25 2020-08-25 马科外科公司 用于在外科手术过程中减少跟踪中断的导航系统和方法
WO2016170533A1 (en) * 2015-04-22 2016-10-27 Hisep Technology Ltd. Direction finding system device and method
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US10854104B2 (en) * 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
US20170178540A1 (en) * 2015-12-22 2017-06-22 Truinject Medical Corp. Injection training with modeled behavior
US10656517B2 (en) * 2016-01-20 2020-05-19 Mentor Graphics Corporation Pattern correction in multiple patterning steps
US11364102B2 (en) * 2016-02-08 2022-06-21 Oralucent, Inc. Short wavelength visible light-emitting toothbrush with an electronic signal interlock control
US10849688B2 (en) * 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
US11064948B2 (en) * 2016-04-02 2021-07-20 Steven R. Peabody Medical diagnostic device, system, and method of use
US10078377B2 (en) * 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
KR101948115B1 (ko) * 2017-03-28 2019-02-14 주식회사 엑소시스템즈 웨어러블 장치 및 그것을 포함하는 재활 시스템
KR101793468B1 (ko) * 2017-03-31 2017-11-03 주식회사 에프앤디파트너스 Ar을 이용한 셀프 뷰티앱 플랫폼 시스템 및 방법
US10806532B2 (en) * 2017-05-24 2020-10-20 KindHeart, Inc. Surgical simulation system using force sensing and optical tracking and robotic surgery system
JP6640792B2 (ja) * 2017-06-30 2020-02-05 ファナック株式会社 ハンド制御装置、ハンド制御方法、およびハンドのシミュレーション装置
US20190133893A1 (en) * 2017-07-20 2019-05-09 Oscar E. Recio Saucedo Tooth Paste Gummy
EP3528091A1 (en) * 2018-02-14 2019-08-21 Koninklijke Philips N.V. Personal care device localization
US10928589B2 (en) 2018-02-20 2021-02-23 Honeywell International Inc. Metallic blinder between optical waveguides to reduce cross talk

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003250509A (ja) * 2002-02-27 2003-09-09 Japan Tobacco Inc シミュレーションシステム
JP2006501965A (ja) * 2002-10-09 2006-01-19 ボディーメディア インコーポレイテッド 人間の生理学的及びコンテキスト情報を検知、受信、導出及び表示する装置

Also Published As

Publication number Publication date
US20200264697A1 (en) 2020-08-20
US11093027B2 (en) 2021-08-17
JP7292396B2 (ja) 2023-06-16
KR102638830B1 (ko) 2024-02-23
CN113424212A (zh) 2021-09-21
EP3696740B1 (en) 2024-01-10
EP3696740A1 (en) 2020-08-19
WO2020165703A1 (en) 2020-08-20
KR20210116553A (ko) 2021-09-27

Similar Documents

Publication Publication Date Title
US11786033B2 (en) Methods and systems for extracting brushing motion characteristics of a user using an oral hygiene device including at least one accelerometer to provide feedback to a user
US11730543B2 (en) Sensory enhanced environments for injection aid and social training
US11166669B2 (en) Method for determining of movement patterns during a dental treatment
CN107708483B (zh) 用于使用霍尔效应传感器提取用户的运动特性以向用户提供反馈的方法和系统
JP2019505269A (ja) 位置および実績に基づくガイダンスおよびフィードバックを提供するためのシステム、方法および装置
CN111971643B (zh) 对个人护理设备的定位
CN109589091A (zh) 选定ecg信道的交互式显示器
Ye et al. Rcare world: A human-centric simulation world for caregiving robots
JP2019512299A (ja) 移動追尾及びシミュレーション用の装置並びに方法
JP7292396B2 (ja) 想定される手動で移動可能な消費者製品の使用を評価するためのシステム
JP2009521759A (ja) モーションキャプチャにおける眼球運動データ置換
WO2017085963A1 (ja) 情報処理装置、及び映像表示装置
Li et al. 3D Monitoring of Toothbrushing Regions and Force Using Multimodal Sensors and Unity
US20240055138A1 (en) System and method of patient profile creation
Basori et al. Face-Touch: An emotional facial expression technique of avatar based on tactile vibration in virtual reality game

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7292396

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150