CN113424212A - 用于评估所设想的可手动移动的消费产品的使用的系统 - Google Patents
用于评估所设想的可手动移动的消费产品的使用的系统 Download PDFInfo
- Publication number
- CN113424212A CN113424212A CN202080014296.6A CN202080014296A CN113424212A CN 113424212 A CN113424212 A CN 113424212A CN 202080014296 A CN202080014296 A CN 202080014296A CN 113424212 A CN113424212 A CN 113424212A
- Authority
- CN
- China
- Prior art keywords
- data
- consumer product
- manually movable
- movable consumer
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 74
- 230000033001 locomotion Effects 0.000 claims abstract description 45
- 238000004088 simulation Methods 0.000 claims abstract description 33
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000011156 evaluation Methods 0.000 claims abstract description 12
- 230000003993 interaction Effects 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims abstract description 10
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000012800 visualization Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000036772 blood pressure Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 16
- 230000006870 function Effects 0.000 description 13
- 239000003550 marker Substances 0.000 description 11
- 238000012360 testing method Methods 0.000 description 7
- 230000000875 corresponding effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000002604 ultrasonography Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000004424 eye movement Effects 0.000 description 2
- 239000012530 fluid Substances 0.000 description 2
- 230000003370 grooming effect Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 231100000430 skin reaction Toxicity 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000002390 adhesive tape Substances 0.000 description 1
- 239000002386 air freshener Substances 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000000746 body region Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000012258 culturing Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 230000008713 feedback mechanism Effects 0.000 description 1
- 239000003205 fragrance Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000020169 heat generation Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000006210 lotion Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 239000003595 mist Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000036642 wellbeing Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/20—Administration of product repair or maintenance
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/021—Measuring pressure in heart or blood vessels
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
- A61B5/024—Detecting, measuring or recording pulse rate or heart rate
- A61B5/0245—Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/369—Electroencephalography [EEG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/44—Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
- A61B5/441—Skin evaluation, e.g. for skin disorder diagnosis
- A61B5/443—Evaluating skin constituents, e.g. elastin, melanin, water
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06395—Quality analysis or management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0207—Discounts or incentives, e.g. coupons or rebates
- G06Q30/0217—Discounts or incentives, e.g. coupons or rebates involving input on products or services in exchange for incentives or rewards
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/24—Use of tools
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Cardiology (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Physiology (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Accounting & Taxation (AREA)
- General Business, Economics & Management (AREA)
- Marketing (AREA)
- Educational Administration (AREA)
- Psychiatry (AREA)
- Educational Technology (AREA)
- Game Theory and Decision Science (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Psychology (AREA)
- Multimedia (AREA)
Abstract
本公开涉及一种用于评估用户对所设想的可手动移动的消费产品的使用的系统,该系统具有:可手动移动的消费产品实体模型,其旨在用于在使用期间被握持在用户的手中的至少一只手中;模拟子系统,其具有用于呈现至少部分模拟的内容的显示单元和用于提供模拟的内容的模拟处理单元;跟踪子系统,其被布置成用于跟踪至少可手动移动的消费产品实体模型相对于参考系统的运动,该跟踪子系统具有至少一个跟踪数据生成单元和跟踪数据处理单元,该跟踪数据处理单元用于从跟踪数据确定位置和/或取向和/或运动数据;数据处理子系统,其用于接收具有至少位置和/或取向和/或运动数据的使用数据,其中该模拟子系统被布置成模拟所设想的可手动移动的消费产品的至少一个属性或特征,并且经由显示单元将此属性或特征呈现为模拟内容;其中该数据处理子系统被布置成处理接收的使用数据的至少一部分,以计算导出的使用数据,从而允许评估所设想的可手动移动的消费产品的使用,并且其中该数据处理子系统还被布置成经由显示单元或经由用户交互设备的显示器来显示导出的使用数据。
Description
技术领域
本专利申请涉及一种用于评估用户对所设想的可手动移动的消费产品的使用的系统,并且涉及相应的方法。
背景技术
通常已知的是,考虑实施到可手动移动消费产品中的可手动移动消费产品的属性或特征可由用户测试,以获得关于例如包括预期属性的所设想的可手动移动的消费产品的用户友好性的用户反馈。已知的是,可向用户示出所设想的包括预期属性的可手动移动的消费产品的画面,并且用户还可获得关于所设想的可手动移动的消费产品的预期用途的信息,使得用户可提供关于所预期的易用性的反馈。替代画面,可向用户示出关于所设想的具有预期属性的可手动移动的消费产品的使用的电影。这可通过借助于虚拟现实护目镜在呈现给用户的虚拟现实中示出自适应电影来完成,其中电影内容适应用户的头部取向(即,VR护目镜的显示器上示出的场景在用户的头部移动时移位)。对所设想的可手动移动的消费产品的其他评估可涉及制备所设想的可手动移动的消费产品的原型,该原型具有供用户实时测试的预期属性。
一般需要提供一种用于评估用户对所设想的具有预期属性或特征的可手动移动的消费产品的使用的系统,该系统允许在评估测试结果方面比已知系统更大的自由度。
发明内容
根据一个方面,提供了一种用于评估用户对所设想的可手动移动的消费产品的使用的系统,该系统具有:可手动移动的消费产品实体模型,其旨在用于在使用期间被握持在用户的手中的至少一只手中;模拟子系统,其具有用于呈现至少部分模拟的内容的显示单元和用于提供模拟的内容的模拟处理单元;跟踪子系统,其被布置成用于跟踪至少可手动移动的消费产品实体模型相对于参考系统的运动,该跟踪子系统具有至少一个跟踪数据生成单元和跟踪数据处理单元,该跟踪数据处理单元用于从跟踪数据确定位置和/或取向和/或运动数据;数据处理子系统,其用于接收具有至少位置和/或取向和/或运动数据的使用数据,其中该模拟子系统被布置成模拟所设想的可手动移动的消费产品的至少一个属性或特征,并且经由显示单元将此属性或特征呈现为模拟内容;其中该数据处理子系统被布置成处理接收的使用数据的至少一部分,以计算导出的使用数据,从而允许评估所设想的可手动移动的消费产品的使用;并且其中该数据处理子系统还被布置成经由显示单元或经由用户交互设备的显示器来显示导出的使用数据。
根据一个方面,提供了评估用户对所设想的可手动移动的消费产品的使用的方法,该方法包括以下步骤:
-用户使用可手动移动的消费产品实体模型,该用户将可手动移动的消费产品实体模型握持在至少一只手中;
-跟踪至少可手动移动的消费产品实体模型相对于参考系统的运动,任选地跟踪用户的至少一个身体部分相对于参考系统的位置和/或取向和/或运动;
-生成包括至少位置和/或取向和/或运动数据的使用数据,任选地生成另外包括来自用户的生理数据的使用数据;
-使用使用数据生成模拟内容,该模拟内容表示所设想的可手动移动的消费产品的至少一种属性或特征;
-在显示单元上呈现至少模拟内容;
-使用使用数据的至少一部分来计算导出的使用数据;
-分析导出的使用数据以评估所设想的可手动移动的消费产品的使用;以及
-在显示单元上或经由用户交互设备的显示器显示导出的使用数据。
附图说明
本说明书将通过对示例性实施方案的详细描述并参考附图来阐明。在附图中,
图1为根据本公开的示例性系统的示意图;
图2为作为根据本公开的示例性系统的一部分的示例性显示单元和可手动移动的消费产品实体模型的示意图;
图3A、图3B为可在使用可手动移动的消费产品期间或之后向用户或产品开发者示出的显示内容的示例,其中图3A示出使用开始之前的显示内容,并且图3B示出使用结束时的显示内容。
具体实施方式
根据本说明书,提供了一种系统,该系统允许评估用户对所设想的可手动移动的消费产品的使用,其中所设想的可手动移动的消费产品的至少一个属性或特征尚未实现,并且其中此属性或特征被模拟并借助于在显示单元上的模拟内容呈现给用户。显示单元可具体地包括用于向用户呈现模拟内容的头戴式显示器。模拟内容可叠置在真实视频流上方,或者与所设想的可手动移动的消费产品的预期属性相关的模拟内容可为可将用户沉浸在完全模拟的环境中的更广泛模拟的一部分。
该系统的目的是能够评估所设想的可手动移动的消费产品的预期属性或特征,并且能够将用户沉浸在至少部分虚拟现实中,在该至少部分虚拟现实中,用户将该模拟属性或特征体验为真实属性或特征。在简单的示例中,模拟属性为所设想的可手动移动的消费产品的外表面的至少一部分的颜色。在更复杂的示例中,模拟属性为所设想的可手动移动的消费产品的视觉反馈功能,其与所设想的可手动移动的消费产品的正确处理相关。模拟属性可由手持式可手动移动的消费产品本身提供或由独立设备诸如独立显示器(例如智能电话)提供。然后认为手持式所设想的可手动移动的消费产品和独立设备表示所设想的可手动移动的消费产品。为了允许用户在至少部分虚拟环境中的这种沉浸,使用可被握持在用户的至少一只手中的可手动移动的消费产品实体模型。该可手动移动的消费产品实体模型至少在抓握区类似于所设想的可手动移动的消费产品的形状,在抓握区,用户将握持可手动移动的消费产品实体模型,使得触觉印象是所设想的可手动移动的消费产品的触觉印象。可手动移动的消费产品实体模型可具有附加特征部,并且可更完全地类似于所设想的可手动移动的消费产品,这取决于将要生成的虚拟环境的类型。可手动移动的消费产品实体模型可为真实可手动移动的消费产品,并且所设想的可手动移动的消费产品为相同的可手动移动的消费产品,但具有另外的功能或不同的美学外观。
虽然预期在评估规程期间仅将所设想的属性或特征作为模拟内容在显示单元的显示器上呈现给用户,但用户也可沉浸在完全模拟的环境中。这意指模拟子系统可向用户呈现增强或混合现实(AR或MR)或完全虚拟现实(VR)。
在本说明书中,“用户”意指人类对象。
“可手动移动的消费产品”通常意指典型地旨在由单个人类用户在家中使用的产品(包括设备),并且具体地意指由用户手动操作并在使用时握持在用户的至少一只手中的设备。这将不排除用户可在另一对象上使用可手动移动的消费产品。可手动移动的消费产品应当具体地意指由用户使用的可手动移动的消费产品来处理自身,例如通过使用可手动移动的消费产品来处理皮肤。因此,可手动移动的消费产品可为个人护理设备。在本说明书的上下文中,“个人护理”应指皮肤及其附器(即毛发和指/趾甲)以及牙齿和口腔(包括舌头、牙龈等)的培养(或护理),其中目的一方面是预防疾病以及维持和加强健康(“护理”),另一方面是美容处理和改善皮肤及其附器的外观。它应包括维持和加强幸福感。这包括皮肤护理、毛发护理和口腔护理以及指/趾甲护理。这还包括其它梳理活动,诸如胡须护理、剃刮和脱毛。因此,“个人护理设备”是指用于执行此类培养或梳理活动的任何设备,例如(化妆品)皮肤处理设备诸如皮肤按摩设备或皮肤刷子;湿式剃刀;电动剃刀或修剪器;电动机械或基于光的脱毛器;以及口腔护理设备,诸如手动或电动牙刷、(电动)牙线、(电动)冲洗器、(电动)舌清洁器、或(电动)牙龈按摩器。
可手动移动的消费产品可为如刚刚所述的消费设备,或者其可为功能性包装,例如用于将清洁流体的细雾施加到待清洁的目标表面上的瓶子。功能性包装起到两个目的,即为消费货品(例如,清洁流体或香料或空气清新剂或身体乳液等)提供安全壳体和用于手动交互的接口,以便于用户控制所装入的消费品的影响,例如用于分配所装入的消费品。
“可手动移动的消费产品实体模型”意指至少在将与用户的身体接触的那些部分中具有将被评估的所设想的可手动移动的消费产品的形状的三维物体。可手动移动的消费产品实体模型可具有所设想的将被评估的可手动移动的消费产品的一个或若干个属性或特征(实际上,可手动移动的消费产品实体模型可具有所设想的可手动移动的消费产品的所有属性,但不具有模拟属性),但由于所提出的系统的模拟能力,可手动移动的消费产品实体模型也可为完全无功能性的。可手动移动的消费产品实体模型可具有不属于所设想的可手动移动的消费产品的一部分的附加功能。例如,可手动移动的消费产品实体模型可包括可有助于执行评估规程的至少一个惯性传感器或听觉反馈单元或皮肤接触传感器等。可手动移动的消费产品实体模型可包括用于支持跟踪可手动移动的消费产品实体模型的标记物。标记物可为无源标记物诸如简单色点,或者有源标记物诸如电磁能量源诸如光源(例如,LED)或声能量源(例如,超声发射器)。可手动移动的消费产品实体模型可包括至少一个反馈单元,诸如触觉反馈单元、听觉反馈单元、热反馈单元、嗅觉反馈单元或视觉反馈单元。此反馈单元可具体地与所设想的可手动移动的消费产品可包括的反馈单元不一致。但可手动移动的消费产品实体模型可不为功能性设备,并且可手动移动的消费产品实体模型可不具有处理功能(例如借助于电动剃刮头部对胡须的电动剃刮),并且替代真实剃刮头部,听觉反馈单元可提供真实剃刮头部的声音以将用户沉浸在使用“真实”可手动移动的消费产品的印象中。可手动移动的消费产品实体模型可包括接触传感器,使得例如听觉反馈单元仅在可手动移动的消费产品实体模型的处理头部部分确实与皮肤接触时才被激活。
“模拟属性/模拟特征”意指所设想的可手动移动的消费产品的未由可手动移动的消费产品实体模型实现的至少部分外观,或者所设想的可手动移动的消费产品的未由可手动移动的消费产品实体模型实现的功能,但是将该属性/特征作为模拟内容添加并经由显示单元呈现给用户。用本文所提出的系统执行的评估规程应提供对下述方面的见解,如用户偏好、用户友好性、客观使用改进、产品接受度、用户满意度、性能参数或功能性特征部,使得可手动移动的消费产品开发者可更好地决定以何种方式将哪种属性或特征实施到最终可手动移动的消费产品中,使得产生改进的可手动移动的消费产品。用本系统测试模拟的属性/特征允许测试此属性/特征的许多不同实施方案或变体,而无需制造具有这些不同属性/特征的许多真实的可手动移动的消费产品。这种更复杂的评估能力可导致通常比通过已知评估方法开发的可手动移动的消费产品更好地满足消费者需求的可手动移动的消费产品。模拟属性/特征是可手动移动的消费产品反馈功能、可手动移动的消费产品控制功能或可手动移动的消费产品外观中的至少一者。
“使用数据”意指与评估对所设想的可手动移动的消费产品的使用相关的任何类型的数据,该数据通过可手动移动的消费产品实体模型和模拟特征的组合来实现。使用数据包括可手动移动的消费产品实体模型的至少位置和/或取向和/或运动数据,但还可包括用户的至少一个身体部分的运动数据、用户的生理数据以及其它数据诸如与用户(皮肤)与可手动移动的消费产品实体模型的特定部分的接触相关的皮肤接触数据。
“导出的使用数据”意指基于使用数据的至少一部分并超出仅使用数据流的任何数据。因此,导出的使用数据可为被分类以用于在显示器上呈现或用于测试规程之后的打印输出的使用数据。导出的使用数据具体地意指基于使用数据的至少一部分并借助于数学运算来处理以提供有助于评估所设想的可手动移动的消费产品的使用的具体信息的数据。作为一个示例,导出的使用数据可涉及每个时间段内处理的皮肤区域。更一般地说,导出的使用数据可涉及表面处理。用于处理使用数据的数学方法可包括统计分析和机器学习算法,诸如人工神经网络。作为导出的使用数据的具体形式,术语“表面相关的导出的使用数据”被使用,并且应意指可与经处理的表面的描绘一起可视化的此类导出的使用数据,诸如可手动移动的消费产品在空间中相对于经处理的表面和表面上方的路径、对经处理的表面区域的指示,作为表面上的位置的函数的数据的标测图(例如,颜色编码的标测图)(例如,已发生一些不寻常使用的经处理的表面上的斑点的描绘,诸如每个区域的处理时间高于阈值或者在处理表面的此特定位置时用户心率的特定增加等)。
根据本专利申请的模拟子系统是负责向用户提供模拟内容的整个系统的一部分。模拟子系统包括显示单元和模拟处理单元。显示单元包括用于向用户呈现至少部分模拟的内容的显示器。该显示器可为头戴式虚拟现实护目镜的一部分。具体地,显示器可为允许用户沉浸在三维环境中的立体显示器。如本领域中已知的,显示单元可包括至少一个运动传感器(例如,包括陀螺仪、加速度计、磁力计、结构光系统等),并且任选地还包括眼睛跟踪传感器。模拟处理单元为基于可用信息来提供模拟内容的计算单元,可用信息诸如可手动移动的消费产品实体模型、用户的相关身体部分、显示单元等的绝对或相对位置信息。因此,模拟子系统可通过有线或无线连接与跟踪子系统、数据处理子系统或可手动移动的消费产品实体模型耦接,以接收用于提供模拟内容所需的数据。如所提及的,模拟子系统可仅提供小的添加的虚拟内容,例如所设想的可手动移动的消费产品的模拟属性/特征,但模拟子系统实际上可提供完全模拟的环境诸如模拟浴室,并且用户的身体部分也可被呈现为模拟内容。
根据本专利申请的跟踪子系统提供至少与可手动移动的消费产品实体模型(特别是相对于参考系统)相关的位置和/或取向和/或运动数据。另外,跟踪子系统可提供用户的至少一个身体部分的位置和/或取向和/或运动数据,包括用户头部的位置和/或取向和/或运动,具体地相对于参考系统的位置和/或取向和/或运动。为了提供所提及的位置和/或取向和/或运动数据,跟踪子系统包括跟踪数据生成单元,该跟踪数据生成单元被布置成跟踪可手动移动的消费产品实体模型,并且任选地也跟踪用户的一个或多个身体部分,并且还任选地也跟踪模拟子系统的显示单元。跟踪数据生成单元可包括一个或多个惯性传感器,诸如加速度计、磁力计或陀螺仪。这些惯性传感器可具体地例如借助于一个或若干个可佩戴设备(包括上述头戴式VR护目镜)设置在可手动移动的消费产品实体模型处或用户处。跟踪数据生成单元可包括用于具体地跟踪一个或若干个无源或有源标记物的至少一个相机,但跟踪数据生成单元也可使用无标记物方法。相机可具体地为深度相机或立体相机。由跟踪数据生成单元生成的跟踪数据被传输到跟踪数据处理单元,该跟踪数据处理单元从跟踪数据计算位置和/或取向和/或运动数据,使得可手动移动的消费产品实体模型和用户的至少一个身体部分的位置和/或取向和/或运动相对于彼此和/或相对于参考坐标系是已知的。位置和/或取向和/或运动数据可相对于绝对参考系统(例如,相对于用户的环境固定的坐标系)或相对参考系统(例如,固定到用户的头部的参考系统)来确定。
本文所述的系统可包括用于测量用户的至少一个生理参数的测量子系统。该测量子系统可包括用于以给定频率或准连续来测量生理参数的至少一个生理传感器单元。生理参数可为心率、血压、皮肤湿度、用户的自我对话强度(喃喃自语)、EEG或ECG波、皮肤电反应等中的一者。生理信息可有助于评估所设想的可手动移动的消费产品的使用,例如,在设备的使用对用户不友好或者用户的喃喃自语强度可出于相同原因而增加且因此导致压力或不安的情况下,用户的心率可增加。生理传感器单元可具体地设置在用户可佩戴设备处。
如本文所述的系统包括接收使用数据的时间序列的数据处理子系统,这意指与至少可手动移动的消费产品实体模型以及任选地与用户的至少一个身体部分相关的至少位置和/或取向和/或运动数据,并且该数据处理子系统被布置成处理使用数据的至少一部分以计算导出的使用数据。导出的使用数据可存储在存储器单元中以供稍后分析或者供稍后与另一组导出的使用数据进行比较。数据处理设备可被布置成在显示器上呈现导出的使用数据或打印出导出的使用数据。数据处理子系统可被布置成自动地比较源自不同评估规程的不同组导出的使用数据,在不同评估规程中测试了所设想的可手动移动的消费产品的模拟属性的不同变体。由数据处理子系统接收的使用数据可包括附加数据,诸如由测量子系统测量的生理数据或由设置在可手动移动的消费产品实体模型中的接触传感器测量的接触数据。
导出的使用数据也可包括每个时间段被旨在用于皮肤处理的可手动移动的消费产品的头部覆盖的皮肤面积。这可被认为是可手动移动的消费产品使用的性能数据。导出的使用数据也可包括每个时间段内可手动移动的消费产品的处理头部移动的次数、用户的手相对于用户的手臂或相对于身体部分的角度等。
数据处理子系统可具体地被布置成处理使用数据以便确定表面相关的导出的使用数据、在显示器上描绘经处理的表面,以及在处理时段期间和/或之后将表面相关的导出的使用数据的可视化叠置到显示器上的经处理的表面的描绘上。经处理的表面可为身体表面,例如腿部或臂部或口腔的一部分,或者经处理的表面可为房间的一部分。数据处理子系统还可被布置成在显示器上显示其它导出的使用数据,例如作为百分比值的经处理的表面积的当前量或处理时段的总时间。其它导出的使用数据可作为数字、表格、曲线图等显示在显示器上。
图1为根据本公开的示例性系统1的示意图。系统1包括模拟子系统100、可手动移动的消费产品实体模型200、跟踪子系统300和数据处理子系统400。模拟子系统100包括模拟处理单元110,该模拟处理单元用于生成将在显示单元120上显示的模拟内容,如将参考图2更详细地解释。显示单元120在此处被示出为作为一个可能的实施方案的虚拟现实头戴式耳机。显示单元120可包括至少一个惯性传感器单元123,该惯性传感器单元用于在多达九个轴上生成线性加速度数据和/或角速率数据和/或取向数据。
可手动移动的消费产品实体模型200被布置成由用户手持—用户的手810以虚线指示。可手动移动的消费产品实体模型200可包括处理头部201,该处理头部旨在在模拟处理时段期间与用户的身体部分820接触。可手动移动的消费产品实体模型200可具体地包括至少一个惯性传感器单元210,诸如单轴、双轴或三轴加速度计、陀螺仪和/或磁力计,以便确定可手动移动的消费产品实体模型沿多达九个轴在三维空间中的线性和/或角加速度和/或取向。惯性传感器单元210的输出可被校准或转换成与参考坐标系10相关的值。可手动移动的消费产品实体模型200也可包括发射器单元或收发器单元250,该发射器单元或收发器单元用于将数据从惯性传感器单元210传输到接收器,如下文将更详细地解释。如果被实现为收发器单元250,则收发器单元250也可被布置成接收数据,使得可手动移动的消费产品实体模型200可将所接收的数据用于可手动移动的消费产品实体模型200的相应动作(例如,对用户的反馈动作),如将参考图2更详细地解释。用户的身体部分820在此处以非限制性方式被示出为腿部,该腿部当然不是系统1的一部分,尽管以实线示出。尽管本文通常将其称为用户的身体部分,但这将不排除借助于所公开的涉及可手动移动的消费产品实体模型的规程来评估对所设想的可手动移动的消费产品的使用的用户在另一个对象的身体部分上或在实体模型身体部分上使用可手动移动的消费产品实体模型。
系统1还包括跟踪子系统300,该跟踪子系统包括至少一个跟踪数据生成单元310、311和跟踪数据处理单元320。在一些实施方案中,跟踪子系统300包括被布置在可手动移动的消费产品实体模型200处的无源或有源标记物360(例如,无源视觉标记物或有源IR发射标记物,例如IRLED)和/或被布置在待处理的身体部分820处的标记物370。跟踪数据生成单元310、311然后可包括至少一个相机,例如立体相机,其被布置成跟踪三维空间中的视觉标记物360、370,特别是相对于由参考系统10的三个坐标x、y、z跨越的三维空间。跟踪数据生成单元310、311可包括一个以上的相机,例如两个、三个、四个、五个等相机,以便确保可手动移动的消费产品实体模型以及任选地经处理的身体部分820可在基本上没有不可见区域的三维空间中被跟踪。当使用相机时,所描述的运动捕获可使用待跟踪物体上的标记物(可手动移动的消费产品实体模型和身体部分或完整的用户)或无标记物运动捕获(例如,基于解剖标志或其它图案或基于轮廓跟踪)。代替相机或除了相机(或其它技术)以外,跟踪子系统还可使用运动捕获技术诸如至少一个惯性传感器单元350(例如包括加速度计、陀螺仪和/或磁力计)来确定至少可手动移动的消费产品实体模型200在具有多达9个轴的3D空间中的运动和取向。在该上下文中,相应的惯性传感器单元123、210、350可如已解释的那样设置在可手动移动的消费产品实体模型200处或其中,但也可设置在待处理的身体部分820处或用户的各种身体部位处。此外,在模拟中使用的所有其它元件可配备有标记物或惯性传感器,例如,用户的手810可配备有另一个惯性传感器单元。显示单元120可包括传感器单元123,该传感器单元用于将位置和/或运动和/或取向数据DM传输到接收器(接收器例如设置在数据处理子系统400中)。惯性传感器单元350可例如借助于粘合带或借助于可佩戴设备380放置在待处理的身体部分820处,如图1所示。由于待处理的身体部分820可包括可相对于彼此移动的各种部件(例如,小腿和大腿),因此可将两个或更多个惯性传感器单元350放置在身体部分820处。作为迄今为止论述的内容的替代或补充,跟踪子系统300可包括至少一个磁体,该至少一个磁体生成基本上已知的磁场(即,相对于参考系统是定量已知的),并且然后可将磁力计放置在可手动移动的消费产品实体模型200处或其中,或者放置在身体部分820处,使得磁场的方向和磁场的强度提供参考系统中的绝对位置。此类惯性传感器单元123、210、350可配备有无线数据传输技术(例如,BluetoothTM等)或者可有线连接到数据接收器(例如,设置在跟踪数据处理单元320处)。另选地或除此之外,跟踪子系统300可利用基于超声发射的跟踪技术(例如,放置在可手动移动的消费产品实体模型200中或其处或者放置在身体部分820处的一个或若干个超声发射器)和相应的超声接收器。另选地或除此之外,跟踪子系统可利用IR运动捕获技术。替代光学视觉标记物,IR光源可与相应的IR相机一起用作标记物360、370,作为跟踪数据生成单元310、311(诸如以品牌Nexonar购自德国吕塞尔斯海姆(Rüsselsheim,Germany)的soft2tec GmbH)。技术人员已知的所有其它3D跟踪技术也可以替代或附加方式使用。
跟踪数据处理单元320从跟踪数据生成单元310、311接收跟踪数据DT(虽然此处示出跟踪数据生成单元310、311与可手动移动的消费产品实体模型200分开,但是应当理解,另选地或除此之外,跟踪数据生成单元可例如借助于惯性传感器单元350在可手动移动的消费产品实体模型200或身体部分820处或其内实现,该惯性传感器单元将相关的跟踪数据DT传输到跟踪数据处理单元320。跟踪数据处理单元320被布置成由跟踪数据DT位置、运动(例如,速度和加速度)和/或取向数据DM来计算,该跟踪数据DT位置、运动和/或取向数据DM提供参考系统10中的可手动移动的消费产品实体模型200和/或身体部分820的位置、运动和/或取向。
系统1还包括数据处理子系统400,该数据处理子系统从跟踪数据处理单元320接收位置、运动和/或取向数据DM作为所谓的使用数据DU。此处的数据处理子系统400包括数据处理单元410和存储单元420。在一些实施方案中,跟踪数据处理单元320和数据处理子系统400被实现为单个集成子系统。代替由跟踪数据处理单元320接收,位置和/或运动和/或取向数据DM可分别从可手动移动的消费产品实体模型200或身体部分820处的相应传感器单元250、350直接传输到数据处理单元410,具体地传输到数据处理单元410的接收器或收发器450。可以无线方式或有线方式发生此类数据传输。然后,此类位置和/或运动和/或取向数据DM也被认为是使用数据DU。
数据处理单元410可被布置成将位置和/或运动和/或取向数据DM转发到模拟子系统300。但是数据处理单元410还可处理使用数据DU,使得可向模拟子系统100馈送相关导出的使用数据DD,从而允许模拟子系统经由模拟处理单元110提供要在显示单元120上显示的模拟内容。导出的使用数据DU然后可包括可手动移动的消费产品实体模型200、身体部分820和/或显示单元120的相对位置、运动和/或取向。提供模拟内容的过程基本上应是“实时”过程(即,实时的),即用户不应注意到用户对可手动移动的消费产品执行的动作与对模拟内容的呈现之间的任何相关延迟。这种对“实时”过程的认识可取决于所设想的被测试的可手动移动的消费产品,并且可为约1秒或更短,例如100毫秒或更短。因此,延迟可在0.001毫秒和2秒之间的范围内,具体地在0.1毫秒和1秒之间的范围内,还具体地在1毫秒和500毫秒之间的范围内,并且甚至还具体地在1毫秒和100毫秒之间的范围内。
系统1可包括测量子系统500,该测量子系统被布置成借助于生理传感器单元510、520确定用户的生理参数。将相应测量的生理数据DP作为使用数据DU传输到数据处理单元400。由生理传感器单元510、520测量的生理数据DP可为心率数据、EEG数据、ECG波数据、皮肤湿度数据、血压数据、与用户的自我对话声强度相关的数据、与用户的眼睛相关的运动数据、皮肤电反应数据、面部表情数据或面部运动数据等中的至少一者。此类生理数据被测量以将对所设想的可手动移动的消费产品的使用的另一层理解添加到测试规程中并添加到自动分析中,或者至少添加到数据呈现的细节中以供稍后的人类评估。生理传感器单元510、520可放置在待处理的身体部分820处,并且可结合到可佩戴设备380中。可通过将相应的传感器放置到虚拟现实头戴式耳机中来测量眼睛运动数据。用户还可例如佩戴其中包括生理传感器单元的腕带。麦克风可用于在所设想的可手动移动的消费产品的模拟使用期间测量用户的自我对话强度。显然,可在用户身体或靠近用户身体的各种位置处使用一个或若干个传感器来测量一个或若干个生理参数。然后可将此类生理数据与其它使用数据DU连接以评估使用质量。指示用户在所设想的可手动移动的消费产品的模拟使用期间的不安或压力的生理参数提供关于模拟属性或特征的使用质量的信息,这然后可被改变以减少不安或压力,使得作为评估规程焦点的模拟属性或模拟特征可以对消费者更友好的方式实现。
基于使用数据DU,这意指至少可手动移动的消费产品实体模型200、身体部分820和/或显示单元120的位置和/或运动和/或取向数据DM,以及还任选地生理数据DP,数据处理单元410确定导出的使用数据DD,其包括允许对所设想的可手动移动的消费产品的模拟使用的质量进行自动和/或基于人类用户的评估的数据。例如,数据处理单元410可计算在评估规程等期间处理特定身体区域所需的总时间或用户的平均压力水平。数据处理单元410可包括存储单元420,该存储单元用于存储来自当前评估规程的使用数据DU和/或导出的使用数据DD,和/或用于存储来自先前评估规程(一个或多个)的使用数据DU’和/或导出的使用数据DD,从而允许数据处理单元410直接地并以自动方式确定包括特定模拟属性或特征的所设想的可手动移动的消费产品的模拟使用的性能参数。导出的使用数据DD可包括被组装和准备用于呈现的使用数据DU。
系统1还可包括用户交互单元900,该用户交互单元可包括用于以用户可访问的方式显示信息诸如导出的使用数据DD的显示器910,以及允许用户与用户交互单元900进行交互的用户界面920。具体地,用户交互单元900的用户可为与可手动移动的消费产品的用户不同的人。具体地,用户交互单元900的用户可为分析所呈现的导出使用数据DD的产品开发者。
不应排除跟踪子系统300、数据处理子系统400和模拟子系统100一起(或至少部分地,例如排除跟踪数据生成单元310和显示单元120)被实现为整体单元,例如它们可由单个计算机实现。
图2为用于执行与用户对所设想的可手动移动的消费产品的使用相关的评估规程的示例性系统1A的一些部件的描绘,在此示出的部件包括显示单元120A、可手动移动的消费产品实体模型200A和数据处理单元400A。应当理解,系统1A的所有其它必要部件被认为是存在的,并且可存在任选部件。此处的显示单元120A再次被示出为具有显示屏121A的虚拟现实头戴式耳机。用户在测试规程期间佩戴显示单元120A,并且在显示屏121A上查看包括模拟内容290B的显示内容700B,所示实施方案中的模拟内容涉及可手动移动的消费产品的视觉反馈功能,如通过在显示屏121A上可见的可手动移动的消费产品上的光照明部分所指示的。在图2中,在显示屏121A上可见的显示内容700B包括可手动移动的消费产品200B、用户的手810B和用户的身体部分820B。在一些实施方案中,在显示屏121A上可见的可手动移动的消费产品200B(没有模拟内容290B)和手810B以及身体部分820B仅是真实物体的视频描绘,即可手动移动的消费产品实体模型200A、手810A和身体部分820A的视频描绘。相机124A因此可被布置在显示单元120A上以捕获用户可见内容的生活视频流。然后,模拟处理单元仅将模拟视觉反馈功能作为模拟内容290B添加到视频画面中。在一些实施方案中,虚拟内容290B包括删除某些特征部,诸如消费者实体模型设备上的标记物。在一些实施方案中,完整的显示内容700B是虚拟内容290B。模拟子系统可例如生成虚拟浴室环境以及虚拟身体部分和完全虚拟的可手动移动的消费产品的图像。
显示单元120A可包括用于跟踪用户的眼睛运动的至少一个眼睛跟踪传感器122A。显示单元120A可具体地包括至少一个惯性传感器单元123A以生成可传输到数据处理子系统400A的位置和/或运动(即速度和/或加速度)和/或取向数据DM,该数据处理子系统400A可具体地包括数据处理单元410A,该数据处理单元具有用于接收数据DM的接收器单元或收发器单元450A。
可手动移动的消费产品实体模型200A可包括适于由跟踪数据生成单元检测的标记物360A、用于生成可手动移动的消费产品实体模型200A的位置和/或运动和/或取向数据DM的惯性传感器单元210A、以及用于将数据传输到数据处理子系统400A的接收器单元450A的接收器单元或收发器单元250A。任选地,可手动移动的消费产品实体模型200A包括用于确定用户的至少一个生理参数的值的至少一个生理传感器单元510A、530A。此处,第一生理传感器单元510A可设置在消费设备实体模型200A上的一个位置处,在该位置,当用户已以预期方式握住可手动移动的消费产品实体模型200A时,有可能测量用户的手810A(手810A以虚线示出)处的生理参数,从而生成生理数据DP。第二生理传感器单元530A可布置在处理头部201A处,使得一旦处理头部201A与身体部分820A接触,就可在待处理的身体部分820A处测量生理参数。处理头部201A还可包括用于确定处理头部201A是否与身体部分820A接触的接触传感器230A。虽然跟踪子系统可配备良好且精确到足以确定处理头部201A与身体部分820B接触的概率很高,但接触传感器230A可用于确认接触并进一步增加整体跟踪性能的精度。所有提及的传感器210A、230A、510A和/或530A可与接收器单元或收发器单元250A耦接,使得所测量的数据可作为使用数据传输到数据处理子系统400A的接收器450A。
可手动移动的消费产品实体模型200A可包括反馈单元600A,使得反馈可以与使用中的真实可手动移动的消费产品所提供的反馈类似或几乎相同的方式提供给用户。反馈单元600A可为热反馈单元、触觉反馈单元、视觉反馈单元、听觉反馈单元或嗅觉反馈单元中的至少一种。反馈单元600A可由设置在可手动移动的消费产品实体模型200A中的控制单元控制。反馈单元600A的一个潜在用途是向用户提供与真实可手动移动的消费产品的反馈类似或至少几乎相同的设备反馈。例如,可手动移动的消费产品实体模型200A可不包括马达,但所设想的可手动移动的消费产品将包括马达。因此,反馈单元600A可被实现为振动器(例如,压电振动器),该振动器在接通后以类似于可手动移动的消费产品中的马达的振动的方式将振动传输到用户的手810A中。除反馈单元600A之外或另选地,反馈单元610A可位于处理头部201A处。此反馈单元610A可例如被实现为热反馈单元。可手动移动的消费产品实体模型200A可被构造成类似于基于光的脱毛设备,该脱毛设备在使用时在皮肤中生成热。热反馈单元610A可用于模拟这种热生成以使模拟的测试规程更现实。数据处理子系统400A可将反馈数据DF传输到可手动移动的消费产品实体模型200A以控制反馈单元600A、610A,而不是由可手动移动的消费产品实体模型200A中的控制单元控制,或者除此类控制之外。
图3A和图3B是由数据处理子系统控制的显示器的内容10A、10B的描绘。在图3A中,描绘了经处理的表面12,该表面12在所示实施方案中为小腿的表面。导出的使用数据的一个或若干个值11A、11B可在显示器上示出。以举例的方式,在显示器上示出的值11A、11B指示在处理时段期间显示的内容所属的时间点处的经处理的表面积的分数,即图3A中的0%和图3B中的60%。另选地或除此之外,可不示出此类值,或者可例如借助于可随时间推移而改变的单个值、借助于表格、借助于曲线图等来描绘进一步导出的使用数据信息。
在本示例中,图3A示出了在可手动移动的消费产品的使用开始之前的显示内容10A,并且图3B示出了在使用时段结束时的显示内容10B(图3B也可为使用时段期间的显示内容,但为了便于论述,在此假设显示器示出了使用时段完成之后的内容)。可看出,表面相关的导出的使用数据的可视化叠置在经处理的表面12的描绘上方。可视化和显示的表面相关的导出的使用数据可包括位置和速度信息14,其中示出了可手动移动的消费产品实体模型相对于经处理的表面12的空间中的路径。示出路径14的线的宽度和/或颜色或阴影可改变以指示速度,其中路径线14的大宽度可指示高速度,并且路径线14的小宽度可指示低速度。此处的阴影遵循宽度且仅强调速度信息。在另一个实施方案中,阴影或颜色可提供其它信息,并且可涉及用户的心跳或任何其它表面相关的导出的使用数据。
另外,示出了经处理的表面区域13。所示的示例可涉及作为可手动移动的消费产品的基于光的皮肤处理设备,其中身体部分的皮肤由一系列光脉冲处理。然后可视化的各个矩形处理表面区域各自涉及通过设备的矩形输出窗口发射的单个光脉冲。可看出,用户已在一些区域中产生重叠的光闪光,并且在其它区域中产生间隔开的光闪光。表面相关的导出的使用数据的这种描绘和可视化允许评估设备的使用,并且设想对用户的其它反馈机制,使得施加到皮肤的闪光将被更好地分布。新的反馈功能可例如包括在设备在表面上方的速度正确的情况下为绿色且在表面上方的速度过低或过快的情况下切换为红色的反馈光。然后可用本文提出的系统再次检查消费产品的此类新反馈功能,并且可将经处理的表面上的所得闪光分布与此先前分布进行比较,以便理解新的模拟反馈功能是否已改进结果。代替视觉反馈,还可测试触觉反馈功能。反馈功能可迭代地改进(例如,视觉反馈功能和触觉反馈功能的组合),并且在模拟结束时,可设计和制造明显改进的设备。
此外,还可看出,第一行程的一些闪光(消费产品在表面上方移动)与来自第二行程的相邻闪光重叠,而其它闪光在它们之间具有间隙。现在可设想,模拟新的反馈功能,该功能告知用户向左或向右移动,以便一方面避免行程的重叠闪光,并且另一方面还避免行程之间的间隙。
在使用期结束时,指示经处理的表面的分数的值11B示出为60%。应当设想到,显示内容以时间顺序方式从图3A所示的显示内容10A改变为图3B所示的显示内容10B。
本文所公开的量纲和值不应理解为严格限于所引用的精确数值。相反,除非另外指明,否则每个此类量纲旨在表示所述值以及围绕该值功能上等同的范围。例如,公开为“40mm”的量纲旨在表示“约40mm”。
Claims (15)
1.一种用于评估用户对所设想的能够手动移动的消费产品的使用的系统,所述系统包括:
能够手动移动的消费产品实体模型,所述能够手动移动的消费产品实体模型旨在用于在所述使用期间被握持在所述用户的手中的至少一只手中;
模拟子系统,所述模拟子系统包括用于呈现至少部分模拟的内容的显示单元和用于提供所述模拟内容的模拟处理单元;
跟踪子系统,所述跟踪子系统被布置成用于跟踪至少所述能够手动移动的消费产品实体模型相对于参考系统的运动,所述跟踪子系统包括至少一个跟踪数据生成单元和跟踪数据处理单元,所述跟踪数据处理单元用于从所述跟踪数据确定位置和/或取向和/或运动数据;
数据处理子系统,所述数据处理子系统用于接收包括至少所述位置和/或取向和/或运动数据的使用数据;
其中所述模拟子系统被布置成模拟所述设想的能够手动移动的消费产品的至少一个属性或特征,并且经由所述显示单元将此属性或特征呈现为模拟内容;
其中所述数据处理子系统被布置成处理所述接收的使用数据的至少一部分,以计算导出的使用数据,从而允许评估所述设想的能够手动移动的消费产品的所述使用;并且
其中所述数据处理子系统还被布置成经由所述显示单元或经由用户交互设备的显示器来显示所述导出的使用数据。
2.根据权利要求1所述的系统,其中所述跟踪子系统还被布置成用于跟踪所述用户的至少一个身体部分相对于所述参考系统的位置和/或取向和/或运动。
3.根据权利要求1或权利要求2所述的系统,其中所述能够手动移动的消费产品被布置成用于处理表面,并且所述数据处理子系统被布置成处理所述接收的使用数据的至少一部分,以计算表面相关的导出的使用数据。
4.根据权利要求3所述的系统,其中数据处理子系统被布置成显示所述表面的描绘并将所述表面相关的导出的使用数据的可视化叠置到所述描绘表面上。
5.根据权利要求4所述的系统,其中所述数据处理子系统被布置成将叠置到所述描绘表面上的所述表面相关的使用数据的所述可视化显示为时间顺序动画。
6.根据权利要求1至5中任一项所述的系统,其中所述跟踪数据生成单元包括设置在所述能够手动移动的消费产品实体模型处的至少一个惯性传感器,或者其中所述跟踪数据生成单元包括至少一个用户能够佩戴的单元,所述用户能够佩戴的单元包括至少一个惯性传感器。
7.根据权利要求1至6中任一项所述的系统,其中所述跟踪数据处理单元被布置成确定所述能够手动移动的消费产品实体模型相对于所述用户的身体部分的位置和/或取向,或者所述能够手动移动的消费产品实体模型相对于所述用户的身体部分的速度。
8.根据权利要求1至7中任一项所述的系统,所述系统还包括具有至少一个生理传感器单元的测量子系统,所述至少一个生理传感器单元用于测量所述用户的生理参数并用于将测量的生理数据作为使用数据传输到所述数据处理子系统。
9.根据权利要求8所述的系统,其中所述生理传感器单元设置在所述能够手动移动的消费产品实体模型处,并且/或者其中所述生理传感器单元设置在用户能够佩戴的设备处。
10.根据权利要求8或9中任一项所述的系统,其中所述生理传感器单元被布置成测量心率、EEG或ECG波、皮肤湿度、血压或所述用户的自我对话强度中的至少一者作为所述生理参数。
11.根据权利要求1至10中任一项所述的系统,其中所述数据处理子系统被布置成将在当前使用会话期间接收的使用数据与来自先前使用会话的先前接收的使用数据进行比较,或者被布置成将来自所述当前使用会话的导出的使用数据与来自先前使用会话的导出的使用数据进行比较。
12.根据权利要求1至11中任一项所述的系统,其中所述能够手动移动的消费产品实体模型包括反馈单元,具体地是触觉反馈单元、听觉反馈单元、热反馈单元、嗅觉反馈单元或视觉反馈单元中的至少一种。
13.根据权利要求1至12中任一项所述的系统,其中所述能够手动移动的消费产品实体模型包括至少一个接触传感器单元,并且所述能够手动移动的消费产品实体模型具体地被布置成经由数据传输单元将接触数据作为使用数据传输到所述数据处理子系统。
14.一种评估用户对所设想的能够手动移动的消费产品的所述使用的方法,所述能够手动移动的消费产品具体地被布置成用于处理表面,所述方法包括以下步骤:
用户使用能够手动移动的消费产品实体模型,所述用户将所述能够手动移动的消费产品实体模型握持在至少一只手中;
跟踪至少所述能够手动移动的消费产品实体模型相对于参考系统的运动,任选地跟踪所述用户的至少一个身体部分相对于所述参考系统的所述位置和/或取向和/或运动;
生成包括至少所述位置和/或取向和/或运动数据的使用数据,任选地生成另外包括来自所述用户的生理数据的使用数据;
使用所述使用数据生成模拟内容,所述模拟内容表示所述设想的能够手动移动的消费产品的至少一种属性或特征;
在显示单元上呈现至少所述模拟内容;
使用所述使用数据的至少一部分来计算导出的使用数据;
分析所述导出的使用数据以评估所述设想的能够手动移动的消费产品的所述使用;以及
在所述显示单元上或经由用户交互设备的显示器显示所述导出的使用数据。
15.根据权利要求14所述的方法,其中所述能够手动移动的消费产品被布置成用于处理表面,所述方法包括显示所述处理的表面的描绘和将表面相关的导出的使用数据的可视化叠置到所述描绘表面上的另外的步骤。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19157178 | 2019-02-14 | ||
EP19157178.5 | 2019-02-14 | ||
EP19196473.3 | 2019-09-10 | ||
EP19196473.3A EP3696740B1 (en) | 2019-02-14 | 2019-09-10 | System for assessing the usage of an envisaged manually movable consumer product |
PCT/IB2020/050965 WO2020165703A1 (en) | 2019-02-14 | 2020-02-06 | System for assessing the usage of an envisaged manually movable consumer product |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113424212A true CN113424212A (zh) | 2021-09-21 |
CN113424212B CN113424212B (zh) | 2024-06-07 |
Family
ID=65440859
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080014296.6A Active CN113424212B (zh) | 2019-02-14 | 2020-02-06 | 用于评估所设想的可手动移动的消费产品的使用的系统 |
Country Status (6)
Country | Link |
---|---|
US (1) | US11093027B2 (zh) |
EP (1) | EP3696740B1 (zh) |
JP (1) | JP7292396B2 (zh) |
KR (1) | KR102638830B1 (zh) |
CN (1) | CN113424212B (zh) |
WO (1) | WO2020165703A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117056831A (zh) * | 2023-10-13 | 2023-11-14 | 南京龙垣信息科技有限公司 | 基于卷积神经网络的内心独白识别方法 |
Citations (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020150859A1 (en) * | 1999-11-30 | 2002-10-17 | Orametrix, Inc. | Three-dimensional occlusal and interproximal contact detection and display using virtual tooth models |
JP2003250509A (ja) * | 2002-02-27 | 2003-09-09 | Japan Tobacco Inc | シミュレーションシステム |
JP2005227534A (ja) * | 2004-02-13 | 2005-08-25 | Gifu Univ | 理学的診療訓練用人体装着具 |
US20050216243A1 (en) * | 2004-03-02 | 2005-09-29 | Simon Graham | Computer-simulated virtual reality environments for evaluation of neurobehavioral performance |
US20060008786A1 (en) * | 2004-07-08 | 2006-01-12 | David Feygin | Vascular-access simulation system with three-dimensional modeling |
JP2006501965A (ja) * | 2002-10-09 | 2006-01-19 | ボディーメディア インコーポレイテッド | 人間の生理学的及びコンテキスト情報を検知、受信、導出及び表示する装置 |
DE102004049938A1 (de) * | 2004-10-13 | 2006-04-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Simulation haptisch wahrnehmbarer Vibrationen eines Objektes |
CN1950862A (zh) * | 2004-03-08 | 2007-04-18 | 约翰·霍普金斯大学 | 用于医学训练和评估的装置和方法 |
US20080162097A1 (en) * | 2006-12-28 | 2008-07-03 | Fujitsu Limited | Assembling manipulability evaluation apparatus, method, and program |
US20080162262A1 (en) * | 2006-12-30 | 2008-07-03 | Perkins Cheryl A | Immersive visualization center for creating and designing a "total design simulation" and for improved relationship management and market research |
US20090157478A1 (en) * | 2007-12-17 | 2009-06-18 | Electronics And Telecommunications Research Institute | Usability evaluation method and system of virtual mobile information appliance |
US20090187389A1 (en) * | 2008-01-18 | 2009-07-23 | Lockheed Martin Corporation | Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and Cave |
EP2191788A1 (en) * | 2008-11-29 | 2010-06-02 | Braun Gmbh | Method and device for three-dimensional measurement of a dental model |
CN101980228A (zh) * | 2010-09-01 | 2011-02-23 | 张辉 | 人体信息监测与处理系统及方法 |
US20110313825A1 (en) * | 2010-06-17 | 2011-12-22 | Joachim Wilhelm | Method and apparatus for assessing the penetration of tooth cleaning elements in the gingival pocket |
CN102355869A (zh) * | 2009-03-19 | 2012-02-15 | 博朗有限公司 | 用于确定电动牙刷的使用模式的方法和电动牙刷 |
CN102592484A (zh) * | 2010-11-16 | 2012-07-18 | 韩国电子通信研究院 | 用于基于虚拟现实的训练模拟器的可重配置平台管理设备 |
US20130257899A1 (en) * | 2012-03-30 | 2013-10-03 | Elizabeth S. Baron | Physical-virtual hybrid representation |
US8938477B1 (en) * | 2012-09-26 | 2015-01-20 | Emc Corporation | Simulating data storage system configuration data |
US20150190876A1 (en) * | 2014-01-07 | 2015-07-09 | Illinois Tool Works Inc. | Welding stand for a welding system |
CN105531750A (zh) * | 2013-09-11 | 2016-04-27 | 林肯环球股份有限公司 | 用于实时仿真的虚拟现实焊接训练环境的学习管理系统 |
CN107205786A (zh) * | 2015-02-25 | 2017-09-26 | 马科外科公司 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
US9811818B1 (en) * | 2002-10-01 | 2017-11-07 | World Award Academy, World Award Foundation, Amobilepay, Inc. | Wearable personal digital device for facilitating mobile device payments and personal use |
CN107667331A (zh) * | 2015-05-28 | 2018-02-06 | 微软技术许可有限责任公司 | 共享空间多人沉浸式虚拟现实中的共享触觉交互和用户安全 |
US20180184795A1 (en) * | 2014-11-11 | 2018-07-05 | ZeroBrush, Inc. | Systems, Devices, and Methods for Customized Dental Care |
CN108882850A (zh) * | 2016-04-02 | 2018-11-23 | 史蒂芬·R·皮博迪 | 医疗诊断设备、系统和使用方法 |
CN109202942A (zh) * | 2017-06-30 | 2019-01-15 | 发那科株式会社 | 手控制装置、手控制方法以及手的模拟装置 |
CN109313495A (zh) * | 2016-06-09 | 2019-02-05 | 微软技术许可有限责任公司 | 融合惯性手持控制器与手动跟踪的六自由度混合现实输入 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6939138B2 (en) * | 2000-04-12 | 2005-09-06 | Simbionix Ltd. | Endoscopic tutorial system for urology |
US10073953B2 (en) * | 2002-10-01 | 2018-09-11 | World Award Academy, World Award Foundation, Amobilepay, Inc. | Wearable personal digital device for facilitating mobile device payments and personal use |
JP2005108108A (ja) * | 2003-10-01 | 2005-04-21 | Canon Inc | 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置 |
KR20050102803A (ko) * | 2004-04-23 | 2005-10-27 | 삼성전자주식회사 | 가상입력장치, 시스템 및 방법 |
JP4667111B2 (ja) * | 2005-04-21 | 2011-04-06 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
JP4933164B2 (ja) * | 2005-07-01 | 2012-05-16 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラムおよび記憶媒体 |
US7733224B2 (en) * | 2006-06-30 | 2010-06-08 | Bao Tran | Mesh network personal emergency response appliance |
US8864652B2 (en) * | 2008-06-27 | 2014-10-21 | Intuitive Surgical Operations, Inc. | Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip |
JP5200903B2 (ja) * | 2008-12-08 | 2013-06-05 | オムロンヘルスケア株式会社 | 電子血圧計 |
US9323896B2 (en) * | 2013-10-07 | 2016-04-26 | Mentice Inc. | Systems and methods for simulation-based radiation estimation and protection for medical procedures |
US9922460B2 (en) * | 2014-11-04 | 2018-03-20 | Illinois Tool Works Inc. | Stereoscopic helmet display |
US10591575B2 (en) * | 2015-04-22 | 2020-03-17 | Hisep Technology Ltd. | Direction finding system device and method |
US10854104B2 (en) * | 2015-08-28 | 2020-12-01 | Icuemotion Llc | System for movement skill analysis and skill augmentation and cueing |
US20170178540A1 (en) * | 2015-12-22 | 2017-06-22 | Truinject Medical Corp. | Injection training with modeled behavior |
US10656517B2 (en) * | 2016-01-20 | 2020-05-19 | Mentor Graphics Corporation | Pattern correction in multiple patterning steps |
US11364102B2 (en) * | 2016-02-08 | 2022-06-21 | Oralucent, Inc. | Short wavelength visible light-emitting toothbrush with an electronic signal interlock control |
EP3423972A1 (en) * | 2016-03-02 | 2019-01-09 | Truinject Corp. | Sensory enhanced environments for injection aid and social training |
KR101948115B1 (ko) * | 2017-03-28 | 2019-02-14 | 주식회사 엑소시스템즈 | 웨어러블 장치 및 그것을 포함하는 재활 시스템 |
KR101793468B1 (ko) * | 2017-03-31 | 2017-11-03 | 주식회사 에프앤디파트너스 | Ar을 이용한 셀프 뷰티앱 플랫폼 시스템 및 방법 |
US10806532B2 (en) * | 2017-05-24 | 2020-10-20 | KindHeart, Inc. | Surgical simulation system using force sensing and optical tracking and robotic surgery system |
US20190133893A1 (en) * | 2017-07-20 | 2019-05-09 | Oscar E. Recio Saucedo | Tooth Paste Gummy |
EP3528091A1 (en) * | 2018-02-14 | 2019-08-21 | Koninklijke Philips N.V. | Personal care device localization |
US10928589B2 (en) | 2018-02-20 | 2021-02-23 | Honeywell International Inc. | Metallic blinder between optical waveguides to reduce cross talk |
-
2019
- 2019-09-10 EP EP19196473.3A patent/EP3696740B1/en active Active
-
2020
- 2020-02-06 WO PCT/IB2020/050965 patent/WO2020165703A1/en active Application Filing
- 2020-02-06 CN CN202080014296.6A patent/CN113424212B/zh active Active
- 2020-02-06 KR KR1020217025837A patent/KR102638830B1/ko active IP Right Grant
- 2020-02-06 JP JP2021547253A patent/JP7292396B2/ja active Active
- 2020-02-10 US US16/785,935 patent/US11093027B2/en active Active
Patent Citations (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020150859A1 (en) * | 1999-11-30 | 2002-10-17 | Orametrix, Inc. | Three-dimensional occlusal and interproximal contact detection and display using virtual tooth models |
JP2003250509A (ja) * | 2002-02-27 | 2003-09-09 | Japan Tobacco Inc | シミュレーションシステム |
US9811818B1 (en) * | 2002-10-01 | 2017-11-07 | World Award Academy, World Award Foundation, Amobilepay, Inc. | Wearable personal digital device for facilitating mobile device payments and personal use |
JP2006501965A (ja) * | 2002-10-09 | 2006-01-19 | ボディーメディア インコーポレイテッド | 人間の生理学的及びコンテキスト情報を検知、受信、導出及び表示する装置 |
JP2005227534A (ja) * | 2004-02-13 | 2005-08-25 | Gifu Univ | 理学的診療訓練用人体装着具 |
US20050216243A1 (en) * | 2004-03-02 | 2005-09-29 | Simon Graham | Computer-simulated virtual reality environments for evaluation of neurobehavioral performance |
CN1950862A (zh) * | 2004-03-08 | 2007-04-18 | 约翰·霍普金斯大学 | 用于医学训练和评估的装置和方法 |
US20060008786A1 (en) * | 2004-07-08 | 2006-01-12 | David Feygin | Vascular-access simulation system with three-dimensional modeling |
DE102004049938A1 (de) * | 2004-10-13 | 2006-04-27 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Simulation haptisch wahrnehmbarer Vibrationen eines Objektes |
US20080162097A1 (en) * | 2006-12-28 | 2008-07-03 | Fujitsu Limited | Assembling manipulability evaluation apparatus, method, and program |
US20080162262A1 (en) * | 2006-12-30 | 2008-07-03 | Perkins Cheryl A | Immersive visualization center for creating and designing a "total design simulation" and for improved relationship management and market research |
US20090157478A1 (en) * | 2007-12-17 | 2009-06-18 | Electronics And Telecommunications Research Institute | Usability evaluation method and system of virtual mobile information appliance |
US20090187389A1 (en) * | 2008-01-18 | 2009-07-23 | Lockheed Martin Corporation | Immersive Collaborative Environment Using Motion Capture, Head Mounted Display, and Cave |
EP2191788A1 (en) * | 2008-11-29 | 2010-06-02 | Braun Gmbh | Method and device for three-dimensional measurement of a dental model |
CN102355869A (zh) * | 2009-03-19 | 2012-02-15 | 博朗有限公司 | 用于确定电动牙刷的使用模式的方法和电动牙刷 |
US20110313825A1 (en) * | 2010-06-17 | 2011-12-22 | Joachim Wilhelm | Method and apparatus for assessing the penetration of tooth cleaning elements in the gingival pocket |
CN101980228A (zh) * | 2010-09-01 | 2011-02-23 | 张辉 | 人体信息监测与处理系统及方法 |
CN102592484A (zh) * | 2010-11-16 | 2012-07-18 | 韩国电子通信研究院 | 用于基于虚拟现实的训练模拟器的可重配置平台管理设备 |
US20130257899A1 (en) * | 2012-03-30 | 2013-10-03 | Elizabeth S. Baron | Physical-virtual hybrid representation |
US8938477B1 (en) * | 2012-09-26 | 2015-01-20 | Emc Corporation | Simulating data storage system configuration data |
CN105531750A (zh) * | 2013-09-11 | 2016-04-27 | 林肯环球股份有限公司 | 用于实时仿真的虚拟现实焊接训练环境的学习管理系统 |
US20150190876A1 (en) * | 2014-01-07 | 2015-07-09 | Illinois Tool Works Inc. | Welding stand for a welding system |
US20180184795A1 (en) * | 2014-11-11 | 2018-07-05 | ZeroBrush, Inc. | Systems, Devices, and Methods for Customized Dental Care |
CN107205786A (zh) * | 2015-02-25 | 2017-09-26 | 马科外科公司 | 用于在外科手术过程中减少跟踪中断的导航系统和方法 |
CN107667331A (zh) * | 2015-05-28 | 2018-02-06 | 微软技术许可有限责任公司 | 共享空间多人沉浸式虚拟现实中的共享触觉交互和用户安全 |
CN108882850A (zh) * | 2016-04-02 | 2018-11-23 | 史蒂芬·R·皮博迪 | 医疗诊断设备、系统和使用方法 |
CN109313495A (zh) * | 2016-06-09 | 2019-02-05 | 微软技术许可有限责任公司 | 融合惯性手持控制器与手动跟踪的六自由度混合现实输入 |
CN109202942A (zh) * | 2017-06-30 | 2019-01-15 | 发那科株式会社 | 手控制装置、手控制方法以及手的模拟装置 |
Non-Patent Citations (1)
Title |
---|
PERUZZINI MARGHERITA: "A mixed-reality digital set-up to support design for serviceability", 《PROCEDIA MANUFACTURING》, vol. 17, pages 499 - 506, XP055875649, DOI: 10.1016/j.promfg.2018.10.089 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117056831A (zh) * | 2023-10-13 | 2023-11-14 | 南京龙垣信息科技有限公司 | 基于卷积神经网络的内心独白识别方法 |
Also Published As
Publication number | Publication date |
---|---|
US11093027B2 (en) | 2021-08-17 |
JP7292396B2 (ja) | 2023-06-16 |
US20200264697A1 (en) | 2020-08-20 |
WO2020165703A1 (en) | 2020-08-20 |
EP3696740B1 (en) | 2024-01-10 |
CN113424212B (zh) | 2024-06-07 |
JP2022520412A (ja) | 2022-03-30 |
EP3696740A1 (en) | 2020-08-19 |
KR20210116553A (ko) | 2021-09-27 |
KR102638830B1 (ko) | 2024-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11786033B2 (en) | Methods and systems for extracting brushing motion characteristics of a user using an oral hygiene device including at least one accelerometer to provide feedback to a user | |
US11730543B2 (en) | Sensory enhanced environments for injection aid and social training | |
US10517532B2 (en) | Method for determining movement patterns during a dental treatment | |
RU2728406C2 (ru) | Система и способ для отслеживания устройства для ухода за полостью рта | |
EP3031353B1 (en) | Oral care system and method | |
CN108066030A (zh) | 口腔护理系统和方法 | |
CN111971643B (zh) | 对个人护理设备的定位 | |
CN109589091A (zh) | 选定ecg信道的交互式显示器 | |
JP2019512299A (ja) | 移動追尾及びシミュレーション用の装置並びに方法 | |
CN113424212B (zh) | 用于评估所设想的可手动移动的消费产品的使用的系统 | |
CN109313499A (zh) | 用于向用户呈现触觉反馈的设备和用于操作该设备的方法 | |
EP4383269A1 (en) | Determining a location of a personal care device | |
Li et al. | 3D Monitoring of Toothbrushing Regions and Force Using Multimodal Sensors and Unity | |
US20240055138A1 (en) | System and method of patient profile creation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |