KR20210116553A - 구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템 - Google Patents

구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템 Download PDF

Info

Publication number
KR20210116553A
KR20210116553A KR1020217025837A KR20217025837A KR20210116553A KR 20210116553 A KR20210116553 A KR 20210116553A KR 1020217025837 A KR1020217025837 A KR 1020217025837A KR 20217025837 A KR20217025837 A KR 20217025837A KR 20210116553 A KR20210116553 A KR 20210116553A
Authority
KR
South Korea
Prior art keywords
consumer product
data
user
manually operated
unit
Prior art date
Application number
KR1020217025837A
Other languages
English (en)
Other versions
KR102638830B1 (ko
Inventor
미리암 리츨러
아네테 프리드리히
우베 빌펠트
Original Assignee
브라운 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브라운 게엠베하 filed Critical 브라운 게엠베하
Publication of KR20210116553A publication Critical patent/KR20210116553A/ko
Application granted granted Critical
Publication of KR102638830B1 publication Critical patent/KR102638830B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/021Measuring pressure in heart or blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/0245Detecting, measuring or recording pulse rate or heart rate by using sensing means generating electric signals, i.e. ECG signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • A61B5/443Evaluating skin constituents, e.g. elastin, melanin, water
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0639Performance analysis of employees; Performance analysis of enterprise or organisation operations
    • G06Q10/06395Quality analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0217Discounts or incentives, e.g. coupons or rebates involving input on products or services in exchange for incentives or rewards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/24Use of tools

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Strategic Management (AREA)
  • Cardiology (AREA)
  • Human Computer Interaction (AREA)
  • Economics (AREA)
  • Physiology (AREA)
  • Development Economics (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Psychiatry (AREA)
  • Educational Administration (AREA)
  • Psychology (AREA)
  • Quality & Reliability (AREA)
  • Educational Technology (AREA)
  • Operations Research (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Multimedia (AREA)

Abstract

본 발명은 구상된 수동 가동 소비자 제품(manually movable consumer product)의 사용을 사용자가 평가하기 위한 시스템에 관한 것으로, 이 시스템은 사용 동안 사용자의 손들 중 적어도 하나에 보유되도록 의도된 수동 가동 소비자 제품 실물모형(mockup), 적어도 부분적으로 시뮬레이션된 콘텐츠를 제시하기 위한 디스플레이 유닛 및 상기 시뮬레이션된 콘텐츠를 제공하기 위한 시뮬레이션 처리 유닛을 포함하는 시뮬레이션 서브시스템, 기준 좌표계에 대해 적어도 수동 가동 소비자 제품 실물모형의 움직임을 추적하도록 배열된 추적 서브시스템으로서, 추적 서브시스템은 적어도 하나의 추적 데이터 생성 유닛 및 추적 데이터로부터 위치 및/또는 배향 및/또는 움직임 데이터를 결정하기 위한 추적 데이터 처리 유닛을 포함하는, 상기 추적 서브시스템, 및 적어도 위치 및/또는 배향 및/또는 움직임 데이터를 포함하는 사용 데이터를 수신하기 위한 데이터 처리 서브시스템을 포함하며, 시뮬레이션 서브시스템은 구상된 수동 가동 소비자 제품의 적어도 하나의 특성 또는 특징을 시뮬레이션하도록 그리고 이러한 특성 또는 특징을 디스플레이 유닛을 통해 시뮬레이션된 콘텐츠로서 제시하도록 배열되고; 데이터 처리 서브시스템은 수신된 사용 데이터의 적어도 일부분을 처리하여 도출된 사용 데이터를 컴퓨팅하도록 배열되어, 구상된 수동 가동 소비자 제품의 사용을 평가하게 하고; 데이터 처리 서브시스템은 디스플레이 유닛을 통해 또는 사용자 상호작용 장치의 디스플레이를 통해 도출된 사용 데이터를 디스플레이하도록 추가로 배열된다.

Description

구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템
본 출원은 구상된 수동 가동 소비자 제품(manually movable consumer product)의 사용을 사용자가 각각의 방법으로 평가하기 위한 시스템에 관한 것이다.
수동 가동 소비자 제품으로 구현되고자 고려되는 수동 가동 소비자 제품의 특성 또는 특징은 예컨대 계획되는 특성을 포함하는 구상된 수동 가동 소비자 제품의 사용자 친화성(user-friendliness)에 대한 사용자 피드백(feedback)을 얻기 위해 사용자에 의해 시험될 수 있다는 것이 일반적으로 알려져 있다. 기대되는 사용 용이성에 대한 피드백을 사용자가 제공할 수 있도록, 계획되는 특성을 포함하는 구상된 수동 가동 소비자 제품의 사진이 사용자에게 보여질 수 있으며 사용자는 또한 구상된 수동 가동 소비자 제품의 의도되는 사용에 대한 정보를 얻을 수 있는 것으로 알려져 있다. 사진들 대신에, 계획되는 특성을 갖는 구상된 수동 가동 소비자 제품의 사용에 관한 영화가 사용자에게 보여질 수 있다. 이는 가상 현실 고글(virtual reality goggle)에 의해 사용자에게 제시되는 가상 현실에서 적응 영화(adaptive movie)를 보여줌으로써 행해질 수 있는데, 이 경우 영화 콘텐츠는 사용자의 머리 배향에 순응하게 된다(즉, 사용자의 머리가 움직일 때 VR 고글의 디스플레이 상에 도시된 장면이 이동하게 된다). 구상된 수동 가동 소비자 제품의 다른 평가는 사용자에 의한 라이브 시험(live testing)을 위한 계획되는 특성을 갖는 구상된 수동 가동 소비자 제품의 시작품(prototype)을 제조하는 것을 포함할 수 있다.
시험 결과를 평가하는 데 있어 공지된 시스템보다 더 큰 자유도를 허용하는, 계획되는 특성 또는 특징을 갖는 구상된 수동 가동 소비자 제품의 사용을 사용자가 평가하기 위한 시스템을 제공하는 것에 대한 일반적인 필요성이 존재한다.
일 태양에 따르면, 구상된 수동 가동 소비자 제품의 사용을 사용자가 평가하기 위한 시스템이 제공되는데, 이 시스템은 사용 동안 사용자의 손들 중 적어도 하나에 보유되도록 의도된 수동 가동 소비자 제품 실물모형(mockup), 적어도 부분적으로 시뮬레이션된 콘텐츠를 제시하기 위한 디스플레이 유닛 및 상기 시뮬레이션된 콘텐츠를 제공하기 위한 시뮬레이션 처리 유닛을 포함하는 시뮬레이션 서브시스템, 기준 좌표계에 대해 적어도 수동 가동 소비자 제품 실물모형의 움직임을 추적하도록 배열된 추적 서브시스템으로서, 추적 서브시스템은 적어도 하나의 추적 데이터 생성 유닛 및 추적 데이터로부터 위치 및/또는 배향 및/또는 움직임 데이터를 결정하기 위한 추적 데이터 처리 유닛을 포함하는, 상기 추적 서브시스템, 및 적어도 위치 및/또는 배향 및/또는 움직임 데이터를 포함하는 사용 데이터를 수신하기 위한 데이터 처리 서브시스템을 포함하며; 시뮬레이션 서브시스템은 구상된 수동 가동 소비자 제품의 적어도 하나의 특성 또는 특징을 시뮬레이션하도록 그리고 이러한 특성 또는 특징을 디스플레이 유닛을 통해 시뮬레이션된 콘텐츠로서 제시하도록 배열되고; 데이터 처리 서브시스템은 수신된 사용 데이터의 적어도 일부분을 처리하여 도출된 사용 데이터를 컴퓨팅하도록 배열되어, 구상된 수동 가동 소비자 제품의 사용을 평가하게 하고; 데이터 처리 서브시스템은 디스플레이 유닛을 통해 또는 사용자 상호작용 장치의 디스플레이를 통해 도출된 사용 데이터를 디스플레이하도록 추가로 배열된다.
일 태양에 따르면, 구상된 수동 가동 소비자 제품의 사용을 사용자가 평가하는 방법이 제공되며, 이 방법은
- 사용자가 수동 가동 소비자 제품 실물모형을 사용하는 단계로서, 사용자는 적어도 한 손으로 수동 가동 소비자 제품 실물모형을 보유하는, 상기 단계;
- 기준 좌표계에 대한 적어도 수동 가동 소비자 제품 실물모형의 움직임을 추적하고, 선택적으로 기준 좌표계에 대한 사용자의 적어도 하나의 신체 부위의 위치 및/또는 배향 및/또는 움직임을 추적하는 단계;
- 적어도 위치 및/또는 배향 및/또는 움직임 데이터를 포함하는 사용 데이터를 생성하고, 선택적으로 사용자로부터의 생리학적 데이터를 추가로 포함하는 사용 데이터를 생성하는 단계;
- 사용 데이터를 사용하여 시뮬레이션된 콘텐츠를 생성하는 단계로서, 시뮬레이션된 콘텐츠는 구상된 수동 가동 소비자 제품의 적어도 하나의 특성 또는 특징을 나타내는, 상기 단계;
- 적어도 시뮬레이션된 콘텐츠를 디스플레이 유닛 상에 제시하는 단계;
- 사용 데이터의 적어도 일부분을 사용하여 도출된 사용 데이터를 컴퓨팅하는 단계;
- 도출된 사용 데이터를 분석하여 구상된 수동 가동 소비자 제품의 사용을 평가하는 단계; 및
- 디스플레이 유닛 상에 또는 사용자 상호작용 장치의 디스플레이를 통해 도출된 사용 데이터를 디스플레이하는 단계를 포함한다.
본 발명은 예시적인 실시예의 상세한 설명에 의해 그리고 도면을 참조하여 설명된다. 도면에서,
도 1은 본 발명에 따른 예시적인 시스템의 개략도이고;
도 2는 본 발명에 따른 예시적인 시스템의 일부가 되는 예시적인 디스플레이 유닛 및 수동 가동 소비자 제품 실물모형의 개략도이고;
도 3a 및 도 3b는 수동 가동 소비자 제품의 사용 동안 또는 사용 후에 사용자 또는 제품 개발자에게 보여질 수 있는 디스플레이 콘텐츠의 예이며, 여기서 도 3a는 사용 시작 이전의 디스플레이 콘텐츠를 도시하고, 도 3b는 사용 종료 시의 디스플레이 콘텐츠를 도시한다.
본 발명에 따르면, 구상된 수동 가동 소비자 제품의 사용을 사용자가 평가할 수 있게 하는 시스템이 제공되는데, 여기서 구상된 수동 가동 소비자 제품의 적어도 하나의 특성 또는 특징은 아직 실현되지 않으며 이러한 특성 또는 특징은 시뮬레이션되어 디스플레이 유닛 상의 시뮬레이션된 콘텐츠에 의해 사용자에게 제시된다. 디스플레이 유닛은 특히 시뮬레이션된 콘텐츠를 사용자에게 제시하기 위한 헤드-마운트형 디스플레이를 포함할 수 있다. 시뮬레이션된 콘텐츠는 실제 비디오 스트림 위에 오버레이될(overlaid) 수 있거나, 또는 구상된 수동 가동 소비자 제품의 계획되는 특성에 관한 시뮬레이션된 콘텐츠는 사용자를 완전히 시뮬레이션된 환경에 몰입시킬 수 있는 더 광범위한 시뮬레이션의 일부일 수 있다.
이 시스템의 목적은 구상된 수동 가동 소비자 제품의 계획되는 특성 또는 특징을 평가하고 사용자가 이러한 시뮬레이션된 특성 또는 특징을 실제 특성 또는 특징으로서 경험하게 되는 적어도 부분적인 가상 현실에 사용자를 몰입시키는 능력을 갖는 것이다. 간단한 예에서, 이 시뮬레이션된 특성은 구상된 수동 가동 소비자 제품의 외부 표면의 적어도 일부분의 색이다. 더 정교한 예에서, 이 시뮬레이션된 특성은 구상된 수동 가동 소비자 제품의 올바른 취급에 관한 구상된 수동 가동 소비자 제품의 시각적 피드백 함수이다. 이 시뮬레이션된 특성은 손으로 보유되는 수동 가동 소비자 제품 자체에 의해 또는 별도의 디스플레이, 예컨대 스마트폰과 같은 별도의 장치에 의해 제공될 수 있다. 이어서, 손으로 보유되는 구상된 수동 가동 소비자 제품 및 별도의 장치는 구상된 수동 가동 소비자 제품을 나타내는 것으로 고려된다. 적어도 부분적인 가상 환경 내로의 사용자의 이러한 몰입을 허용하기 위해, 사용자의 적어도 한 손에 보유될 수 있는 수동 가동 소비자 제품 실물모형이 사용된다. 수동 가동 소비자 제품 실물모형은
촉각적 느낌(haptic impression)이 구상된 수동 가동 소비자 제품의 느낌이 되도록 사용자가 수동 가동 소비자 제품 실물모형을 보유하게 될 적어도 파지 영역에서 구상된 수동 가동 소비자 제품의 형상과 적어도 유사하게 된다. 생성될 가상 환경의 유형에 따라, 수동 가동 소비자 제품 실물모형은 추가의 특징을 가질 수 있으며 구상된 수동 가동 소비자 제품과 더 완전히 유사할 수 있다. 수동 가동 소비자 제품 실물모형은 실제의 수동 가동 소비자 제품일 수 있으며, 구상된 수동 가동 소비자 제품은 동일한 수동 가동 소비자 제품이지만 추가의 기능 또는 상이한 미적 외관을 갖는다.
구상된 속성 또는 특징만이 평가 절차 동안 디스플레이 유닛의 디스플레이 상의 시뮬레이션된 콘텐츠로서 사용자에게 제시되는 것으로 고려되지만, 사용자는 또한 완전히 시뮬레이션된 환경 내에 몰입될 수 있다. 이는 시뮬레이션 서브시스템이 사용자에게 증강 또는 혼합 현실(AR 또는 MR) 또는 완전한 가상 현실(VR)을 제공할 수 있음을 의미한다.
본 설명에서, "사용자"는 인간 대상(human subject)을 의미한다.
"수동 가동 소비자 제품"은 일반적으로 단일 사람 사용자가 가정에서 전형적으로 사용하고자 하는 제품(장치를 포함함)을 의미하며, 이는 특히 사용자에 의해 수동으로 작동되고 사용될 때 사용자의 적어도 한 손에 보유되는 장치를 의미한다. 이는 사용자가 수동 가동 소비자 제품을 다른 대상에게 사용할 수 있다는 것을 배제하지 않는다. 수동 가동 소비자 제품은, 예를 들어 수동 가동 소비자 제품을 사용하여 피부를 처리함으로써 자신을 처리하기 위해 사용자에 의해 사용되는 수동 가동 소비자 제품을 특히 의미할 것이다. 따라서, 수동 가동 소비자 제품은 개인 케어 장치일 수 있다. 본 설명의 맥락에서, "개인 케어"는 피부와 그의 부속기(adnexa)(즉, 모발과 손발톱) 및 치아와 구강(혀, 잇몸 등을 포함함)의 보살피기(nurture)(또는 케어)를 의미할 것이며, 여기서 목표는 한편으로는 질병의 예방 및 건강의 유지 및 강화("케어")이고, 다른 한편으로는 피부와 그의 부속기의 외관의 개선 및 미용적 처리이다. 이는 웰빙(wellbeing)의 유지 및 강화를 포함할 것이다. 이는 피부 케어, 모발 케어, 및 구강 케어뿐만 아니라 손발톱 케어를 포함한다. 이는 수염 케어, 면도 및 제모와 같은 다른 치장(grooming) 활동을 추가로 포함한다. 따라서, "개인 케어 장치"는 그러한 양육 또는 치장 활동을 수행하기 위한 임의의 장치, 예컨대 (미용적) 피부 처리 장치, 예를 들어 피부 마사지 장치 또는 피부 브러시; 습식 면도기; 전기 면도기 또는 트리머(trimmer); 전기 기계 또는 광 제모기; 및 구강 케어 장치, 예를 들어 수동 또는 전동 칫솔, (전동) 플로저(flosser), (전동) 세척기(irrigator), (전동) 혀 세정기(tongue cleaner), 또는 (전동) 잇몸 마사지기를 의미한다.
수동 가동 소비자 제품은 방금 기술된 바와 같은 소비자 장치일 수 있거나, 이는 세정될 목표 표면 상에 세정 유체의 미세 미스트를 적용하기 위한 기능성 패키징(packaging), 예를 들어 병일 수 있다. 기능성 패키징은 2가지 목적을 제공하는데, 즉 소모성 상품(예를 들어, 세정 유체 또는 방향제 또는 공기 청향제 또는 바디 로션 등)을 위한 안전한 케이스 및 봉입된 소비재의 사용자-제어식 영향을 위한, 예를 들어 봉입된 소비재를 분배하기 위한 수동 상호작용을 위한 인터페이스를 제공하도록 기능한다.
"수동 가동 소비자 제품 실물모형"은 적어도 사용자의 신체와 접촉하게 될 이들 부분에 있어서 평가될 구상된 수동 가동 소비자 제품의 형상을 갖는 3차원 물체를 의미한다. 수동 가동 소비자 제품 실물모형은 평가될 구상된 수동 가동 소비자 제품의 하나 또는 수 개의 특성 또는 특징을 가질 수 있으나(실제로, 수동 가동 소비자 제품 실물모형은 시물레이션된 특성이 아니라 구상된 수동 가동 소비자 제품의 모든 특성을 가질 수 있으나), 제안된 시스템의 시뮬레이션 능력 때문에 수동 가동 소비자 제품 실물모형은 또한 완전히 비기능적일 수 있다. 수동 가동 소비자 제품 실물모형은 구상된 수동 가동 소비자 제품의 일부가 아닌 추가의 기능을 가질 수 있다. 예를 들어, 수동 가동 소비자 제품 실물모형은 평가 절차를 수행하는 데 도움이 될 수 있는 적어도 하나의 관성 센서 또는 청각적 피드백 유닛 또는 피부 접촉 센서 등을 포함할 수 있다. 수동 가동 소비자 제품 실물모형은 수동 가동 소비자 제품 실물모형의 추적을 지원하기 위한 마커(marker)를 포함할 수 있다. 마커는 단순한 컬러 도트(color dot)와 같은 수동(passive) 마커 또는 광원(예컨대, LED)과 같은 전자기파 에너지원 또는 음향 에너지원(예컨대, 초음파 방출기)과 같은 능동(active) 마커일 수 있다. 수동 가동 소비자 제품 실물모형은 촉각적 피드백 유닛, 음향적 피드백 유닛, 열적 피드백 유닛, 후각적 피드백 유닛, 또는 시각적 피드백 유닛과 같은 적어도 하나의 피드백 유닛을 포함할 수 있다. 특히, 이러한 피드백 유닛은 구상된 수동 가동 소비자 제품이 포함할 수 있는 피드백 유닛과 일치하지 않을 수 있다. 그러나, 수동 가동 소비자 제품 실물모형은 기능적 장치가 아닐 수 있으며, 처리 기능(예를 들어, 전기 면도 헤드에 의한 턱수염의 전기 면도)은 수동 가동 소비자 제품 실물모형에 의해 이용가능하지 않을 수 있고 실제 면도 헤드 대신에 음향적 피드백 유닛이 실제 면도 헤드의 소리를 제공하여 사용자가 "실제" 수동 가동 소비자 제품을 사용하는 느낌에 몰입하게 할 수 있다. 수동 가동 소비자 제품 실물모형은, 일단 수동 가동 소비자 제품 실물모형의 처리 헤드 부분이 실제로 피부와 접촉하게 되면 예컨대 음향적 피드백 유닛이 단지 작동되도록 접촉 센서를 포함할 수 있다.
"시뮬레이션된 특성/시뮬레이션된 특징"은, 수동 가동 소비자 제품 실물모형에 의해 실현되지 않는 구상된 수동 가동 소비자 제품의 적어도 부분적인 외관 또는 수동 가동 소비자 제품 실물모형에 의해 실현되지 않는 구상된 수동 가동 소비자 제품의 기능을 의미하지만, 이러한 특성/특징은 시뮬레이션된 콘텐츠로서 추가되어 디스플레이 유닛을 통해 사용자에게 제시된다. 본 명세서에 제안된 바와 같은 시스템에 의해 수행된 평가 절차는, 수동 가동 소비자 제품 개발자가 수동 가동 소비자 제품이 개선되도록 하는 어떠한 방법으로 어느 특성 또는 특징을 최종의 수동 가동 소비자 제품으로 구현할 것인가를 더 양호하게 결정할 수 있도록, 사용자 선호도, 사용자-친화성, 객관적인 사용 개선, 제품 수용성(acceptance), 사용자 만족도, 성능 파라미터 또는 기능적 특징과 같은 양상(aspect)에 관한 직관을 제공할 것이다. 본 시스템을 이용한 시뮬레이션된 특성/특징의 시험은 이들 상이한 특성/특징을 갖는 많은 실제의 수동 가동 소비자 제품을 제조할 필요 없이 이러한 특성/특징의 많은 상이한 실시예 또는 변형예를 시험할 수 있게 한다. 이러한 더 정교한 평가 능력은 공지된 평가 방법에 의해 개발된 수동 가동 소비자 제품보다 더 나은, 소비자 요구를 일반적으로 충족시키는 수동 가동 소비자 제품으로 이어질 수 있다. 시뮬레이션된 특성/특징은 수동 가동 소비자 제품 피드백 기능, 수동 가동 소비자 제품 제어 기능, 또는 수동 가동 소비자 제품 외관 중 적어도 하나이다.
"사용 데이터"는 수동 가동 소비자 제품 실물모형 및 시뮬레이션된 특징의 조합에 의해 실현되는, 구상된 수동 가동 소비자 제품의 사용의 평가에 관련된 임의의 유형의 데이터를 의미한다. 사용 데이터는 적어도 수동 가동 소비자 제품 실물모형의 위치 및/또는 배향 및/또는 움직임 데이터를 포함하지만, 사용자의 적어도 하나의 신체 부위의 움직임 데이터, 사용자의 생리학적 데이터 및 다른 데이터, 예컨대 수동 가동 소비자 제품 실물모형의 소정의 부분과의 사용자(피부)의 접촉에 관한 피부 접촉 데이터를 추가로 포함할 수 있다.
"도출된 사용 데이터"는, 사용 데이터의 적어도 일부분에 기초하고 사용 데이터의 단순한 스트림(stream)을 넘어서는 임의의 데이터를 의미한다. 따라서, 도출된 사용 데이터는 디스플레이 상의 제시를 위해 또는 시험 절차 후의 인쇄를 위해 분류된 사용 데이터일 수 있다. 특히, 도출된 사용 데이터는, 사용 데이터의 적어도 일부분에 기초하고 수학적 작업에 의해 처리되어 구상된 수동 가동 소비자 제품의 사용의 평가에 도움이 되는 특정 정보를 제공하기 위한 데이터를 의미한다. 일 예로서, 도출된 사용 데이터는 기간에 따라 처리된 피부의 영역에 관련될 수 있다. 더 일반적으로 말하면, 도출된 사용 데이터는 표면 처리에 관한 것일 수 있다. 사용 데이터를 처리하기 위한 수학적 방법은 통계적 분석 및 머신 러닝(machine learning) 알고리즘, 예를 들어 인공 신경망을 포함할 수 있다. 도출된 사용 데이터의 특정 형태로서, 용어 "표면-관련 도출된 사용 데이터"가 사용되며, 이는 처리된 표면에 대해 그리고 표면 위의 공간에서의 수동 가동 소비자 제품의 경로, 처리된 표면 영역의 표시, 표면 상의 위치의 함수로서의 데이터의 맵(예컨대, 색상 코딩된 맵)(예컨대, 임계값을 초과하는 영역당 처리 시간 또는 이 표면의 특정 위치를 처리하는 동안의 사용자 심박수의 특별한 증가 등과 같은, 일부 특이한 사용이 일어난 처리된 표면 상의 점들의 묘사(depiction))과 같은 처리된 표면의 묘사와 함께 시각화될 수 있는 그러한 도출된 사용 데이터를 의미할 것이다.
본 출원에 따른 시뮬레이션 서브시스템은 시뮬레이션된 콘텐츠를 사용자에게 제공하는 것을 담당하는 전체 시스템의 일부이다. 시뮬레이션 서브시스템은 디스플레이 유닛 및 시뮬레이션 처리 유닛을 포함한다. 디스플레이 유닛은 적어도 부분적으로 시뮬레이션된 콘텐츠를 사용자에게 제시하기 위한 디스플레이를 포함한다. 디스플레이는 헤드-마운트형 가상 현실 고글의 일부일 수 있다. 디스플레이는 특히 사용자가 3차원 환경에 몰입될 수 있게 하는 입체 디스플레이일 수 있다. 당업계에 알려진 바와 같이, 디스플레이 유닛은 적어도 하나의 모션 센서(motion sensor)(예컨대, 자이로스코프, 가속도계, 자력계, 구조화된 광 시스템 등을 포함함) 및 선택적으로 또한 눈 추적 센서를 포함할 수 있다. 시뮬레이션 처리 유닛은, 수동 가동 소비자 제품 실물모형, 사용자의 관련 신체 부위(들), 디스플레이 유닛 등의 절대적 또는 상대적 위치 정보와 같은 이용가능한 정보에 기초하여 시뮬레이션된 콘텐츠를 제공하는 컴퓨팅 유닛이다. 따라서, 시뮬레이션 서브시스템은 시뮬레이션된 콘텐츠를 제공하는 데 필요한 데이터를 수신하기 위해 유선 또는 무선 연결에 의해 추적 서브시스템, 데이터 처리 서브시스템, 또는 수동 가동 소비자 제품 실물모형과 결합될 수 있다. 언급된 바와 같이, 시뮬레이션 서브시스템은 단지 작은 추가된 가상 콘텐츠, 예컨대 구상된 수동 가동 소비자 제품의 시뮬레이션된 특성/특징을 제공할 수 있지만, 시뮬레이션 서브시스템은 시뮬레이션된 욕실과 같은 완전히 시뮬레이션된 환경을 실제로 제공할 수 있고, 또한 사용자의 신체 부위는 시뮬레이션된 콘텐츠로서 제시될 수 있다.
본 출원에 따른 추적 서브시스템은 특히 기준 좌표계에 대해 적어도 수동 가동 소비자 제품 실물모형에 관한 위치 및/또는 배향 및/또는 움직임 데이터를 제공한다. 추가적으로, 추적 서브시스템은 특히 기준 좌표계에 대한 사용자의 머리의 위치 및/또는 배향 및/또는 움직임을 포함하는 사용자의 적어도 하나의 신체 부위의 위치 및/또는 배향 및/또는 움직임 데이터를 제공할 수 있다. 언급된 위치 및/또는 배향 및/또는 움직임 데이터를 제공하기 위해, 추적 서브시스템은 추적 데이터 생성 유닛을 포함하며, 이는 수동 가동 소비자 제품 실물모형을 추적하고 선택적으로 또한 사용자의 하나 이상의 신체 부위를 추적하고 또한 선택적으로 시뮬레이션 서브시스템의 디스플레이 유닛을 추가적으로 추적하도록 배열된다. 추적 데이터 생성 유닛은 가속도계, 자력계, 또는 자이로스코프와 같은 하나 이상의 관성 센서를 포함할 수 있다. 특히, 이러한 관성 센서는 예컨대 하나 또는 수 개의 웨어러블 장치(전술된 헤드-마운트형 VR 고글을 포함함)에 의해 수동 가동 소비자 제품 실물모형에 또는 사용자에게 배치될 수 있다. 추적 데이터 생성 유닛은 특히 하나 또는 수 개의 수동 또는 능동 마커를 추적하기 위한 적어도 하나의 카메라를 포함할 수 있지만, 추적 데이터 생성 유닛은 또한 마커를 이용하지 않는(marker-less) 방법을 사용할 수 있다. 카메라는 특히 깊이 카메라(depth camera) 또는 입체 카메라(stereoscopic camera)일 수 있다. 추적 데이터 생성 유닛에 의해 생성된 추적 데이터는 추적 데이터 처리 유닛으로 전송되며, 이 추적 데이터 처리 유닛은 수동 가동 소비자 제품 실물모형 및 사용자의 적어도 하나의 신체 부위의 위치 및/또는 배향 및/또는 움직임이 서로에 대해 및/또는 기준 좌표계에 대해 알려지게 되도록 추적 데이터로부터 위치 및/또는 배향 및/또는 움직임 데이터를 컴퓨팅한다. 위치 및/또는 배향 및/또는 움직임 데이터는 절대 기준 좌표계(예컨대, 사용자의 환경에 대해 고정된 좌표계) 또는 상대 기준 좌표계(예컨대, 사용자의 머리에 고정된 기준 좌표계)에 대해 결정될 수 있다.
본 명세서에 기술된 시스템은 사용자의 적어도 하나의 생리학적 파라미터를 측정하기 위한 측정 서브시스템을 포함할 수 있다. 측정 서브시스템은 주어진 빈도 또는 유사-연속적으로(quasi-continuous) 생리학적 파라미터를 측정하기 위한 적어도 하나의 생리학적 센서 유닛을 포함할 수 있다. 생리학적 파라미터는 심박수, 혈압, 피부 습도(skin humidity), 사용자의 자기-대화(self-talk)(중얼거림(muttering))의 강도, EEG 파 또는 ECG 파, 갈바닉 피부 반응 등 중 하나일 수 있다. 생리학적 정보는 구상된 수동 가동 소비자 제품의 사용을 평가하는 데 도움이 될 수 있는데, 예를 들어 장치의 사용이 사용자-친화적이지 않은 경우 사용자의 심박수가 증가할 수 있거나 또는 사용자의 중얼거림의 세기가 동일한 이유로 증가할 수 있고 따라서 스트레스 또는 불편함을 유발하게 된다. 생리학적 센서 유닛은 특히 사용자 웨어러블 장치에 배치될 수 있다.
본 명세서에 기술된 바와 같은 시스템은 적어도 수동 가동 소비자 제품 실물모형 및 선택적으로 사용자의 적어도 하나의 신체 부위에 관한 적어도 위치 및/또는 배향 및/또는 움직임 데이터를 의미하는 사용 데이터의 시간 시퀀스(temporal sequence)를 수신하는 데이터 처리 서브시스템을 포함하고, 이 데이터 처리 서브시스템은 사용 데이터의 적어도 일부분을 처리하여 도출된 사용 데이터를 컴퓨팅하도록 배열된다. 도출된 사용 데이터는 후속 분석을 위해 또는 도출된 사용 데이터의 다른 세트와의 후속 비교를 위해 메모리 유닛에 저장될 수 있다. 데이터 처리 장치는 도출된 사용 데이터를 디스플레이 상에 제시하도록 또는 도출된 사용 데이터를 인쇄하도록 배열될 수 있다. 데이터 처리 서브시스템은 구상된 수동 가동 소비자 제품의 시뮬레이션된 특성의 상이한 변형예들이 시험된 상이한 평가 절차들로부터 유래된 상이한 세트들의 도출된 사용 데이터를 자동적으로 비교하도록 배열될 수 있다. 데이터 처리 서브시스템에 의해 수신된 사용 데이터는 측정 서브시스템에 의해 측정된 생리학적 데이터 또는 수동 가동 소비자 제품 실물모형 내에 배치된 접촉 센서에 의해 측정된 접촉 데이터와 같은 추가 데이터를 포함할 수 있다.
도출된 사용 데이터는 또한 피부 처리용으로 의도된 수동 가동 소비자 제품의 헤드에 의해 기간에 따라 커버된 피부 영역을 포함할 수 있다. 이는 수동 가동 소비자 제품 사용의 성능 데이터로서 고려될 수 있다. 도출된 사용 데이터는 또한 기간에 따른 수동 가동 소비자 제품의 처리 헤드 이동의 횟수, 사용자의 팔에 대한 또는 신체 부위에 대한 사용자의 손의 각도 측정(angulation) 등을 포함할 수 있다.
데이터 처리 서브시스템은 특히 표면 관련 도출된 사용 데이터를 결정하기 위해 사용 데이터를 처리하도록, 처리된 표면을 디스플레이 상에 묘사하도록, 그리고 표면 관련 도출된 사용 데이터의 시각화(visualization)를 처리 세션(session) 동안 및/또는 그 후에 디스플레이 상의 처리된 표면의 묘사 상으로 오버레이하도록 배열될 수 있다. 처리된 표면은 신체 표면, 예를 들어 다리 또는 팔 또는 구강의 일부분일 수 있거나, 또는 처리된 표면은 방의 일부일 수 있다. 데이터 처리 서브시스템은 디스플레이 상에 다른 도출된 사용 데이터, 예를 들어 처리된 표면 영역의 현재 양을 처리 세션의 백분율 값 또는 총 시간으로서 디스플레이하도록 추가로 배열될 수 있다. 다른 도출된 사용 데이터가 숫자, 표, 그래프 등으로 디스플레이 상에 보여질 수 있다.
도 1은 본 발명에 따른 예시적인 시스템(1)의 개략도이다. 시스템(1)은 시뮬레이션 서브시스템(100), 수동 가동 소비자 제품 실물모형(200), 추적 서브시스템(300), 및 데이터 처리 서브시스템(400)을 포함한다. 시뮬레이션 서브시스템(100)은, 도 2와 관련하여 더 상세히 설명되는 바와 같이, 디스플레이 유닛(120)상에 보여질 시뮬레이션된 콘텐츠를 생성하기 위한 시뮬레이션 처리 유닛(110)을 포함한다. 디스플레이 유닛(120)은 본 명세서에서 하나의 가능한 실시예로서의 가상 현실 헤드셋으로서 도시되어 있다. 디스플레이 유닛(120)은 선형 가속도 데이터 및/또는 각속도 데이터 및/또는 배향 데이터를 최대 9개의 축으로 생성하기 위한 적어도 하나의 관성 센서 유닛(123)을 포함할 수 있다.
수동 가동 소비자 제품 실물모형(200)은 사용자에 의해 손으로 보유되도록(handheld) 배열되며, 즉 사용자의 손(810)은 점선으로 표시된다. 수동 가동 소비자 제품 실물모형(200)은 시뮬레이션된 처리 세션 동안 사용자의 신체 부위(820)와 접촉하고자 의도된 처리 헤드(201)를 포함할 수 있다. 특히, 수동 가동 소비자 제품 실물모형(200)은 최대 9개의 축을 따라 3차원 공간에서 수동 가동 소비자 제품 실물모형의 선형 및/또는 각방향 가속도 및/또는 배향을 결정하기 위해 적어도 하나의 관성 센서 유닛(210), 예를 들어 1축, 2축 또는 3축 가속도계, 자이로스코프 및/또는 자력계를 포함할 수 있다. 관성 센서 유닛(210)의 출력은 기준 좌표계(10)에 관한 값으로 교정되거나 변환될 수 있다. 수동 가동 소비자 제품 실물모형(200)은, 아래에서 더 상세히 설명되는 바와 같이, 관성 센서 유닛(210)으로부터 수신기로 데이터를 전송하기 위한 송신기 유닛 또는 송수신기 유닛(250)을 또한 포함할 수 있다. 송수신기 유닛(250)으로 실현되는 경우, 송수신기 유닛(250)은 데이터를 수신하도록 또한 배열될 수 있어서, 수동 가동 소비자 제품 실물모형(200)이 도 2에 관하여 더 상세히 설명되는 바와 같이 수동 가동 소비자 제품 실물모형(200)의 각각의 동작(예를 들어, 사용자에 대한 피드백 동작)을 위해 수신된 데이터를 사용할 수 있게 된다. 사용자의 신체 부위(820)가 본 명세서에서 다리로서 비제한적인 방식으로 도시되어 있는데, 이 다리는 실선으로 도시되어 있음에도 불구하고 물론 시스템(1)의 일부가 아니다. 이는 본 명세서에서 전형적으로 사용자의 신체 부위로 지칭되지만, 수동 가동 소비자 제품 실물모형과 관련된 개시된 절차에 의해 구상된 수동 가동 소비자 제품의 사용을 평가하는 사용자가 다른 대상의 신체 부위 상에 또는 실물모형 신체 부위 상에 수동 가동 소비자 제품 실물모형을 사용하는 것을 배제하지 않을 것이다.
시스템(1)은 또한 추적 서브시스템(300)을 포함하며, 이 추적 서브시스템은 적어도 하나의 추적 데이터 생성 유닛(310, 311) 및 추적 데이터 처리 유닛(320)을 포함한다. 일부 실시예에서, 추적 서브시스템(300)은 수동 가동 소비자 제품 실물모형(200)에 배열되는 수동 또는 능동 마커(360)(예를 들어, 수동 시각적 마커 또는 능동 IR 방출 마커, 예를 들어 IR LED) 및/또는 처리될 신체 부위(820)에 배열되는 마커(370)를 포함한다. 이어서, 추적 데이터 생성 유닛(310, 311)은 3차원 공간 내의, 특히 기준 좌표계(10)의 3개의 좌표(x, y, z)에 의해 걸쳐 있는(spanned) 3차원 공간에 대한 시각적 마커(360, 370)를 추적하도록 배열되는 적어도 하나의 카메라, 예를 들어 입체 카메라를 포함할 수 있다. 추적 데이터 생성 유닛(310, 311)은 예컨대 2개, 3개, 4개, 5개 등의 하나 초과의 카메라를 포함할 수 있어서, 수동 가동 소비자 제품 실물모형 및 선택적으로 또한 처리된 신체 부위(820)가 본질적으로 보이지 않는 영역 없이 3차원 공간에서 추적될 수 있다는 것이 보장된다. 카메라를 사용할 때, 기술된 모션 캡쳐링(motion capturing)은 추적될 물체(수동 가동 소비자 제품 실물모형 및 완전한 사용자의 신체 부위) 상에 마커를 사용할 수 있거나, 또는 (예컨대, 해부학적 랜드마크(landmark) 또는 다른 패턴에 기초하여 또는 윤곽 추적(silhouette-tracking)을 기반으로) 마커를 이용하지 않는 모션 캡쳐링이 사용될 수 있다. 카메라 대신에 또는 카메라(또는 다른 기술)에 더하여, 추적 서브시스템은 3D 공간에서 최대 9개의 축으로 적어도 수동 가동 소비자 제품 실물모형(200)의 움직임 및 배향을 결정하기 위해 적어도 하나의 관성 센서 유닛(350)(예컨대, 가속도계, 자이로스코프 및/또는 자력계를 포함함)과 같은 추가의 모션 캡쳐링 기술을 이용할 수 있다. 이와 관련하여, 각각의 관성 센서 유닛(123, 210, 350)은 이미 설명된 바와 같이 수동 가동 소비자 제품 실물모형(200)에 또는 그 안에 배치될 수 있지만, 또한 처리될 신체 부위(820) 또는 사용자의 다양한 신체 부위에 배치될 수 있다. 또한, 시뮬레이션에 사용되는 모든 다른 요소에는 마커 또는 관성 센서가 구비될 수 있는데, 예컨대 사용자의 손(810)에는 다른 관성 센서 유닛이 구비될 수 있다. 디스플레이 유닛(120)은 위치 및/또는 움직임 및/또는 배향 데이터(DM)를 수신기(이 수신기는 예를 들어 데이터 처리 서브시스템(400) 내에 배치될 수 있음)로 전달하기 위한 센서 유닛(123)을 포함할 수 있다. 관성 센서 유닛(350)은, 도 1에 나타낸 바와 같이, 예를 들어 접착제 스트라이프에 의해 또는 웨어러블 장치(380)에 의해 처리될 신체 부위(820)에 위치될 수 있다. 처리될 신체 부위(820)가 서로에 대해 가동될 수 있는 다양한 부분(예컨대, 하부 다리 및 상부 다리)을 포함할 수 있기 때문에, 2개 이상의 관성 센서 유닛(350)이 신체 부위(820)에 위치될 수 있다. 지금까지 논의된 것에 대해 대안적으로 또는 추가적으로, 추적 서브시스템(300)은 기본적으로 알려진 자기장(즉, 기준 좌표계에 대해 정량적으로 알려짐)을 생성하는 적어도 하나의 자석을 포함할 수 있으며, 이어서 자력계는 자기장의 방향 및 자기장의 강도가 기준 좌표계에서 절대 위치를 제공하도록 수동 가동 소비자 제품 실물모형(200)에 또는 그 안에 또는 신체 부위(820)에 위치될 수 있다. 그러한 관성 센서 유닛(123, 210, 350)은 무선 데이터 전송 기술(예를 들어, 블루투스(Bluetooth)™ 등)을 구비할 수 있거나, 또는 (예를 들어, 추적 데이터 처리 유닛(320)에 제공된) 데이터 수신기에 유선 연결될 수 있다. 대안적으로 또는 추가적으로, 추적 서브시스템(300)은 초음파 방출-기반 추적 기술(예를 들어, 수동 가동 소비자 제품 실물모형(200)에 또는 그 안에 또는 신체 부위(820)에 위치되는 하나 또는 수 개의 초음파 방출기) 및 각각의 초음파 수신기를 사용할 수 있다. 대안적으로 또는 추가적으로, 추적 서브시스템은 IR 모션 캡쳐링 기술을 사용할 수 있다. 광학적 가시 마커 대신에, IR 광원이 (독일 뤼셀스하임 소재의 소프트투텍 게엠베하(soft2tec GmbH)로부터 브랜드 넥소나(Nexonar)로 입수가능한 것과 같은) 추적 데이터 생성 유닛(310, 311)으로서의 각각의 IR 카메라와 함께 마커(360, 370)로서 사용될 수 있다. 당업자에게 알려진 모든 다른 3D 추적 기술이 또한 대안적이거나 추가적인 방식으로 사용될 수 있다.
추적 데이터 처리 유닛(320)은 추적 데이터 생성 유닛(310, 311)으로부터 추적 데이터(DT)를 수신한다(본 명세서에서는, 추적 데이터 생성 유닛(들)(310, 311)이 수동 가동 소비자 제품 실물모형(200)과는 별개인 것으로 도시되어 있지만, 추적 데이터 생성 유닛은 예컨대 관련 추적 데이터(DT)를 추적 데이터 처리 유닛(320)으로 전송하는 관성 센서 유닛(350)에 의해 수동 가동 소비자 제품 실물모형(200) 또는 신체 부위(820)에서 또는 그 안에 대안적으로 또는 추가적으로 실현될 수 있다는 것이 이해될 것이다). 추적 데이터 처리 유닛(320)은 기준 좌표계(10)에서 수동 이동 소비자 제품 실물모형(200) 및/또는 신체 부위(820)의 위치, 움직임 및/또는 배향을 제공하는 위치, 움직임(예를 들어, 속도 및 가속도) 및/또는 배향 데이터(DM)을 추적 데이터(DT)로부터 컴퓨팅하도록 배열된다.
시스템(1)은 추적 데이터 처리 유닛(320)으로부터의 위치, 움직임 및/또는 배향 데이터(DM)를 소위 사용 데이터(DU)로서 수신하는 데이터 처리 서브시스템(400)을 추가로 포함한다. 데이터 처리 서브시스템(400)은 본 명세서에서 데이터 처리 유닛(410) 및 저장 유닛(420)을 포함한다. 일부 실시예에서, 추적 데이터 처리 유닛(320) 및 데이터 처리 서브시스템(400)은 단일 통합 서브시스템으로서 실현된다. 추적 데이터 처리 유닛(320)에 의해 수신되는 대신에, 위치 및/또는 움직임 및/또는 배향 데이터(DM)가 각각 수동 가동 소비자 제품 실물모형(200) 또는 신체 부위(820)에서 각각의 센서 유닛(250, 350)으로부터 데이터 처리 유닛(410)에, 특히 데이터 처리 유닛(410)의 수신기 또는 송수신기(450)에 직접 전송될 수 있다. 이러한 데이터 전송은 무선 방식으로 또는 유선 방식으로 일어날 수 있다. 이어서, 그러한 위치 및/또는 움직임 및/또는 배향 데이터(DM)는 사용 데이터(DU)로서 또한 고려된다.
데이터 처리 유닛(410)은 시뮬레이션 서브시스템(300)에 위치 및/또는 움직임 및/또는 배향 데이터(DM)를 전달하도록 배열될 수 있다. 그러나, 데이터 처리 유닛(410)은 또한 시뮬레이션 서브시스템(100)에 관련 도출된 사용 데이터(DD)가 공급되도록 사용 데이터(DU)를 처리할 수 있고, 시뮬레이션 서브시스템이 시뮬레이션 처리 유닛(110)을 통해 디스플레이 유닛(120) 상에 보여질 시뮬레이션된 콘텐츠를 제공할 수 있게 한다. 이어서, 도출된 사용 데이터(DU)는 수동 가동 소비자 제품 실물모형(200), 신체 부위(820) 및/또는 디스플레이 유닛(120)의 상대 위치, 움직임 및/또는 배향을 포함할 수 있다. 시뮬레이션된 콘텐츠를 제공하는 과정은 본질적으로 "라이브" 과정(즉, 실시간)일 것인데, 즉 사용자는 사용자가 수동 가동 소비자 제품 및 시물레이션된 콘텐츠의 제시를 이용하여 수행하는 동작들 사이의 임의의 관련 지연을 알아채지 않게 될 것이다. "라이브" 과정의 이러한 인식은 시험되고 있는 구상된 수동 가동 소비자 제품에 좌우될 수 있으며, 대략 1초 이하, 예를 들어 100 ms 이하일 수 있다. 따라서, 지연은 0.001 ms 내지 2초의 범위, 특히 0.1 ms 내지 1초의 범위, 더 특히 1 ms 내지 500 ms의 범위, 그리고 더욱 더 특히 1 ms 내지 100 ms의 범위일 수 있다.
시스템(1)은 생리학적 센서 유닛(510, 520)에 의해 사용자의 생리학적 파라미터를 결정하도록 배열되는 측정 서브시스템(500)을 포함할 수 있다. 각각 측정된 생리학적 데이터(DP)는 사용 데이터(DU)로서 데이터 처리 유닛(400)으로 전달된다. 생리학적 센서 유닛(510, 520)에 의해 측정되는 생리학적 데이터(DP)는 심박수 데이터, EEG 데이터, ECG 파 데이터, 피부 습도 데이터, 혈압 데이터, 사용자의 자기-대화의 음향적 강도와 관련된 데이터, 사용자의 눈과 관련된 움직임 데이터, 갈바닉 피부 반응 데이터, 얼굴 표정 데이터 또는 얼굴 움직임 데이터 등 중 적어도 하나일 수 있다. 그러한 생리학적 데이터는 구상된 수동 가동 소비자 제품의 사용에 대한 추가적인 이해를 시험 절차 내로 그리고 자동화된 분석 내로 또는 적어도 추후의 사람의 평가를 위한 데이터 제시의 상세 사항 내로 추가하기 위해 측정된다. 생리학적 센서 유닛(510, 520)은 처리될 신체 부위(820)에 위치될 수 있고 웨어러블 장치(380) 내에 합체될 수 있다. 눈 움직임 데이터는 각각의 센서를 가상 현실 헤드셋 내에 위치함으로써 측정될 수 있다. 사용자는 또한 예컨대 생리학적 센서 유닛이 포함되어 있는 손목밴드(wristband)를 착용할 수 있다. 마이크로폰(microphone)은 구상된 수동 가동 소비자 제품의 시뮬레이션된 사용 동안 사용자의 자기-대화의 강도를 측정하는 데 사용될 수 있다. 명백하게는, 하나 또는 수 개의 센서가 사용자의 신체에서 또는 사용자의 신체에 근접하게 다양한 위치에 사용되어 하나 또는 수개의 생리학적 파라미터를 측정할 수 있다. 이어서, 그러한 생리학적 데이터는 다른 사용 데이터(DU)와 연결되어 사용의 질(quality)을 평가할 수 있다. 구상된 수동 가동 소비자 제품의 시뮬레이션된 사용 동안 사용자의 불편함 또는 스트레스를 나타내는 생리학적 파라미터는 시뮬레이션된 특성 또는 특징의 사용의 질에 관한 정보를 제공하고, 이는 이어서 평가 절차의 주안점이 되는 시뮬레이션된 특성 또는 시뮬레이션된 특징이 더 소비자 친화적인 방식으로 실현될 수 있도록 불편함 또는 스트레스를 감소시키도록 변경될 수 있다.
수동 가동 소비자 제품 실물모형(200), 신체 부위(820) 및/또는 디스플레이 유닛(120)의 적어도 위치 및/또는 움직임 및/또는 배향 데이터(DM), 및 선택적으로 또한 생리학적 데이터(DP)를 의미하는 사용 데이터(DU)에 기초하여, 데이터 처리 유닛(410)은 도출된 사용 데이터(DD)를 결정하며, 이는 구상된 수동 가동 소비자 제품의 시뮬레이션된 사용의 질에 대한 자동화된 평가 및/또는 인간 사용자 기반의 평가를 가능하게 하는 데이터를 포함한다. 예를 들어, 데이터 처리 유닛(410)은 평가 절차 등의 동안에 소정의 신체 영역 또는 사용자의 평균 스트레스 수준을 처리하는 데 필요한 총 시간을 컴퓨팅할 수 있다. 데이터 처리 유닛(410)은 현재의 평가 절차로부터의 사용 데이터(DU) 및/또는 도출된 사용 데이터(DD)를 저장하기 위한 및/또는 이전의 평가 절차 또는 이전의 평가 절차들로부터의 사용 데이터(DU') 및/또는 도출된 사용 데이터(DD')를 저장하기 위한 저장 유닛(420)을 포함할 수 있으며, 따라서 데이터 처리 유닛(410)이 직접 그리고 자동화된 방식으로 소정의 시뮬레이션된 특성 또는 특징을 포함하는 구상된 수동 가동 소비자 제품의 시뮬레이션된 사용의 성능 파라미터를 결정할 수 있게 한다. 도출된 사용 데이터(DD)는 제시를 위해 정리되고 준비된 사용 데이터(DU)를 포함할 수 있다.
시스템(1)은 또한 도출된 사용 데이터(DD)와 같은 정보를 사용자 액세스 가능한 방식으로 디스플레이하기 위한 디스플레이(910) 및 사용자로 하여금 사용자 상호작용 유닛(900)과 상호작용하게 하는 사용자 인터페이스(920)를 포함할 수 있는 사용자 상호작용 유닛(900)을 포함할 수 있다. 사용자 상호작용 유닛(900)의 사용자는 특히 수동 가동 소비자 제품의 사용자와는 상이한 사람일 수 있다. 사용자 상호작용 유닛(900)의 사용자는 특히 제시된 도출된 사용 데이터(DD)를 분석하는 제품 개발자일 수 있다.
추적 서브시스템(300), 데이터 처리 서브시스템(400), 및 시뮬레이션 서브시스템(100)이 일체형 유닛으로서 함께 (또는 적어도 부분적으로, 예를 들어 추적 데이터 생성 유닛(310) 및 디스플레이 유닛(120)을 제외한 상태로) 실현되는, 즉 이들이 단일 컴퓨터로 실현될 수 있다는 것이 배제되지 않을 것이다.
도 2는 사용자가 구상된 수동 가동 소비자 제품의 사용에 관한 평가 절차를 수행하기 위한 예시적인 시스템(1A)의 일부 구성요소의 도면으로서, 본 도면에 도시된 구성요소는 디스플레이 유닛(120A), 수동 가동 소비자 제품 실물모형(200A), 및 데이터 처리 유닛(400A)을 포함한다. 시스템(1A)의 모든 다른 필수 구성요소는 존재하는 것으로 간주되고 선택적인 구성요소는 존재할 수 있음이 이해될 것이다. 여기서의 디스플레이 유닛(120A)은 디스플레이 스크린(121A)을 갖는 가상 현실 헤드셋으로서 다시 도시된다. 사용자는 시험 절차 동안 디스플레이 유닛(120A)을 착용하고 시뮬레이션된 콘텐츠(290B)를 포함하는 디스플레이된 콘텐츠(700B)를 디스플레이 스크린(121A) 상에서 보며, 도시된 실시예에서의 상기 시뮬레이션된 콘텐츠는 디스플레이 스크린(121A) 상에서 보이는 수동 가동 소비자 제품 상의 광 조명 부분에 의해 지시되는 바와 같이 수동 가동 소비자 제품의 시각적 피드백 기능에 관한 것이다. 도 2에서, 디스플레이 스크린(121A) 상에서 보이는 디스플레이된 콘텐츠(700B)는 수동 가동 소비자 제품(200B), 사용자의 손(810B) 및 사용자의 신체 부위(820B)를 포함한다. 일부 실시예에서, (시뮬레이션된 콘텐츠(290B)가 없는) 수동 가동 소비자 제품(200B) 및 디스플레이 스크린(121A) 상에서 보이는 신체 부위(820B)는 단지 실제 물체의 비디오 묘사이고, 즉 수동 가동 소비자 제품 실물모형(200A), 손(810A), 및 신체 부위(820A)의 비디오 묘사이다. 따라서, 카메라(124A)는 디스플레이 유닛(120A) 상에 배열되어, 사용자에 의해 보이는 것의 라이프 비디오 스트림(stream)을 캡처할 수 있다. 이어서, 시뮬레이션 처리 유닛은 시뮬레이션된 시각적 피드백 기능을 시뮬레이션된 콘텐츠(290B)로서 비디오 화상(picture) 내에 추가한다. 일부 실시예에서, 가상 콘텐츠(290B)는 소비자 실물모형 장치 상의 마커와 같은 소정 특징부의 삭제를 포함한다. 일부 실시예에서, 완전한 디스플레이된 콘텐츠(700B)는 가상 콘텐츠(290B)이다. 시뮬레이션 서브시스템은 예컨대 가상 신체 부위 및 완전히 가상의 수동 가동 소비자 제품과 함께 가상 욕실 환경의 이미지를 생성할 수 있다.
디스플레이 유닛(120A)은 사용자의 눈 움직임을 추적하기 위한 적어도 하나의 눈 추적 센서(122A)를 포함할 수 있다. 디스플레이 유닛(120A)은 특히 데이터 처리 서브시스템(400A)으로 전달될 수 있는 위치 및/또는 움직임(즉, 속도 및/또는 가속도) 및/또는 배향 데이터(DM)를 생성하기 위해 적어도 하나의 관성 센서 유닛(123A)을 포함할 수 있고, 이 데이터 처리 서브시스템(400A)은 특히 데이터(DM)를 수신하기 위한 수신기 유닛 또는 송수신기 유닛(450A)을 갖는 데이터 처리 유닛(410A)을 포함할 수 있다.
수동 가동 소비자 제품 실물모형(200A)은 추적 데이터 생성 유닛에 의해 검출되기에 적합한 마커(360A), 수동 가동 소비자 제품 실물모형(200A)의 위치 및/또는 움직임 및/또는 배향 데이터(DM)를 생성하기 위한 관성 센서 유닛(210A), 및 데이터 처리 서브시스템(400A)의 수신기 유닛(450A)으로 데이터를 전달하기 위한 수신기 유닛 또는 송수신기 유닛(250A)을 포함할 수 있다. 선택적으로, 수동 가동 소비자 제품 실물모형(200A)은 사용자의 적어도 하나의 생리학적 파라미터의 값을 결정하기 위한 적어도 하나의 생리학적 센서 유닛(510A, 530A)을 포함한다. 여기서, 제1 생리학적 센서 유닛(510A)이 소비자 장치 실물모형(200A) 상의 어느 위치에 배치될 수 있으며, 이 경우 사용자가 수동 가동 소비자 제품 실물모형(200A)을 의도하는 방식으로 파지할 때 사용자의 손(810A)(손(810A)은 점선으로 도시됨)에서 생리학적 파라미터를 측정하고 따라서 생리학적 데이터(DP)를 생성하는 것이 가능하다. 제2 생리학적 센서 유닛(530A)은 일단 처리 헤드(201A)가 처리될 신체 부위(820A)와 접촉하면 생리학적 파라미터가 신체 부위(820A)에서 측정될 수 있도록 처리 헤드(201A)에 배열될 수 있다. 처리 헤드(201A)는 또한 처리 헤드(201A)가 신체 부위(820A)와 접촉하고 있는지 여부를 결정하기 위한 접촉 센서(230A)를 포함할 수 있다. 추적 서브시스템은 처리 헤드(201A)가 신체 부위(820B)와 높은 확률로 접촉하고 있다고 결정하기에 충분히 잘 구비되고 정밀할 수 있지만, 접촉 센서(230A)가 접촉을 확인하고 전체 추적 성능에 추가의 정밀도를 추가하기 위해 사용될 수 있다. 모든 언급된 센서(210A, 230A, 510A 및/또는 530A)는 측정된 데이터가 사용 데이터로서 데이터 처리 서브시스템(400A)의 수신기(450A)로 전송될 수 있도록 수신기 유닛 또는 송수신기 유닛(250A)과 결합될 수 있다.
수동 가동 소비자 제품 실물모형(200A)은 사용 중인 실제 수동 가동 소비자 제품에 의해 제공되는 피드백과 유사하거나 거의 동일한 방식으로 피드백이 사용자에게 제공될 수 있도록 피드백 유닛(600A)을 포함할 수 있다. 피드백 유닛(600A)은 열적, 촉각적, 시각적, 음향적, 또는 후각적 피드백 유닛 중 적어도 하나일 수 있다. 피드백 유닛(600A)은 수동 가동 소비자 제품 실물모형(200A)에 배치된 제어 유닛에 의해 제어될 수 있다. 피드백 유닛(600A)의 하나의 잠재적인 사용은 실제 수동 가동 소비자 제품의 피드백과 유사하거나 적어도 거의 동일한 장치 피드백을 사용자에게 제공하는 것이다. 예를 들어, 수동 가동 소비자 제품 실물모형(200A)은 모터를 포함하지 않을 수 있지만, 구상된 수동 가동 소비자 제품은 모터를 포함할 것이다. 따라서, 피드백 유닛(600A)은 일단 스위치 온 되면(switched on) 수동 가동 소비자 제품 내의 모터의 진동과 유사한 방식으로 사용자의 손(810A)에 진동을 전달하는 진동기(예컨대, 압전 진동기)로서 실현될 수 있다. 피드백 유닛(600A)에 추가적으로 또는 대안적으로, 피드백 유닛(610A)이 처리 헤드(201A)에 위치될 수 있다. 이러한 피드백 유닛(610A)은 예컨대 열적 피드백 유닛으로서 실현될 수 있다. 수동 가동 소비자 제품 실물모형(200A)은 일단 사용 중에 있으면 피부에 열을 발생시키는 광-기반 제모 장치와 유사하도록 구조화될 수 있다. 열적 피드백 유닛(610A)은 시뮬레이션된 시험 절차를 더 현실적이게 하기 위해 이러한 열 발생을 시뮬레이션하는 데 사용될 수 있다. 수동 가동 소비자 제품 실물모형(200A) 내의 제어 유닛에 의해 제어되는 대신에 또는 그러한 제어에 추가적으로, 데이터 처리 서브시스템(400A)은 피드백 유닛(600A, 610A)을 제어하기 위해 수동 가동 소비자 제품 실물모형(200A)으로 피드백 데이터(DF)를 전송할 수 있다.
도 3a 및 도 3b는 데이터 처리 서브시스템에 의해 제어되는 디스플레이의 콘텐츠(10A, 10B)의 도면이다. 도 3a에는, 처리된 표면(12)이 도시되어 있는데, 이 표면(12)은 도시된 실시예에서 하부 다리의 표면이다. 도출된 사용 데이터의 하나 또는 수 개의 값(11A, 11B)이 디스플레이 상에 보여질 수 있다. 예로서, 디스플레이 상에 보여지는 값(11A, 11B)은 디스플레이된 콘텐츠가 속하는 처리 세션 중의 시점에서의 처리된 표면 영역의 분율, 즉 도 3a에서는 0%이고 도 3b에서는 60%임을 나타낸다. 대안적으로 또는 추가적으로, 그러한 값이 도시되지 않을 수 있거나, 또는 추가의 도출된 사용 데이터 정보가 예컨대 시간에 따라 변할 수 있는 단일 값들에 의해, 표에 의해, 그래프 등에 의해 도시될 수 있다.
본 예에서, 도 3a는 수동 가동 소비자 제품의 사용 전의 디스플레이 콘텐츠(10A)를 도시하고, 도 3b는 사용 기간의 종료 시의 디스플레이 콘텐츠(10B)를 도시한다(도 3b는 또한 사용 기간 동안 디스플레이 콘텐츠일 수 있지만, 논의의 용이함을 위해, 디스플레이가 사용 세션이 완료된 후의 콘텐츠를 보여주는 것으로 가정한다). 표면-관련 도출된 사용 데이터의 시각화는 처리된 표면(12)의 묘사 위에 오버레이되는 것을 알 수 있다. 시각화되고 디스플레이되는 표면-관련 도출된 사용 데이터는 위치 및 속도 정보(14)를 포함할 수 있으며, 이 경우 처리된 표면(12)에 대한 수동 가동 소비자 제품 실물모형의 공간 내의 경로가 도시되어 있다. 경로(14)를 보여주는 라인의 폭 및/또는 색상 또는 음영은 속도를 나타내도록 변할 수 있으며, 이 경우 경로 라인(14)의 큰 폭은 고속을 나타낼 수 있고 경로 라인(14)의 작은 폭은 저속을 나타낼 수 있다. 여기서 음영은 폭을 따르며 속도 정보를 바로 강조한다. 다른 실시예에서, 음영 또는 착색은 다른 정보를 제공할 수 있고, 사용자의 심박동 또는 임의의 다른 표면-관련 도출된 사용 데이터에 관련될 수 있다.
또한, 처리된 표면 영역(13)이 도시되어 있다. 도시된 예는 수동 가동 소비자 제품으로서 광-기반 피부 처리 장치에 관한 것일 수 있으며, 이 경우 신체 부위의 피부는 일련의 광 펄스에 의해 처리된다. 이어서, 가시화된 개별 직사각형의 처리된 표면 영역들은 각각 장치의 직사각형 출력 윈도우를 통해 방출되는 단일 광 펄스에 관련된다. 사용자는 일부 영역에서는 중첩되는 광 플래시(flash)를, 다른 영역에서는 이격된 광 플래시를 생성하였음을 알 수 있다. 표면-관련 도출된 사용 데이터의 이러한 묘사 및 시각화는 장치의 사용을 평가하고 사용자에게 다른 피드백 메커니즘을 고려할 수 있게 하여 피부에 적용되는 플래시가 더 양호하게 분포될 것이다. 새로운 피드백 기능은 예를 들어 피드백 광을 포함할 수 있으며, 이 광은 표면 위에서의 장치의 속도가 정확한 경우에는 녹색이고 표면 위에서의 속도가 너무 낮거나 너무 빠른 경우에 적색으로 전환된다. 이어서, 소비자 제품의 그러한 새로운 피드백 기능을 본 명세서에 제안된 시스템으로 다시 체크할 수 있고, 처리된 표면 상에서의 생성된 플래시 분포가 이러한 이전의 분포와 비교되어 새로운 시뮬레이션된 피드백 기능이 결과를 개선하였는지 여부를 알 수 있다. 시각적 피드백 대신에, 촉각적 피드백 기능이 또한 시험될 수 있다. 피드백 기능은 반복적으로 개선될 수 있고(예컨대, 시각적 및 촉각적 피드백 기능의 조합), 시뮬레이션의 종료 시에, 현저하게 개선된 장치가 설계 및 제조될 수 있다.
또한, 소비자 제품이 표면 위에 있는 제1 스트로크의 일부 플래시가 제2 스트로크로부터의 이웃하는 플래시와 중첩하는 반면에 다른 플래시는 그 사이에 갭을 갖는 것을 알 수 있다. 한편으로는 스트로크들의 중첩 플래시를 피하고 또한 다른 한편으로는 스트로크들 사이의 갭을 피하기 위해 사용자가 왼쪽 또는 우측으로 이동하게 하는 새로운 피드백 기능이 시뮬레이션되는 것이 이제 고려될 수 있다.
사용 기간의 종료 시에, 처리된 표면의 분율을 나타내는 값(11B)은 60%를 나타낸다. 디스플레이 콘텐츠가 도 3a에 도시된 디스플레이 콘텐츠(10A)로부터 도 3b에 도시된 디스플레이 콘텐츠(10B)로 시간 순차적(time-sequential) 방식으로 변경되는 것이 구상될 것이다.
본 명세서에 개시된 치수 및 값은 언급된 정확한 수치 값으로 엄격하게 제한되는 것으로 이해되어서는 안 된다. 대신에, 달리 명시되지 않는 한, 각각의 그러한 치수는 열거된 값과, 그 값 부근의 기능적으로 등가인 범위 둘 모두를 의미하도록 의도된다. 예를 들어, "40 mm"로 개시된 치수는 "약 40 mm"를 의미하도록 의도된다.

Claims (15)

  1. 구상된 수동 가동 소비자 제품(manually movable consumer product)의 사용을 사용자가 평가하기 위한 시스템으로서,
    사용 동안 사용자의 손들 중 적어도 하나에 보유되도록 의도된 수동 가동 소비자 제품 실물모형(mockup);
    적어도 부분적으로 시뮬레이션된 콘텐츠를 제시하기 위한 디스플레이 유닛 및 상기 시뮬레이션된 콘텐츠를 제공하기 위한 시뮬레이션 처리 유닛을 포함하는 시뮬레이션 서브시스템;
    기준 좌표계에 대해 적어도 상기 수동 가동 소비자 제품 실물모형의 움직임을 추적하도록 배열된 추적 서브시스템으로서, 상기 추적 서브시스템은 적어도 하나의 추적 데이터 생성 유닛 및 추적 데이터로부터 위치 및/또는 배향 및/또는 움직임 데이터를 결정하기 위한 추적 데이터 처리 유닛을 포함하는, 상기 추적 서브시스템; 및
    적어도 상기 위치 및/또는 배향 및/또는 움직임 데이터를 포함하는 사용 데이터를 수신하기 위한 데이터 처리 서브시스템
    을 포함하며;
    상기 시뮬레이션 서브시스템은 상기 구상된 수동 가동 소비자 제품의 적어도 하나의 특성 또는 특징을 시뮬레이션하도록 그리고 이러한 특성 또는 특징을 상기 디스플레이 유닛을 통해 시뮬레이션된 콘텐츠로서 제시하도록 배열되고;
    상기 데이터 처리 서브시스템은 상기 수신된 사용 데이터의 적어도 일부분을 처리하여 도출된 사용 데이터를 컴퓨팅하도록 배열되어, 상기 구상된 수동 가동 소비자 제품의 사용을 평가하게 하고;
    상기 데이터 처리 서브시스템은 상기 디스플레이 유닛을 통해 또는 사용자 상호작용 장치의 디스플레이를 통해 상기 도출된 사용 데이터를 디스플레이하도록 추가로 배열되는, 시스템.
  2. 제1항에 있어서, 상기 추적 서브시스템은 상기 기준 좌표계에 대한 상기 사용자의 적어도 하나의 신체 부위의 위치 및/또는 배향 및/또는 움직임을 추적하도록 추가로 배열되는, 시스템.
  3. 제1항 또는 제2항에 있어서, 상기 수동 가동 소비자 제품은 표면을 처리하도록 배열되고, 상기 데이터 처리 서브시스템은 상기 수신된 사용 데이터의 적어도 일부분을 처리하여 표면-관련 도출된 사용 데이터를 컴퓨팅하도록 배열되는, 시스템.
  4. 제3항에 있어서, 상기 데이터 처리 서브시스템은 상기 표면의 묘사(depiction)를 디스플레이하고 상기 표면 관련 도출된 사용 데이터의 시각화(visualization)를 상기 묘사된 표면 상에 오버레이(overlay)하도록 배열되는, 시스템.
  5. 제4항에 있어서, 상기 데이터 처리 서브시스템은 상기 묘사된 표면 상에 오버레이되는 상기 표면 관련 사용 데이터의 시각화를 시간 순차적(time-sequential) 애니메이션으로서 디스플레이하도록 배열되는, 시스템.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 추적 데이터 생성 유닛은 상기 수동 가동 소비자 제품 실물모형에 제공되는 적어도 하나의 관성 센서를 포함하거나, 또는 상기 추적 데이터 생성 유닛은 적어도 하나의 관성 센서를 포함하는 적어도 하나의 사용자 웨어러블 유닛을 포함하는, 시스템.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 추적 데이터 처리 유닛은 상기 사용자의 신체 부위에 대한 상기 수동 가동 소비자 제품 실물모형의 위치 및/또는 배향, 또는 상기 사용자의 신체 부위에 대한 상기 수동 가동 소비자 제품 실물모형의 속도를 결정하도록 배열되는, 시스템.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서, 상기 사용자의 생리학적 파라미터를 측정하고 측정된 생리학적 데이터를 사용 데이터로서 상기 데이터 처리 서브시스템으로 전달하기 위한 적어도 하나의 생리학적 센서 유닛을 갖는 측정 서브시스템을 추가로 포함하는, 시스템.
  9. 제8항에 있어서, 상기 생리학적 센서 유닛은 상기 수동 가동 소비자 제품 실물모형에 제공되고/되거나 상기 생리학적 센서 유닛은 사용자 웨어러블 장치에 제공되는, 시스템.
  10. 제8항 또는 제9항에 있어서, 상기 생리학적 센서 유닛은 상기 생리학적 파라미터로서 심박수, EEG 파 또는 ECG 파, 피부 습도(skin humidity), 혈압, 또는 상기 사용자의 자기-대화(self-talk)의 강도 중 적어도 하나를 측정하도록 배열되는, 시스템.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서, 상기 데이터 처리 서브시스템은 현재의 사용 세션(session) 동안 수신된 사용 데이터를 이전의 사용 세션으로부터 이전에 수신된 사용 데이터와 비교하도록 배열되거나, 또는 현재의 사용 세션으로부터의 도출된 사용 데이터를 이전의 사용 세션으로부터의 도출된 사용 데이터와 비교하도록 배열되는, 시스템.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서, 상기 수동 가동 소비자 제품 실물모형은 피드백 유닛, 특히 촉각적 피드백 유닛, 음향적 피드백 유닛, 열적 피드백 유닛, 후각적 피드백 유닛, 또는 시각적 피드백 유닛 중 적어도 하나를 포함하는, 시스템.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서, 상기 수동 가동 소비자 제품 실물모형은 적어도 하나의 접촉 센서 유닛을 포함하고, 상기 수동 가동 소비자 제품 실물모형은 특히 데이터 전송 유닛을 통해 상기 데이터 처리 서브시스템에 사용 데이터로서 접촉 데이터를 전송하도록 배열되는, 시스템.
  14. 특히 표면을 처리하도록 배열된 구상된 수동 가동 소비자 제품의 사용을 사용자가 평가하는 방법으로서,
    사용자가 수동 가동 소비자 제품 실물모형을 사용하는 단계로서, 상기 사용자는 적어도 한 손으로 상기 수동 가동 소비자 제품 실물모형을 보유하는, 상기 단계;
    기준 좌표계에 대한 적어도 상기 수동 가동 소비자 제품 실물모형의 움직임을 추적하고, 선택적으로 상기 기준 좌표계에 대한 상기 사용자의 적어도 하나의 신체 부위의 위치 및/또는 배향 및/또는 움직임을 추적하는 단계;
    적어도 위치 및/또는 배향 및/또는 움직임 데이터를 포함하는 사용 데이터를 생성하고, 선택적으로 상기 사용자로부터의 생리학적 데이터를 추가로 포함하는 사용 데이터를 생성하는 단계;
    상기 사용 데이터를 사용하여 시뮬레이션된 콘텐츠를 생성하는 단계로서, 상기 시뮬레이션된 콘텐츠는 상기 구상된 수동 가동 소비자 제품의 적어도 하나의 특성 또는 특징을 나타내는, 상기 단계;
    적어도 상기 시뮬레이션된 콘텐츠를 디스플레이 유닛 상에 제시하는 단계;
    상기 사용 데이터의 적어도 일부분을 사용하여 도출된 사용 데이터를 컴퓨팅하는 단계;
    상기 도출된 사용 데이터를 분석하여 상기 구상된 수동 가동 소비자 제품의 사용을 평가하는 단계; 및
    상기 디스플레이 유닛 상에 또는 사용자 상호작용 장치의 디스플레이를 통해 상기 도출된 사용 데이터를 디스플레이하는 단계
    를 포함하는, 방법.
  15. 제14항에 있어서, 상기 수동 가동 소비자 제품은 표면을 처리하도록 배열되며, 상기 방법은 처리된 표면의 묘사를 디스플레이하고 그리고 묘사된 표면 상으로 표면 관련 도출된 사용 데이터의 시각화를 오버레이하는 추가 단계를 포함하는, 방법.
KR1020217025837A 2019-02-14 2020-02-06 구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템 KR102638830B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP19157178 2019-02-14
EP19157178.5 2019-02-14
EP19196473.3 2019-09-10
EP19196473.3A EP3696740B1 (en) 2019-02-14 2019-09-10 System for assessing the usage of an envisaged manually movable consumer product
PCT/IB2020/050965 WO2020165703A1 (en) 2019-02-14 2020-02-06 System for assessing the usage of an envisaged manually movable consumer product

Publications (2)

Publication Number Publication Date
KR20210116553A true KR20210116553A (ko) 2021-09-27
KR102638830B1 KR102638830B1 (ko) 2024-02-23

Family

ID=65440859

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217025837A KR102638830B1 (ko) 2019-02-14 2020-02-06 구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템

Country Status (6)

Country Link
US (1) US11093027B2 (ko)
EP (1) EP3696740B1 (ko)
JP (1) JP7292396B2 (ko)
KR (1) KR102638830B1 (ko)
CN (1) CN113424212A (ko)
WO (1) WO2020165703A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117056831A (zh) * 2023-10-13 2023-11-14 南京龙垣信息科技有限公司 基于卷积神经网络的内心独白识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050102803A (ko) * 2004-04-23 2005-10-27 삼성전자주식회사 가상입력장치, 시스템 및 방법
US20150190876A1 (en) * 2014-01-07 2015-07-09 Illinois Tool Works Inc. Welding stand for a welding system
KR101793468B1 (ko) * 2017-03-31 2017-11-03 주식회사 에프앤디파트너스 Ar을 이용한 셀프 뷰티앱 플랫폼 시스템 및 방법
KR20180109750A (ko) * 2017-03-28 2018-10-08 주식회사 엑소시스템즈 웨어러블 장치 및 그것을 포함하는 재활 시스템

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7160110B2 (en) * 1999-11-30 2007-01-09 Orametrix, Inc. Three-dimensional occlusal and interproximal contact detection and display using virtual tooth models
US6939138B2 (en) * 2000-04-12 2005-09-06 Simbionix Ltd. Endoscopic tutorial system for urology
JP2003250509A (ja) 2002-02-27 2003-09-09 Japan Tobacco Inc シミュレーションシステム
US10073953B2 (en) * 2002-10-01 2018-09-11 World Award Academy, World Award Foundation, Amobilepay, Inc. Wearable personal digital device for facilitating mobile device payments and personal use
US9811818B1 (en) * 2002-10-01 2017-11-07 World Award Academy, World Award Foundation, Amobilepay, Inc. Wearable personal digital device for facilitating mobile device payments and personal use
JP4975249B2 (ja) 2002-10-09 2012-07-11 ボディーメディア インコーポレイテッド 生理学的情報及び/又はコンテキストパラメータを用いて個人の状態パラメータを測定する装置
JP2005108108A (ja) * 2003-10-01 2005-04-21 Canon Inc 三次元cg操作装置および方法、並びに位置姿勢センサのキャリブレーション装置
JP3729829B2 (ja) * 2004-02-13 2005-12-21 国立大学法人岐阜大学 理学的診療訓練用人体装着具
US20050216243A1 (en) * 2004-03-02 2005-09-29 Simon Graham Computer-simulated virtual reality environments for evaluation of neurobehavioral performance
US8403675B2 (en) * 2004-03-08 2013-03-26 The Johns Hopkins University Device and method for medical training and evaluation
US7731500B2 (en) * 2004-07-08 2010-06-08 Laerdal Medical Corporation Vascular-access simulation system with three-dimensional modeling
DE102004049938B4 (de) * 2004-10-13 2006-11-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Simulation haptisch wahrnehmbarer Vibrationen eines Objektes
JP4667111B2 (ja) * 2005-04-21 2011-04-06 キヤノン株式会社 画像処理装置、画像処理方法
JP4933164B2 (ja) * 2005-07-01 2012-05-16 キヤノン株式会社 情報処理装置、情報処理方法、プログラムおよび記憶媒体
US7733224B2 (en) * 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
JP2008165488A (ja) * 2006-12-28 2008-07-17 Fujitsu Ltd 組立操作性評価装置、方法及びプログラム
US8321797B2 (en) * 2006-12-30 2012-11-27 Kimberly-Clark Worldwide, Inc. Immersive visualization center for creating and designing a “total design simulation” and for improved relationship management and market research
KR101001617B1 (ko) * 2007-12-17 2010-12-17 한국전자통신연구원 가상 모바일 정보기기의 사용성 평가 시스템 및 그 방법
US8615383B2 (en) * 2008-01-18 2013-12-24 Lockheed Martin Corporation Immersive collaborative environment using motion capture, head mounted display, and cave
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
EP2191788A1 (en) * 2008-11-29 2010-06-02 Braun Gmbh Method and device for three-dimensional measurement of a dental model
JP5200903B2 (ja) * 2008-12-08 2013-06-05 オムロンヘルスケア株式会社 電子血圧計
EP2229916B1 (en) * 2009-03-19 2016-06-01 Braun GmbH Method for determining a pattern of use of an electric toothbrush and electric toothbrush
US8381571B2 (en) * 2010-06-17 2013-02-26 Braun Gmbh Method and apparatus for assessing the penetration of tooth cleaning elements in the gingival pocket
CN101980228A (zh) * 2010-09-01 2011-02-23 张辉 人体信息监测与处理系统及方法
KR101390383B1 (ko) * 2010-11-16 2014-04-29 한국전자통신연구원 가상현실 기반 훈련 시뮬레이터를 위한 가변형 플랫폼 관리 장치
US8988465B2 (en) * 2012-03-30 2015-03-24 Ford Global Technologies, Llc Physical-virtual hybrid representation
US8938477B1 (en) * 2012-09-26 2015-01-20 Emc Corporation Simulating data storage system configuration data
US20150072323A1 (en) * 2013-09-11 2015-03-12 Lincoln Global, Inc. Learning management system for a real-time simulated virtual reality welding training environment
CN106233357B (zh) * 2013-10-07 2020-09-04 曼帝斯有限公司 基于医疗程序模拟的辐射估算和防护
US9922460B2 (en) * 2014-11-04 2018-03-20 Illinois Tool Works Inc. Stereoscopic helmet display
US10869541B2 (en) * 2014-11-11 2020-12-22 ZeroBrush, Inc. Systems, devices, and methods for customized dental care
EP3261571B1 (en) * 2015-02-25 2023-03-08 Mako Surgical Corporation Navigation systems and methods for reducing tracking interruptions during a surgical procedure
US10591575B2 (en) * 2015-04-22 2020-03-17 Hisep Technology Ltd. Direction finding system device and method
US9898864B2 (en) * 2015-05-28 2018-02-20 Microsoft Technology Licensing, Llc Shared tactile interaction and user safety in shared space multi-person immersive virtual reality
US10854104B2 (en) * 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
US20170178540A1 (en) * 2015-12-22 2017-06-22 Truinject Medical Corp. Injection training with modeled behavior
US10656517B2 (en) * 2016-01-20 2020-05-19 Mentor Graphics Corporation Pattern correction in multiple patterning steps
US11364102B2 (en) * 2016-02-08 2022-06-21 Oralucent, Inc. Short wavelength visible light-emitting toothbrush with an electronic signal interlock control
US10849688B2 (en) * 2016-03-02 2020-12-01 Truinject Corp. Sensory enhanced environments for injection aid and social training
CN108882850B (zh) * 2016-04-02 2023-04-07 史蒂芬·R·皮博迪 医疗诊断设备、系统和使用方法
US10078377B2 (en) * 2016-06-09 2018-09-18 Microsoft Technology Licensing, Llc Six DOF mixed reality input by fusing inertial handheld controller with hand tracking
US10806532B2 (en) * 2017-05-24 2020-10-20 KindHeart, Inc. Surgical simulation system using force sensing and optical tracking and robotic surgery system
JP6640792B2 (ja) * 2017-06-30 2020-02-05 ファナック株式会社 ハンド制御装置、ハンド制御方法、およびハンドのシミュレーション装置
US20190133893A1 (en) * 2017-07-20 2019-05-09 Oscar E. Recio Saucedo Tooth Paste Gummy
EP3528091A1 (en) * 2018-02-14 2019-08-21 Koninklijke Philips N.V. Personal care device localization
US10928589B2 (en) 2018-02-20 2021-02-23 Honeywell International Inc. Metallic blinder between optical waveguides to reduce cross talk

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050102803A (ko) * 2004-04-23 2005-10-27 삼성전자주식회사 가상입력장치, 시스템 및 방법
US20150190876A1 (en) * 2014-01-07 2015-07-09 Illinois Tool Works Inc. Welding stand for a welding system
KR20180109750A (ko) * 2017-03-28 2018-10-08 주식회사 엑소시스템즈 웨어러블 장치 및 그것을 포함하는 재활 시스템
KR101793468B1 (ko) * 2017-03-31 2017-11-03 주식회사 에프앤디파트너스 Ar을 이용한 셀프 뷰티앱 플랫폼 시스템 및 방법

Also Published As

Publication number Publication date
KR102638830B1 (ko) 2024-02-23
JP7292396B2 (ja) 2023-06-16
JP2022520412A (ja) 2022-03-30
US20200264697A1 (en) 2020-08-20
WO2020165703A1 (en) 2020-08-20
EP3696740A1 (en) 2020-08-19
US11093027B2 (en) 2021-08-17
CN113424212A (zh) 2021-09-21
EP3696740B1 (en) 2024-01-10

Similar Documents

Publication Publication Date Title
US11730543B2 (en) Sensory enhanced environments for injection aid and social training
RU2753629C1 (ru) Системы для гигиены полости рта
US11786033B2 (en) Methods and systems for extracting brushing motion characteristics of a user using an oral hygiene device including at least one accelerometer to provide feedback to a user
US11468561B2 (en) Apparatus and method for operating a personal grooming appliance or household cleaning appliance
US11166669B2 (en) Method for determining of movement patterns during a dental treatment
EP3031353B1 (en) Oral care system and method
WO2016047793A1 (ja) 歯磨き支援システム、歯ブラシアタッチメント、歯磨き支援装置及び電動式歯ブラシ
US20230017611A1 (en) Method and apparatus for providing tooth-brushing guide information using augmented reality
JP2019512299A (ja) 移動追尾及びシミュレーション用の装置並びに方法
KR102638830B1 (ko) 구상된 수동 가동 소비자 제품의 사용을 평가하기 위한 시스템
CN109313499A (zh) 用于向用户呈现触觉反馈的设备和用于操作该设备的方法
Li et al. 3D Monitoring of Toothbrushing Regions and Force Using Multimodal Sensors and Unity

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right