KR20210095178A - 어플리케이터를 사용하도록 사용자를 안내하는 방법 및 시스템 - Google Patents

어플리케이터를 사용하도록 사용자를 안내하는 방법 및 시스템 Download PDF

Info

Publication number
KR20210095178A
KR20210095178A KR1020217019458A KR20217019458A KR20210095178A KR 20210095178 A KR20210095178 A KR 20210095178A KR 1020217019458 A KR1020217019458 A KR 1020217019458A KR 20217019458 A KR20217019458 A KR 20217019458A KR 20210095178 A KR20210095178 A KR 20210095178A
Authority
KR
South Korea
Prior art keywords
applicator
target area
actuation
unit
application surface
Prior art date
Application number
KR1020217019458A
Other languages
English (en)
Inventor
슌시웅 쉬
šœ시웅 쉬
샤오 팡 앙
Original Assignee
더 프록터 앤드 갬블 캄파니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 더 프록터 앤드 갬블 캄파니 filed Critical 더 프록터 앤드 갬블 캄파니
Publication of KR20210095178A publication Critical patent/KR20210095178A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D44/005Other cosmetic or toiletry articles, e.g. for hairdressers' rooms for selecting or displaying personal cosmetic colours or hairstyle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • G06K9/00281
    • G06K9/00671
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/10ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to drugs or medications, e.g. for ensuring correct administration to patients
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • AHUMAN NECESSITIES
    • A45HAND OR TRAVELLING ARTICLES
    • A45DHAIRDRESSING OR SHAVING EQUIPMENT; EQUIPMENT FOR COSMETICS OR COSMETIC TREATMENTS, e.g. FOR MANICURING OR PEDICURING
    • A45D44/00Other cosmetic or toiletry articles, e.g. for hairdressers' rooms
    • A45D2044/007Devices for determining the condition of hair or skin or for selecting the appropriate cosmetic or hair treatment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medicinal Chemistry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

얼굴 피부용 어플리케이터와 같은 어플리케이터를 사용하도록 사용자를 안내하기 위한 방법 및 시스템이 개시되며, 본 방법 및 시스템은 목표 영역을 가리키는 그래픽과 적용 표면을 실시간으로 사용자에게 디스플레이하는 단계/유닛; 어플리케이터의 위치를 검출하여 목표 영역에 대한 어플리케이터의 정렬을 확인하는 단계/유닛; 목표 영역 상의 어플리케이터의 작동을 검출하는 단계/유닛; 및 예를 들어 목표 영역을 가리키는 그래픽의 색상 변화에 의해 어플리케이터 작동의 진행 및/또는 완료를 통지하는 단계/유닛을 포함한다. 본 방법 및 시스템은 사용 지침에 대한 사용자의 순응도(compliance) 및/또는 어플리케이터의 효능을 개선한다.

Description

어플리케이터를 사용하도록 사용자를 안내하는 방법 및 시스템
어플리케이터(사용자의 얼굴 및 피부에 사용되는 어플리케이터를 포함함)를 사용하도록 사용자를 안내하는 시스템 및 방법이 제공된다.
종종, 어플리케이터는 소비자에게 친숙하지 않으며 최상의 또는 광고된 결과를 얻기 위한 특유의 사용 지침을 가지며, 이는 따르지 않거나 또는 단지 부분적으로 따르게 되면(즉, "불이행"(noncompliance)의 경우) 원하지 않는 결과로 이어질 수 있다. 예를 들어, 어플리케이터의 과소 또는 과다 사용, 위치, 어플리케이터 작동, 및/또는 적용 시간에 관한 어플리케이터의 오용(misapplication), 및/또는 어플리케이터를 사용하기 위한 정확한 방법에 대한 혼동은 소비자로 하여금 어플리케이터에 대해 실망하게 하고, 당황스럽게 하고/하거나 불만족하게 할 수 있다. 이는 또한 광고되거나 표시된 이득 또는 결과와 일치하지 않는 어플리케이터의 감소된 효능 및/또는 성능으로 이어질 수 있다.
사용 지침에 대한 사용자의 순응도(compliance)를 개선하고/하거나 어플리케이터의 효능 및 함께 사용되는 경우 적용된 소비자 제품의 효능을 개선하기 위한 시도로 많은 상이한 방법 및 기술이 사용되어 왔다. 그러나, 그러한 방법 및 기술은 종종 하기의 이유들 중 하나 이상으로 인해 실패하거나 소비자가 원하지 않게 된다: 소비자는 긴 사용 지침을 읽는 데 필요한 시간을 소비하고자 하지 않으며; 소비자는 도움을 받기 위해 이동하고 싶지 않으며; 소비자는 다른 사람에게 도움을 요청하고 싶지 않으며; 사용법은 주어진 사용 지침에 기초하여 실시하기가 쉽지 않으며; 사용 지침은 잠재적인 사용자 집단에 대해 너무 포괄적이어서 소비자가 자신에 대해 재현하기가 어려우며; 또는 소비자는 제품의 적절한 적용을 보장하기 위한 적절한 단계를 기억하지 못할 수 있다. 인쇄된 실물같은 그래픽 및/또는 비디오 튜토리얼(tutorial)의 사용이 도움이 될 수 있지만, 이들은 여전히 필요한 정보를 소비자에게 적당한 시기에 그리고 소비자가 어플리케이터의 효과적인 사용 및/또는 맞춤화된 사용을 위한 적절한 기술을 신속하게 이해하고, 실행하고 그리고 기억할 수 있는 방식으로 종종 제공하지 못한다.
그러므로, 어플리케이터의 의도된 사용 및/또는 어플리케이터가 어떻게 효과적으로 사용되는지에 대한 소비자의 이해를 개선하기 위한 직관적이고 맞춤화된 시스템 및/또는 방법을 사용자에게 제공하는 것이 바람직할 것이다.
본 발명은 어플리케이터를 사용하도록 사용자를 안내하는 방법에 관한 것이며,
이 방법은
(a) 적용 표면을 검출하는 단계;
(b) 적용 표면 내의 목표 영역을 검출하는 단계;
(c) 목표 영역을 가리키는 그래픽을 생성하는 단계;
(d) 목표 영역을 가리키는 그래픽과 적용 표면을 실시간으로 사용자에게 디스플레이하는 단계;
(e) 어플리케이터의 위치를 검출하는 단계;
(f) 목표 영역 상의 어플리케이터의 작동을 검출하는 단계; 및
(g) 어플리케이터 작동의 진행 및/또는 완료를 통지하는 단계를 포함한다.
본 발명은 또한 어플리케이터를 사용하도록 사용자를 안내하는 시스템에 관한 것이며,
이 시스템은
(a) 적용 표면을 검출하는 유닛;
(b) 적용 표면 내의 목표 영역을 검출하고 하기 유닛에 연결되는 유닛;
(c) 목표 영역을 가리키는 그래픽을 생성하는 유닛;
(d) 목표 영역을 가리키는 그래픽과 적용 표면을 실시간으로 사용자에게 디스플레이하고 적어도 적용 표면 검출 유닛에 연결되는 유닛;
(e) 어플리케이터의 위치를 검출하고 하기 유닛에 연결되는 유닛;
(f) 목표 영역 상의 어플리케이터의 작동을 검출하고 하기 유닛에 연결되는 유닛; 및
(g) 어플리케이터 작동의 진행 및/또는 완료를 통지하는 유닛을 포함한다.
본 발명은 증강 현실 및 인식 기술의 사용을 조합하여 직관적이고 효과적인 실시간 적용 튜토리얼을 생성한다. 이러한 특유의 조합은 종래의 시스템 및 방법에 비해 놀랍고 예상치 못한 이익을 제공하는 것으로 밝혀졌다.
예를 들어, 어플리케이터를 위한 사용 지침 및 적용에 대한 소비자 순응도가 본 발명의 시스템 및 방법을 사용하여 상당히 개선될 수 있음이 놀랍게도 밝혀졌다. 예기치 않게도, 어플리케이터, 특히 얼굴 피부 표면에 적용된 어플리케이터들의 경우, 어플리케이터가 적용될 목표 표면을 디스플레이하기 위한 실시간 증강 현실의 사용과 함께 어플리케이터 작동의 진행 및/또는 완료를 통지하는 것은 이전의 시스템 및 방법에 비하여 상당히 개선된 사용자 순응도, 어플리케이터에 대한 만족도 및/또는 개선된 어플리케이터 효능을 초래할 것이다.
본 발명의 방법 및 시스템은:
목표 영역에 대한 어플리케이터 작동의 개선된 정확도에 의해, 예를 들어 목표 영역에 대한 어플리케이터의 더 양호한 정렬, 및/또는 어플리케이터 작동의 더 적절한 지속시간, 강도, 및/또는 유형에 의해, 어플리케이터의 의도된 사용 및/또는 어플리케이터를 효과적으로 사용하는 방법에 대한 사용자의 이해를 개선하기 위한, 및/또는 사용 지침에 대한 사용자의 순응도를 개선하기 위한; 및/또는
어플리케이터의 효능을 개선하기 위한 직관적이고 맞춤화된 시스템 및/또는 방법을 제공한다.
도 1a 내지 도 1i는 본 발명의 방법 및 시스템의 일 예의 단순화된 흐름도.
도 2a 내지 도 2d는 본 발명의 방법의 소정 단계가 사용자에게 어떻게 디스플레이될 수 있는지를 보여주는 예시적인 그래픽 이미지들을 도시하는 도면.
본 명세서는 본 발명을 구체적으로 지적하고 명확하게 청구하는 청구범위로 결론을 맺지만, 본 발명이 하기 설명으로부터 더 잘 이해될 것으로 여겨진다.
본 발명은, 본 명세서에 구체적으로 기술되거나 당업자에게 달리 알려져 있든지 간에, 본 명세서에 기술된 요소 및 제한뿐만 아니라, 본 발명과 함께 사용하기에 적합한 임의의 추가적인 또는 선택적인 단계/유닛, 구성요소 또는 제한 중 임의의 것을 포함할 수 있다.
본 명세서에 사용되는 바와 같이, 용어 "증강 현실" 또는 "AR"은 컴퓨터-생성 이미지를 실제 세계의 사용자의 시야 상에 중첩시켜서, 실제 세계와 컴퓨터-생성 그래픽의 복합적 시야를 제공하는 기술을 지칭한다.
본 명세서에 사용되는 바와 같이, 용어 "순응"은 어플리케이터의 사용자가 소비자 제품과 함께 또는 소비자 제품 없이 어플리케이터를 사용하는 사용법을 면밀히 따르는 상황을 지칭한다.
본 명세서에 사용되는 바와 같이, 용어 "불이행"은 어플리케이터의 사용자가 어플리케이터의 사용 또는 적용 지침들 중 하나 이상을 따르지 않는 상황을 지칭한다.
본 명세서에 사용되는 바와 같이, 용어 "실시간"은 이벤트가 일어나고 있는 실제 현재 시간에, 이벤트로부터의 데이터를 입력 및 처리하고 사용자에게 피드백을 제공하는 데 필요한 소량의 추가 시간을 더한 시간을 지칭한다. 예를 들어, 사용자가 예컨대 장치의 카메라를 통해 이미지 정보를 입력하고 있는 바로 그 시간과 장치가 이미지를 처리하여 이를 장치의 스크린 상에 디스플레이하는 데 걸릴 수 있는 수 밀리초를 더한 시간에, 사용자의 실시간 이미지가 장치, 예를 들어 컴퓨터, 또는 모바일 컴퓨터, 예를 들어 휴대폰 또는 모바일 태블릿 컴퓨터의 스크린 상에 디스플레이될 수 있다.
본 명세서에 사용되는 바와 같이, 용어 "어플리케이터"는 소비자 제품과 함께 또는 소비자 제품 없이 사용되는 임의의 표면에 대한 어플리케이터를 지칭한다. 이로 제한되지 않지만, 본 발명의 시스템 및 방법에 의해 특히 이득이 되는 한 가지 유형의 어플리케이터는 신체의 표면, 예를 들어 얼굴 피부 및 신체 피부를 포함하는 피부, 모발, 치아 및/또는 손발톱, 바람직하게는 얼굴 피부에 적용되게 하는 어플리케이터이다. 그러한 어플리케이터는, 예를 들어 모발 케어, 신체 케어, 얼굴 피부 케어, 면도 케어 및/또는 구강 케어에 사용된다. 그러한 어플리케이터는 신체의 그러한 표면에 적용될 소비자 제품과 함께 또는 소비자 제품 없이 사용될 수 있다. 그러한 소비자 제품의 비제한적인 예는, 예를 들어, 모발 케어 제품, 신체 케어 제품, 얼굴 피부 케어 제품, 면도 케어 제품, 헬스 케어 제품 및/또는 구강 케어 제품과 같은 개인 케어 제품이다.
본 발명에 따른 시스템 및 방법의 예가 하기에 기술된다. 이들 예는 구체적으로 얼굴 피부에 사용되는 어플리케이터를 사용하는 것에 관한 것이지만, 본 발명은 그러한 어플리케이터로 한정되지 않으며, 특정 실시 형태로 한정되는 것으로 본 명세서에 명백히 기술되지 않는 한 임의의 그리고 모든 어플리케이터에 관한 것으로 이해되어야 한다.
본 발명의 시스템 및 방법은 소정의 입력 및 출력 장치들과 어플리케이터 장치를 갖는 것으로 본 명세서에서 기술된다. 그러한 입력 및 출력 장치들은 본 방법을 수행하기 위해 사용될 수 있는 장치들의 단지 예임이 이해되어야 한다. 본 발명의 방법 및 시스템과 함께 다른 적합한 입력 및 출력 장치들이 사용될 수 있고 본 명세서의 개시 내용이 임의의 그러한 장치의 관점에서 제한하는 것으로 간주되어서는 안 된다는 것이 완전히 고려된다. 게다가, 본 명세서에 기술된 바와 같이, 본 발명의 방법 및/또는 시스템은 컴퓨팅 장치를 위한 소정의 소프트웨어 및 실행가능 명령어를 포함하거나 수반할 수 있다. 본 발명을 위한 입력 및 출력 장치들과 같이, 임의의 특정 소프트웨어 또는 컴퓨터 명령어의 개시 내용은, 상이한 소프트웨어 및 컴퓨터 명령어가 동일하거나 상당히 동일한 결과로 이어질 수 있다는 것이 완전히 예상되므로, 특정 언어 또는 포맷의 관점에서 제한되어서는 안 된다. 이와 같이, 본 발명은 방법 및 공정에 사용되는 장치가 필요한 입력, 계산, 변환 및 출력을 제공할 수 있게 하는 모든 적합한 소프트웨어, 코드 및 컴퓨터 실행가능 명령어를 포함하는 것으로 간주되어야 한다. 마지막으로, 도면에 도시되고 본 명세서에 기술된 특정 그래픽은 청구된 발명의 방법 및 공정에 적합한 그래픽의 단지 예이다. 임의의 특정 사용을 위한 특정 그래픽이 원하는 사용을 위해 생성, 선택 및/또는 맞춤화될 것임이 완전히 고려된다.
본 발명에서, 본 방법의 단계들 중 일부 또는 전부는, 어플리케이터 이외에, 하나의 장치에 의해 행해질 수 있거나 또는 2개 이상의 장치에 의해 행해질 수 있다. 유사하게는, 시스템의 유닛들의 일부 또는 전부는 하나의 장치 내에 위치될 수 있거나 또는 필요한 연결부를 가지면서 어플리케이터 이외에는 별도로 위치될 수 있다. 또한, 일부 유닛들은 하나의 유닛으로 통합될 수 있다. 본 발명에서, 하나의 어플리케이터와 하나의 장치를 사용하는 것이 바람직하다.
본 명세서에 사용되는 그러한 장치는, 예를 들어, 컴퓨터; 휴대폰 또는 모바일 태블릿 컴퓨터와 같은 모바일 컴퓨터; 또는 하기의 것들 중 적어도 하나와, 누락 기능(missing function)을 위한 다른 장치와의 연결부를 갖는 임의의 다른 장치이다: 카메라; 디스플레이를 위한 수단; 및 어플리케이터와의 통신/연결을 위한 수단.
도 1a 내지 도 1i는 본 발명의 시스템 및 방법의 단순화된 흐름도를 형성한다. 구체적으로, 이 흐름도는 얼굴 피부 케어 어플리케이터와 같은 피부 케어 어플리케이터를 위한 사용 지침에 대한 순응도를 개선하는 방법/시스템에 포함되는 단계들/유닛들을 보여준다. 도시된 단계들/유닛들은 본 방법/시스템의 단계들/유닛들의 일반적인 흐름을 예시하고자 한다. 그러나, 단계들/유닛들의 순서는 중요하지 않으며, 도시된 단계들/유닛들 중 임의의 것들 전에, 그 사이에, 또는 그 후에 추가의 단계들/유닛들이 방법/시스템에 포함될 수 있다는 것이 이해되어야 한다. 부가적으로, 도 1a 내지 도 1i에 도시된 단계들/유닛들은 일부 또는 전부가 본 발명의 실시 형태에 사용될 수 있다는 점에서 예시적이지만, 도시된 특정 단계들/유닛들 중 임의의 것 또는 전부가 모든 실시 형태에서 요구된다는 요건은 없으며, 단계들/유닛들 중 일부가 조합될 수 있고/있거나 하나 초과의 단계/유닛으로 분리되고/되거나 변경되며 여전히 본 발명 내에 있는 것으로 여겨질 수 있다는 것이 고려된다. 도 1a 내지 도 1i에 의해 나타내어진 단계들/유닛들의 설명은, 참고 목적을 위해, 도 2a 내지 도 2d에 예시되고 숫자로 콜아웃된(called out) 특징부들을 지칭한다.
도 1a는 적용 표면을 검출하는 단계/유닛을 나타낸다. 본 명세서에 사용되는 바와 같은 "적용 표면"은 어플리케이터가 적용될 표면 또는 표면의 일부분을 지칭한다. 예를 들어, 도 2a에 도시된 바와 같이, 적용 표면(100)은 얼굴, 얼굴의 일부분, 또는 신체의 다른 부위와 같은 사용자의 피부의 일부분일 수 있다. 적용 표면(100)은, 예를 들어 도 2a 내지 도 2d에 도시된 카메라(120)와 같은 이미지 입력 장치(110)(시스템 내의 "적용 표면 검출 유닛"으로 그렇게 불림)에 의해 검출된다. 이미지 입력 장치(110)는 사용자의 얼굴과 같은 적용 표면(100)의 실시간 이미지를 검출하며, 이는 추가적인 처리를 위한 휴대폰과 같은 컴퓨팅 장치(130)에 연결된다. 컴퓨팅 장치(130)는 컴퓨팅 장치가 이미지를 검출, 디스플레이 및/또는 변환하게 하는 소프트웨어, 코드 또는 다른 명령어를 포함하거나 이를 실행시킬 수 있다. 본 발명의 시스템에서, 이러한 유닛은 적어도 적용 표면을 디스플레이하는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
도 1b는 적용 표면(100)의 하나 이상의 미리 결정된 특징부 특성(140)들을 검출하는 선택적인 단계/유닛을 나타낸다. 예를 들어, 컴퓨팅 장치(130)는 적용 표면(100)이 사용자의 얼굴인 경우에 사용자의 입술, 코, 눈 및 눈썹을 검출할 수 있다. 이러한 단계/유닛은 컴퓨팅 장치(130)가 적용 표면(100)의 위치, 및 상이한 미리 결정된 특징부(140)들을 "추적"하고/하거나 출력 그래픽이 어떻게 및/또는 어디에 디스플레이될 수 있는지를 알아내는 데 사용될 수 있는 이들 특징부의 상대적 위치를 결정할 수 있게 한다. 본 발명의 시스템에서, 이러한 유닛은 적어도 적용 표면을 디스플레이하는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
도 1c는 적용 표면(100) 및 임의의 미리 결정된 특징부 특성(140)들의 x, y 및 z 좌표들을 생성하는 선택적인 단계/유닛을 나타낸다. 이러한 단계/유닛은 컴퓨팅 장치(130)가 상이한 미리 결정된 특징부(140)들의 상대 위치를 결정할 수 있게 하고, 적용 표면(100) 및/또는 미리 결정된 특징부들을 "추적"하여 출력 그래픽이 어떻게 및/또는 어디에 디스플레이되어야 하는지를 알아내는 데 사용될 수 있다. 본 발명의 시스템에서, 이러한 유닛은 적어도 적용 표면을 디스플레이하는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
도 1d는 적용 표면 내의 목표 영역을 검출하는 단계/유닛을 나타낸다. 목표 영역은 바람직하게는 얼굴 피부이며, 더 바람직하게는 어플리케이터 작동을 필요로 하는 것으로 평가되는 얼굴 피부의 특정 영역이다. 목표 영역이 얼굴 피부의 특정 영역일 때, 그러한 목표 영역은 전형적으로 하기 상태들, 예를 들어 주름(wrinkle), 잡티(blemish), 잔주름(fine line), 모공(pore), 반점(spot), 칙칙함(dullness), 및/또는 건조한 각질(flake) 중 하나를 갖는다. 본 발명의 시스템에서, 이러한 유닛은 적어도 적용 표면을 디스플레이하는 유닛 및/또는 그래픽을 생성하여 목표 영역을 가리키는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
도 1e는 그래픽을 생성하여 목표 영역을 가리키는 단계/유닛을 나타낸다. 그래픽은, 예를 들어, 목표 영역 상의 착색된 그래픽; 및/또는 목표 영역의 외부에 또는 심지어 적용 표면의 외부에 보이는 표시(indication)로 목표 영역을 가리키는 포인터(pointer)이다. 그래픽의 생성은 하나 이상의 유형의 그래픽들의 생성을 포함할 수 있으며, 여기서 하나 이상의 유형의 그래픽들의 각각은 목표 영역의 하나 이상의 상태에 대한 것이다. 본 발명의 시스템에서, 이러한 유닛은 적어도 적용 표면 및 그래픽을 디스플레이하여 목표 영역을 가리키는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
선택적으로, 상기 그래픽과 함께, 목표 영역의 상태가 디스플레이될 수 있다. 본 발명의 방법/시스템은 선택적으로 목표 영역의 그러한 상태를 디스플레이하는 단계/유닛을 포함한다. 목표 영역의 상태의 디스플레이는 하기의 것들 중 적어도 하나를 포함한다: 소정 상태의 수준의 표시; 특정 유형의 상태의 표시. 상태의 유형의 표시는 그래픽의 소정 색상(예를 들어, 주름의 경우 적색이고 잡티의 경우 황색임), 그래픽 상의 설명(예컨대, 주름, 잡티) 또는 그래픽 외측으로부터 그래픽을 가리키는 설명에 의해 표현될 수 있다. 상태의 수준의 표시는, 예를 들어, 그래픽의 색상 강도(예를 들어, 심각한 주름의 경우 진한 적색이고, 통상의 주름의 경우 중간 적색이고, 약간의 주름의 경우 밝은 적색임), 다수의 별, 스코어 바(score bar), 그래픽 상의 설명 또는 그래픽의 외측으로부터 그래픽을 가리키는 설명에 의해 표현될 수 있다. 본 발명의 시스템에서, 이러한 유닛은 적어도 적용 표면 및 그래픽을 디스플레이하여 목표 영역을 가리키는 유닛 및/또는 목표 영역을 검출하는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
도 1f는 목표 영역을 가리키는 그래픽과 적용 표면을 사용자에게 실시간으로 디스플레이하는 단계/유닛을 나타낸다. 도 2a는 모바일 장치 상에 디스플레이되는 적용 표면(100)의 예들을 도시한다. 본 발명의 방법 및 시스템은 적용 표면(100)을 실시간으로 디스플레이할 것이며, 적용 표면(100)은 어플리케이터 작동 전체에 걸쳐 연속적으로 또는 거의 연속적으로 디스플레이될 것이다. 본 발명의 방법 및 시스템은 목표 영역(160)을 가리키는 그래픽(170)을 또한 디스플레이할 것이다. 그래픽(170)과 목표 영역(160)의 실시간 정렬 및 어플리케이터 작동의 진행 및 완료의 통지는, 예를 들어, 사용자가 어플리케이터의 정확한 위치 및 어플리케이터 작동의 정확한 지속기간과 같은 정확한 방식으로 어플리케이터를 사용하는 것을 사용자가 시각적으로 이해하고/하거나 사용자가 어플리케이터의 효과를 시각적으로 인식한다는 증강 현실 경험을 사용자에게 제공한다. 특히 효과적인 증강 현실에 대해, 목표 영역을 가리키는 그래픽(170)은 어플리케이터 작동 동안 목표 영역이 이동하는 경우에도 이를 추적할 수 있어야 한다.
도 2a 내지 도 2d에 도시된 것들은 휴대폰 또는 태블릿 컴퓨터와 같은 모바일 장치 상에 디스플레이될 수 있는 것들을 나타낸다. 그러한 모바일 장치는, 모니터, 모바일 컴퓨팅 장치, 텔레비전 스크린, 투사된 이미지, 홀로그래픽 이미지, 미러, 스마트 미러, 원하는 사용을 위한 임의의 적합한 크기의 임의의 다른 디스플레이 장치, 및 이들의 조합을 포함하지만 이로 한정되지 않는 임의의 하나 이상의 적합한 디스플레이로 또는 사용자에 의해 보일 수 있는 임의의 적절한 방법으로 대체될 수 있다.
목표 영역(160)은 어플리케이터가 적용되고자 하는 적용 표면(100)의 그 부분이다. 예를 들어, 도 2a 내지 도 2d에 도시된 바와 같이, 목표 영역(160)은 사용자의 얼굴의 뺨 부분이다. 목표 영역을 가리키는 그래픽(170)이 도 2b 및 도 2c에 도시되어 있다.
도 1g는 어플리케이터(150)의 위치를 검출하는 단계/유닛을 나타낸다. 이는 어플리케이터(150)를 위치시킬 위치로 사용자를 안내하기 위해 및/또는 임의의 다른 목적을 위해 목표 영역(160)에 대한 어플리케이터의 정렬을 확인하기 위한 것일 수 있다. 어플리케이터의 위치는 임의의 수단에 의해, 예를 들어 어플리케이터 내의 자이로스코프, 미리 결정된/미리 기록된 어플리케이터 형상 및/또는 어플리케이터 상의 마커(marker)에 기초한 이미지 분석, 및 머신 러닝(machine learning)을 이용하여 검출될 수 있다. 선택적으로, 이러한 단계/유닛 또는 다른 단계/유닛은 도 2b 내지 도 2d에 도시된 바와 같이 어플리케이터(150)를 실시간으로 디스플레이할 수 있다. 목표 영역이 얼굴 피부의 특정 영역일 때, 어플리케이터는 전형적으로 하기 목적 및/또는 메커니즘(mechanism) 중 적어도 하나에 기초하여 선택될 수 있다: 얼굴 마스크 및/또는 눈 마스크 유형 어플리케이터를 포함하지만 이로 한정되지 않는 소비자 제품 적용; 소비자 제품 펴바름(spreading); 마사지; 박피(dermabrasion); 초음파; 열; 냉각; 광; UV; 레이저; 적외선; 탈모(epilation); 박리(exfoliation); 모발 제거; 및 진동. 본 발명의 시스템에서, 이러한 유닛은 적어도 목표 영역 상에서의 어플리케이터의 작동을 검출하는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
도 1h는 목표 영역(160) 상에서의 어플리케이터(150)의 작동을 검출하는 단계/유닛을 나타낸다. 본 명세서에서 논의되는 어플리케이터 작동은 사용자가 어플리케이터를 목표 영역(160)에 적절히 적용하기 위해 따라야 하는 미리 결정된 작동이다. 어플리케이터 작동은 전형적으로 사전-프로그래밍되고, 방법을 시작하기 전에 컴퓨팅 장치(130)에서 이용 가능하고/하거나 이에 저장될 것이다. 그러나, 어플리케이터 작동이 컴퓨팅 장치(130)에 의해 실시간으로 생성될 수 있고/있거나, 작동이 수행되기 전에 또는 수행될 때 컴퓨팅 장치(130)에 제공될 수 있다는 것이 고려된다. 추가적으로, 컴퓨팅 장치(130)는 목표 영역의 상이한 유형의 상태에 사용될 수 있는 둘 이상의 상이한 적용 작동을 포함하거나 획득할 수 있다. 본 발명의 시스템에서, 이러한 유닛은 적어도 어플리케이터 작동의 진행 및/또는 완료를 통지하는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
선택적으로, 이러한 검출 단계/유닛 또는 다른 단계/유닛은 어플리케이터를 제어하여 목표 영역의 상태에 따라 어플리케이터의 작동을 자동으로 변경할 수 있다. 본 발명의 방법/시스템은 어플리케이터를 제어하여 목표 영역의 상태에 따라 어플리케이터의 작동을 자동으로 변경시키는 단계/유닛을 선택적으로 포함한다. 이러한 제어는 미리 결정된 어플리케이터 작동에 기초하여 행해질 수 있으며, 여기서 미리 결정된 어플리케이터 작동은 작동의 유형(예컨대, 진동, 가열/냉각, 및/또는 UV, 레이저 또는 적외선의 방출), 작동 지속시간, 작동 강도, 정렬 정확도, 어플리케이터의 이동 속도 중 하나 이상에 관련된다. 본 발명의 시스템에서, 이러한 유닛은 적어도 어플리케이터 작동의 진행 및/또는 완료를 통지하는 유닛에 직접적으로 또는 간접적으로 연결될 수 있다.
도 1i는 어플리케이터 작동의 진행 및/또는 완료를 통지하는 단계/유닛을 나타낸다. 통지는, 예를 들어, 하기의 것들 중 적어도 하나를 보다 상세히 디스플레이 및/또는 고지(announce)함으로써 이루어질 수 있다: 어플리케이터 작동의 진행의 시각적 디스플레이, 어플리케이터 작동의 완료의 시각적 디스플레이; 어플리케이터 작동의 진행의 청각적 고지, 어플리케이터 작동의 완료의 청각적 고지. 그러한 시각적 디스플레이는, 예를 들어, 목표 영역을 가리키는 그래픽의 색상 변화; 별의 비행(flying out)과 같은 동적 동작; 별의 개수 변화 및 스코어 바의 변화와 같은 정량화된 시각적 디스플레이를 포함할 수 있다.
본 발명에서, 목표 영역을 가리키는 그래픽의 색상 변화에 따른 어플리케이터 작동의 진행 및 완료의 시각적 디스플레이가 바람직하다. 예를 들어, 그래픽의 색상의 강도는 어플리케이터 작동의 진행에 따라 더 옅어지게 되고, 이어서 어플리케이터 작동의 완료 시에 투명하게 된다(사라지게 된다). 도 2c는 목표 영역(160) 상의 착색된 그래픽(170)의 대략 절반이 어플리케이터 작동 중에 사라짐을 보여주며, 도 2d는 목표 영역(160) 상의 착색된 그래픽(170)이 완전히 사라짐을 보여주는데, 이는 어플리케이터 작동의 완료를 통지한다.
도 2a 내지 도 2d는 어플리케이터(150)를 사용하는 방법을 사용자에게 알려주는 본 발명의 일 예를 보여준다. 도 2a는 적용 표면(100), 이러한 경우에는 사용자의 얼굴과 목표 영역(160)이 휴대폰과 같은 모바일 컴퓨팅 장치 상에 어떻게 디스플레이될 수 있는지를 나타낸다. 도 2b는 어플리케이터(150)와 목표 영역(160)을 가리키는 그래픽(170)이 적용 표면(100)의 디스플레이와 조합하여 이 장치 상에 어떻게 디스플레이될 수 있는지를 보여준다. 도 2c 및 도 2d는 어떻게 그래픽(170)이 변하여 어플리케이터 작동의 진행 및 완료를 디스플레이하는지를 보여준다.
하기에 나타낸 바와 같이, 어플리케이터가 어떻게 사용되어야 하는지를 알려주기 위해 적용 표면(100), 목표 영역(160), 어플리케이터(150)를 디스플레이하는 것과 어플리케이터 동작의 진행 및/또는 완료를 통지하는 것의 특유의 조합은 사용 지침에 대한 상당히 개선된 순응도를 제공할 뿐만 아니라 어플리케이터의 개선된 효능 및 어플리케이터에 대한 개선된 전체 만족도를 제공하는 것으로 놀랍게도 밝혀졌다.
본 명세서에 개시된 치수 및 값은 언급된 정확한 수치 값으로 엄격하게 제한되는 것으로 이해되어서는 안 된다. 대신에, 달리 명시되지 않는 한, 각각의 그러한 치수는 열거된 값과, 그 값 부근의 기능적으로 등가인 범위 둘 모두를 의미하도록 의도된다. 예를 들어, "40 mm"로 개시된 치수는 "약 40 mm"를 의미하도록 의도된다.
임의의 상호 참조된 또는 관련된 특허 또는 출원, 및 이러한 출원이 우선권을 주장하거나 그의 이익을 청구하는 임의의 특허 출원 또는 특허를 비롯한, 본 명세서에 인용된 모든 문헌은 이에 의해, 명백히 배제되거나 달리 제한되지 않는 한, 전체적으로 본 명세서에 참고로 포함된다. 어떠한 문헌의 인용도 본 명세서에 개시되거나 청구된 임의의 발명에 대한 종래 기술인 것으로 인정되거나, 또는 단독으로 또는 임의의 다른 참조 문헌 또는 참조 문헌들과의 임의의 조합으로 임의의 그러한 발명을 교시, 제안 또는 개시하는 것으로 인정되지 않는다. 또한, 본 명세서에서의 용어의 임의의 의미 또는 정의가 참고로 포함된 문헌에서의 동일한 용어의 임의의 의미 또는 정의와 상충되는 경우, 본 명세서에서 그 용어에 부여된 의미 또는 정의가 우선할 것이다.
본 발명의 특정 실시 형태가 예시되고 기술되었지만, 다양한 다른 변경 및 수정이 본 발명의 사상 및 범주로부터 벗어남이 없이 이루어질 수 있음이 당업자에게 명백할 것이다. 따라서, 본 발명의 범주 내에 있는 모든 그러한 변경 및 수정을 첨부된 청구범위에 포함하도록 의도된다.

Claims (26)

  1. 어플리케이터(applicator)를 사용하도록 사용자를 안내하는 방법으로서,
    (a) 적용 표면을 검출하는 단계;
    (b) 상기 적용 표면 내의 목표 영역을 검출하는 단계;
    (c) 상기 목표 영역을 가리키는 그래픽을 생성하는 단계;
    (d) 상기 목표 영역을 가리키는 상기 그래픽과 상기 적용 표면을 실시간으로 사용자에게 디스플레이하는 단계;
    (e) 어플리케이터의 위치를 검출하는 단계;
    (f) 상기 목표 영역 상의 상기 어플리케이터의 작동을 검출하는 단계; 및
    (g) 상기 어플리케이터 작동의 진행 및/또는 완료를 통지하는 단계
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 어플리케이터 작동의 진행 및/또는 완료를 통지하는 단계는,
    상기 어플리케이터 작동의 진행의 시각적 디스플레이, 상기 어플리케이터 작동의 완료의 시각적 디스플레이; 상기 어플리케이터 작동의 진행의 청각적 고지, 상기 어플리케이터 작동의 완료의 청각적 고지 중 적어도 하나를 포함하는,
    방법.
  3. 제1항 또는 제2항에 있어서,
    상기 어플리케이터 작동의 진행 및/또는 완료를 통지하는 단계는, 상기 목표 영역을 가리키는 상기 그래픽의 색상 변화에 따른 상기 어플리케이터 작동의 진행 및 완료의 시각적 디스플레이를 포함하는,
    방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 그래픽을 생성하는 단계는, 하나 이상의 유형의 그래픽의 생성을 포함하며 상기 하나 이상의 유형의 그래픽의 각각은 상기 목표 영역의 하나 이상의 상태에 대한 것인,
    방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 목표 영역의 상태를 디스플레이하는 단계를 더 포함하는
    방법.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서,
    상기 목표 영역의 상태의 디스플레이는 소정 상태의 수준의 표시; 상태의 유형의 표시 중 적어도 하나를 포함하는,
    방법.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서,
    상기 목표 영역의 상태에 따라 상기 어플리케이터의 작동을 자동으로 변경하도록 상기 어플리케이터를 제어하는 단계를 더 포함하는
    방법.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서,
    상기 적용 표면 상의 미리 결정된 특징부를 검출하는 단계를 더 포함하는
    방법.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 적용 표면 및/또는 미리 결정된 특징부의 x, y 및 z 좌표를 생성하는 단계를 더 포함하는
    방법.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서,
    상기 단계들은 컴퓨터, 휴대폰 및 모바일 태블릿 컴퓨터와, 카메라, 디스플레이를 위한 수단, 및 상기 어플리케이터와의 통신/연결을 위한 수단 중 적어도 하나와, 누락 기능(missing function)을 위한 다른 장치와의 연결부를 갖는 임의의 다른 장치로부터 선택되는 장치를 이용하여 수행되는,
    방법.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서,
    상기 어플리케이터 작동은 모발 케어, 신체 케어, 얼굴 피부 케어, 면도 케어, 헬스 케어, 및 구강 케어 중 적어도 하나인 개인 케어를 위해 수행되는,
    방법.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서,
    상기 적용 표면은 인간의 얼굴인,
    방법.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서,
    상기 목표 영역은 얼굴 피부이고, 더욱 바람직하게는 상기 어플리케이터 작동을 필요로 하는 것으로 평가되는 얼굴 피부의 특정 영역인,
    방법.
  14. 어플리케이터를 사용하도록 사용자를 안내하기 위한 시스템으로서,
    (a) 적용 표면을 검출하는 유닛;
    (b) 상기 적용 표면 내의 목표 영역을 검출하고 하기 유닛에 연결되는 유닛;
    (c) 상기 목표 영역을 가리키는 그래픽을 생성하는 유닛;
    (d) 상기 목표 영역을 가리키는 상기 그래픽과 상기 적용 표면을 실시간으로 사용자에게 디스플레이하고 적어도 상기 적용 표면 검출 유닛에 연결되는 유닛;
    (e) 어플리케이터의 위치를 검출하고 하기 유닛에 연결되는 유닛;
    (f) 상기 목표 영역 상의 상기 어플리케이터의 작동을 검출하고 하기 유닛에 연결되는 유닛; 및
    (g) 상기 어플리케이터 작동의 진행 및/또는 완료를 통지하는 유닛
    을 포함하는 시스템.
  15. 제14항에 있어서,
    상기 어플리케이터 작동의 진행 및/또는 완료의 통지는 상기 어플리케이터 작동의 진행의 시각적 디스플레이, 상기 어플리케이터 작동의 완료의 시각적 디스플레이, 상기 어플리케이터 작동의 진행의 청각적 고지, 상기 어플리케이터 작동의 완료의 청각적 고지 중 적어도 하나를 포함하는,
    시스템.
  16. 제14항 또는 제15항에 있어서,
    상기 어플리케이터 작동의 진행 및/또는 완료의 통지는 상기 목표 영역을 가리키는 상기 그래픽의 색상 변화에 따른 상기 어플리케이터 작동의 진행 및 완료의 시각적 디스플레이를 포함하는,
    시스템.
  17. 제14항 내지 제16항 중 어느 한 항에 있어서,
    상기 그래픽의 생성은 하나 이상의 유형의 그래픽의 생성을 포함하며, 상기 하나 이상의 유형의 그래픽의 각각은 상기 목표 영역의 하나 이상의 상태에 대한 것인,
    시스템.
  18. 제14항 내지 제17항 중 어느 한 항에 있어서,
    상기 목표 영역의 상태를 디스플레이하는 유닛을 더 포함하는
    시스템.
  19. 제14항 내지 제18항 중 어느 한 항에 있어서,
    상기 목표 영역의 상태의 디스플레이는 소정 상태의 수준의 표시; 상태의 유형의 표시 중 적어도 하나를 포함하는,
    시스템.
  20. 제14항 내지 제19항 중 어느 한 항에 있어서,
    상기 목표 영역의 상태에 따라 상기 어플리케이터의 작동을 자동으로 변경하도록 상기 어플리케이터를 제어하는 유닛을 더 포함하는
    시스템.
  21. 제14항 내지 제20항 중 어느 한 항에 있어서,
    상기 적용 표면 상의 미리 결정된 특징부를 검출하는 유닛을 더 포함하는
    시스템.
  22. 제14항 내지 제21항 중 어느 한 항에 있어서,
    상기 적용 표면 및/또는 미리 결정된 특징부의 x, y 및 z 좌표를 생성하는 유닛을 더 포함하는
    시스템.
  23. 제14항 내지 제22항 중 어느 한 항에 있어서,
    상기 단계들은 컴퓨터, 휴대폰, 모바일 태블릿 컴퓨터와, 카메라, 디스플레이를 위한 수단, 및 상기 어플리케이터와의 통신/연결을 위한 수단 중 적어도 하나와, 누락 기능을 위한 다른 장치와의 연결부를 갖는 임의의 다른 장치로부터 선택되는 장치를 이용하여 수행되는,
    시스템.
  24. 제14항 내지 제23항 중 어느 한 항에 있어서,
    상기 어플리케이터 작동은 모발 케어, 신체 케어, 얼굴 피부 케어, 면도 케어, 헬스 케어, 및 구강 케어 중 적어도 하나인 개인 케어를 위해 수행되는,
    시스템.
  25. 제14항 내지 제24항 중 어느 한 항에 있어서,
    상기 적용 표면은 인간의 얼굴인,
    시스템.
  26. 제14항 내지 제25항 중 어느 한 항에 있어서,
    상기 목표 영역은 얼굴 피부이고, 더욱 바람직하게는 상기 어플리케이터 작동을 필요로 하는 것으로 평가되는 얼굴 피부의 특정 영역인,
    시스템.
KR1020217019458A 2019-01-04 2019-12-19 어플리케이터를 사용하도록 사용자를 안내하는 방법 및 시스템 KR20210095178A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962788193P 2019-01-04 2019-01-04
US62/788,193 2019-01-04
PCT/US2019/067502 WO2020142238A1 (en) 2019-01-04 2019-12-19 Method and system for guiding a user to use an applicator

Publications (1)

Publication Number Publication Date
KR20210095178A true KR20210095178A (ko) 2021-07-30

Family

ID=69400619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217019458A KR20210095178A (ko) 2019-01-04 2019-12-19 어플리케이터를 사용하도록 사용자를 안내하는 방법 및 시스템

Country Status (6)

Country Link
US (1) US20200214428A1 (ko)
EP (1) EP3906561A1 (ko)
JP (1) JP7457027B2 (ko)
KR (1) KR20210095178A (ko)
CN (1) CN113168896A (ko)
WO (1) WO2020142238A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10952519B1 (en) * 2020-07-16 2021-03-23 Elyse Enterprises LLC Virtual hub for three-step process for mimicking plastic surgery results
US20220284827A1 (en) * 2021-03-02 2022-09-08 Regina M. GARCIA Systems and methods for generating individualized cosmetic programs utilizing intelligent feedback
WO2023038136A1 (ja) * 2021-09-13 2023-03-16 ヤーマン株式会社 情報処理装置、プログラム及び情報処理方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009064423A (ja) * 2007-08-10 2009-03-26 Shiseido Co Ltd メイクアップシミュレーションシステム、メイクアップシミュレーション装置、メイクアップシミュレーション方法およびメイクアップシミュレーションプログラム
JP2012181688A (ja) 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
JP6095053B2 (ja) * 2012-12-27 2017-03-15 日立マクセル株式会社 美容システム
US9610037B2 (en) * 2013-11-27 2017-04-04 Elwha Llc Systems and devices for profiling microbiota of skin
CA3152747A1 (en) * 2013-12-04 2015-06-11 Becton, Dickinson And Company Systems, apparatuses and methods to encourage injection site rotation and prevent lipodystrophy from repeated injections to a body area
WO2016054164A1 (en) * 2014-09-30 2016-04-07 Tcms Transparent Beauty, Llc Precise application of cosmetic looks from over a network environment
JP2016101365A (ja) * 2014-11-28 2016-06-02 パナソニックIpマネジメント株式会社 皺ケア支援装置および皺ケア支援方法
KR20160142742A (ko) * 2015-06-03 2016-12-13 삼성전자주식회사 메이크업 거울을 제공하는 디바이스 및 방법
US20160357578A1 (en) * 2015-06-03 2016-12-08 Samsung Electronics Co., Ltd. Method and device for providing makeup mirror
KR102509934B1 (ko) 2016-08-01 2023-03-15 엘지전자 주식회사 이동 단말기 및 그의 동작 방법
CN109064438A (zh) * 2017-06-09 2018-12-21 丽宝大数据股份有限公司 皮肤状态检测方法、电子装置与皮肤状态检测系统
CN107239671A (zh) * 2017-06-27 2017-10-10 京东方科技集团股份有限公司 一种皮肤状态的管理方法、装置和系统
US10297088B2 (en) * 2017-09-26 2019-05-21 Adobe Inc. Generating accurate augmented reality objects in relation to a real-world surface via a digital writing device
US10943394B2 (en) * 2018-09-21 2021-03-09 L'oreal System that generates a three-dimensional beauty assessment that includes region specific sensor data and recommended courses of action

Also Published As

Publication number Publication date
EP3906561A1 (en) 2021-11-10
CN113168896A (zh) 2021-07-23
JP2022516287A (ja) 2022-02-25
JP7457027B2 (ja) 2024-03-27
WO2020142238A1 (en) 2020-07-09
US20200214428A1 (en) 2020-07-09

Similar Documents

Publication Publication Date Title
KR20210095178A (ko) 어플리케이터를 사용하도록 사용자를 안내하는 방법 및 시스템
US9990757B2 (en) Enhancing video chatting
US20180129280A1 (en) Gaze and saccade based graphical manipulation
US20170323266A1 (en) Message service method using character, user terminal for performing same, and message application including same
WO2020018607A1 (en) Dynamic digital content processing and generation for a virtual environment
WO2019154337A1 (zh) 变形特效程序文件包的生成及变形特效生成方法与装置
de Melo et al. Expression of emotions using wrinkles, blushing, sweating and tears
CN107562186B (zh) 基于注意力辨识进行情感运算的3d校园导览方法
JP2022519150A (ja) 状態認識方法、装置、電子デバイス、及び記録媒体
CN108932654A (zh) 一种虚拟试妆指导方法及装置
Cunningham et al. Manipulating video sequences to determine the components of conversational facial expressions
Li et al. Emotional eye movement generation based on geneva emotion wheel for virtual agents
Bee et al. Breaking the ice in human-agent communication: Eye-gaze based initiation of contact with an embodied conversational agent
EP3317872A1 (en) Method and apparatus using augmented reality with physical objects to change user states
Wellerdiek et al. Perception of strength and power of realistic male characters
KR101874760B1 (ko) 정보 처리 장치, 제어 방법 및 기록 매체
KR102136137B1 (ko) 맞춤형 led 마스크 팩의 제조 장치
Barbieri et al. Effects of device obtrusion and tool-hand misalignment on user performance and stiffness perception in visuo-haptic mixed reality
US20190333408A1 (en) Method and System for Improving User Compliance for Surface-Applied Products
Hong et al. Intensity dependence in high-level facial expression adaptation aftereffect
Dzardanova et al. Affective impact of social presence in immersive 3D virtual worlds
KR102535639B1 (ko) 증강현실기기의 시각적 복잡도 완화방법, 및 동 방법을 컴퓨터에서 실행하기 위한 컴퓨터 프로그램이 기록된, 컴퓨터 판독 가능한 기록 매체
JP3673719B2 (ja) 擬人化インタフェース装置とその方法及び擬人化インタフェースプログラム及び擬人化インタフェースプログラムを記録した記録媒体
WO2024034537A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
EP4050461A1 (en) Treatment guidance

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application