KR20220010381A - 피부 변화를 추적하는 전자 장치, 서버, 및 시스템 - Google Patents

피부 변화를 추적하는 전자 장치, 서버, 및 시스템 Download PDF

Info

Publication number
KR20220010381A
KR20220010381A KR1020200089207A KR20200089207A KR20220010381A KR 20220010381 A KR20220010381 A KR 20220010381A KR 1020200089207 A KR1020200089207 A KR 1020200089207A KR 20200089207 A KR20200089207 A KR 20200089207A KR 20220010381 A KR20220010381 A KR 20220010381A
Authority
KR
South Korea
Prior art keywords
image
electronic device
memory
processor
specified
Prior art date
Application number
KR1020200089207A
Other languages
English (en)
Other versions
KR102364929B1 (ko
Inventor
엄태웅
이훈재
Original Assignee
주식회사 아트랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아트랩 filed Critical 주식회사 아트랩
Priority to KR1020200089207A priority Critical patent/KR102364929B1/ko
Publication of KR20220010381A publication Critical patent/KR20220010381A/ko
Application granted granted Critical
Publication of KR102364929B1 publication Critical patent/KR102364929B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/44Detecting, measuring or recording for evaluating the integumentary system, e.g. skin, hair or nails
    • A61B5/441Skin evaluation, e.g. for skin disorder diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physiology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Dermatology (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

본 문서에 개시되는 일 실시 예에 따른 전자 장치는 하우징, 상기 하우징의 일 면에 배치되는 디스플레이, 상기 디스플레이를 통해 노출되거나 상기 하우징의 지정된 영역에 배치되는 카메라, 상기 카메라에서 촬영된 이미지들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 연결되는 프로세서를 포함하고, 상기 프로세서는: 사용자 입력에 응답하여 제1 이미지를 촬영하고, 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 디스플레이에 순차적으로 출력할 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

피부 변화를 추적하는 전자 장치, 서버, 및 시스템{ELECTRONIC DEVICE, SEVER, AND SYSTEM FOR TRACKING SKIN CHANGES}
본 발명은 피부 변화를 추적하는 전자 장치, 서버, 및 시스템에 관한 것이다. 구체적으로 본 발명은 사용자의 피부 변화를 추적하기 위한 기술과 관한 것이다
전자 장치(예: 스마트 폰)의 보급이 확대되고, 전자 장치에 적용되는 기술이 고도화 됨에 따라 사람들의 생활 방식은 점점 더 용이하고 편리해 지고 있다. 예컨대, 사용자가 카메라를 통해 얼굴을 촬영하면, 전자 장치는 피부의 상태, 트러블의 개수 등을 분석할 수 있다. 분석 결과는 디스플레이를 통해 출력될 수 있으며, 사용자는 이를 통해 피부 상태를 즉시 확인할 수 있다.
그러나 사용자가 자신의 피부를 촬영하는 위치 및 각도는 매번 상이하므로 특정 영역(예: 이마, 볼)의 피부 상태를 지속적으로 분석하는 것은 용이하지 않을 수 있다. 또한, 전자 장치는 촬영 직후의 이미지만을 분석하여 출력하므로, 사용자가 과거부터 촬영 시까지의 피부 변화를 확인하는 것은 불가능할 수 있다.
본 문서에서 개시되는 실시 예들은, 전술한 문제 및 본 문서에서 제기되는 과제들을 해결하기 위한 전자 장치를 제공하고자 한다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는 하우징, 상기 하우징의 일 면에 배치되는 디스플레이, 상기 디스플레이를 통해 노출되거나 상기 하우징의 지정된 영역에 배치되는 카메라, 상기 카메라에서 촬영된 이미지들을 저장하는 메모리, 및 상기 디스플레이, 상기 카메라 및 상기 메모리와 연결되는 프로세서를 포함하고, 상기 프로세서는: 사용자 입력에 응답하여 제1 이미지를 촬영하고, 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 디스플레이에 순차적으로 출력할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 서버는, 이미지들을 저장하는 메모리, 및 상기 메모리와 연결되는 프로세서를 포함하고, 상기 프로세서는: 전자 장치로부터 제1 이미지를 수신하면, 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 전자 장치로 전송할 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 피부 변화를 추적하는 시스템은, 제1 이미지를 촬영하는 전자 장치, 및 상기 촬영된 제1 이미지를 상기 전자 장치로부터 수신하는 서버를 포함하고, 상기 서버는: 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고, 상기 제2 이미지 중 적어도 일부 영역을 추출하고, 상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고, 상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고, 기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 전자 장치로 전송하고, 상기 전자 장치는: 상기 기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 순차적으로 출력할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 지속적인 피부 변화를 관찰할 수 있다.
또한, 본 문서에 개시되는 실시 예들에 따르면, 신체의 부위 별 피부 상태를 분석할 수 있다.
또한, 본 문서에 개시되는 실시 예들에 따르면, 촬영된 신체 부위의 위치 및 각도에 관계없이 피부 상태를 분석할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 일 실시 예에 따른 피부 변화를 추적하기 위한 시스템을 나타낸다.
도 2는 일 실시 예에 따른 전자 장치 및 서버의 하드웨어 블록도를 나타낸다.
도 3은 일 실시 예에 따른 전자 장치의 동작 흐름도를 나타낸다.
도 4는 일 실시 예에 따른 지정된 각도로 변경된 이미지를 나타낸다.
도 5는 일 실시 예에 따른 추출된 영역을 나타낸다.
도 6은 일 실시 예에 따른 추출된 영역의 색을 지정된 수준으로 변경하는 동작을 나타낸다.
도 7은 일 실시 예에 따른 지정된 패턴을 표시하는 동작을 나타낸다.
도 8은 일 실시 예에 따른 이미지들을 지정된 순서로 출력하는 동작을 나타낸다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
도 1은 일 실시 예에 따른 피부 변화를 추적하기 위한 시스템(1000)을 나타낸다.
도 1을 참조하면 시스템(1000)은 전자 장치(100) 및 서버(200)를 포함할 수 있다.
전자 장치(100)는 하우징(110), 디스플레이(120), 및 카메라(130)를 포함할 수 있다.
하우징(110)은 전자 장치(100)의 외관을 형성함으로써, 외부 충격으로부터 전자 장치(100)에 포함되는 부품들을 보호할 수 있다.
디스플레이(120)는 하우징(110)의 일 면에 배치될 수 있다. 일 실시 예에 따르면 디스플레이(120)는 사용자 입력을 수신할 수 있다. 예컨대, 사용자가 손가락을 디스플레이(120) 상에 접촉하면, 디스플레이(120)는 사용자의 터치를 인식함으로써 터치에 대응하는 동작을 수행할 수 있다. 다른 실시 예로, 디스플레이(120)는 이미지, 동영상 등을 출력함으로써 사용자에게 각종 컨텐츠를 제공할 수 있다.
카메라(130)는 디스플레이(120)를 통해 노출되거나 하우징(110)의 지정된 영역에 배치될 수 있다. 카메라(130)는 사용자 입력에 응답하여 인물, 배경, 사물의 이미지 및 동영상을 촬영할 수 있다. 촬영된 이미지 및 동영상은 전자 장치(100)에 저장될 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 사용자 입력(예: 화면 터치)에 응답하여 제1 이미지(예: 얼굴)를 촬영할 수 있다. 전자 장치(100)는 제1 이미지를 지정된 각도로 변경하여 제2 이미지를 획득한 후, 제2 이미지 중 적어도 일부 영역(예: 볼)을 추출할 수 있다. 적어도 일부 영역이 추출되면, 전자 장치(100)는 상기 적어도 일부 영역의 색을 지정된 수준으로 변경할 수 있다. 예컨대, 상기 적어도 일부 영역의 밝기를 밝게 하거나 어둡게 할 수 있다.
또한, 전자 장치(100)는 상기 적어도 일부 영역에 포함되는 특징들을 분석하여 지정된 패턴으로 표시할 수 있다. 예컨대, 상기 적어도 일부 영역에 트러블, 홍조 등이 있을 경우, 전자 장치(100)는 트러블, 홍조를 강조할 수 있는 패턴을 상기 이미지 상에 표시할 수 있다. 상기 지정된 패턴이 표시되면, 전자 장치(100)는 기 저장된 이미지들과 상기 지정된 패턴이 표시된 이미지를 순차적으로 출력할 수 있다.
종래의 전자 장치는 촬영 당시의 이미지에 기초하여 피부 상태를 진단하므로, 촬영 당시의 피부 상태만을 사용자에게 제공할 수 있다. 그러나 본 발명의 일 실시 예에 따른 전자 장치(100)는 과거에 분석된 후 저장된 이미지들까지 순차적으로 출력하므로, 사용자는 자신의 피부 상태 변화를 인식할 수 있다. 또한, 본 발명의 일 실시 예에 따른 전자 장치(100)는 촬영된 이미지를 지정된 각도로 변경하여 구도를 정규화하므로, 사용자의 위치, 얼굴의 각도 등에 상관없이 일정한 영역의 피부 상태를 확인할 수 있다.
서버(200)는 전자 장치(100)와 유선 및/또는 무선 통신할 수 있다. 예컨대, 전자 장치(100)는 BLE, Wi-Fi 등을 통해 촬영된 이미지들을 서버(200)로 전송할 수 있으며, 서버(200)는 수신한 이미지들을 분석할 수 있다.
일 실시 예에 따르면, 서버(200)는 전자 장치(100)로부터 수신한 이미지에서 특정 영역(예: 볼)을 추출하고, 상기 추출된 영역의 피부 상태를 분석하여 전자 장치(100)로 전송할 수 있다. 전자 장치(100)는 서버(200)로부터 수신한 이미지들을 순차적으로 출력할 수 있으며, 사용자는 자신의 피부 상태 변화를 인식할 수 있다. 본 문서에서 카메라(130)를 통해 사진을 촬영하는 동작 외에는 전자 장치(100)와 서버(200)에서 수행되는 동작은 호환될 수 있다.
일 실시 예에 따르면, 전자 장치(100) 및/또는 서버(200)는 인공지능(artificial intelligence; AI)을 통해 사용자의 피부 상태를 지속적으로 분석할 수 있다. 예컨대, 분석 데이터는 전자 장치(100) 및/또는 서버(200)에 저장될 수 있고, 추후 사용자의 피부가 촬영되었을 경우 저장된 데이터가 피부 분석에 이용될 수 있다.
도 2는 일 실시 예에 따른 전자 장치(100) 및 서버(200)의 하드웨어 블록도를 나타낸다.
도 2를 참조하면 전자 장치(100)는 하우징(110), 디스플레이(120), 카메라(130), 메모리(140), 및 프로세서(150)를 포함할 수 있다.
메모리(140)는 카메라(130)에서 촬영된 이미지들을 저장할 수 있다. 일 실시 예에 따르면, 메모리(140)는 기 분석된 피부 상태와 관련된 데이터를 저장할 수 있다. 예컨대, 메모리(140)는 모공의 개수, 트러블 및 홍조의 정도 등을 저장할 수 있다.
프로세서(150)는 디스플레이(120), 카메라(130), 및 메모리(140)와 전기적으로 연결되어, 상기 부품들을 제어할 수 있다. 예컨대, 프로세서(150)는 카메라(130)에서 촬영된 이미지를 지정된 각도로 변경한 후 특정 영역(예: 볼)을 추출할 수 있다. 프로세서(150)는 상기 추출된 영역에 포함되는 특징들을 분석하여 지정된 패턴으로 표시할 수 있다. 예컨대, 프로세서(150)는 홍조가 있는 영역에 붉은색 스프레드 패턴을 표시하여 홍조를 강조할 수 있다.
일 실시 예에 따르면, 프로세서(150)는 메모리(140)에 기 저장된 데이터와 상기 추출된 영역을 순차적으로 출력할 수 있다. 기 저장된 데이터는 상기 추출된 영역(예: 볼)과 동일한 영역(예: 볼)을 분석한 데이터일 수 있고, 사용자는 이를 통해 자신의 피부 상태 변화를 확인할 수 있다.
서버(200)는 메모리(210) 및 프로세서(220)를 포함할 수 있다. 메모리(210)는 전자 장치(100)에서 송신한 이미지들을 저장할 수 있다. 일 실시 예에 따르면, 메모리(210)는 프로세서(220)에서 분석한 데이터를 저장할 수도 있다. 예컨대, 메모리(210)는 프로세서(220)에서 분석한 모공의 개수, 트러블 및 홍조의 정도 등을 저장할 수 있다.
프로세서(220)는 메모리(210)에 저장된 이미지들 및/또는 전자 장치(100)에서 송신한 이미지들을 분석할 수 있다. 전자 장치(100)의 프로세서(150)에서 수행되는 동작들과 서버(200)의 프로세서(220)에서 수행되는 동작들은 거의 유사할 수 있으며, 서버(200)의 프로세서(220)에서 분석된 데이터들은 메모리(210)에 저장될 수도 있고, 전자 장치(100)로 전송될 수도 있다.
본 문서에서 도 1 및 도 2에 도시된 전자 장치(100) 및 서버(200)와 동일한 참조 부호를 갖는 구성들은 도 1 및 도 2에서 설명한 내용이 동일하게 적용될 수 있다.
도 3은 일 실시 예에 따른 전자 장치(100)의 동작 흐름도를 나타낸다.
도 3을 참조하면, 동작 301에서 전자 장치(100)는 제1 이미지(예: 사용자의 얼굴)을 촬영할 수 있다. 예컨대, 카메라(130)가 사용자의 얼굴을 향하고 있는 상태에서 사용자가 디스플레이(120)를 터치하면, 전자 장치(100)는 사용자의 얼굴을 촬영할 수 있다.
동작 302에서 전자 장치(100)는 촬영된 이미지(예: 제1 이미지)의 위치 및/또는 각도를 변경하여 제2 이미지를 획득할 수 있다. 이때, 제2 이미지는 미리 설정된 구도나, 사용자가 지정한 구도로 정규화되어 생성된 이미지일 수 있다.
예컨대, 얼굴의 정면 사진을 촬영한 경우 전자 장치(100)는 정면 사진의 위치와 각도를 변경하여 측면 사진을 획득할 수 있다. 이 경우, 전자 장치(100)는 제1 이미지에 포함되는 신체부위를 랜드마크로 하여 인터폴레이션(interpolation) 및 3-D 딥러닝 중 어느 하나의 방법으로 상기 제1 이미지를 제2 이미지로 변경할 수 있다. 본 문서에서 신체부위는 예컨대, 눈, 코, 입끝 등을 의미할 수 있다.
동작 303에서 전자 장치(100)는 제2 이미지에서 적어도 일부 영역을 추출할 수 있다. 일 실시 예에 따르면, 전자 장치(100)는 제2 이미지에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역을 추출할 수 있다. 예컨대, 전자 장치(100)는 제2 이미지에서 다양한 영역을 패치영역으로 추출할 수 있다. 구체적으로, 정면 사진에서는 눈가, 코, 입가, 이마, 턱, 양 볼 또는 양 뺨(광대쪽) 및 팔자주름영역(코볼부터 입까지의 영역)을 추출할 수 있다. 또한, 측면 사진에서는 양 볼 또는 양 뺨(넓은면), 측면 턱, 측면 눈가 및 측면 입을 추출할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
동작 304에서 전자 장치(100)는 추출된 영역의 색을 지정된 수준으로 변경할 수 있다. 예컨대, 전자 장치(100)는 추출된 영역의 명암을 지정된 수준으로 밝게 하거나 어둡게 할 수 있다.
동작 305에서 전자 장치(100)는 추출된 영역에 포함되는 특징들을 분석하여 지정된 패턴으로 표시할 수 있다. 예컨대, 전자 장치(100)는 홍조가 있는 영역에 붉은색 스프레드 패턴을 표시하여 홍조를 강조할 수 있다. 다른 실시 예로, 전자 장치(100)는 모공을 확대하여 표시함으로써 모공을 강조할 수 있다.
동작 306에서 전자 장치(100)는 기 저장된 데이터와 상기 추출된 영역을 순차적으로 출력할 수 있다. 예컨대, 전자 장치(100)는 기 저장된 데이터와 상기 추출된 영역을 결합하여 파노라마 이미지를 생성할 수도 있고, 동영상을 생성할 수도 있다. 기 저장된 데이터는 상기 추출된 영역(예: 볼)과 동일한 영역(예: 볼)을 분석한 데이터일 수 있고, 사용자는 이를 통해 자신의 피부 상태 변화를 확인할 수 있다.
도 3에 도시된 전자 장치(100)에서 수행되는 동작들은 예시적인 것이며, 본 발명의 다양한 실시 예들은 도 3에 도시된 순서에 한정되지 않는다. 예컨대, 전자 장치(100)는 사용자의 얼굴 외 다른 신체 부위(예: 다리, 등)를 촬영할 수 있으며, 촬영된 신체 부위의 피부를 분석하여 출력할 수 있다. 또한, 도 3에 도시된 동작들 중 일부는 생략될 수 있으며, 전자 장치(100)가 아닌 서버(200)에서 수행될 수도 있다.
도 4는 일 실시 예에 따른 지정된 각도로 변경된 이미지를 나타낸다. 도 4는 도 3에 도시된 동작 302를 상세히 설명하기 위한 도면이다.
도 4를 참조하면, 전자 장치(100)는 제1 이미지의 위치 및/또는 각도를 변경하여 제2 이미지(410, 420)를 획득할 수 있다. 예컨대, 카메라가 사용자의 얼굴 정면을 촬영하면, 전자 장치(100)는 정면 얼굴 이미지를 획득할 수 있다. 전자 장치(100)는 상기 정면 얼굴 이미지의 위치 및/또는 각도를 변경하여 도 4에 도시된 측면 이미지(410)를 획득할 수 있다. 측면 이미지(410)가 획득된 상태에서 전자 장치(100)는 볼에 있는 트러블, 홍조 등을 분석할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 이미지에 포함되는 신체부위를 기준으로 인터폴레이션 및 3-D 딥러닝 중 어느 하나의 방법으로 제1 이미지의 위치 및/또는 각도를 변경할 수 있다. 예컨대, 전자 장치(100)는 사용자의 얼굴 중 특징점이 될 수 있는 눈, 코, 입끝 등을 중심으로 제1 이미지의 위치 및/또는 각도를 변경할 수 있다. 본 발명의 일 실시 예에 따르면, 제1 이미지의 위치 및 각도를 변경함으로써, 촬영 각도 및 위치에 관계없이 피부 상태를 분석할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제1 이미지 중 일부 영역을 확대할 수 있다. 예컨대, 카메라(130)가 사용자의 얼굴 정면을 촬영하면, 전자 장치(100)는 정면 얼굴 이미지를 획득할 수 있다. 전자 장치(100)는 상기 정면 얼굴 이미지의 위치 및/또는 각도를 변경한 후 일부 영역을 확대하여 도 4에 도시된 볼 이미지(420)를 획득할 수 있다. 볼 이미지(420)가 획득된 상태에서 전자 장치(100)는 볼에 있는 트러블, 홍조 등을 분석할 수 있다.
본 발명의 일 실시 예에 따르면 지정된 구도로 제1 이미지를 변경함으로써 다른 시간, 공간에서 촬영한 사진을 정규화할 수 있다.
도 5는 일 실시 예에 따른 추출된 영역을 나타낸다. 도 5는 도 3에 도시된 동작 303을 상세히 설명하기 위한 도면이다.
도 5를 참조하면, 전자 장치(100)는 제2 이미지(510) 중 적어도 일부 영역을 추출할 수 있다. 예컨대, 제2 이미지(510)가 얼굴 이미지일 경우, 전자 장치(100)는 이마(511), 눈 주위(512a, 512b), 코(513), 입 주위(514) 영역 등을 추출할 수 있다. 추출된 영역은 피부 분석에 이용될 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 제2 이미지(510)에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역을 추출할 수 있다. 예컨대, 제2 이미지(510)가 얼굴 이미지일 경우, 전자 장치(100)는 눈을 중심으로 약 3mm 이격된 영역(512a, 512b)을 추출할 수 있다. 다른 실시 예로, 전자 장치(100)는 입을 중심으로 약 5mm 이격된 영역(514)을 추출할 수 있다. 도 5에 도시된 실시 예들은 예시적인 것이며, 본 발명의 다양한 실시 예들은 도 5에 도시된 바에 한정되지 않는다. 예컨대, 제2 이미지(510) 내에서 중심이 되는 신체 부위, 이격 거리는 도 5에 도시된 바와 다를 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 촬영된 신체 부위 중 지정된 영역을 추출하기 위하여 여러 이미지들을 이용할 수 있다. 예컨대, 양 볼을 추출하기 위하여 전자 장치(100)는 좌측 얼굴 사진 및 우측 얼굴 사진을 이용할 수 있다.
일 실시 예에 따르면, 추출되는 영역의 순서는 순차적일 수 있다. 예컨대, 이마(511), 눈 주위(512a, 512b), 코(513), 입 주위(514) 순으로 추출될 수도 있고 반대로 추출될 수도 있다. 추출되는 영역의 순서가 순차적일 경우 추출되는 영역이 중복되지 않을 수 있다.
도 6은 일 실시 예에 따른 추출된 영역의 색을 지정된 수준으로 변경하는 동작을 나타낸다. 도 6은 도 3에 도시된 동작 304를 상세히 설명하기 위한 도면이다.
도 6을 참조하면 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 원본 이미지들을 나타내고, 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 색 변경 후 이미지들을 나타낸다. 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 메모리에 기 저장된 이미지들일 수도 있고, 촬영 시 이미지들일 수도 있다. 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 색이 지정된 수준으로 변경되었으므로 동일한 색을 가질 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 여러 이미지들 중 어느 하나를 기준으로 색을 변경할 수 있다. 예컨대, 도 6에 도시된 바와 같이 전자 장치(100)는 좌측 하단 이미지(610b)와 동일한 색을 갖도록 원본 이미지들(610a, 620a, 630a, 640a, 650a)의 색을 변경할 수 있다. 이에 따라 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 상이한 색을 가지나, 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 모두 동일한 색을 가질 수 있다.
일 실시 예로, 전자 장치(100)는 상단 이미지들(610a, 620a, 630a, 640a, 650a)의 색의 평균 값을 기준으로 색을 변경할 수 있다. 이에 따라 상단 이미지들(610a, 620a, 630a, 640a, 650a)은 상이한 색을 가지나, 하단 이미지들(610b, 620b, 630b, 640b, 650b)은 모두 동일한 색을 가질 수 있다.
일 실시 예에 따르면, 지속적으로 촬영이 이루어짐에 따라 추가되는 이미지의 수가 증가하면, 기준이 되는 이미지들의 수 또한 증가하게 되고, 이에 따라 이미지들의 색의 평균 값이 변경될 수 있다. 따라서, 지속적으로 촬영이 이루어지면 하단 이미지들(610b, 620b, 630b, 640b, 650b)의 색 또한 전체적으로 변경될 수 있다.
일 실시 예에 따르면, 여러 이미지들 중 기준이 되는 색이 없을 경우 전자 장치(100)는 통계적으로 계산한 색을 기준으로 색을 보정할 수도 있다.
이러한 색의 보정은 Lab 포맷에서 각 데이터의 평균 및/또는 분산을 조절하는 것을 통해 이미지 처리를 할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
도 7은 일 실시 예에 따른 지정된 패턴을 표시하는 동작을 나타낸다. 도 7은 도 3에 도시된 동작 305를 상세히 설명하기 위한 도면이다.
도 7을 참조하면 전자 장치(100)는 추출된 영역(710)에 포함되는 특징들을 분석하여 지정된 패턴을 표시할 수 있다. 예컨대, 전자 장치(100)는 추출된 영역(710)에 홍조 및 트러블이 있을 경우 스프레드 패턴(710a)을 표시하여 홍조 및 트러블을 강조할 수 있다.
이때, 전자 장치(100)는 추출된 영역(710)의 이미지의 색감을 처리하여 이미지의 붉은 기운을 강조한 이미지를 통해 홍조 및 트러블을 분석할 수 있다.
홍조 및 트러블은 색감 처리된 이미지에서 붉은 기운의 세기(intensity)로 구별될 수 있다. 즉, 홍조의 붉은 기운은 트러블의 붉은 기운보다 세기가 낮을 수 있다. 이에 따라서, 홍조와 트러블을 구별해서 표시할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
다른 예로, 전자 장치(100)는 추출된 영역(710)에 모공이 있을 경우 이미지를 엣지 강화 처리를 하여 모공을 표시(710b)함으로써 모공을 강조할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
일 실시 예에 따르면, 전자 장치(100)는 추출된 영역(710)의 피부 상태를 정량적으로 분석할 수도 있다. 예컨대, 전자 장치(100)는 추출된 영역(710)에 있는 모공의 개수, 점의 개수, 트러블의 개수 등을 수치화하여 디스플레이에 출력할 수 있다.
도 8은 일 실시 예에 따른 이미지들을 지정된 순서로 출력하는 동작을 나타낸다. 도 8은 도 3에 도시된 동작 306을 상세히 설명하기 위한 도면이다.
도 8을 참조하면 전자 장치(100)는 기 저장된 이미지들(810, 820, 830, 840)과 촬영 당시의 이미지(850)를 순차적으로 출력할 수 있다. 예컨대, 도 8에서 이미지들(810, 820, 830, 840)은 메모리에 저장된 이미지들로서 과거 볼의 피부 상태를 나타낼 수 있다. 이미지(850)는 촬영 당시의 이미지(850)로서 현재 볼의 피부 상태를 나타낼 수 있다. 전자 장치(100)는 기 저장된 이미지들(810, 820, 830, 840)과 촬영 당시의 이미지(850)를 순차적으로 출력하므로, 사용자는 현재 피부 상태뿐만 아니라 과거부터 현재까지 피부 변화를 확인할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 기 저장된 이미지들(810, 820, 830, 840)과 촬영 당시의 이미지(850)들을 병합하여 파노라마 이미지 또는 동영상을 생성할 수 있다. 사용자는 상기 파노라마 이미지 또는 동영상을 통해 자신의 피부 변화를 손쉽게 확인할 수 있다.
일 실시 예에 따르면, 전자 장치(100)는 이미지들(810, 820, 830, 840, 850)을 순차적으로 출력하는 과정에서 정성적, 정량적 수치들을 함께 출력할 수 있다.
이때, 정성적, 정량적 수치들은 복수의 항목 별로 판단될 수 있다. 예를 들어, 이미지들(810, 820, 830, 840, 850)은 주름, 기미, 트러블, 모공, 유분, 수분, 피지, 색소, 균질도(피부질감), 잡티, 각질 및 피부톤, 탄력 중 적어도 하나의 항목에 대해서 판단될 수 있다.
예를 들어, 눈가의 경우 주름, 피부톤, 탄력, 잡티 및 기미 중 적어도 하나의 항목에 대해서 판단될 수 있고, 양 볼(넓은면)의 경우 유분, 수분, 균질도, 잡티, 트러블, 모공 및 피부톤 중 적어도 하나의 항목에 대해서 판단될 수 있다. 입가의 경우, 주름, 수분, 탄력 및 트러블에 대해서 판단될 수 있다. 이처럼, 이미지의 부위의 특징에 따라서 평가 항목과 평가 항목의 수가 변화될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
예컨대, 전자 장치(100)는 인공지능(artificial intelligence; AI)이 분석한 스코어 및/또는 전문가가 분석한 스코어들을 이미지들 상에 함께 출력할 수 있다. 또는, 전문가가 분석한 스코어를 트레이닝 데이터로 하여 인공지능이 이를 학습하고 최종 스코어는 인공지능이 도출해서 출력할 수도 있다. 또는 전문가의 스코어와 인공지능의 스코어를 반영한 최종 스코어를 도출하여 이미지들 상에 함께 출력할 수 있다.
일 실시 예에 따르면, 사용자가 자신의 피부 변화를 체감하는 정도를 분석하기 위하여 설문을 수집할 수 있다. 수집된 수집은 메모리(140)에 저장되어 추후 피부 분석 시 활용될 수 있다.
본 문서에 개시된 다양한 실시예들은 다양한 형태의 전자 장치에 적용될 수 있다. 전자 장치는, 예를 들면, TV, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)에 의해 읽을 수 있는 저장 매체(storage medium) 또는 외장 메모리에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나,생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    하우징,
    상기 하우징의 일 면에 배치되는 디스플레이,
    상기 디스플레이를 통해 노출되거나 상기 하우징의 지정된 영역에 배치되는 카메라,
    상기 카메라에서 촬영된 이미지들을 저장하는 메모리, 및
    상기 디스플레이, 상기 카메라, 및 상기 메모리와 연결되는 프로세서를 포함하고,
    상기 프로세서는:
    사용자 입력에 응답하여 제1 이미지를 촬영하고,
    상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고,
    상기 제2 이미지 중 적어도 일부 영역을 추출하고,
    상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고,
    상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고,
    상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 디스플레이에 순차적으로 출력하는, 전자 장치.
  2. 제1 항에 있어서,
    상기 프로세서는 상기 제1 이미지에 포함되는 신체부위를 기준으로 인터폴레이션 및 3-D 딥러닝 중 어느 하나의 방법으로 상기 제1 이미지를 상기 지정된 각도로 변경하는, 전자 장치.
  3. 제1 항에 있어서,
    상기 적어도 일부 영역은 상기 제2 이미지에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역인, 전자 장치.
  4. 제1 항에 있어서,
    상기 프로세서는 상기 메모리에 저장된 이미지들 중 어느 하나의 색을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 전자 장치.
  5. 제1 항에 있어서,
    상기 프로세서는 상기 메모리에 저장된 이미지들의 색의 평균 값을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 전자 장치.
  6. 제1 항에 있어서,
    상기 프로세서는 상기 특징들의 크기를 확대하여 상기 디스플레이에 출력하는, 전자 장치.
  7. 제1 항에 있어서,
    상기 프로세서는 상기 특징들의 개수를 상기 디스플레이에 출력하는, 전자 장치.
  8. 제1 항에 있어서,
    상기 프로세서는 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 병합하여 파노라마 이미지 또는 동영상을 생성하여 상기 디스플레이에 출력하는, 전자 장치.
  9. 서버에 있어서,
    이미지들을 저장하는 메모리, 및
    상기 메모리와 연결되는 프로세서를 포함하고,
    상기 프로세서는:
    전자 장치로부터 제1 이미지를 수신하면, 상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고,
    상기 제2 이미지 중 적어도 일부 영역을 추출하고,
    상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고,
    상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고,
    상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 전자 장치로 전송하는, 서버.
  10. 제9 항에 있어서,
    상기 프로세서는 상기 제1 이미지에 포함되는 신체부위를 기준으로 인터폴레이션 및 3-D 딥러닝 중 어느 하나의 방법으로 상기 제1 이미지를 상기 지정된 각도로 변경하는, 서버.
  11. 제9 항에 있어서,
    상기 적어도 일부 영역은 상기 제2 이미지에 포함되는 신체부위를 기준으로 지정된 거리만큼 이격된 영역인, 서버.
  12. 제9 항에 있어서,
    상기 프로세서는 상기 메모리에 저장된 이미지들 중 어느 하나의 색을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 서버.
  13. 제9 항에 있어서,
    상기 프로세서는 상기 메모리에 저장된 이미지들의 색의 평균 값을 기준으로 상기 적어도 일부 영역의 색을 변경하는, 서버.
  14. 제9 항에 있어서,
    상기 프로세서는 상기 메모리에 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 병합하여 파노라마 이미지 또는 동영상을 생성하여 상기 전자 장치로 전송하는, 서버.
  15. 피부 변화를 추적하는 시스템에 있어서,
    상기 시스템은,
    제1 이미지를 촬영하는 전자 장치, 및
    상기 촬영된 제1 이미지를 상기 전자 장치로부터 수신하는 서버를 포함하고,
    상기 서버는:
    상기 제1 이미지를 지정된 각도로 변경한 제2 이미지를 획득하고,
    상기 제2 이미지 중 적어도 일부 영역을 추출하고,
    상기 적어도 일부 영역의 색(color)을 지정된 수준으로 변경하고,
    상기 적어도 일부 영역에 포함되는 특징들(features)을 분석하여 지정된 패턴으로 표시하고,
    기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 상기 전자 장치로 전송하고,
    상기 전자 장치는:
    상기 기 저장된 이미지들과 상기 지정된 패턴이 표시된 상기 적어도 일부 영역을 순차적으로 출력하는, 시스템.
KR1020200089207A 2020-07-17 2020-07-17 피부 변화를 추적하는 전자 장치, 서버, 및 시스템 KR102364929B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200089207A KR102364929B1 (ko) 2020-07-17 2020-07-17 피부 변화를 추적하는 전자 장치, 서버, 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200089207A KR102364929B1 (ko) 2020-07-17 2020-07-17 피부 변화를 추적하는 전자 장치, 서버, 및 시스템

Publications (2)

Publication Number Publication Date
KR20220010381A true KR20220010381A (ko) 2022-01-25
KR102364929B1 KR102364929B1 (ko) 2022-02-18

Family

ID=80049276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200089207A KR102364929B1 (ko) 2020-07-17 2020-07-17 피부 변화를 추적하는 전자 장치, 서버, 및 시스템

Country Status (1)

Country Link
KR (1) KR102364929B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102434051B1 (ko) * 2022-05-20 2022-08-19 주식회사 패스트레인 무아레 현상을 이용한 피부 분석 시스템
KR102434038B1 (ko) * 2022-05-20 2022-08-19 주식회사 패스트레인 카메라 모듈을 이용한 클라우드 기반 피부 분석 시스템 및 방법
KR102634477B1 (ko) * 2022-11-21 2024-02-27 주식회사 인코클럽 머신러닝기반 2d 피부영상정보 진단 시스템 및 그 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160007754A (ko) * 2014-06-27 2016-01-21 주식회사 엘지유플러스 피부 분석 방법 및 이를 위한 장치
KR20160052309A (ko) * 2014-11-04 2016-05-12 삼성전자주식회사 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법
KR20170010536A (ko) * 2015-07-20 2017-02-01 서울대학교병원 피부 상태 진단 및 치료를 위한 장치 및 방법
KR20190078299A (ko) * 2017-12-26 2019-07-04 (주)아모레퍼시픽 피부 진단 장치, 시스템 및 그 방법
KR102036043B1 (ko) 2018-11-15 2019-10-24 주식회사 에프앤디파트너스 스마트기기 기반의 피부질환 진단이 가능한 광학식 피부질환 진단장치
KR20200086148A (ko) * 2019-01-08 2020-07-16 주식회사 미듬 피부 개선 확인을 위한 영상분석 장치 및 이의 분석방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160007754A (ko) * 2014-06-27 2016-01-21 주식회사 엘지유플러스 피부 분석 방법 및 이를 위한 장치
KR20160052309A (ko) * 2014-11-04 2016-05-12 삼성전자주식회사 전자 장치 및 전자 장치에서 얼굴 정보를 분석하는 방법
KR20170010536A (ko) * 2015-07-20 2017-02-01 서울대학교병원 피부 상태 진단 및 치료를 위한 장치 및 방법
KR20190078299A (ko) * 2017-12-26 2019-07-04 (주)아모레퍼시픽 피부 진단 장치, 시스템 및 그 방법
KR102036043B1 (ko) 2018-11-15 2019-10-24 주식회사 에프앤디파트너스 스마트기기 기반의 피부질환 진단이 가능한 광학식 피부질환 진단장치
KR20200086148A (ko) * 2019-01-08 2020-07-16 주식회사 미듬 피부 개선 확인을 위한 영상분석 장치 및 이의 분석방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102434051B1 (ko) * 2022-05-20 2022-08-19 주식회사 패스트레인 무아레 현상을 이용한 피부 분석 시스템
KR102434038B1 (ko) * 2022-05-20 2022-08-19 주식회사 패스트레인 카메라 모듈을 이용한 클라우드 기반 피부 분석 시스템 및 방법
WO2023224298A1 (ko) * 2022-05-20 2023-11-23 주식회사 패스트레인 카메라 모듈을 이용한 클라우드 기반 피부 분석 시스템 및 방법
KR102634477B1 (ko) * 2022-11-21 2024-02-27 주식회사 인코클럽 머신러닝기반 2d 피부영상정보 진단 시스템 및 그 방법

Also Published As

Publication number Publication date
KR102364929B1 (ko) 2022-02-18

Similar Documents

Publication Publication Date Title
KR102364929B1 (ko) 피부 변화를 추적하는 전자 장치, 서버, 및 시스템
CN107886032B (zh) 终端设备、智能手机、基于脸部识别的认证方法和系统
CN106056064B (zh) 一种人脸识别方法及人脸识别装置
US8432357B2 (en) Tracking object selection apparatus, method, program and circuit
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP2020194608A (ja) 生体検知装置、生体検知方法、および、生体検知プログラム
US11232586B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP4739870B2 (ja) サングラス検出装置及び顔中心位置検出装置
US10885720B2 (en) Virtual display method, device, electronic apparatus and computer readable storage medium
JP5771647B2 (ja) 肌解析装置、肌解析システム、肌解析方法および肌解析プログラム
CN110036407B (zh) 用于基于人类巩膜和瞳孔校正数字图像颜色的系统和方法
CN109313797B (zh) 一种图像显示方法及终端
CN111639582A (zh) 活体检测方法及设备
JPWO2020213166A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CN109726613B (zh) 一种用于检测的方法和装置
WO2013187282A1 (ja) 撮像画像表示装置、撮像画像表示方法、記録媒体
JP5242827B2 (ja) 顔画像処理装置、顔画像処理方法、電子スチルカメラ、デジタル画像処理装置およびデジタル画像処理方法
CN112971712A (zh) 生物体信息取得装置、终端装置、取得方法、记录介质
JP2021010652A (ja) 情報処理装置、評価方法、および情報処理プログラム
WO2022185596A1 (ja) 推定システム、推定方法およびプログラム
JP4762329B2 (ja) 顔画像処理装置および顔画像処理方法
CN113749614B (zh) 皮肤检测方法和设备
CN114219868A (zh) 一种护肤方案推荐方法和系统
JP2022061396A (ja) 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
JP5017476B2 (ja) 顔画像処理装置、顔画像処理方法および電子スチルカメラ

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant