KR20200107520A - 스마트 미러 시스템 및 스마트 미러 제어 방법 - Google Patents

스마트 미러 시스템 및 스마트 미러 제어 방법 Download PDF

Info

Publication number
KR20200107520A
KR20200107520A KR1020190026747A KR20190026747A KR20200107520A KR 20200107520 A KR20200107520 A KR 20200107520A KR 1020190026747 A KR1020190026747 A KR 1020190026747A KR 20190026747 A KR20190026747 A KR 20190026747A KR 20200107520 A KR20200107520 A KR 20200107520A
Authority
KR
South Korea
Prior art keywords
user
image
unit
mirror
information
Prior art date
Application number
KR1020190026747A
Other languages
English (en)
Inventor
전동균
Original Assignee
전진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전진 filed Critical 전진
Priority to KR1020190026747A priority Critical patent/KR20200107520A/ko
Publication of KR20200107520A publication Critical patent/KR20200107520A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/16Advertising or display means not otherwise provided for using special optical effects involving the use of mirrors

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Dentistry (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Multimedia (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명의 일 실시예에 의한, 스마트 미러 시스템은, 전방의 영상을 반사시키는 미러부 및 영상을 출력하는 디스플레이부를 포함하는 미러 디스플레이부, 및 상기 미러 디스플레이부의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득하는 영상 획득부 및 상기 사용자 영상에 기초한 정보를 상기 디스플레이부에 출력하는 영상 출력부를 포함하는 제어부를 포함한다.

Description

스마트 미러 시스템 및 스마트 미러 제어 방법{Smart mirror system and method for controlling smart mirror}
본 발명은 스마트 미러 시스템 및 스마트 미러 제어 방법에 관한 것이다.
최근 종래의 미러에 IoT(Internet of things) 기술을 접목한 스마트 미러 제품이 개발되고 있다. 이와 같은 기술분야의 발전에 따라 변화하는 사회문화 환경에 맞추어 미러를 통해서 지능화된 서비스를 제공하는 기술이 요구된다.
본 발명은 상기와 같은 요구를 해결하기 위한 것으로서, 사용자 신체의 적어도 일부에 대한 전면뿐만 아니라 좌측면, 우측면, 평면(상측면), 저면(하측면), 배면 등의 영상을 획득할 수 있는 스마트 미러를 제공함에 있다.
더 나아가 본 발명의 또 다른 목적은 스마트 미러를 통해 획득된 사용자 영상을 분석하여 사용자의 해당 신체부위에 대한 맞춤형 관리영상을 제공할 수 있는 스마트 미러를 제공함에 있다.
본 발명의 일 실시예에 의한, 스마트 미러 시스템은, 전방의 영상을 반사시키는 미러부 및 영상을 출력하는 디스플레이부를 포함하는 미러 디스플레이부, 및 상기 미러 디스플레이부의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득하는 영상 획득부, 및 상기 사용자 영상에 기초한 정보를 상기 디스플레이부에 출력하는 영상 출력부를 포함하는 제어부를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 영상 획득부로부터 획득된 상기 사용자 영상을 분석하여 사용자의 해당 해당 신체부위 상태정보를 산출하는 신체부위 상태정보 산출부를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 신체부위 상태정보 산출부는, 과거부터 현재시점까지 산출된 신체부위 상태정보에 기초하여 해당 신체부위의 상태변화에 관한 정보를 더 산출하고, 상기 영상 출력부는, 상기 해당 신체부위의 상태변화에 관한 정보를 상기 디스플레이부에 출력하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 신체부위 상태정보 산출부에서 산출된 해당 신체부위 상태정보에 기초하여 맞춤형 관리영상을 결정하는 맞춤형 관리영상 결정부를 더 포함하고, 상기 영상 출력부는 상기 결정된 맞춤형 관리영상을 상기 디스플레이부에 출력하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 위치를 판단하는 사용자 위치 판단부를 더 포함하고, 상기 영상 출력부는, 상기 판단된 상기 사용자의 위치에 기초하여, 상기 맞춤형 관리영상의 출력 위치를 결정하는 것을 특징으로 한다.
바람직하게는, 상기 사용자 위치 판단부는, 상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 눈의 위치를 판단하고, 상기 영상 출력부는,
상기 판단된 상기 사용자의 눈의 위치에 기초하여, 상기 미러부에 반사되는 상기 사용자의 상에 대한 상기 맞춤형 관리영상의 출력 위치를 결정하는 것을 특징으로 한다.
바람직하게는, 상기 미러 디스플레이부는, 미러부 전면의 터치 입력을 받는 터치 입력부를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 위치를 판단하는 사용자 위치 판단부를 더 포함하고, 상기 판단된 상기 사용자의 위치에 기초하여, 상기 미러부에 반사되는 상기 사용자의 상에서 상기 터치 입력부로 입력된 터치 입력에 대응되는 상기 사용자의 신체부위를 판단하는 것을 특징으로 한다.
바람직하게는, 상기 사용자 위치 판단부는, 상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 눈의 위치를 판단하고, 상기 제어부는, 상기 판단된 상기 사용자의 눈의 위치에 기초하여, 상기 미러부에 반사되는 상기 사용자의 상에서 상기 터치 입력부로 입력된 터치 입력에 대응되는 상기 사용자의 신체부위를 판단하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 판단된 신체부위에 기초하여, 해당 신체부위에 관해 가공된 정보를 생성하고, 상기 생성된 가공 정보를 상기 영상 출력부로 출력하는 것을 특징으로 한다.
바람직하게는, 상기 영상 획득부는, 상기 미러 디스플레이부에 탑재된 적어도 하나의 제1 카메라 센서, 상기 디스플레이부의 주변에 고정되어 설치되는 적어도 하나의 제2 카메라 센서, 및 사용자 휴대전화에 탑재된 제3 카메라 센서 중 적어도 하나를 통해 상기 사용자 영상을 획득하는 것을 특징으로 한다.
바람직하게는, 상기 영상 획득부는, 상기 미러 디스플레이부 주변에 비치되는 용품에 탑재된 제4 카메라 센서를 통해 상기 사용자 영상을 획득하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 사용자로부터 적어도 하나의 신체관리종목에 대한 선택을 입력받는 신체관리종목 선택부를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 신체관리종목 선택부에 입력된 신체관리종목에 따라 카메라 센서를 제어하기 위한 제어정보를 생성하는 카메라 제어정보 생성부, 및 상기 카메라 센서 제어정보를 해당 카메라 센서를 제어하는 데에 연관된 디바이스로 전송하는 통신부를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 신체관리종목 선택부에 입력된 신체 관리 종목에 따라 촬영자세정보를 결정하는 촬영자세 결정부, 및 상기 결정된 촬영자세정보를 기반으로 상기 사용자 영상에 포함된 사용자의 자세를 분석하여, 상기 사용자의 촬영자세를 보정시키기 위한 보정정보를 생성하여 안내하는 촬영자세 보정부를 더 포함하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 신체관리종목 선택부에 입력된 신체관리종목이 탈모인 경우, 상기 사용자 영상을 분석하여 사용자의 탈모 상태 정보를 산출하는 탈모 상태 정보 산출부, 상기 신체관리종목 선택부에 입력된 신체관리종목이 체형인 경우, 상기 사용자 영상을 분석하여 사용자의 체형 상태 정보를 산출하는 체형 상태 정보 산출부, 및 상기 신체관리종목 선택부에 입력된 신체관리종목이 발육인 경우, 상기 사용자 영상을 분석하여 사용자의 발육 상태 정보를 산출하는 발육 상태 정보 산출부를 포함하는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 미러 디스플레이부에 탑재되는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 미러 디스플레이부와 통신 연결되는 사용자 단말에 탑재되는 것을 특징으로 한다.
바람직하게는, 상기 제어부는, 상기 미러 디스플레이부와 통신 연결되는 외부 서버에 탑재되는 것을 특징으로 한다.
본 발명의 일 실시예에 의한, 스마트 미러 제어 방법은, 영상 획득부가 전방의 영상을 반사시키는 미러부 및 영상을 출력하는 디스플레이부를 포함하는 미러 디스플레이부의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득하는 단계, 및 영상 출력부가 상기 사용자 영상에 기초한 정보를 상기 디스플레이부에 출력하는 단계를 포함하는 것을 특징으로 한다.
본 발명은, 본 발명의 일 실시예에 의한 방법을 컴퓨터에서 실행시키기 위하여 매체에 저장된 프로그램을 포함한다.
상술한 과제 해결 수단에 따르면, 본 발명은 스마트 미러를 통해 사용자 신체의 적어도 일부에 대한 전면뿐만 아니라 좌측면, 우측면, 평면(상측면), 저면(하측면), 배면 등의 영상을 획득할 수 있다.
나아가 스마트 미러를 통해 획득된 사용자 영상을 분석하여 사용자의 해당 신체부위에 대한 맞춤형 관리영상을 제공할 수 있으며,
스마트 미러 전면에 있는 사용자의 눈에 보이는 상을 기준으로 맞춤형 관리영상의 위치를 결정하여 출력할 수 있다.
도 1은 본 발명의 일 실시예에 의한 스마트 미러 시스템의 구성을 개략적으로 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 의한 스마트 미러 시스템의 제어부의 구성을 자세히 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 의한 스마트 미러 시스템을 이용하는 사용자 환경의 일 예를 도시하는 도면이다.
도 4는 사용자의 눈의 위치에 따라 미러부에 반사되는 사용자의 상과 맞춤형 관리영상을 사용자에게 겹쳐 보이도록 출력하는 일 예를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 사용자의 상과 맞춤형 관리영상이 겹쳐 보이는 일 예를 도시한 도면이다.
도 6은 본 발명의 다른 실시예에 따른 사용자의 상과 맞춤형 관리영상이 겹쳐 보이는 일 예를 도시한 도면이다.
도 7은 상술한 바와 같이 터치 입력부에 입력된 터치에 대응되는 사용자의 신체부위에 관한 정보를 제공하는 일 예를 도시하는 도면이다.
도 8은 본 발명의 일 실시예에 따라 미러 디스플레이부를 통해 과거부터 현재시점까지 변화된 사용자 탈모 상태 정보를 제공하는 일 예를 도시한다.
도 9는 본 발명의 실시예에 의한 스마트 미러 제어 방법의 흐름을 나타내는 순서도이다.
이하에서 본 발명의 기술적 사상을 명확화하기 위하여 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하도록 한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성요소에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략할 것이다. 도면들 중 실질적으로 동일한 기능구성을 갖는 구성요소들에 대하여는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들을 부여하였다. 설명의 편의를 위하여 필요한 경우에는 장치와 방법을 함께 서술하도록 한다.
도 1은 본 발명의 일 실시예에 의한 스마트 미러 시스템의 구성을 개략적으로 도시한 블록도이고, 도 2는 본 발명의 일 실시예에 의한 스마트 미러 시스템의 제어부의 구성을 자세히 도시한 블록도이며, 도 3은 본 발명의 일 실시예에 의한 스마트 미러 시스템을 이용하는 사용자 환경의 일 예를 도시하는 도면이다. 본 발명의 일 실시예에 의한 스마트 미러 시스템은 욕실, 방, 전시장 쇼룸, 가구 등에 탑재할 수 있다.
도 1을 참조하면, 본 발명의 일 실시예에 의한 스마트 미러 시스템(10)은 미러 디스플레이부(100) 및 제어부(200)를 포함한다.
미러 디스플레이부(100)는 전방의 영상을 반사시키는 미러부(110) 및 영상을 출력하는 디스플레이부(120)를 포함할 수 있으며, 제어부(200)는 미러 디스플레이부의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득하는 영상 획득부(201) 및 사용자 영상에 기초한 정보를 디스플레이부(120)에 출력하는 영상 출력부(203)를 포함할 수 있다.
일 실시예로, 미러부(110)의 전면 또는 배면에 디스플레이부(120)를 미러부(110)와 겹치도록 배치할 수 있다. 디스플레이부(120)가 미러부(110)의 전면에 배치되는 경우, 디스플레이부(120)는 반투명 디스플레이를 구비하여 미러부(110)에 반사된 영상과 디스플레이부(120)를 통해 출력되는 영상이 전면에서 겹쳐 보이도록 할 수 있다. 디스플레이부(120)가 미러부(110)의 배면에 배치되는 경우, 미러부(110)는 반투명 미러(하프 미러)를 구비하여 미러부(110)에 반사된 영상과 디스플레이부(120)를 통해 출력되는 영상이 전방에서 겹쳐 보이도록 할 수 있다. 실시예에 따라, 미러부(110)는 가해지는 전압에 따라 빛의 투과량이 조절되는 장치로 구비될 수 있다. 예를 들어, 미러부(110)는 전압 설정에 의해 빛을 대부분 반사시키도록 조절된 경우에는 미러로서 동작할 수 있고, 전압 설정에 의해 빛을 대부분 투과시키도록 조절된 경우, 디스플레이로서 동작할 수 있다. 또한, 미러부(110)는 전압 설정에 의해 빛의 투과량이 일정 수치로 조절된 경우, 반투명한 유리로서 동작하여, 사용자는 미러부(110)에 반사되는 자신의 영상뿐만 아니라, 디스플레이부(120)의 화면에 출력된 영상도 볼 수 있다. 이와 같은 기능에 기초하여 미러부(110)를 동작시키며 동시에 디스플레이부(120)를 동작시킴으로써, 미러부(110)에 반사된 영상과 디스플레이부(120)를 통해 출력되는 영상이 전방에서 겹쳐 보이도록 할 수 있다.
미러 디스플레이부(100)는 미러부(110) 전면의 터치 입력을 받는 터치 입력부(도 3의 130)를 더 포함할 수 있다. 터치 입력부(130)는 사용자로부터 스마트 미러 시스템(10)의 기능 제어를 위한 명령을 입력받을 수 있다. 따라서 사용자는 별도의 입력장치가 없더라도 거울을 터치함으로써 스마트 미러 시스템(10)을 제어할 수 있다. 이러한 터치 입력부(130) 이외에도 미러 디스플레이부(100)는 사용자 제스처에 기초하여 사용자 명령을 입력받을 수 있다. 여기서 사용자 제스처는 사용자 영상을 분석하여 인식될 수 있으며, 예를 들어 특정한 패턴의 동작 등일 수 있다. 터치 입력부(130)는 미러부(110)의 일부면에 구비되거나, 미러부(110)의 전체면에 구비될 수 있다.
이하, 도 2를 참조하여 본 발명의 일 실시예에 의한 제어부의 구성 및 그 기능을 설명하기로 한다.
제어부(200)는 영상 획득부(201), 영상 출력부(203) 외에 신체부위 상태정보 산출부(205), 맞춤형 관리영상 결정부(207), 사용자 위치 판단부(209), 사용자 입력부(211), 신체관리 종목 선택부(213), 카메라 제어정보 생성부(215), 촬영자세 결정부(217), 촬영자세 보정부(219), 탈모 상태 정보 산출부(221), 체형 상태 정보 산출부(213), 발육 상태 정보 산출부(215) 및 통신부(217) 등을 더 포함할 수 있다.
영상 획득부(210)는 미러 디스플레이부(100)의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득할 수 있다. 이를 위해, 영상 획득부(210)는 미러 디스플레이부(100)에 탑재된 적어도 하나의 제1 카메라 센서(도 3의 140), 미러 디스플레이부(100)의 주변에 고정되어 설치되는 적어도 하나의 제2 카메라 센서(도 3의 400), 및 사용자 휴대전화(도 3의 300)에 탑재된 제3 카메라 센서 중 적어도 하나를 통해 사용자 영상을 획득할 수 있다. 실시예에 따라 제1 카메라 센서는 반투명 미러부의 배면에 설치될 수 있다.
일 실시예로, 제1 카메라 센서(140)는 미러 디스플레이부(100)의 전방에 있는 사용자의 신체의 적어도 일부에 대한 전면 영상을 획득할 수 있고, 제2 카메라 센서(400)는 설치되는 위치에 따라 사용자의 신체의 적어도 일부에 대한 좌측면 영상, 우측면 영상, 평면(상측면) 영상, 저면(하측면) 영상, 배면 영상 등을 획득할 수 있으며, 사용자 휴대전화(300)에 탑재된 제3 카메라 센서는 사용자의 신체의 적어도 일부에 대한 다양한 각도에서의 영상을 획득할 수 있다.
또한, 영상 획득부(210)는 미러 디스플레이부(100) 주변에 비치되는 용품에 탑재된 제4 카메라 센서를 통해 사용자의 신체의 적어도 일부에 대한 사용자 영상을 획득할 수 있다. 예를 들어, 미러 디스플레이부(100)가 욕실용 거울인 경우, 제4 카메라 센서는 욕실 용품에 탑재될 수 있다. 여기서 욕실 용품은 평상 시에 욕실에 비치되는 물품을 말한다. 휴대전화(300)에 탑재된 제3 카메라의 경우, 사용자가 휴대전화를 휴대하지 않고 있거나 휴대전화가 없을 수도 있으므로, 욕실에 비치되는 욕실 용품에 카메라를 탑재함으로써 사용자가 언제든지 욕실 용품에 탑재된 카메라로 자신의 신체부위를 자유롭게 촬영할 수 있도록 할 수 있다. 욕실 용품의 예로 드라이어, 면도기, 전동칫솔 등이 있을 수 있다. 미러 디스플레이부(100)가 화장대 거울, 드레스룸 거울, 미용실 거울 등인 경우에도 해당 거울의 주변에 비치되는 용품에 제4 카메라가 탑재될 수 있다. 바람직하게는 제4 카메라 센서가 손거울(도 3의 500)에 탑재될 수 있다. 제어부(200)는 카메라 센서를 탑재하는 디바이스와 유선 또는 무선 통신 연결을 통해 데이터를 송수신 가능하도록 구비될 수 있다.
영상 출력부(220)는 영상 획득부(210)에서 획득된 사용자 영상에 기초한 정보를 디스플레이부(120)에 출력할 수 있다. 영상 출력부(220)는 영상 획득부(210)에서 획득된 사용자 영상을 디스플레이부(120)에 출력할 수 있다. 즉, 영상 출력부(220)는 제1 내지 제4 카메라 센서 중 적어도 하나로부터 획득된 사용자 영상을 디스플레이부(120)에 출력할 수 있다. 사용자 영상은 제1 내지 제 4 카메라 센서 중 적어도 하나를 통해 획득한 사용자의 신체의 적어도 일부에 대한 전면 영상, 평면 영상, 좌측면 영상, 우측면 영상, 배면 영상, 저면 영상, 다각도 영상 등을 포함할 수 있다.
또한, 영상 출력부(220)는 상기 사용자 영상에 기초하여 가공된 정보를 출력할 수 있다.
신체부위 상태정보 산출부(205)는 영상 획득부(201)로부터 획득된 사용자 영상을 분석하여 사용자의 해당 신체부위 상태정보를 산출할 수 있다. 나아가, 신체부위 상태정보 산출부(205)는 과거부터 현재시점까지 산출된 사용자의 신체부위 상태정보에 기초하여 해당 신체부위의 상태변화에 관한 정보를 더 산출할 수 있다. 그리고, 영상 출력부(220)는 사용자의 해당 신체부위의 상태변화에 관한 정보를 디스플레이부(120)에 출력할 수 있다.
맞춤형 관리영상 결정부(207)는 신체부위 상태정보 산출부(205)에서 산출된 해당 신체부위 상태정보에 기초하여 맞춤형 관리영상을 결정할 수 있다. 영상 출력부(203)는 상기 결정된 맞춤형 관리영상을 디스플레이부(120)에 출력할 수 있다.
사용자 위치 판단부(209)는 영상 획득부(201)가 획득한 사용자 영상에 기초하여 사용자의 위치를 판단할 수 있다. 또한 사용자 위치 판단부(209)는 사용자 영상에 기초하여 사용자의 자세를 판단할 수 있다. 예를 들어 사용자의 영상을 분석하여 사용자의 각 신체부위의 위치와 방향, 각도 등을 판단할 수 있다
일 실시예에서, 사용자 위치 판단부(209)는 사용자 주변에 이격 배치된 두 대의 카메라를 통해 각각 제1 영상 및 제2 영상을 획득하고, 제1 영상의 특징점 및 제2 영상의 특징점을 매칭하며, 각각의 위치에서 특징점들에 대해 삼각 함수법을 적용하여 깊이 정보를 구함으로써, 3차원 상의 사용자의 위치를 판단할 수 있다. 상기 두 대의 카메라는 제1 카메라 센서 내지 제4 카메라 센서 중 적어도 하나로 구비할 수 있다.
일 실시예의 사용자 위치 판단부(209)는 전술한 방법으로 영상 획득부(201)가 획득한 상기 사용자 영상에 기초하여 사용자의 위치를 판단할 수 있고, 영상 출력부(203)는 판단된 상기 사용자의 위치에 기초하여, 맞춤형 관리영상의 출력 위치를 결정할 수 있다. 예를 들면, 사용자가 거울의 좌측에 치우치게 서있으면 맞춤형 관리영상도 좌측에 출력하고, 사용자가 거울의 우측에 치우치게 서있으면 맞춤형 관리영상도 우측에 출력할 수 있다.
또한, 사용자 위치 판단부(209)는 영상 획득부(201)가 획득한 상기 사용자 영상에 기초하여 사용자의 눈의 위치를 판단할 수 있고, 영상 출력부(203)는 사용자의 눈의 위치에 기초하여 미러부(110)에 반사되는 사용자의 상에 대한 맞춤형 관리영상의 출력 위치를 결정할 수 있다. 즉, 사용자의 눈의 위치에 따라 미러부(110)에 반사되는 상이 미러부(110)상에 표시되는 위치와 각도가 다르게 보이므로, 이를 고려하여 맞춤형 관리영상을 출력할 수 있다.
예를 들어, 영상 출력부(203)는 미러부(110)에 반사되는 사용자의 상과 맞춤형 관리영상이 사용자에게 겹쳐 보이도록 맞춤형 관리영상을 출력할 수 있다. 특히, 맞춤형 관리영상은 사용자의 모습(예: 사용자의 과거의 모습, 사용자의 목표 모습, 표준 체형의 모습 등)을 포함할 수 있으며, 영상 출력부(203)는 미러부(110)에 반사된 사용자의 모습과 맞춤형 관리영상의 사용자의 모습이 같은 위치에 겹쳐 보이도록 출력할 수 있다.
영상 출력부(203)는 미러부(110)에 반사된 사용자의 모습과 맞춤형 관리영상의 사용자의 모습이 동일한 자세로 겹쳐 보이도록 출력할 수 있으며, 실시간으로 사용자의 위치 및/또는 자세를 트래킹하여 사용자의 위치 및/또는 자세가 변경되는 경우 맞춤형 관리영상의 사용자의 모습이 실시간으로 미러부에 반사된 사용자의 모습에 겹쳐 보이도록 출력할 수 있다.
도 4는 사용자의 눈의 위치에 따라 미러부(110)에 반사되는 사용자의 상과 맞춤형 관리영상을 출력하는 일 예를 도시한 도면이고, 도 5는 사용자 입장에서 미러 디스플레이부(100)를 통해 사용자의 상과 맞춤형 관리영상이 겹쳐 보이는 일 예를 도시한 도면이며, 도 6은 미러 디스플레이부(100)를 통해 사용자의 상과 과거에 촬영된 사용자의 영상이 겹쳐 보이는 일 예를 도시한 도면이다.
도 4의 (a) 및 (b) 각각의 미러부(110)에 반사되는 상과 디스플레이부(120)에 출력되는 영상의 일 예를 살펴보면, 본 발명의 일 실시예는 사용자의 눈의 위치에 기초하여 영상을 출력하기 때문에 사용자의 눈에 보이는 상을 기준으로 적절한 위치에 맞춤형 관리영상을 출력할 수 있다. 구체적으로 살펴보면, 사용자의 위치 및 사용자의 눈의 위치에 따라, 도 4의 (a)의 경우 미러부(110)에 반사되는 사용자의 상은 사용자에게 미러부(110)상의 1a 위치부터 3a 위치까지에 보이게 되고 사용자의 상의 복부는 2a 위치에 보이게 되며, 도 4의 (b)의 경우 사용자의 상은 사용자에게 1b 위치부터 3b 위치까지에 보이게 되고 사용자의 상의 복부는 2b 위치에 보이게 된다. 만일 영상 출력부(203)가 디스플레이부(120)에 출력되는 영상이 사용자에게 사용자의 상의 복부 위치에 보이도록 하고자 한다면, 도 4의 (a)의 경우 영상을 4a의 위치에 출력하면 되고, 도 4의 (b)의 경우 영상을 4b의 위치에 출력하면 된다.
특히, 도 5에 도시된 바와 같이 디스플레이부(120)에 출력되는 맞춤형 관리영상 속의 사용자 이미지와 미러부(110)에 반사되는 사용자 상이 사용자에게 겹쳐 보이도록 맞춤형 관리영상을 출력함으로써, 사용자가 두 이미지를 직관적으로 비교할 수 있도록 할 수 있다. 도 5의 디스플레이부(120)에 출력되는 영상은 운동, 스트레칭, 마사지 등을 제공하기 위한 맞춤형 관리영상으로서, 사용자에게 맞춤형 관리영상 속 인물이 자신의 상과 겹쳐 보이도록 할 수 있다.
도 6은 맞춤형 관리영상이 과거에 스마트 미러 시스템을 통해 획득한 사용자의 영상인 경우로서, 사용자에게 과거 자신의 모습과 현재 자신의 상을 겹쳐 보이게 함으로써, 사용자가 체형의 변화 등을 직관할 수 있게 할 수 있다.
일 실시예에서, 사용자 위치 판단부(209)는 전술한 방법으로 영상 획득부(201)가 획득한 사용자 영상에 기초하여 사용자의 위치를 판단할 수 있고 특히, 상기 판단된 사용자의 위치에 기초하여, 미러부(110)에 반사되는 사용자의 상에서 터치 입력부(130)로 입력된 터치 입력에 대응되는 사용자의 신체부위를 판단할 수 있다. 여기서, 사용자 위치 판단부(209)는 영상 획득부(201)가 획득한 사용자 영상에 기초하여 사용자의 눈의 위치를 판단하고, 제어부(200)는 판단된 상기 사용자의 눈의 위치에 기초하여, 미러부(110)에 반사되는 사용자의 상에서 터치 입력부(130)로 입력된 터치 입력에 대응되는 사용자의 신체부위를 판단할 수 있다. 예를 들어, 터치 입력부(130)가 미러부(110)의 전체면에 구비된 경우, 도 4의 (a)에서 사용자가 2a 부분을 터치하거나 도 4의 (b)에서 사용자가 2b 부분을 터치하면 제어부(200)는 사용자가 사용자의 상의 복부를 터치한 것으로 판단할 수 있다. 제어부(200)는 사용자의 신체부위 외의 다른 상에 대한 터치 입력을 판단할 수도 있음은 물론이다.
제어부(200)는 판단된 신체부위에 기초하여, 해당 신체부위에 관해 가공된 정보를 생성하고, 상기 생성된 가공 정보를 상기 영상 출력부로 출력할 수 있다. 신체부위에 관해 가공된 정보는 해당 신체부위에 대한 사용자 영상에 기초하여 가공된 정보를 포함할 수 있다. 즉, 신체부위에 관해 가공된 정보는 해당 신체부위에 대한 건강 정보, 운동 정보, 표준 체형 정보 등과 같이 특정 신체부위에 대한 일반적인 정보 외에도 해당 신체부위에 대한 사용자의 과거 모습, 목표 모습, 맞춤형 운동정보 등 사용자에 특화된 정보를 포함할 수 있다. 제어부(200)는 판단된 신체 부위를 해당 부위에 대한 목표설정 등 추가적인 사용자 입력을 위한 정보로도 사용할 수 있다.
도 7은 상술한 바와 같이 터치 입력부에 입력된 터치에 대응되는 사용자의 신체부위에 관한 정보를 제공하는 일 예를 도시하는 도면이다. 도 7을 참조하면, 일 예로 제어부(200)는 터치 입력부(130)로 입력된 사용자의 터치를 감지할 수 있다. 사용자 위치 판단부(209)는 영상 획득부(201)가 획득한 사용자 영상에 기초하여 사용자의 눈의 위치를 판단할 수 있다. 제어부(200)는 사용자의 눈의 위치에 기초하여, 미러부(110)에 반사되는 사용자의 상에서 터치 부위(A)가 사용자 신체부위 중 복부임을 판단할 수 있다. 여기서, 제어부(200)는 사용자의 눈의 위치를 기준으로 신체부위를 판단하는 데에 있어서, 미리 저장된 기준 정보를 더 이용할 수 있고, 상기 기준 정보는 신체의 이미지 및 신체부위 간의 비율, 신체부위 간 상대적 위치 정보 등을 포함할 수 있다.
도 7의 미러 디스플레이부(100)의 우측에는 터치 부위(A)에 대한 정보 제공 요청에 따라 사용자의 복부 부위에 대한 사용자 영상을 가공한 정보가 출력되고 있다.
그리고, 제어부(200)는 상기 판단된 신체부위에 기초하여, 해당 신체부위에 관해 가공된 정보를 생성하고, 상기 생성된 가공 정보를 영상 출력부(203)로 출력할 수 있다. 여기서, 가공 정보는 해당 신체부위를 확대한 영상, 해당 신체부위에 대한 목표 영상, 해당 신체부위에 대한 표준 체형 영상, 해당 신체부위에 관한 과거 영상 및 과거에 가공된 정보, 해당 신체부위에 대해 과거부터 현재시점까지 비교 분석된 정보 등을 포함할 수 있고, 그래프, 도표, 이미지 등을 통해 출력될 수 있다.
도 8은 본 발명의 일 실시예에 따라 미러 디스플레이부(100)를 통해 과거부터 현재시점까지 변화된 사용자 탈모 상태 정보를 제공하는 일 예를 도시한다. 이를 위해, 제어부(200)는 사용자 영상 및 상기 사용자 영상에 기초하여 정보들이 생성될 때마다 사용자 고유정보에 매칭하여 미리 저장할 수 있고, 저장해둔 과거의 사용자 영상 및 정보들에 기초하여 현재시점의 사용자 상태정보와 비교하는 정보를 생성할 수 있다.
신체관리 종목 선택부(210)는 사용자로부터 적어도 하나의 신체관리종목에 대한 선택을 입력받을 수 있다. 예를 들어, 신체관리종목은 탈모, 체형, 성장발육 등을 포함할 수 있고, 이중에서 체형은 하위 카테고리로서 복부 관리, 힙업 관리, 각선미 관리, 어깨 관리, 거북목 관리 등을 포함할 수 있다.
카메라 제어정보 생성부(215)는 신체관리종목 선택부(210)에 입력된 신체관리종목에 따라 카메라 센서를 제어하기 위한 제어정보를 생성할 수 있다. 이를 위해, 카메라 제어정보 생성부(215)는 현재 카메라 센서와 사용자 간의 이격 거리와 상기 입력된 신체관리종목을 고려하여 카메라 센서의 촬영 여부, 줌(Zoom), 및 촬영 각도 중 적어도 하나를 결정할 수 있다. 여기서, 카메라 센서는 전술한 제1 카메라 센서 내지 제4 카메라 센서 중 적어도 하나일 수 있다.
예를 들어, 신체관리종목이 탈모로 선택된 경우, 제1 카메라 센서(140)와 사용자 간의 이격 거리가 소정 거리 이상이면, 제1 카메라 센서(140)의 줌을 조절함으로써, 제1 카메라 센서(140)를 통해 획득하는 사용자 영상의 배율 및 해상도 중 적어도 하나를 증가시킬 수 있다. 반대로, 신체관리종목이 힙업 관리로 선택된 경우, 카메라 제어정보 생성부(215)는 제1 카메라 센서(140)는 촬영을 하지 않는 것으로 하고, 제2 카메라 센서(400)와 사용자 간의 이격 거리가 소정 거리 이하일 경우, 제2 카메라 센서(400)의 줌을 조절함으로써, 제2 카메라 센서(400)를 통해 획득하는 사용자 영상의 배율 및 해상도 중 적어도 하나를 상대적으로 감소시킬 수 있다.
통신부(227)는 카메라 센서 제어정보를 해당 카메라 센서를 제어하는 데에 연관된 디바이스로 전송할 수 있다.
촬영자세 결정부(217)는 신체관리종목 선택부(210)에 입력된 신체 관리 종목에 따라 사용자가 갖춰야 할 촬영자세정보를 결정할 수 있다. 촬영자세 보정부(219)는 상기 결정된 촬영자세정보를 기반으로 사용자 영상에 포함된 사용자의 자세를 분석하여, 사용자의 촬영자세를 보정시키기 위한 보정정보를 생성하여 안내할 수 있다.
구체적으로, 신체부위 상태정보 산출부(205)는 탈모 상태 정보 산출부(221), 체형 상태 정보 산출부(223) 및 발육 상태 정보 산출부(225)를 포함할 수 있다.
탈모 상태 정보 산출부(221)는 영상 획득부(201)를 통해 획득된 사용자 영상에 담긴 사용자의 머리 전체 면적에서 머리카락이 차지하는 부분의 면적, 머리카락이 비어있는 부분의 면적 및 머리카락 색상의 농도 중 적어도 하나를 검출하고, 검출 결과를 분석하여 사용자의 탈모 정도 정보를 산출할 수 있다. 맞춤형 관리영상 결정부(207)는 산출된 사용자의 탈모 정도 정보에 기초하여 탈모 관리를 위한 두피 자극 마사지 영상을 결정할 수 있다. 이때, 산출된 사용자의 탈모 정도에 따라 두피 자극 마사지의 난이도, 레벨 등이 차별적으로 결정될 수 있다. 영상 출력부(203)는 두피 자극 마사지 영상을 사용자 상과 겹치도록 출력함으로써, 사용자가 두피 자극 마사지를 정밀하게 따라서 실행할 수 있도록 할 수 있다.
체형 상태 정보 산출부(223)는 미리 연령, 성별, 인종, 신장, 및 체중 중 적어도 하나를 고려하여 체형 관리 카테고리 별로 생성된 표준 체형 정보와 영상 획득부(201)를 통해 획득된 사용자 영상에 담긴 사용자의 체형 정보를 비교하여 사용자의 체형 상태 정보를 산출할 수 있다. 여기서, 체형 상태 정보 산출부(223)는 세부적으로 체형의 하위 카테고리로서 복부 관리, 힙업 관리, 각선미 관리, 어깨 관리, 거북목 관리 중 적어도 하나에 관한 체형 상태 정보를 산출할 수 있다. 맞춤형 관리영상 결정부(207)는 해당 체형 관리 카테고리에 기초하여 상기 산출된 체형 상태 정보에 따라 스트레칭, 운동, 마사지 영상 등을 결정할 수 있다. 이때, 산출된 사용자의 체형 상태에 따라 맞춤형 관리영상의 난이도, 레벨 등이 차별적으로 결정될 수 있다. 사용자의 선택 또는 제어부(200)의 설정에 따라 영상 출력부(203)는 스트레칭, 운동, 마사지 영상 등을 사용자 상과 겹치도록 출력함으로써, 사용자가 맞춤형 관리영상을 정밀하게 따라서 실행할 수 있도록 할 수 있다.
발육 상태 정보 산출부(225)는 영상 획득부(201)를 통해 획득된 사용자 영상에 기초하여 사용자의 상체와 하체의 길이 및 상하체 비율을 결정하고, 이를 미리 연령, 성별, 인종, 신장, 및 체중 중 적어도 하나를 고려하여 생성된 표준 발육 범위와 비교하여 사용자의 발육 상태 정보를 산출할 수 있다. 맞춤형 관리영상 결정부(207)는 산출된 발육 상태 정보에 따라 성장 발육을 촉진하는 스트레칭, 운동, 마사지 영상 등을 결정할 수 있다. 이때, 사용자의 연령 및 발육 상태 정보에 따라 맞춤형 관리영상의 난이도, 레벨 등이 차별적으로 결정될 수 있다.
제어부(200)는 미러 디스플레이부(100) 자체에 탑재될 수 있으며, 제어부(200)의 전부 또는 일부가 미러 디스플레이부(100)와 통신 연결되는 사용자 휴대전화(300)에 탑재될 수 있다. 제어부(200)는 사용자 휴대전화(300)에 설치된 스마트 미러 앱으로서 구동될 수도 있다. 제어부(200)의 전부 또는 일부가 미러 디스플레이부(100)와 통신 연결되는 외부 서버에 탑재될 수도 있다. 여기서, 외부서버는 헬스케어 정보 서버, 전문 메디컬 시설 서버, 기타 정보 제공 서버 등일 수 있다.
제어부(200)는 미러 디스플레이부(100), 카메라 센서, 사용자 휴대전화(300), 외부서버 등과 데이터를 송수신하는 통신부를 구비할 수 있고, 데이터베이스(미도시)를 이용하여 각종 데이터를 관리할 수 있다. 여기서 데이터베이스는 전문적인 데이터베이스 관리 시스템뿐만 아니라 모든 종류의 구조화된 데이터의 집합을 포함한다.
도 9는 본 발명의 실시예에 의한 스마트 미러 제어 방법의 개략적인 흐름을 나타내는 순서도이다. 도 9를 참조하면, 먼저 제어부(200)의 영상 획득부(201)는 미러 디스플레이부(100)의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득한다(S910).
이를 위해, 제어부(200)는 미러 디스플레이부(100)에 탑재된 적어도 하나의 제1 카메라 센서(140), 미러 디스플레이부(100)의 주변에 고정되어 설치되는 적어도 하나의 제2 카메라 센서(400), 및 사용자 휴대전화(300)에 탑재된 제3 카메라 센서 중 적어도 하나를 통해 사용자 영상을 획득할 수 있다.
일 실시예로, 제1 카메라 센서(140)는 미러 디스플레이부(100)의 전방에 있는 사용자의 신체의 적어도 일부에 대한 전면 영상을 획득할 수 있고, 제2 카메라 센서(400)는 설치되는 위치에 따라 사용자의 신체의 적어도 일부에 대한 좌측면 영상, 우측면 영상, 평면 영상, 저면 영상, 배면 영상 등을 획득할 수 있으며, 사용자 휴대전화(300)에 탑재된 제3 카메라 센서(300)는 사용자의 신체의 적어도 일부에 대한 다양한 각도에서의 영상을 획득할 수 있다. 또한, 제어부(200)는 미러 디스플레이부(100) 주변에 비치되는 용품에 탑재된 제4 카메라 센서를 통해 사용자의 신체의 적어도 일부에 대한 사용자 영상을 획득할 수 있다.
제어부(200)의 영상 출력부(203)는 획득한 사용자 영상에 기초한 정보를 디스플레이부(120)에 출력한다(S920). 여기서, 제어부(200)는 S910 단계에서 획득된 사용자 영상을 분석하여, 사용자의 해당 신체부위 상태정보를 산출할 수 있다. 나아가, 제어부(200)는 과거부터 현재시점까지 산출된 사용자의 신체부위 상태정보에 기초하여 해당 신체부위의 상태변화에 관한 정보를 더 산출할 수 있다. 신체부위 상태정보를 산출하는 방법에 대해서는 신체부위 상태정보 산출부(205)에 대한 상세한 상술을 참고하기로 한다.
본 발명에 따른 상기 예시 구조들은 프로세서에 의해 실행되는 프로그램 명령들, 소프트웨어 모듈, 마이크로코드, 컴퓨터(정보 처리 기능을 갖는 장치를 모두 포함한다.)로 읽을 수 있는 기록 매체에 기록된 컴퓨터 프로그램 제품, 논리 회로들, 주문형 반도체, 또는 펌웨어 등 다양한 방식으로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD, DVD, 자기 테이프, 하드 디스크, 플로피 디스크, 하드 디스크, 광데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
지금까지 본 발명에 대하여 도면에 도시된 바람직한 실시예들을 중심으로 상세히 살펴보았다. 이러한 실시예들은 이 발명을 한정하려는 것이 아니라 예시적인 것에 불과하며, 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 진정한 기술적 보호범위는 전술한 설명이 아니라 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다. 비록 본 명세서에 특정한 용어들이 사용되었으나 이는 단지 본 발명의 개념을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 특허청구범위에서 청구하는 본 발명의 본질적인 기술사상에서 벗어나지 않는 범위에서 다양한 변형 형태 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 균등물은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 구성요소를 포함하는 것으로 이해되어야 한다.
10: 스마트 미러 시스템 100: 미러 디스플레이부
110: 미러부 120: 디스플레이부
130: 터치 입력부 140: 제1 카메라 센서
200: 제어부 300: 사용자 휴대전화
400: 제2 카메라 센서 500: 손거울

Claims (21)

  1. 전방의 영상을 반사시키는 미러부 및 영상을 출력하는 디스플레이부를 포함하는 미러 디스플레이부; 및
    상기 미러 디스플레이부의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득하는 영상 획득부, 및 상기 사용자 영상에 기초한 정보를 상기 디스플레이부에 출력하는 영상 출력부를 포함하는 제어부를 포함하는 것을 특징으로 하는 스마트 미러 시스템.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 영상 획득부로부터 획득된 상기 사용자 영상을 분석하여 사용자의 해당 해당 신체부위 상태정보를 산출하는 신체부위 상태정보 산출부를 더 포함하는 것을 특징으로 하는 스마트 미러 시스템.
  3. 제 2 항에 있어서,
    상기 신체부위 상태정보 산출부는,
    과거부터 현재시점까지 산출된 신체부위 상태정보에 기초하여 해당 신체부위의 상태변화에 관한 정보를 더 산출하고,
    상기 영상 출력부는,
    상기 해당 신체부위의 상태변화에 관한 정보를 상기 디스플레이부에 출력하는 것을 특징으로 하는 스마트 미러 시스템.
  4. 제 2 항에 있어서,
    상기 제어부는,
    상기 신체부위 상태정보 산출부에서 산출된 해당 신체부위 상태정보에 기초하여 맞춤형 관리영상을 결정하는 맞춤형 관리영상 결정부를 더 포함하고,
    상기 영상 출력부는 상기 결정된 맞춤형 관리영상을 상기 디스플레이부에 출력하는 것을 특징으로 하는 스마트 미러 시스템.
  5. 제 4 항에 있어서,
    상기 제어부는,
    상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 위치를 판단하는 사용자 위치 판단부를 더 포함하고,
    상기 영상 출력부는,
    상기 판단된 상기 사용자의 위치에 기초하여, 상기 맞춤형 관리영상의 출력 위치를 결정하는 것을 특징으로 하는 스마트 미러 시스템.
  6. 제 5 항에 있어서,
    상기 사용자 위치 판단부는,
    상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 눈의 위치를 판단하고,
    상기 영상 출력부는,
    상기 판단된 상기 사용자의 눈의 위치에 기초하여, 상기 미러부에 반사되는 상기 사용자의 상에 대한 상기 맞춤형 관리영상의 출력 위치를 결정하는 것을 특징으로 하는 스마트 미러 시스템.
  7. 제 1 항에 있어서,
    상기 미러 디스플레이부는,
    미러부 전면의 터치 입력을 받는 터치 입력부를 더 포함하는 것을 특징으로 하는 스마트 미러 시스템.
  8. 제 7 항에 있어서,
    상기 제어부는,
    상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 위치를 판단하는 사용자 위치 판단부를 더 포함하고,
    상기 판단된 상기 사용자의 위치에 기초하여, 상기 미러부에 반사되는 상기 사용자의 상에서 상기 터치 입력부로 입력된 터치 입력에 대응되는 상기 사용자의 신체부위를 판단하는 것을 특징으로 하는 스마트 미러 시스템.
  9. 제 8 항에 있어서,
    상기 사용자 위치 판단부는,
    상기 영상 획득부가 획득한 상기 사용자 영상에 기초하여 상기 사용자의 눈의 위치를 판단하고,
    상기 제어부는,
    상기 판단된 상기 사용자의 눈의 위치에 기초하여, 상기 미러부에 반사되는 상기 사용자의 상에서 상기 터치 입력부로 입력된 터치 입력에 대응되는 상기 사용자의 신체부위를 판단하는 것을 특징으로 하는 스마트 미러 시스템.
  10. 제 8 항에 있어서,
    상기 제어부는,
    상기 판단된 신체부위에 기초하여, 해당 신체부위에 관해 가공된 정보를 생성하고, 상기 생성된 가공 정보를 상기 영상 출력부로 출력하는 것을 특징으로 하는 스마트 미러 시스템.
  11. 제 1 항에 있어서,
    상기 영상 획득부는,
    상기 미러 디스플레이부에 탑재된 적어도 하나의 제1 카메라 센서, 상기 디스플레이부의 주변에 고정되어 설치되는 적어도 하나의 제2 카메라 센서, 및 사용자 휴대전화에 탑재된 제3 카메라 센서 중 적어도 하나를 통해 상기 사용자 영상을 획득하는 것을 특징으로 하는 스마트 미러 시스템.
  12. 제 1 항에 있어서,
    상기 영상 획득부는,
    상기 미러 디스플레이부 주변에 비치되는 용품에 탑재된 제4 카메라 센서를 통해 상기 사용자 영상을 획득하는 것을 특징으로 하는 스마트 미러 시스템.
  13. 제 1 항에 있어서,
    상기 제어부는,
    상기 사용자로부터 적어도 하나의 신체관리종목에 대한 선택을 입력받는 신체관리종목 선택부를 더 포함하는 것을 특징으로 하는 스마트 미러 시스템.
  14. 제 13 항에 있어서,
    상기 제어부는,
    상기 신체관리종목 선택부에 입력된 신체관리종목에 따라 카메라 센서를 제어하기 위한 제어정보를 생성하는 카메라 제어정보 생성부; 및
    상기 카메라 센서 제어정보를 해당 카메라 센서를 제어하는 데에 연관된 디바이스로 전송하는 통신부를 더 포함하는 것을 특징으로 하는 스마트 미러 시스템.
  15. 제 13 항에 있어서,
    상기 제어부는,
    상기 신체관리종목 선택부에 입력된 신체 관리 종목에 따라 촬영자세정보를 결정하는 촬영자세 결정부; 및
    상기 결정된 촬영자세정보를 기반으로 상기 사용자 영상에 포함된 사용자의 자세를 분석하여, 상기 사용자의 촬영자세를 보정시키기 위한 보정정보를 생성하여 안내하는 촬영자세 보정부를 더 포함하는 것을 특징으로 하는 스마트 미러 시스템.
  16. 제 13 항에 있어서,
    상기 제어부는,
    상기 신체관리종목 선택부에 입력된 신체관리종목이 탈모인 경우, 상기 사용자 영상을 분석하여 사용자의 탈모 상태 정보를 산출하는 탈모 상태 정보 산출부;
    상기 신체관리종목 선택부에 입력된 신체관리종목이 체형인 경우, 상기 사용자 영상을 분석하여 사용자의 체형 상태 정보를 산출하는 체형 상태 정보 산출부; 및
    상기 신체관리종목 선택부에 입력된 신체관리종목이 발육인 경우, 상기 사용자 영상을 분석하여 사용자의 발육 상태 정보를 산출하는 발육 상태 정보 산출부를 포함하는 것을 특징으로 하는 스마트 미러 시스템.
  17. 제 1 항에 있어서,
    상기 제어부는,
    상기 미러 디스플레이부에 탑재되는 것을 특징으로 하는 스마트 미러 시스템.
  18. 제 1 항에 있어서,
    상기 제어부는,
    상기 미러 디스플레이부와 통신 연결되는 사용자 단말에 탑재되는 것을 특징으로 하는 스마트 미러 시스템.
  19. 제 1 항에 있어서,
    상기 제어부는,
    상기 미러 디스플레이부와 통신 연결되는 외부 서버에 탑재되는 것을 특징으로 하는 스마트 미러 시스템.
  20. 영상 획득부가 전방의 영상을 반사시키는 미러부 및 영상을 출력하는 디스플레이부를 포함하는 미러 디스플레이부의 전방에 있는 사용자의 신체의 적어도 일부를 촬영한 사용자 영상을 획득하는 단계; 및
    영상 출력부가 상기 사용자 영상에 기초한 정보를 상기 디스플레이부에 출력하는 단계를 포함하는 것을 특징으로 하는 스마트 미러 제어 방법.
  21. 제20항의 방법을 컴퓨터에서 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
KR1020190026747A 2019-03-08 2019-03-08 스마트 미러 시스템 및 스마트 미러 제어 방법 KR20200107520A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190026747A KR20200107520A (ko) 2019-03-08 2019-03-08 스마트 미러 시스템 및 스마트 미러 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190026747A KR20200107520A (ko) 2019-03-08 2019-03-08 스마트 미러 시스템 및 스마트 미러 제어 방법

Publications (1)

Publication Number Publication Date
KR20200107520A true KR20200107520A (ko) 2020-09-16

Family

ID=72669928

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190026747A KR20200107520A (ko) 2019-03-08 2019-03-08 스마트 미러 시스템 및 스마트 미러 제어 방법

Country Status (1)

Country Link
KR (1) KR20200107520A (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102360284B1 (ko) * 2021-10-28 2022-02-10 주식회사 스위트케이 스마트 미러를 기반으로 하는 지능형 헬스케어 시스템 및 방법
KR20220073148A (ko) * 2020-11-26 2022-06-03 주식회사 뉴로서킷 발모 사이클 분석 시스템 및 발모 사이클 분석 방법
WO2022197089A1 (ko) * 2021-03-17 2022-09-22 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220073148A (ko) * 2020-11-26 2022-06-03 주식회사 뉴로서킷 발모 사이클 분석 시스템 및 발모 사이클 분석 방법
WO2022197089A1 (ko) * 2021-03-17 2022-09-22 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US11842027B2 (en) 2021-03-17 2023-12-12 Samsung Electronics Co., Ltd. Electronic device and controlling method of electronic device
KR102360284B1 (ko) * 2021-10-28 2022-02-10 주식회사 스위트케이 스마트 미러를 기반으로 하는 지능형 헬스케어 시스템 및 방법

Similar Documents

Publication Publication Date Title
US11557102B2 (en) Methods for manipulating objects in an environment
US9996983B2 (en) Manipulation of virtual object in augmented reality via intent
US9292089B1 (en) Gestural object selection
KR102322034B1 (ko) 전환 거울을 구비한 장치의 이미지 디스플레이 방법 및 그 장치
KR102408318B1 (ko) 실세계 객체들의 가상 표현들
RU2668408C2 (ru) Устройства, системы и способы виртуализации зеркала
JP2024045273A (ja) 非制約環境において人間の視線及びジェスチャを検出するシステムと方法
US9354702B2 (en) Manipulation of virtual object in augmented reality via thought
KR20200107520A (ko) 스마트 미러 시스템 및 스마트 미러 제어 방법
JP7408068B2 (ja) コンピュータプログラム、サーバ装置及び方法
KR102172988B1 (ko) 아이라이너-착용 가이드 장치 및 방법
CN114730094A (zh) 具有人工现实内容的变焦显示的人工现实系统
JPWO2016076140A1 (ja) 情報処理装置、情報処理方法、およびプログラム
CN112384102B (zh) 用于指导化妆的带眼睛跟踪的化妆盒
US20150370336A1 (en) Device Interaction with Spatially Aware Gestures
US20180004287A1 (en) Method for providing user interface through head mounted display using eye recognition and bio-signal, apparatus using same, and computer readable recording medium
KR20170046023A (ko) 가상 현실 기반의 모델 하우스 제공 장치 및 그 방법
CN113495613B (zh) 眼球追踪校准方法及装置
JP7135466B2 (ja) 表示装置、表示方法及び表示プログラム
US10572722B2 (en) Display apparatus and display method
KR20220111383A (ko) 증강현실 서비스를 제공하는 스마트 미러 장치 및 그 동작방법
US20240005612A1 (en) Content transformations based on reflective object recognition
US20230351676A1 (en) Transitioning content in views of three-dimensional environments using alternative positional constraints
RU2818028C1 (ru) Способ и устройство для калибровки при окулографии
KR102473669B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application