KR102263154B1 - 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법 - Google Patents

스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법 Download PDF

Info

Publication number
KR102263154B1
KR102263154B1 KR1020200072816A KR20200072816A KR102263154B1 KR 102263154 B1 KR102263154 B1 KR 102263154B1 KR 1020200072816 A KR1020200072816 A KR 1020200072816A KR 20200072816 A KR20200072816 A KR 20200072816A KR 102263154 B1 KR102263154 B1 KR 102263154B1
Authority
KR
South Korea
Prior art keywords
smart mirror
unit
facial
expression
signal
Prior art date
Application number
KR1020200072816A
Other languages
English (en)
Inventor
백기동
이태혁
김주희
남윤호
Original Assignee
(주)프로맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)프로맥스 filed Critical (주)프로맥스
Priority to KR1020200072816A priority Critical patent/KR102263154B1/ko
Application granted granted Critical
Publication of KR102263154B1 publication Critical patent/KR102263154B1/ko

Links

Images

Classifications

    • G06K9/00268
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 사용자의 접근이 확인되면 활성화 상태로 운용되어 인식된 얼굴의 패턴으로 호칭하며 빅데이터의 기계학습으로 분석된 지식과 에티켓으로 반갑게 대화를 나누고 얼굴의 표정과 색상 등을 분석하여 기분과 건강상태를 안내하며, 객관적으로 분석되고 인식되는 얼굴표정으로 관리되도록 표정연습을 반복 안내하며 확인된 얼굴표정과 결과는 할당된 영역에 데이터베이스로 순차 기록 관리하여 얼굴표정에 의한 감성 표현이 순차 개선되도록 하는 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법에 관한 것으로 사용자의 얼굴 혈색 인식과 인식된 얼굴의 특징점 패턴 분석과 빅데이터의 기계학습에 의하여 추출되고 객관적으로 인식되는 호감 얼굴표정으로 반복 연습시키면서 건강과 기분을 분석 안내하고 선택 입력된 조건에 의한 지식정보와 일정정보를 음성급 신호로 알려주는 스마트미러 단말장치; 스마트미러 딘밀장치와 스마트미러다중통신망으로 접속하며 인식된 얼굴의 특징점 패턴과 혈색 정보를 실시간으로 입력받고 빅데이터의 기계학습으로 분석되며 분석대상의 과반수 이상에 해당하는 다수가 선호하여 객관적인 얼굴 표정을 추출 기록 관리하고 얼굴 혈색 분석에 의한 건강상태와 선택된 조건의 지식 정보를 기록 관리하고 제공하는 스마트 빅데이터서버; 스마트미러 단말장치와 스마트미러다중통신망으로 접속하며 해당 제어신호에 의하여 이동 중 사용자의 얼굴표정 연습을 안내하고 연습된 표정을 인식 기록 관리 분석하고 요청된 지식과 정보를 음성신호로 출력하는 스마트미러폰부를 포함하는 특징에 의하여 빅데이터의 기계학습에 의하여 많은 사람이 객관적으로 이해하고 느낄 수 있는 감성적 얼귤 표정아 되도록 반복 연습하고 관리하는 효과가 있다.

Description

스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법{Smart mirror system and realization method for training facial sensibility expression}
본 발명은 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법에 관한 것으로 더욱 상세하게는 사용자의 접근이 확인되면 활성화 상태로 운용되어 인식된 얼굴의 패턴으로 호칭하며 빅데이터의 기계학습으로 분석된 지식과 에티켓으로 반갑게 대화를 나누고 얼굴의 표정과 색상 등을 분석하여 기분과 건강상태를 안내하며, 객관적으로 분석되고 인식되는 얼굴표정으로 관리되도록 표정연습을 반복 안내하며 확인된 얼굴표정과 결과는 할당된 영역에 데이터베이스로 순차 기록 관리하여 얼굴표정에 의한 감성 표현이 순차 개선되도록 하는 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법에 관한 것이다.
보통의 가정에서는 사용자의 얼굴 또는 표정 등의 상태 확인 또는 관리를 위하여 매우 다양한 형태의 거울(미러, mirror)을 구비하며, 무심결에 얼굴을 비춰보는 용도로 사용되는 것이 일반적이다. 이러한 거울을 단순히 비춰보는 용도 보다 실 생활에 다양하게 응용되도록 활용도를 높일 필요가 있다.
이동통신용 휴대단말기 또는 스마트폰은 개인통신용 수단으로 이용되면서 언제 어느 때 어디서 발생될지 모르는 통신에 대응하기 위하여 항상 휴대하고 있으나 실제 통신에 사용되는 시간은 매우 짧으므로 활용도를 높이기 위하여 매우 다양하며 많은 숫자의 콘텐츠가 개발 제공되고 있다. 특히, 최근에는 스마트폰에 구비된 카메라를 활용한 얼짱 콘테스트, 닮은꼴 스타 찾기 등의 심리보상적 프로그램이 개발 제공되고 있다.
사람은 자신의 기분, 감정, 느낌, 생각, 건강, 경제적 상태 등을 자신도 모르게 자신의 얼굴 표정으로 나타내게 되며, 타인이나 상대방과 대면하는 경우 자신의 생각이나 상태가 상대방에게 읽혀지는 것을 피할 필요가 있으므로 표정관리를 할 필요가 있다.
한편, 사람은 사진을 촬영하는 경우 가장 찍히고 싶어하는 표정 일 예로, 멋있거나, 자신감 있거나, 예쁘거나, 귀여운 등의 얼굴 표정을 무의식적으로 만들어낸다. 사람의 얼굴 표정에는 마음의 심리적 상태와 육체의 건강 상태 등이 무의식적으로 표현되기도 하지만 반복적 훈련에 의하여 의식적으로 선택된 표정이 표시되도록 표정관리 할 수도 있다. 즉, 반복적인 표정관리 연습에 의하여 가장 자신감 있어 보이는 표정, 만족해 보이는 표정, 부유해 보이는 표정, 사랑스러워 보이는 표정, 불쌍해 보이는 표정, 기뻐해 보이는 표정, 슬퍼해 보이는 표정, 행복해 보이는 표정 등을 의식적으로 만들어낼 수 있다. 그러나 어떠한 얼굴 표정이 어떠한 상태를 나타내는지 정확하게 구분하기 어려운 것이 일반적이며, 이것은 각 사람마다 표정의 판단 기준이 조금씩 다를 수 있기 때문이다.
자신의 표정 상태를 확인하기 위하여 선택하는 방법으로 특정한 내면 상태를 맞이한 경우 얼굴 표정의 상태를 영상으로 남겨 확인해보거나 거울을 보며 얼굴 근육과 표정 상태를 체크하게 된다.
최근에는 스마트폰으로 자신의 얼굴을 셀프 촬영하고 자신의 얼굴 모습과 상태를 실시간 확인하며 저장한 후 나중에 다시 확인하기도 하지만, 스마트폰을 이용한 얼굴 감성 표현 기술은 특히, 각 가정 등의 거울을 이용하여 감성을 표현하거나 개발하는 기술은 아직 활발하게 개발 및 제공되지 않은 것으로 확인된다.
일 실시 예에 의한 종래기술에서는 사용자의 표정 연습을 위한 시스템이 제시되고 있으나, 실시간 동작하지 않고 사용방법이 복잡하여 스마트폰과 같은 휴대용 기기에 적용하기 어려우며, 실시간으로 표정관리를 연습하는 기술은 거의 제공되지 않는 실정이다.
한편, 이러한 필요성을 일부 해소한 종래기술로 대한민국 특허 등록번호 제10-1510798호(2015. 01. 03.)에 의한 것으로 ‘휴대용 얼굴 표정 연습 장치와 그 방법’이 제시되고 있다.
도 1 은 종래기술의 일 실시 예에 의한 것으로 휴대용 얼굴표정 연습장치와 그 방법을 설명하는 기능 구성도 이다.
이하, 첨부된 도면을 참조하여 일 실시 예에 의한 종래기술을 상세히 설명하면 관심영역검출부(110), 증강 여부 판단부(120), 암시 저장부(140), 모델증강부(150), 유사도판단부(190), 시각적주석표시부(180)를 포함하는 구성이다.
상기와 같은 종래기술은 사용자의 얼굴 패턴을 실시간 추출하고 증강하여 얼굴 표정을 연습하며 표정 연습의 결과가 시각적 주석으로 표시되어 직관적으로 알 수 있는 장점이 있으나 연습된 얼굴 표정의 결과가 사용자 주관적이므로 타인 누구나 인식할 수 있는 객관적이지 못한 문제를 여전히 남기고 있다.
또한, 가정 등에서 간편하며 정확하고 반복적으로 표정관리와 연습을 할 수 없으며 사용자만의 특징적이고 개성 있는 표정관리와 건강 및 기분을 관리 할 수 없는 문제가 있다.
따라서 사용자의 기분과 건강을 관리하면서 빅데이터의 기계학습에 의하여 객관적으로 이해하고 느낄 수 있는 개성적 표정으로 반복 연습하고 관리하도록 하는 기술을 개발할 필요가 있다.
대한민국 특허 등록번호 제10-1510798호(2015. 01. 03.) ‘휴대용 얼굴 표정 연습 장치와 그 방법’ 대한민국 특허 출원번호 제10-2017-0142008호(2017. 10. 30.) ‘얼굴 감성 표현 연습을 위한 스마트 미러 시스템 및 구현방법’
상기와 같은 종래 기술의 문제점과 필요성을 해소하기 위하여 안출한 본 발명은 빅데이터의 기계학습에 의하여 많은 사람이 객관적으로 이해하고 느낄 수 있는 감성적 얼귤 표정이 되도록 반복 연습하고 관리하는 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법을 제공하는 것이 그 목적이다.
또한, 본 발명은 사용자만의 특징적이면서 개성 있는 표정으로 반복 연습하면서 건강과 기분 그리고 에티켓을 함께 관리하는 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법을 제공하는 것이 그 목적이다.
상기와 같은 목적을 달성하기 위하여 안출한 본 발명의 스마트 미러 기반 얼굴 감성 표현 시스템은 사용자의 얼굴 혈색 인식과 인식된 얼굴의 특징점 패턴 분석과 빅데이터의 기계학습에 의하여 추출되고 객관적으로 인식되는 호감 얼굴표정으로 반복 연습시키면서 건강과 기분을 분석 안내하고 선택 입력된 조건에 의한 지식정보와 일정정보를 음성급 신호로 알려주는 스마트미러 단말장치(1000); 상기 스마트미러 딘밀장치(1000)와 스마트미러다중통신망(2000)으로 접속하며 인식된 얼굴의 특징점 패턴과 혈색 정보를 실시간으로 입력받고 빅데이터의 기계학습으로 분석되며 분석대상의 과반수 이상에 해당하는 다수가 선호하여 객관적인 얼굴 표정을 추출 기록 관리하고 얼굴 혈색 분석에 의한 건강상태와 선택된 조건의 지식 정보를 기록 관리하고 제공하는 스마트 빅데이터서버(3000); 상기 스마트미러 단말장치(1000)와 스마트미러다중통신망(2000)으로 접속하며 해당 제어신호에 의하여 이동 중 사용자의 얼굴표정 연습을 안내하고 연습된 표정을 인식 기록 관리 분석하고 요청된 지식과 정보를 음성신호로 출력하는 스마트미러폰부(4000); 를 포함할 수 있다.
상기 스마트미러 단말장치(1000)는 상기 스마트미러 단말장치(1000)의 전체 운용을 내장된 운용 프로그램과 파라미터 값에 의하여 구비된 각 기능부에 접속하고 실시간 감시하며 해당 제어신호를 각각 출력하는 스마트미러집중제어부(1010); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 지피에스신호를 수신하고 분석하여 현재 위치의 좌표정보와 시간정보를 확인 기록하고 출력하는 스마트미러지피에스부(1020); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 적외선레이더센서를 활성화시키고 사람의 접근 여부와 거리를 검출하여 통보하며 허용된 거리로 근접한 사람의 얼굴 이미지를 가시광선으로 촬영하여 기록하고 출력하는 촬영적외선센서부(1030); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 가시광선으로 촬영된 사람의 얼굴 이미지 신호를 입력받고 각 픽셀당 256개로 색분해한 256개 색상별 얼굴 이미지 신호를 기록하고 각각 출력하는 얼굴혈색분석부(1040); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 가시광선으로 촬영된 사람의 얼굴 이미지 신호를 입력받고 특징점을 추출하며 추출된 특징점으로 얼굴의 패턴을 분석 인식하여 기록하고 출력하는 특징점추출분석부(1050); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 분석된 특징점별 얼굴의 호칭을 기록 관리하고 출력하는 얼굴패턴호칭기록부(1060); 를 포함할 수 있다.
상기 스마트미러 단말장치는 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 촬영되어 분석된 얼굴의 특징점 패턴을 입력하고 목표 패턴과 대비하여 촬영된 각 특징점이 각 해당 목표특징점의 위치에 근접한 거리를 각 픽셀의 직경값 크기 단위로 분석하고 해당 촬영 시간값과 연계시켜 기록 관리하며 출력하는 표정연습목표관리부(1070); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 촬영된 얼굴표정과 연습목표 얼굴표정과 이미지 신호를 각각 표시하며 터치에 의하여 명령신호를 입력하고 오디오 신호를 입력과 출력하는 멀티미디어터치입출부(1080); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 혈색의 색상별 건강상태와 선택되어 검색된 지식정보와 에티켓정보를 해당 입력시간과 연계시켜 할당된 영역에 각각 기록하고 출력하는 스마트미러디비부(1090); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 외부로 송신되는 데이터 신호를 단위크기마다 일련의 스마트미러 패킷프레임으로 변환하고 외부로부터 수신되는 일련의 스마트미러 패킷 프레임을 각각 분석하여 일련의 단위크기로 이루어지는 해당 데이터 신호로 추출하는 스마트미러패킷프레임부(1100); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 인가되는 텍스트 데이터를 오디오의 스피치 데이터로 변환하여 출력하고 인가되는 오디오의 스피치 데이터를 텍스트 데이터로 변환하여 출력하는 티티에스와 에스티티부(1110); 상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 CDMA 방식과 와이파이 방식과 블루투스 방식과 TRS 방식의 통신기능부를 모두 동시에 구비하고 동시에 활성화 운영하며 각각의 통신기능부에 의한 통신경로로 동일한 내용의 통신신호를 동시에 송신과 수신하는 다중경로동시통신부(1120); 를 더 포함할 수 있다.
상기와 같은 목적을 달성하기 위하여 안출한 본 발명의 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법은 스마트미러 단말장치와 스마트미러다중통신망과 스마트 빅데이터서버와 스마트미러폰부와 공개데이터서버를 포함하는 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법에 있어서, 상기 스마트미러 단말장치에 의하여 스마트 미러 기반 얼굴 감성 표현 시스템을 운용하는 제어신호가 입력된 것으로 판단되면 적외선 레이더를 활성화시켜 사용자가 근접하는지를 감시하는 준비단계; 상기 준비단계에서 사용자가 근접한 것으로 판단되면 가시광선으로 얼굴을 촬영하고 찰영된 이미지를 분광방식으로 분석하며 혈색을 판단하며 특징점 추출로 패턴을 분석하고 사용자를 확인하며 확인된 사용자의 지정된 호칭을 검색하고 혈색 분석에 의한 건상상태를 확인하며 지정된 해당 호칭과 함께 건강상태와 얼굴 표정에 의한 감성상태를 각각 음성급 신호로 출력하여 안내하는 감성확인단계; 상기 감성확인단계에서 확인된 사용자가 지정한 분야의 정보와 지식, 일정을 음성급 신호로 출력하여 안내하고 분석된 얼굴 감성 표현 상태를 음성급 신호로 안내하며 빅데이터의 기계학습 대상에 의하여 과반수 이상이 선호하는 호감 얼굴 표정에 해당하는지를 판단하는 표정확인단계; 상기 표정확인단계에서 과반수 이상이 선호하는 호감 얼굴 표정에 해당하지 않는 것으로 판단되면 표정관리 연습을 안내하고 안내에 의하여 연습된 얼굴 표정을 촬영과 특징점 추출과 패턴분석하고 빅데이터의 기계학습 대상에 의한 백분율로 표시하며 음성급 신호로 안내하고 이동중 표정감성 연습을 요청하는 것으로 판단되면 등록된 상기 스마트미러폰부에 접속하여 스마트미러폰루틴을 운용하도록 제어하고 종료로 진행하는 표정연습단계; 를 포함할 수 있다.
상기와 같은 구성의 본 발명은 빅데이터의 기계학습에 의하여 많은 사람이 객관적으로 이해하고 느낄 수 있는 감성적 얼귤 표정아 되도록 반복 연습하고 관리되는 장점이 있다.
또한, 본 발명은 사용자만의 특징적이면서 개성 있는 표정으로 반복 연습하면서 건강과 기분 그리고 에티켓을 함께 관리하는 장점이 있다.
도 1 은 종래기술의 일 실시 예에 의한 것으로 휴대용 얼굴표정 연습장치와 그 방법을 설명하는 기능 구성도,
도 2 는 본 발명의 일 실시 예에 의한 것으로 스마트 미러 기반 얼굴 감성 표현 시스템의 기능 구성도,
도 3 은 본 발명의 일 실시 예에 의한 것으로 스마트미러단말장치의 세부 기능 구성도,
도 4 는 본 발명의 일 실시 예에 의한 것으로 스마트미러폰부의 세부 기능 구성도,
도 5 는 본 발명의 일 실시 예에 의한 것으로 스마트미러패킷프레임의 필드구성 도시도,
도 6 은 발명의 일 실시 예에 의한 것으로 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법의 순서도,
그리고
도 7 은 본 발명의 일 실시예에 의한 것으로 스마트미러 단말장치를 이용하여 사용자가 얼굴 표정연습을 하는 상태 설명도이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세한 설명에서 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 2 는 본 발명의 일 실시 예에 의한 것으로 스마트 미러 기반 얼굴 감성 표현 시스템의 기능 구성도 이고, 도 3 은 본 발명의 일 실시 예에 의한 것으로 스마트미러단말장치의 세부 기능 구성도 이며, 도 4 는 본 발명의 일 실시 예에 의한 것으로 스마트미러폰부의 세부 기능 구성도 이고, 도 5 는 본 발명의 일 실시 예에 의한 것으로 스마트미러패킷프레임의 필드구성 도시도 이다.
이하, 첨부된 모든 도면을 참조하여 상세히 설명하면 스마트 미러 기반 얼굴 감성 표현 시스템(900)은 스마트미러 단말장치(1000)와 스마트미러다중통신망(2000)과 스마트 빅데이터서버(3000)와 스마트미러폰부(4000)와 공개데이터서버(5000)를 포함하는 구성이다.
스마트미러 단말장치(1000)는 사용자의 얼굴 혈색 인식과 인식된 얼굴의 특징점 패턴 분석과 빅데이터의 기계학습에 의하여 추출되고 객관적으로 인식되는 호감 얼굴표정으로 반복 연습시키면서 사용자의 건강과 기분을 분석하여 음성신호로 안내하고 선택 입력된 조건에 의한 지식정보와 일정정보와 에티켓 등의 내용을 음성급 신호를 이용하여 알려주며 인사, 일기 안내, 스케줄 확인 등의 간단한 대화를 진행한다.
스마트미러 단말장치(1000)는 스마트미러집중제어부(1010)와 스마트미러지피에스부(1020)와 촬영적외선센서부(1030)와 얼굴혈색분석부(1040)와 특징점추출분석부(1050)와 얼굴패턴호칭기록부(1060)와 표정연습목표관리부(1070)와 멀티미디어터치입출부(1080)와 스마트미러디비부(1090)와 스마트미러패킷프레임부(1100)와 티티에스와 에스티티부(1110)와 다중경로동시통신부(1120)를 포함하는 구성이다.
스마트미러집중제어부(1010)는 스마트미러 단말장치(1000)의 전체 운용을 내장된 운용 프로그램과 파라미터 값에 의하여 구비된 각 기능부에 접속하고 실시간 감시하며 해당 제어신호를 각각 출력한다.
스마트미러지피에스부(1020)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 잘 알려진 지피에스 인공위성으로부터 지피에스신호를 수신하고 분석하여 현재 위치에서의 경도, 위도, 해발에 의한 좌표정보와 시간정보를 확인 기록하고 출력한다.
촬영적외선센서부(1030)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 적외선레이더센서를 활성화시키고 사람의 접근 여부와 거리를 검출하여 통보하며 허용된 거리로 근접한 사람의 얼굴 이미지를 가시광선으로 촬영하여 기록하고 출력한다.
얼굴혈색분석부(1040)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 가시광선으로 촬영된 사람의 얼굴 이미지 신호를 입력받고 각 픽셀당 256개로 색분해한 256개 색상별 얼굴 이미지 신호를 기록하고 각각 출력한다.
특징점추출분석부(1050)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 가시광선으로 촬영된 사람의 얼굴 이미지 신호를 입력받고 특징점을 추출하며 추출된 특징점으로 얼굴의 패턴을 분석 인식하여 기록하고 출력한다.
얼굴패턴호칭기록부(1060)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 분석된 특징점별 얼굴의 호칭을 기록 관리하고 출력한다.
표정연습목표관리부(1070)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 촬영되어 분석된 얼굴의 특징점 패턴을 입력하고 목표 패턴과 대비하여 촬영된 각 특징점이 각 해당 목표특징점의 위치에 근접한 거리를 각 픽셀의 직경값 크기 단위로 분석하고 해당 촬영 시간값과 연계시켜 기록 관리하며 출력한다.
멀티미디어터치입출부(1080)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 촬영된 얼굴표정과 연습목표 얼굴표정과 이미지 신호를 각각 표시하며 터치에 의하여 명령신호를 입력하고 오디오 신호를 입력과 출력한다.
스마트미러디비부(1090)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 혈색의 색상별 건강상태와 선택되어 검색된 지식정보와 에티켓정보를 해당 입력시간과 연계시켜 할당된 영역에 각각 기록하고 출력한다.
스마트미러패킷프레임부(1100)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 외부로 송신되는 데이터 신호를 단위크기마다 일련의 스마트미러 패킷프레임으로 변환하고 외부로부터 수신되는 일련의 스마트미러 패킷 프레임을 각각 분석하여 일련의 단위크기로 이루어지는 해당 데이터 신호로 추출한다.
티티에스와 에스티티부(TTS/STT ; text to speech / speech to text)(1110)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 인가되는 텍스트 데이터를 오디오의 스피치 데이터로 변환하여 출력하고 인가되는 오디오의 스피치 데이터를 텍스트 데이터로 변환하여 출력한다. 이러한 TTS 기능부와 STT 기능부는 일반적으로 잘 알려져 있으므로 더 이상 설명하지 않기로 한다.
다중경로동시통신부(1120)는 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 CDMA 방식과 와이파이 방식과 블루투스 방식과 TRS 방식의 통신기능부를 모두 동시에 구비하고 동시에 활성화 운영하며 각각의 통신기능부에 의한 통신경로로 동일한 내용의 통신신호를 동시에 송신과 수신한다.
스마트미러집중제어부(1010)는 4 가지 통신기능부로 수신된 통신신호 중 신호대잡음비가 가장 우수하여 전송오류가 없는 통신기능부의 해당 통신신호를 선택 사용하고 2개 이상의 통신기능부에서 전송 오류가 발생되지 않은 경우에는 불특정하게 임의 선택된 어느 하나의 통신기능부가 수신한 통신신호를 사용한다.
스마트미러다중통신망(2000)은 CDMA 방식 이동통신 시스템 망, 와이파이 방식 통신 시스템 망, 블루투스 방식 통신 시스템 망, TRS 방식 통신 시스템 망을 동시에 모두 구비하고 동시에 모두 활성화 운용하며 접속된 호출자의 요청에 의하여 지정된 피호출자와의 통신경로로 구비된 4개의 모든 통신 시스템 망을 동시에 할당하여 4개의 통신경로를 경유하여 동시에 접속하도록 하면서 동일한 내용의 신호가 송신과 수신 또는 전송되도록 스위칭 처리한다. CDMA 방식과 와이파이 방식과 블루투스 방식과 TRS 방식의 통신 기술은 이미 잘 알려져 있으므로 더 이상의 구체적인설명을 생략하기로 한다. 한편, 스마트미러다중통신망(2000)은 유선전화통신망 및 유선랜 통신망을 더 포함할 수 있음은 매우 당연하다.
스마트 빅데이터서버(3000)는 스마트미러 딘밀장치(1000)와 스마트미러다중통신망(2000)을 경유하여 접속하며 인식된 얼굴의 특징점 패턴과 혈색 정보를 실시간으로 입력받고 빅데이터의 기계학습으로 분석되며 분석 대상의 과반수 이상에 해당하는 다수가 선호하여 객관적인 얼굴 표정을 추출 기록 관리하고 얼굴 혈색 분석에 의한 건강상태와 선택된 조건의 지식, 해당 에티켓 정보, 일기 등울 기록관리하고 제공한다.
스마트미러폰부(4000)는 스마트미러 단말장치(1000)와 스마트미러다중통신망(2000)으로 접속하며 해당 제어신호에 의하여 이동 중 사용자의 얼굴표정 연습을 안내하고 연습된 표정을 인식 기록 분석하고 요청된 지식과 정보를 음성신호로 출력한다.
스마트미러폰부(4000)는 공개데이터서버(5000)에 주기적으로 접속하여 빅데이터를 수집하고 기계학습 방식으로 필요한 정보를 수집하며, 빅데이터를 기계학습으로 수집하는 기술은 다양하며 잘 알려져 있으므로 구체적인 설명은 생략하기로 한다.
스마트미러폰부(4000)는 스마트미러폰제어부(4010)와 폰부다중경로동시통신부(4020)와 터치표시부(4030)와 이미지촬상부(4040)와 오디오입출력부(4050)를 포함하는 구성이다.
스마트미러폰제어부(4010)는 스마트미러폰부(4000)를 구성하는 각 기능부에 접속하고 내장되고 설치된 각종 운용프로그램과 운용 파라미터에 의하여 운용상태를 감시하면서 해당 제어신호 출력에 의하여 제어한다.
폰부다중경로동시통신부(4020)는 다중경로동시통신부(1120)와 스마트미러다중통신망(2000)을 경유하여 상기 4 가지 통신방식으로 동시에 접속하고 동일한 내용의 통신신호를 동시에 송신하거나 수신하기 위한 것으로 CDMA 방식과 와이파이 방식과 블루투스 방식과 TRS 방식의 통신기능부를 모두 동시에 구비하고 동시에 활성화 운영하며 각각의 통신기능부에 의한 통신경로로 동일한 내용의 통신신호를 동시에 송신과 수신한다.
스마트미러폰제어부(4010)는 4 가지 통신기능부로 수신된 통신신호 중 신호대잡음비가 가장 우수하여 전송오류가 없는 통신기능부의 해당 통신신호를 선택 사용하고 2개 이상의 통신기능부에서 전송 오류가 발생되지 않은 경우에는 불특정하게 임의 선택된 어느 하나의 통신기능부가 수신한 통신신호를 사용한다.
터치표시부(4030)는 스마트미러폰제어부(4010)의 해당 제어신호에 의하여 활성화 상태로 운용되고, 터치되어 입력되는 신호를 정전기 방식으로 입력하거나 또는 압력 방식으로 입력할 수 있으되, 정전기 방식이 비교적 바람직하다.
터치표시부(4030)는 터치에 의하여 명령신호를 입력하면서 표시하고자 하는 영상 이미지를 시각적으로 출력하며, LED, LCD 방식 중에서 선택된 어느 하나로 이루어질 수 있으며, 잘 알려져 있다.
이미지촬상부(4040)는 스마트미러폰제어부(4010)의 해당 제어신호에 의하여 활성화 상태로 운용되고, 가시광선을 이용하여 지정된 피사체의 이미지를 정지영상 또는 동영상으로 촬영한다. 이미지촬상부(4040)는 필요에 의하여 적외선 신호를 이용하여 피사체의 이미지를 촬영할 수 있음은 매우당연하다.
오디오입출력부(4050)는 스마트미러폰제어부(4010)의 해당 제어신호에 의하여 활성화 상태로 운용되고 외부의 오디오급 신호를 입력하거나 내부의 오디오급 신호를 외부로 출력한다.
한편, 스마트미러 단말장치(1000)와 스마트미러다중통신망(2000)과 스마트 빅데이터서버(3000)와 스마트미러폰부(4000) 사이에서 송신고 수신 또는 전송되는 데이터는 스마트미러패킷프레임(6000)으로 단위화 되어 전송된다.
스마트미러패킷프레임(6000)은 총 185 바이트로 이루어지고 오버헤드 필드와 제1 패킷프레임데이터 필드와 제2 패킷프레임데이터 필드와 제3 패킷프레임데이터 필드와 체크데이터 필드와 엔드필드를 포함하는 구성이다.
바이트(byte)는 디지털 신호에서 하나의 펄스신호에 대한 유무를 기록하는 최소 단위인 비트(bit)가 8 개 단위로 모인 것을 의미하며, 필요에 의하여 8 비트 이상을 하나의 바이트로 정의할 수도 있으나 이하의 설명에서는 8 비트를 하나의 바이트로 정의한다.
오버헤드(OVHD, over head) 필드는 10 바이트(byte)로 이루어지며 프레임(frame)을 구성하는 데이터의 기록이 시작되는 시작위치, 전송목적지, 송신시간, 생성 좌표정보, 비트에 의한 전체데이터의 크기, 데이터의 양이 많은 경우 다수의 프레임으로 이루어 질 수 있으므로 연결된 상태를 표시하는 프레임 일련번호정보가 포함되어 기록된다.
제1 패킷프레임데이터 필드는 오버헤드 필드와 1 바이트의 간격을 두고 50 바이트로 이루어지며 지정된 간극제어데이터가 기록된다.
제2 패킷프레임데이터 필드는 제1 패킷프레임데이터 필드와 1 바이트의 간격을 두고 50 바이트로 이루어지며 제1 패킷프레임데이터 필드에 저장된 동일한 데이터가 반복 기록된다.
제3 패킷프레임데이터 필드는 제2 패킷프레임데이터 필드와 1 바이트의 간격을 두고 50 바이트로 이루어지며 공백으로 관리되고, 정의되지 아니한 용도 또는 목적으로 사용되도록 하므로 간극데이터블록단위프레임의 활용성과 확장성을 높일 수 있다.
체크(CHK, check) 데이터 필드는 제3 패킷프레임데이터 필드와 1 바이트의 간격을 두고 10 바이트로 이루어지며 제1 패킷프레임데이터 필드와 제2 패킷프레임데이터 필드에 각각 기록된 데이터를 비교하여 동일한 데이터가 기록되지 아니한 것으로 판단되면 사이클릭리던던시체크 방식으로 오류 검출과 복구 처리한다.
엔드(END) 필드는 체크데이터 필드와 1 바이트의 간격을 두고 10 바이트로 이루어지며 오류 검출과 복구 여부, 재전송요청 여부, 데이터 생성자정보, 프레임의 종료위치, 프레임 일련번호정보가 포함되어 기록된다.
공개데이터서버(5000)는 2 개 이상의 다수로 이루어지며 각 포탈 사이트 서버, 각 언론사 서버, 각 방송사 서버, 금융계 서버, 산업계 서버, 교육계 서버, 기상청 서버, 관공서 서버 등이 포함되는 것으로 설명한다.
도 6 은 발명의 일 실시 예에 의한 것으로 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법의 순서도 이다.
첨부된 모든 도면을 참조하여 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법을 설명하면 준비단계에 의한 것으로 스마트미러 단말장치와 스마트미러다중통신망과 스마트 빅데이터서버와 스마트미러폰부와 공개데이터서버를 포함하는 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법에 있어서 스마트미러 단말장치에 의하여 스마트 미러 기반 얼굴 감성 표현 시스템을 운용하는 제어신호가 입력된 것으로 판단되면S100) 적외선 레이더를 활성화시켜 사용자가 근접하는지를 감시한다(S110).
스마트미러 단말장치는 감성확인단계에 의한 것으로, 준비단계에서 사용자가 근접한 것으로 판단되면(S110) 가시광선으로 얼굴을 촬영하고 찰영된 이미지를 분광방식으로 분석하며 혈색을 판단하며 특징점 추출로 패턴을 분석하고(S120), 사용자를 확인하며 확인된 사용자의 지정된 호칭을 검색하고 혈색 분석에 의한 건상상태를 확인하며 지정된 해당 호칭과 함께 건강상태와 얼굴 표정에 의한 감성상태를 각각 음성급 신호로 출력하여 안내한다(S130).
스마트미러 단말장치는 표정확인단계에 의한 것으로, 감성확인단계에서 확인된 사용자가 지정한 분야의 정보와 지식, 일정, 에티켓 등을 음성급 신호로 출력하여 안내하고 분석된 얼굴 감성 표현 상태를 음성급 신호로 안내하며(S140) 빅데이터의 기계학습 대상에 의하여 과반수 이상이 선호하는 호감 얼굴 표정에 해당하는지를 판단한다(S150).
스마트미러 단말장치는 표정연습단계에 의한 것으로, 표정확인단계에서 과반수 이상이 선호하는 호감 얼굴 표정에 해당하지 않는 것으로 판단되면(S150), 표정관리 연습을 안내하고 안내에 의하여 연습된 얼굴 표정을 촬영과 특징점 추출과 패턴분석하고(S160) 빅데이터의 기계학습 대상에 의한 백분율로 표시하며 음성급 신호로 안내하고(S170), 이동중 표정감성 연습을 요청하는 것으로 판단되면(S180) 등록된 상기 스마트미러폰부에 접속하여 스마트미러폰루틴을 운용하도록 제어하고 종료로 진행한다.
스마트미러폰루틴은 스마트미러 단말장치를 구성하는 스마트미러폰제어부에 의한 것으로 스마트미러 단말장치가 이동 중에 사용자의 얼굴 표정을 선호하는 표정으로 연습하도록 하는 해당 제어신호를 폰부다중경로동시통신부를 경유하여 입력받고 오디오입출력부를 제어하여 음성 메시지로 표정연습 하도록 안내하는 메시지를 출력한다. 사용자가 터치표시부를 경유하여 안내 메시지에 응답하는 신호를 터치방식으로 입력하는 것이 확인되면 이미지촬상부를 활성화 상태로 제어하여 얼굴 이미지를 가시광선으로 촬영하고 촬영된 이미지 신호를 다시 스마트미러 단말장치로전송한다. 스마트미러 단말장치로는 특징점 추출과 패턴 인식 등의 처리를 통하여 상기 빅데이터 기계학습 대상자 과반수 이상이 선호하는 표정에 해당하는지의 여부를 판단하고 판단된 결과를 다시 스마트미러폰부에 전송한다.
도 7 은 본 발명의 일 실시예에 의한 것으로 스마트미러 단말장치를 이용하여 사용자가 얼굴 표정연습을 하는 상태 설명도이다.
사용자가 가정, 사무실 등에 설치된 다양한 형태의 스마트미러단말장치의 전면에 위치하고 선호하는 표정이 자연스럽게 이루어지도록 반복적으로 연습하는 상태를 연출한 것이다. 스마트미러단말장치의 전면은 일반적인 미러그라스이며 미러그라스의 후면에 촬영적외선센서부, 멀티미디어터치입출부 등이 해당 기능의 운용에 적합하게 배치와 설치된 것으로 설명한다.
이상에서 본 발명은 기재된 구체 예에 대해서 상세히 설명하였지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.
900 : 스마트 미러 기반 얼굴 감성 표현 시스템
1000 : 스마트미러단말장치 2000 : 스마트미러다중통신망
3000 : 스마트 빅데이터서버 4000 : 스마트미러폰부
5000 : 공개데이터서버

Claims (4)

  1. 삭제
  2. 사용자의 얼굴 혈색 인식과 인식된 얼굴의 특징점 패턴 분석과 빅데이터의 기계학습에 의하여 추출되고 객관적으로 인식되는 호감 얼굴표정으로 반복 연습시키면서 건강과 기분을 분석 안내하고 선택 입력된 조건에 의한 지식정보와 일정정보를 음성급 신호로 알려주는 스마트미러 단말장치(1000);
    상기 스마트미러 단말장치(1000)와 스마트미러다중통신망(2000)으로 접속하며 인식된 얼굴의 특징점 패턴과 혈색 정보를 실시간으로 입력받고 빅데이터의 기계학습으로 분석되며 분석대상의 과반수 이상에 해당하는 다수가 선호하여 객관적인 얼굴 표정을 추출 기록 관리하고 얼굴 혈색 분석에 의한 건강상태와 선택된 조건의 지식 정보를 기록 관리하고 제공하는 스마트 빅데이터서버(3000);
    상기 스마트미러 단말장치(1000)와 스마트미러다중통신망(2000)으로 접속하며 해당 제어신호에 의하여 이동 중 사용자의 얼굴표정 연습을 안내하고 연습된 표정을 인식 기록 관리 분석하고 요청된 지식과 정보를 음성신호로 출력하는 스마트미러폰부(4000); 를 포함하는 스마트 미러 기반 얼굴 감성 표현 시스템에 있어서,
    상기 스마트미러 단말장치(1000)는
    상기 스마트미러 단말장치(1000)의 전체 운용을 내장된 운용 프로그램과 파라미터 값에 의하여 구비된 각 기능부에 접속하고 실시간 감시하며 해당 제어신호를 각각 출력하는 스마트미러집중제어부(1010);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 지피에스신호를 수신하고 분석하여 현재 위치의 좌표정보와 시간정보를 확인 기록하고 출력하는 스마트미러지피에스부(1020);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 적외선레이더센서를 활성화시키고 사람의 접근 여부와 거리를 검출하여 통보하며 허용된 거리로 근접한 사람의 얼굴 이미지를 가시광선으로 촬영하여 기록하고 출력하는 촬영적외선센서부(1030);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 가시광선으로 촬영된 사람의 얼굴 이미지 신호를 입력받고 각 픽셀당 256개로 색분해한 256개 색상별 얼굴 이미지 신호를 기록하고 각각 출력하는 얼굴혈색분석부(1040);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 가시광선으로 촬영된 사람의 얼굴 이미지 신호를 입력받고 특징점을 추출하며 추출된 특징점으로 얼굴의 패턴을 분석 인식하여 기록하고 출력하는 특징점추출분석부(1050);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 분석된 특징점별 얼굴의 호칭을 기록 관리하고 출력하는 얼굴패턴호칭기록부(1060); 를 포함하는 스마트 미러 기반 얼굴 감성 표현 시스템.
  3. 제 2 항에 있어서,
    상기 스마트미러 단말장치는
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 촬영되어 분석된 얼굴의 특징점 패턴을 입력하고 목표 패턴과 대비하여 촬영된 각 특징점이 각 해당 목표특징점의 위치에 근접한 거리를 각 픽셀의 직경값 크기 단위로 분석하고 해당 촬영 시간값과 연계시켜 기록 관리하며 출력하는 표정연습목표관리부(1070);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 촬영된 얼굴표정과 연습목표 얼굴표정과 이미지 신호를 각각 표시하며 터치에 의하여 명령신호를 입력하고 오디오 신호를 입력과 출력하는 멀티미디어터치입출부(1080);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 혈색의 색상별 건강상태와 선택되어 검색된 지식정보와 에티켓정보를 해당 입력시간과 연계시켜 할당된 영역에 각각 기록하고 출력하는 스마트미러디비부(1090);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 외부로 송신되는 데이터 신호를 단위크기마다 일련의 스마트미러 패킷프레임으로 변환하고 외부로부터 수신되는 일련의 스마트미러 패킷 프레임을 각각 분석하여 일련의 단위크기로 이루어지는 해당 데이터 신호로 추출하는 스마트미러패킷프레임부(1100);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 인가되는 텍스트 데이터를 오디오의 스피치 데이터로 변환하여 출력하고 인가되는 오디오의 스피치 데이터를 텍스트 데이터로 변환하여 출력하는 티티에스와 에스티티부(1110);
    상기 스마트미러집중제어부(1010)의 해당 제어신호에 의하여 CDMA 방식과 와이파이 방식과 블루투스 방식과 TRS 방식의 통신기능부를 모두 동시에 구비하고 동시에 활성화 운영하며 각각의 통신기능부에 의한 통신경로로 동일한 내용의 통신신호를 동시에 송신과 수신하는 다중경로동시통신부(1120); 를 더 포함하는 스마트 미러 기반 얼굴 감성 표현 시스템.
  4. 스마트미러 단말장치와 스마트미러다중통신망과 스마트 빅데이터서버와 스마트미러폰부와 공개데이터서버를 포함하는 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법에 있어서,
    상기 스마트미러 단말장치에 의하여 스마트 미러 기반 얼굴 감성 표현 시스템을 운용하는 제어신호가 입력된 것으로 판단되면 적외선 레이더를 활성화시켜 사용자가 근접하는지를 감시하는 준비단계;
    상기 준비단계에서 사용자가 근접한 것으로 판단되면 가시광선으로 얼굴을 촬영하고 촬영된 이미지를 분광방식으로 분석하며 혈색을 판단하며 특징점 추출로 패턴을 분석하고 사용자를 확인하며 확인된 사용자의 지정된 호칭을 검색하고 혈색 분석에 의한 건상상태를 확인하며 지정된 해당 호칭과 함께 건강상태와 얼굴 표정에 의한 감성상태를 각각 음성급 신호로 출력하여 안내하는 감성확인단계;
    상기 감성확인단계에서 확인된 사용자가 지정한 분야의 정보와 지식, 일정을 음성급 신호로 출력하여 안내하고 분석된 얼굴 감성 표현 상태를 음성급 신호로 안내하며 빅데이터의 기계학습 대상에 의하여 과반수 이상이 선호하는 호감 얼굴 표정에 해당하는지를 판단하는 표정확인단계;
    상기 표정확인단계에서 과반수 이상이 선호하는 호감 얼굴 표정에 해당하지 않는 것으로 판단되면 표정관리 연습을 안내하고 안내에 의하여 연습된 얼굴 표정을 촬영과 특징점 추출과 패턴분석하고 빅데이터의 기계학습 대상에 의한 백분율로 표시하며 음성급 신호로 안내하고 이동중 표정감성 연습을 요청하는 것으로 판단되면 등록된 상기 스마트미러폰부에 접속하여 스마트미러폰루틴을 운용하도록 제어하고 종료로 진행하는 표정연습단계; 를 포함하는 스마트 미러 기반 얼굴 감성 표현 시스템 운용방법.
KR1020200072816A 2020-06-16 2020-06-16 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법 KR102263154B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200072816A KR102263154B1 (ko) 2020-06-16 2020-06-16 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200072816A KR102263154B1 (ko) 2020-06-16 2020-06-16 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법

Publications (1)

Publication Number Publication Date
KR102263154B1 true KR102263154B1 (ko) 2021-06-10

Family

ID=76377890

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200072816A KR102263154B1 (ko) 2020-06-16 2020-06-16 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법

Country Status (1)

Country Link
KR (1) KR102263154B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114141355A (zh) * 2021-10-25 2022-03-04 北京大学 一种智能鉴变镜
KR20230064346A (ko) 2021-11-03 2023-05-10 김인옥 복수의 동작 모드에서 동작되는 스마트 미러 장치
KR102551617B1 (ko) 2022-09-26 2023-07-06 주식회사 에스엠메이커스 무배경 인물 추출 재생 가능한 스마트 미러 시스템
KR20230139019A (ko) 2022-03-25 2023-10-05 배재대학교 산학협력단 딥 러닝 기반 작업자 개인보호구 착용 및 얼굴 신원 확인 시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101510798B1 (ko) 2008-12-10 2015-04-10 광주과학기술원 휴대용 얼굴 표정 연습 장치와 그 방법.
KR20170142008A (ko) 2016-06-16 2017-12-27 주식회사 케이지에프 탄소섬유 플랫얀 직기의 위사 위입장치
KR20180033754A (ko) * 2016-09-26 2018-04-04 블렌드팩 주식회사 스마트 미러를 이용하여 사용자의 감정에 따른 맞춤형 테라피를 제공하는 시스템
KR20190057537A (ko) * 2017-11-20 2019-05-29 주식회사 코리아리딩그룹 오디션 기능이 포함된 연기연습 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101510798B1 (ko) 2008-12-10 2015-04-10 광주과학기술원 휴대용 얼굴 표정 연습 장치와 그 방법.
KR20170142008A (ko) 2016-06-16 2017-12-27 주식회사 케이지에프 탄소섬유 플랫얀 직기의 위사 위입장치
KR20180033754A (ko) * 2016-09-26 2018-04-04 블렌드팩 주식회사 스마트 미러를 이용하여 사용자의 감정에 따른 맞춤형 테라피를 제공하는 시스템
KR20190057537A (ko) * 2017-11-20 2019-05-29 주식회사 코리아리딩그룹 오디션 기능이 포함된 연기연습 시스템

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114141355A (zh) * 2021-10-25 2022-03-04 北京大学 一种智能鉴变镜
KR20230064346A (ko) 2021-11-03 2023-05-10 김인옥 복수의 동작 모드에서 동작되는 스마트 미러 장치
KR20230139019A (ko) 2022-03-25 2023-10-05 배재대학교 산학협력단 딥 러닝 기반 작업자 개인보호구 착용 및 얼굴 신원 확인 시스템
KR102551617B1 (ko) 2022-09-26 2023-07-06 주식회사 에스엠메이커스 무배경 인물 추출 재생 가능한 스마트 미러 시스템

Similar Documents

Publication Publication Date Title
KR102263154B1 (ko) 스마트 미러 기반 얼굴 감성 표현 시스템 및 그 운용방법
US11580983B2 (en) Sign language information processing method and apparatus, electronic device and readable storage medium
JP6574937B2 (ja) 通信システム、制御方法、および記憶媒体
CN106024009B (zh) 音频处理方法及装置
TWI482108B (zh) To bring virtual social networks into real-life social systems and methods
US10325144B2 (en) Wearable apparatus and information processing method and device thereof
US20130215214A1 (en) System and method for managing avatarsaddressing a remote participant in a video conference
WO2021047069A1 (zh) 人脸识别方法和电子终端设备
CN109257498B (zh) 一种声音处理方法及移动终端
US20160277707A1 (en) Message transmission system, message transmission method, and program for wearable terminal
WO2016136104A1 (ja) 情報処理装置、情報処理方法及びプログラム
CN108833991A (zh) 视频字幕显示方法及装置
US20020197967A1 (en) Communication system with system components for ascertaining the authorship of a communication contribution
US20210368279A1 (en) Smart hearing assistance in monitored property
CN108763475B (zh) 一种录制方法、录制装置及终端设备
CN110188364B (zh) 基于智能眼镜的翻译方法、设备及计算机可读存储介质
KR100868638B1 (ko) 영상 통화 말풍선 제공 시스템 및 방법
CN109165285A (zh) 处理多媒体数据的方法、装置及存储介质
JP7206741B2 (ja) 健康状態判定システム、健康状態判定装置、サーバ、健康状態判定方法、及びプログラム
KR100664109B1 (ko) 휴대단말기 및 휴대단말기의 대기화면과 벨신호 설정 및 출력 방법
CN115376517A (zh) 一种会议场景下的说话内容的显示方法和装置
CN114764690A (zh) 一种智能进行会议纪要的方法、装置和系统
KR102457953B1 (ko) 인터랙티브 사진 서비스 방법
CN109559760B (zh) 一种基于语音信息的情感分析方法及系统
KR20130112581A (ko) 스마트 기기를 이용한 목소리 트레이닝 서비스 제공 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant