KR102560158B1 - 카메라 연동 거울 시스템 - Google Patents

카메라 연동 거울 시스템 Download PDF

Info

Publication number
KR102560158B1
KR102560158B1 KR1020220092794A KR20220092794A KR102560158B1 KR 102560158 B1 KR102560158 B1 KR 102560158B1 KR 1020220092794 A KR1020220092794 A KR 1020220092794A KR 20220092794 A KR20220092794 A KR 20220092794A KR 102560158 B1 KR102560158 B1 KR 102560158B1
Authority
KR
South Korea
Prior art keywords
unit
image
user
camera
mirror
Prior art date
Application number
KR1020220092794A
Other languages
English (en)
Inventor
장덕진
박정수
장현우
Original Assignee
헬로칠드런 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 헬로칠드런 주식회사 filed Critical 헬로칠드런 주식회사
Priority to KR1020220092794A priority Critical patent/KR102560158B1/ko
Application granted granted Critical
Publication of KR102560158B1 publication Critical patent/KR102560158B1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Studio Devices (AREA)

Abstract

본 발명은 카메라 연동 거울 시스템에 관한 것으로, 빛을 반사시켜 대향하는 피사체의 형상을 비추는 전면에 구비된 미러부; 상기 미러부와 연동하여 설치되고 피사체의 형상을 촬영하는 카메라부; 상기 미러부의 후방에 설치되어 상기 카메라부를 통해 피사체의 영상을 표출하는 디스플레이부; 상기 카메라부에서 얻어진 영상 데이터를 저장하고, 이전에 저장된 영상 데이터베이스 정보와 비교함으로써 안면을 인식하여 사용자를 판독하면 사용자별로 설정된 이미지 조건에 따라 디스플레이부에서 사용자의 안면 크기 또는 전체 화면 대비 안면 비율이 일정하게 줌업 유지된 영상 데이터를 출력하는 서버 시스템; 상기 서버 시스템을 제어하기 위하여 연결되는 서버 시스템 제어부; 상기 피사체와 미러부의 간격을 측정하여 측정 데이터를 서버 시스템으로 전송하는 거리 센서; 및 상기 사용자의 음성을 감지하여 서버 시스템으로 전송하는 음성 센서를 포함한다.

Description

카메라 연동 거울 시스템{Mirror system linked to camera}
본 발명은 카메라 연동 거울 시스템에 관한 것으로, 더욱 상세하게는 카메라가 연동된 거울 장치를 통해 안면인식과 음성인식 기술을 기반으로 카메라를 제어하며 줌 기능과 증강현실을 구현하는 거울 장치에 관한 것으로 보다 상세하게는 거울로부터 피사체를 인식하여 특정하고 이후 특정된 피사체를 기준으로 음성으로 줌 기능을 실행하거나 특정된 피사체에 가상의 이미지를 구현하며 사용자가 원하는 형태의 모습을 거울 장치를 통해 표현이 가능한 카메라 연동 거울 시스템에 관한 것이다.
거울은 인류의 오랜 역사와 함께 해 온 문명의 산물로서, 눈으로 세상의 모든 사물을 볼 수 있으나 거울이 없었다면 객관적으로 보여지는 자신의 모습을 직접 볼 수 없었을 것이다.
최근 일반적인 거울에 카메라를 결합하여 모니터와 같은 용도로 병행하거나 디스플레이가 가능한 형태로 활용하는 등 거울 본연의 기능과 함께 다양한 분야에서 스마트 미러의 제품이 출시되고 있다.
스마트 미러를 통해 자신의 모습을 관찰하면서 인터넷을 통한 정보를 동시에 제공하거나 거울 표면과의 일정 거리에서 사람의 발열상태를 체크하는 등 단순한 거울의 기능을 한 단계 넘어서는 등 다양한 시도가 다방면에서 이루어지고 있는 것이 현실이다.
종래 기술에서 국내공개특허 제2010-0128822호에 의하면, 상품을 착용한 사람에 대한 최소한 전후좌우 영상을 획득하기 위한 카메라 모듈 및 상기 카메라 모듈과 함께 조립되어 결합되고, 상기 카메라 모듈로부터의 상기 영상을 처리하여 저장하고, 상기 저장된 영상의 확인 시에 다중 분할 화면에 대한 영상 신호를 생성하여 출력하는 콘트롤러 모듈을 포함하고, 영상 신호를 디스플레이 장치로 출력하여 전후좌우 모습을 상기 디스플레이 장치를 통해 분할된 화면으로 확인하는 전자 거울이 개시되어 있다.
그러나, 종래의 기술에 의하면 카메라를 이용하여 거울이 아닌 별도의 모니터를 구비한 상태에서 자신의 뒷모습 또는 다른 각도에서 자신의 모습을 비춰볼 수 있으나 거울과는 별도의 장치가 필요하게 되는 문제점이 있다.
또한, 종래 기술에 의하면 리모콘의 키 조작에 따라 카메라 모듈로부터의 영상을 저장하거나 저장된 영상들의 확인을 위한 처리를 수행할 수 있으므로 사용자의 편의성에 있어서 문제점이 있었다.
한편, 미용실이나 피팅룸에서 자신의 얼굴이나 신체 일부가 거울과의 거리가 멀어짐에 따라서 작아지게 되어 일정한 위치에서 사용하는 경우에는 거울을 사용할 때 불편함을 초래하게 된다.
따라서, 종래 거울에서 사용자의 위치에 관계없이 안면부나 신체 특정 부위가 항상 확대된 상태로 이용하기 어려우며 항상 거울 앞으로 이동하여야 하는 문제가 있었다.
국내특허공개 제2010-0128822호
본 발명은 전술한 바와 같은 종래의 문제점을 해결하고자 안출된 것으로서, 본 발명의 목적은 카메라가 연동되어 디스플레이가 가능한 모니터와 거울을 결합하고 안면인식과 음성인식을 활용하여 직접 확인하지 못하는 사각의 모습이나 객관적인 시각적 관점을 병행 또는 교차 표출할 수 있게 할 뿐만 아니라 피사체를 인식하고 이후 특정된 피사체를 기준으로 음성으로 확대 줌 기능을 실행하거나 특정된 피사체에 가상의 이미지를 구현하여 사용자가 원하는 형태의 모습을 표현이 가능하도록 하는 카메라 연동 거울 시스템을 제공하기 위한 것이다.
본 발명에 따른 카메라 연동 거울 시스템은, 빛을 반사시켜 대향하는 피사체의 형상을 비추는 전면에 구비된 미러부; 상기 미러부와 연동하여 설치되고 피사체의 형상을 촬영하는 카메라부; 상기 미러부의 후방에 설치되어 상기 카메라부를 통해 피사체의 영상을 표출하는 디스플레이부; 상기 카메라부에서 얻어진 영상 데이터를 저장하고, 이전에 저장된 영상 데이터베이스 정보와 비교함으로써 안면을 인식하여 사용자를 판독하면 사용자별로 설정된 이미지 조건에 따라 디스플레이부에서 사용자의 안면 크기 또는 전체 화면 대비 안면 비율이 일정하게 줌업 유지된 영상 데이터를 출력하는 서버 시스템; 상기 서버 시스템을 제어하기 위하여 연결되는 서버 시스템 제어부; 상기 피사체와 미러부의 간격을 측정하여 측정 데이터를 서버 시스템으로 전송하는 거리 센서; 및 상기 사용자의 음성을 감지하여 서버 시스템으로 전송하는 음성 센서를 포함하는 것을 특징으로 하는 것이다.
또한, 본 발명에 따른 카메라 연동 거울 시스템에 있어서, 상기 서버 시스템은 카메라부에서 얻어진 영상 데이터를 저장하는 영상 정보 데이터베이스; 카메라부에서 입력되는 피사체의 안면 화상에 대하여 이전에 저장된 안면 영상 데이터베이스 정보와 비교함으로써 안면을 인식하여 특정 사용자를 판독하는 안면화상 인식부; 사용자의 안면 크기 또는 전체 화면 대비 안면 비율을 줌업 유지 처리하여 안면 영상을 출력하는 출력 영상 처리부; 서버 시스템을 동작시키는 명령어에 대응되는 단어 정보가 저장된 음성 정보 데이터베이스; 및 음성 인식 센서로부터 입력된 음성을 감지하여 서버 시스템에 대한 동작 명령을 판단하는 음성 인식부를 포함하는 것을 특징으로 하는 것이다.
또한, 본 발명에 따른 카메라 연동 거울 시스템에 있어서, 상기 출력 영상 처리부는, 디스플레이부에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율을 설정하거나 사용자의 명령이 입력됨에 따라서 출력되는 화상 데이터의 속성을 지정하는 출력화상 설정부; 및 디스플레이부에서 출력되는 특정 사용자의 안면 크기가 피사체의 거리에 관계없이 일정하게 자동으로 줌업되도록 영상 정보 데이터베이스부에서 제공되는 안면 화상 데이터를 기준으로 안면 크기를 계산하는 화상 비교계산부를 포함하는 것을 특징으로 하는 것이다.
또한, 본 발명에 따른 카메라 연동 거울 시스템에 있어서, 화상 비교계산부는 디스플레이부에서 출력되는 특정 사용자의 안면 크기가 피사체의 거리에 관계없이 일정하게 자동으로 줌업되도록 영상 정보 데이터베이스부에서 제공되는 안면 화상 데이터를 기준으로 전체 화면 대비 안면부 면적의 특정 비율을 계산하는 안면비율 계산부를 포함하는 것을 특징으로 하는 것이다.
또한, 본 발명에 따른 카메라 연동 거울 시스템에 있어서, 음성 인식부는 서버 시스템으로 입력된 음성을 감지하여 서버 시스템을 동작시키는 명령어가 입력되었는지를 음성 정보 데이터베이스에서 검색하는 단어 검색부; 및 서버 시스템을 동작시키는 명령어에 대응되는 단어를 음성 정보 데이터베이스에서 선택하여 서버 시스템 동작 명령으로 판단하는 단어 선택부를 포함하는 것을 특징으로 하는 것이다.
또한, 본 발명에 따른 카메라 연동 거울 시스템에 있어서, 상기 출력 영상 처리부는 디스플레이부에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율에 따라 줌 영상 화면을 생성하는 줌영상 생성부; 및 사용자별로 설정된 이미지 조건이나 사용자의 음성 명령 입력에 따라 디스플레이부에서 출력되는 영상에 증강 현실 효과를 구현하는 증강현실 생성부를 포함하는 것을 특징으로 하는 것이다.
또한, 본 발명에 따른 카메라 연동 거울 시스템에 있어서, 상기 디스플레이부는 서버시스템의 제어에 따라 피사체의 영상 또는 사용자의 영상을 표출하는 영상 출력부; 디스플레이부에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율에 따라 생성된 줌 영상 정보에 따라 상기 영상 출력부의 영상을 줌업 처리하는 줌업 출력부; 및 사용자별로 설정된 이미지 조건이나 사용자의 음성 명령 입력에 따라서 증강 현실 효과를 디스플레이부에서 출력하는 증강현실 출력부를 포함하는 것을 특징으로 하는 것이다.
본 발명에 의하면, 피사체를 인식하고 이후 특정된 사용자를 기준으로 음성으로 확대 줌 기능을 실행하거나 특정된 사용자에 가상의 이미지를 구현하여 사용자가 원하는 형태의 모습을 표현하는 것이 가능하고 음성명령으로 거울의 사용 편의성과 활용성을 제고하는 효과가 있다.
또한, 본 발명에 의하면 거울에 비춰지는 피사체를 인식하여 사용자가 특정되면 사용자만을 위한 미러 서비스를 제공하는 것으로서 미용이나 패션산업에 있어 활용성을 높이고 나아가 다양한 정보 제공이 가능한 광고 산업 전반에 활용이 가능하다.
도1은 본 발명의 일실시예에 따른 카메라 연동 거울 시스템의 개략도이다.
도2는 본 발명의 실시예에 따른 카메라 연동 거울 시스템에서 서버 시스템의 상세 구성도이다.
도3은 본 발명의 실시예에 따른 카메라 연동 거울 시스템에서 서버 시스템의 추가 구성도이다.
도4는 본 발명의 실시예에 따른 카메라 연동 거울 시스템의 동작상태도이다.
도5는 본 발명의 다른 실시예에 따른 카메라 연동 거울 시스템의 구성 개략도이다.
도6은 본 발명의 일 실시예에 따른 카메라 연동 거울 시스템의 사용 상태도이다.
도7은 본 발명의 또 다른 실시예에 따른 카메라 연동 거울 시스템의 사용 상태도이다.
이하, 첨부된 도면을 참조하면서 본 발명의 실시예에 따른 카메라 연동 거울 시스템에 대해 상세히 설명하기로 한다.
도1은 본 발명의 일실시예에 따른 카메라 연동 거울 시스템의 개략도이다.
도1을 참조하면, 본 발명에 따른 카메라 연동 거울 시스템은 미러부(50), 디스플레이부(100), 카메라부(200), 서버 시스템(300), 시스템 제어부(400)를 포함하고, 미러부(50)의 하부 소정 위치에는 거리 센서(110)와 음성 센서(120)를 포함한다.
상기 미러부(50)는 빛을 반사시켜 대향하는 피사체(10)의 형상을 비추는 전면에 구비된다.
카메라부(200)는 상기 미러부(50)와 연동하여 설치되고 피사체(10)의 형상을 촬영하는 것이다.
카메라부(200)는 피사체(10)를 촬영하여 얻어지는 정지영상 또는 동영상 등의 화상 데이터를 처리하는 하나 또는 복수의 카메라로 구비될 수 있다.
상기 카메라부(200)의 위치는 디스플레이부(100)의 상부 또는 그 부근에 위치할 수 있으며, 카메라부(200)는 복수의 카메라로 구성되어 피사체(10)의 후방에 위치될 수 있으나 카메라부(200)의 설치 위치는 이에 한정되는 것은 아니다.
디스플레이부(100)는 상기 미러부(50)의 후방에 설치되어 상기 카메라부(200)를 통해 피사체(10)의 영상을 표출하는 것이다.
디스플레이부(100)는 카메라부(200) 사용자를 특정하고 인식하는 순간부터 카메라부(200)로 입력되는 영상 또는 사진을 표출하게 되고 사용자의 음성명령에 따라 카메라의 줌 기능과 증강현실 등을 구현하게 된다.
디스플레이부(100)는 액정 디스플레이(LCD), 박막 트랜지스터 액정디스플레이(TFT LCD), 유기 발광 다이오드(OLED), 플렉서블 디스플레이, 3차원 디스플레이, 전자잉크 디스플레이 중에서 적어도 하나를 포함할 수 있다.
상기 디스플레이부(100)는 서버 시스템(300)에서 처리되는 영상 데이터를 표시하고, 영상 데이터 처리는 줌업, 증강현실(AR) 구현을 포함할 수 있다.
서버 시스템(300)은 상기 카메라부(200)에서 얻어진 영상 데이터를 저장하고, 이전에 저장된 영상 데이터베이스 정보와 비교함으로써 안면을 인식하여 사용자를 판독하면 사용자별로 설정된 이미지 조건에 따라 디스플레이부(100)에서 사용자의 안면 크기 또는 전체 화면 대비 안면 비율이 일정하게 줌업 유지된 영상 데이터를 출력한다.
또한, 상기 서버 시스템(300)을 제어하기 위하여 시스템 제어부(400)가 상기 서버 시스템(300)에 연결된다.
상기 시스템 제어부(400)는 PC, 워크 스테이션 또는 감시 가능한 디바이스 장치를 포함할 수 있다.
또한, 상기 피사체(10)와 미러부(50)의 간격을 측정하여 측정 데이터를 서버 시스템(300)으로 전송하는 거리 센서가 미러부(50)의 하부 소정 위치에 포함된다.
상기 거리 센서(110)는 피사체(10)가 미러부(50)에서 멀어지는 영상을 카메라부(200)와 촬영하는 경우와 미러부(50)에 가까이 다가오는 경우에 있어서, 서버 시스템(300)의 연산 처리를 통하여 디스플레이부(100)에서 사용자의 안면 크기 또는 전체 화면 대비 안면 비율이 일정하게 줌업 유지된 영상 데이터를 출력하도록 하는 것이다.
상기 거리 센서(110)로부터 서버 시스템(300)으로 입력되는 거리 측정 데이터는 줌업 기능을 위한 연산 처리에 대한 입력 변수가 되어 안면 비율을 특정한 값으로 출력되도록 계산되는 데 이용된다.
또한, 사용자가 원하는 영상 출력 제어를 위하여 서버 시스템(300)을 음성으로 제어할 수 있도록 사용자의 음성을 감지하여 서버 시스템(300)으로 전송하는 음성 센서(120)가 미러부(50)의 하부 소정 위치에 포함된다.
도2는 본 발명의 실시예에 따른 카메라 연동 거울 시스템에서 서버 시스템의 상세 구성도를 나타낸다.
도2를 참조하면, 상기 서버 시스템(300)은 영상 정보 데이터베이스(310), 안면화상 인식부(320), 출력 영상 처리부(330), 음성 정보 데이터베이스(340), 음성 인식부(350)를 포함한다.
영상 정보 데이터베이스(310)는 카메라부(200)에서 얻어진 영상 데이터를 저장하는 것으로서, 이전에 저장된 영상 데이터베이스 정보는 이후에 카메라부(200)에 입력되는 영상 데이터와 비교하여 사용자를 인식하는 데 이용된다.
안면화상 인식부(320)는 카메라부(200)에서 입력되는 피사체(10)의 안면 화상에 대하여 이전에 저장된 안면 영상 데이터베이스 정보와 비교함으로써 안면을 인식하여 특정 사용자를 판독하게 된다.
안면 인식의 방법은 예를들면 머신러닝 또는 인공지능 모델을 사용하는 것이나 이에 한정되지 않는 것으로서, 이전에 저장된 영상 데이터베이스 정보로부터 안면을 인식하고 상기 안면 특징 정보를 생성할 수 있으며, 생성된 안면 특징 정보는 이후에 카메라부(200)에 입력되는 특정 사용자의 안면 영상 데이터와 비교하여 사용자를 인식하게 된다.
상기 안면 특징 정보는 사용자의 안면의 입체적 깊이, 색상, 크기, 형태 등 물리적인 특징을 포함할 수 있으나, 이에 한정되지 않는다.
출력 영상 처리부(330)는 사용자의 안면 크기 또는 디스플레이부(100)의 전체 화면 대비 특정 안면 비율에 따라 줌업 유지 처리하여 안면 영상을 출력하게 된다.
음성 정보 데이터베이스(340)는 사용자가 음성으로 서버 시스템(300)을 제어할 수 있도록 하기 위한 것으로서, 사용자의 음성을 감지하여 서버 시스템을 동작시키는 명령어에 대응되는 단어 정보가 저장된다.
그리고, 음성 인식부(350)는 음성 정보 데이터베이스(340)와 연동하여 음성 인식 센서(120)로부터 입력된 음성을 감지하여 서버 시스템(300)에 대한 동작 명령을 판단하는 것이다.
도3은 본 발명의 실시예에 따른 카메라 연동 거울 시스템에서 서버 시스템의 추가 구성도이다.
도3을 참조하면, 도2에 도시된 서버 시스템의 상세 구성도에서 출력 영상 처리부(330)는 다시 출력화상 설정부(331), 화상 비교계산부(332)를 포함한다.
출력화상 설정부(331)는 디스플레이부(100)에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율을 설정하거나 사용자의 명령이 입력됨에 따라서 출력되는 화상 데이터의 속성을 지정할 수 있다.
또한, 화상 비교계산부(332)는 디스플레이부(100)에서 출력되는 특정 사용자의 안면 크기, 또는 전체 화면 대비 안면 비율이 피사체(50)의 거리에 관계없이 일정하게 자동으로 줌업되도록 영상 정보 데이터베이스(310)에서 제공되는 안면 화상 데이터의 안면 특징 정보를 기준으로 안면 크기를 계산하게 된다.
도4는 본 발명의 실시예에 따른 카메라 연동 거울 시스템의 동작상태도이다.
음성 인식부(350)가 음성 정보 데이터베이스(340)와 연동하여 음성 인식 센서(120)로부터 입력된 음성을 감지하여 서버 시스템(300)에 대한 동작 명령을 판단하기 위하여, 음성 인식부(350)는 단어 검색부(351)와 단어선택부(352)를 포함한다.
단어 검색부(351)는 음성 인식 센서(120)로부터 서버 시스템(300)으로 입력된 음성을 감지하여 서버 시스템(300)을 동작시키는 명령어가 입력되었는지를 음성 정보 데이터베이스(340)에서 검색하는 것이다.
이때, 단어 선택부(352)는 서버 시스템(300)을 동작시키는 명령어에 대응되는 단어를 음성 정보 데이터베이스(340)에서 선택하거나 가장 가까운 단어로 명령어를 결정하여 서버 시스템 동작 명령으로 판단하는 것이다.
또한, 화상 비교계산부(332)는 디스플레이부(100)에서 출력되는 특정 사용자의 안면 크기가 피사체(50)의 거리에 관계없이 일정하게 자동으로 줌업되도록 영상 정보 데이터베이스(310)에서 제공되는 안면 화상 데이터를 기준으로 전체 화면 대비 안면부 면적의 특정 비율을 계산하는 안면비율 계산부(333)를 포함할 수 있다.
한편, 도4를 참조하면, 상기 출력 영상 처리부(330)는 줌영상 생성부(334)와 증강현실 생성부(335)를 포함할 수 있다.
상기 줌영상 생성부(334)는 디스플레이부(100)에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율에 따라 줌 영상 화면을 생성한다.
상기 증강현실 생성부(335)는 사용자별로 설정된 이미지 조건이나 사용자의 음성 명령 입력에 따라 디스플레이부(100)에서 출력되는 영상에 증강 현실(Augumented Reality) 효과를 구현할 수 있다.
또한, 도4의 실시예에서 상기 디스플레이부(100)는 영상 출력부(101), 줌업출력부(102), 증강현실 출력부(103)를 포함한다.
상기 영상 출력부(101)는 서버시스템(300)의 제어에 따라 피사체(10)의 영상 또는 사용자의 영상을 표출하는 것이다.
상기 줌업출력부(102)는 디스플레이부(100)에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율에 따라 생성된 줌 영상 정보에 따라 상기 영상 출력부(101)의 영상을 줌업 처리하게 된다.
또한, 상기 증강현실 출력부(103)는 사용자별로 설정된 이미지 조건이나 사용자의 음성 명령 입력에 따라서 증강 현실 효과를 디스플레이부(100) 화면에서 출력하여 구현한다.
도5는 본 발명의 다른 실시예에 따른 카메라 연동 거울 시스템에 의하여 구현된 스마트 미러의 구성 개략도이다.
도5의 실시예를 참조하면, 평상시 일반적인 거울의 기능을 하는 미러부와 사용자의 필요에 따라 카메라를 통해 촬영되는 영상을 거울 표면으로 표출하는 디스플레이패널, 상기 스마트 미러와 직/간접의 방식으로 연동되는 카메라부, 상기 스마트 미러부의 영상과 카메라부를 통해 촬영되는 영상 정보를 중계하고 얻어진 영상 정보를 저장하는 DVR를 포함하는 서버 시스템과 저장 또는 촬영된 영상이나 사진을 디스플레이패널을 통해 표출하고 제어하기 위하여 서버시스템을 제어하기 위한 제어 PC, 상기 각 구성 요소의 신호를 송/수신하는 통신부를 포함하여 구성될 수 있다.
상기 통신부는 유선통신 모듈은 물론 블루투스 모듈, Wi-Fi 모듈 및 이동 통신 모듈을 포함할 수 있다.
또한, 디스플레이패널에는 줌 영상 출력과 증강현실 영상을 출력하기 위한 영상 출력부와 효과 출력부를 포함할 수 있다.
도6은 본 발명의 일 실시예에 따른 따른 카메라 연동 거울 시스템의 사용 상태도이다.
도6을 참조하면 스마트 미러의 경우 일반적인 거울의 기능 외에 카메라로부터 입력되는 영상이나 사진을 거울 표면으로 표현할 수 있는 기능을 포함하고 있으며 이는 유선 또는 무선의 방식으로 카메라의 영상 등을 수신 하여 표출가능하다.
도7은 본 발명의 또 다른 실시예에 따른 카메라 연동 거울 시스템의 사용 상태도이다.
도7을 참조하면 복수의 카메라에 대해 고정형의 카메라를 통해 줌 기능을 구현하거나 초소형의 카메라의 형태로 사용자 또는 보조자가 직접 조정하는 방식으로 줌 기능의 효과를 구현하는 것도 가능한 것이다.
이상에서 본 발명은 기재된 구체적인 실시예에 대해서만 상세히 설명되었지만 본 발명의 기술사상 범위 내에서 다양한 변형 및 수정이 가능함은 당업자에게 있어서 명백한 것이며, 이러한 변형 및 수정이 첨부된 특허청구범위에 속함은 당연한 것이다.
10 : 피사체 50 : 미러부
100 : 디스플레이부 101 : 영상출력부
102 : 줌업출력부 103 : 증강현실 출력부
110 : 음성센서 120 : 거리센서
200 : 카메라부 300 : 서버 시스템
310 : 영상 정보 데이터베이스 320 : 안면화상 인식부
330 : 출력 영상 처리부 331 : 출력화상 설정부
332 : 화상비교 계산부 333 : 안면비율 계산부
334 : 줌영상 생성부 335 : 증강현실 생성부
340 : 음성정보 데이터베이스 350 : 음성 인식부
351 : 단어 검색부 352 : 단어 선택부
400 : 시스템 제어부

Claims (7)

  1. 빛을 반사시켜 대향하는 피사체의 형상을 비추는 전면에 구비된 미러부;
    상기 미러부와 연동하여 설치되고 피사체의 형상을 촬영하는 카메라부;
    상기 미러부의 후방에 설치되어 상기 카메라부를 통해 피사체의 영상을 표출하는 디스플레이부;
    상기 카메라부에서 얻어진 영상 데이터를 저장하고, 이전에 저장된 영상 데이터베이스 정보와 비교함으로써 안면을 인식하여 사용자를 판독하면 사용자별로 설정된 이미지 조건에 따라 디스플레이부에서 사용자의 안면 크기 또는 전체 화면 대비 안면 비율이 일정하게 줌업 유지된 영상 데이터를 출력하는 서버 시스템;
    상기 서버 시스템을 제어하기 위하여 연결되는 시스템 제어부;
    상기 피사체와 미러부의 간격을 측정하여 측정 데이터를 서버 시스템으로 전송하는 거리 센서; 및
    상기 사용자의 음성을 감지하여 서버 시스템으로 전송하는 음성 센서를 포함하고,
    상기 디스플레이부는,
    서버시스템의 제어에 따라 피사체의 영상 또는 사용자의 영상을 표출하는 영상 출력부;
    디스플레이부에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율에 따라 생성된 줌 영상 정보에 따라 상기 영상 출력부의 영상을 줌업 처리하는 줌업 출력부; 및
    사용자별로 설정된 이미지 조건이나 사용자의 음성 명령 입력에 따라서 증강 현실 효과를 디스플레이부에서 출력하는 증강현실 출력부를 포함하는 것을 특징으로 하는 카메라 연동 거울 시스템.
  2. 제 1 항에 있어서,
    상기 서버 시스템은,
    카메라부에서 얻어진 영상 데이터를 저장하는 영상 정보 데이터베이스;
    카메라부에서 입력되는 피사체의 안면 화상에 대하여 이전에 저장된 안면 영상 데이터베이스 정보와 비교함으로써 안면을 인식하여 특정 사용자를 판독하는 안면화상 인식부;
    사용자의 안면 크기 또는 전체 화면 대비 특정한 안면 비율에 따라 줌업 유지 처리하여 안면 영상을 출력하는 출력 영상 처리부;
    서버 시스템을 동작시키는 명령어에 대응되는 단어 정보가 저장된 음성 정보 데이터베이스; 및
    음성 인식 센서로부터 입력된 음성을 감지하여 서버 시스템에 대한 동작 명령을 판단하는 음성 인식부를 포함하는 것을 특징으로 하는 카메라 연동 거울 시스템.
  3. 제 2 항에 있어서,
    상기 출력 영상 처리부는,
    디스플레이부에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율을 설정하거나 사용자의 명령이 입력됨에 따라서 출력되는 화상 데이터의 속성을 지정하는 출력화상 설정부; 및
    디스플레이부에서 출력되는 특정 사용자의 안면 크기가 피사체의 거리에 관계없이 일정하게 자동으로 줌업되도록 영상 정보 데이터베이스에서 제공되는 안면 화상 데이터를 기준으로 안면 크기를 계산하는 화상 비교계산부를 포함하는 것을 특징으로 하는 카메라 연동 거울 시스템.
  4. 제 3 항에 있어서,
    상기 화상 비교계산부는,
    디스플레이부에서 출력되는 특정 사용자의 안면 크기가 피사체의 거리에 관계없이 일정하게 자동으로 줌업되도록 영상 정보 데이터베이스에서 제공되는 안면 화상 데이터를 기준으로 전체 화면 대비 안면부 면적의 특정 비율을 계산하는 안면비율 계산부를 포함하는 것을 특징으로 하는 카메라 연동 거울 시스템.
  5. 제 2 항에 있어서,
    상기 음성 인식부는,
    서버 시스템으로 입력된 음성을 감지하여 서버 시스템을 동작시키는 명령어가 입력되었는지를 음성 정보 데이터베이스에서 검색하는 단어 검색부; 및
    서버 시스템을 동작시키는 명령어에 대응되는 단어를 음성 정보 데이터베이스에서 선택하여 서버 시스템 동작 명령으로 판단하는 단어 선택부를 포함하는 것을 특징으로 하는 카메라 연동 거울 시스템.
  6. 제 2 항에 있어서,
    상기 출력 영상 처리부는,
    디스플레이부에서 출력되는 특정 사용자의 안면 크기 또는 전체 화면 대비 안면 비율에 따라 줌 영상 화면을 생성하는 줌영상 생성부; 및
    사용자별로 설정된 이미지 조건이나 사용자의 음성 명령 입력에 따라 디스플레이부에서 출력되는 영상에 증강 현실 효과를 구현하는 증강현실 생성부를 포함하는 것을 특징으로 하는 카메라 연동 거울 시스템.
  7. 삭제
KR1020220092794A 2022-07-26 2022-07-26 카메라 연동 거울 시스템 KR102560158B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220092794A KR102560158B1 (ko) 2022-07-26 2022-07-26 카메라 연동 거울 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220092794A KR102560158B1 (ko) 2022-07-26 2022-07-26 카메라 연동 거울 시스템

Publications (1)

Publication Number Publication Date
KR102560158B1 true KR102560158B1 (ko) 2023-07-26

Family

ID=87427472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220092794A KR102560158B1 (ko) 2022-07-26 2022-07-26 카메라 연동 거울 시스템

Country Status (1)

Country Link
KR (1) KR102560158B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100128822A (ko) 2009-05-29 2010-12-08 한국산업기술대학교산학협력단 이미지 뷰어 시스템 기반의 전자 거울
KR20110001550A (ko) * 2009-06-30 2011-01-06 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101679417B1 (ko) * 2015-09-21 2016-11-25 국민대학교산학협력단 스마트거울장치 및 그 제어방법
KR102044348B1 (ko) * 2017-11-09 2019-11-13 (주)코아시아 증강현실을 이용한 가상 의류 피팅 미러 장치 시스템
JP2021153919A (ja) * 2020-03-27 2021-10-07 株式会社Lixil ディスプレイモニタ機能付きミラー

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100128822A (ko) 2009-05-29 2010-12-08 한국산업기술대학교산학협력단 이미지 뷰어 시스템 기반의 전자 거울
KR20110001550A (ko) * 2009-06-30 2011-01-06 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101679417B1 (ko) * 2015-09-21 2016-11-25 국민대학교산학협력단 스마트거울장치 및 그 제어방법
KR102044348B1 (ko) * 2017-11-09 2019-11-13 (주)코아시아 증강현실을 이용한 가상 의류 피팅 미러 장치 시스템
JP2021153919A (ja) * 2020-03-27 2021-10-07 株式会社Lixil ディスプレイモニタ機能付きミラー

Similar Documents

Publication Publication Date Title
US10788673B2 (en) User-based context sensitive hologram reaction
US11995774B2 (en) Augmented reality experiences using speech and text captions
US11557134B2 (en) Methods and systems for training an object detection algorithm using synthetic images
US9165381B2 (en) Augmented books in a mixed reality environment
US20150379770A1 (en) Digital action in response to object interaction
US9727132B2 (en) Multi-visor: managing applications in augmented reality environments
US12008970B2 (en) Display device and control method thereof
US11954268B2 (en) Augmented reality eyewear 3D painting
US11869156B2 (en) Augmented reality eyewear with speech bubbles and translation
US20170277259A1 (en) Eye tracking via transparent near eye lens
CN111541907B (zh) 物品显示方法、装置、设备及存储介质
US20190227694A1 (en) Device for providing augmented reality service, and method of operating the same
US20130326364A1 (en) Position relative hologram interactions
US10878285B2 (en) Methods and systems for shape based training for an object detection algorithm
JP2015023381A (ja) 透過型表示装置および透過型表示装置の制御方法
KR20190101827A (ko) 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법
KR102178566B1 (ko) 전자 거울 장치 및 그 제어 방법
KR102560158B1 (ko) 카메라 연동 거울 시스템
US20230004214A1 (en) Electronic apparatus and controlling method thereof
US20240288931A1 (en) Wearable terminal apparatus, program, display method, and virtual image distribution system
KR101720607B1 (ko) 영상 촬영 장치 및 그 동작 방법
KR102650349B1 (ko) Xr 디바이스 및 그 제어 방법
US20240096228A1 (en) Work support system and work support method
KR20220097727A (ko) 스마트 글라스에서의 물체 인식 제어 방법 및 시스템
KR20240030881A (ko) 가상 컨텐츠 출력 방법 및 이를 지원하는 전자장치

Legal Events

Date Code Title Description
GRNT Written decision to grant