KR101265957B1 - 안경 형태의 헤드셋 장치, 이를 포함하는 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법 - Google Patents

안경 형태의 헤드셋 장치, 이를 포함하는 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법 Download PDF

Info

Publication number
KR101265957B1
KR101265957B1 KR1020090088209A KR20090088209A KR101265957B1 KR 101265957 B1 KR101265957 B1 KR 101265957B1 KR 1020090088209 A KR1020090088209 A KR 1020090088209A KR 20090088209 A KR20090088209 A KR 20090088209A KR 101265957 B1 KR101265957 B1 KR 101265957B1
Authority
KR
South Korea
Prior art keywords
user
robot
headset device
unit
user authentication
Prior art date
Application number
KR1020090088209A
Other languages
English (en)
Other versions
KR20100065065A (ko
Inventor
이대하
김재홍
손주찬
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20100065065A publication Critical patent/KR20100065065A/ko
Application granted granted Critical
Publication of KR101265957B1 publication Critical patent/KR101265957B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • H04Q9/02Automatically-operated arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)

Abstract

안경 형태의 헤드셋 장치가 제공된다. 헤드셋 장치는, 사용자 인식부가 형성된 렌즈 및 사용자 인식부에 의한 사용자 인증 결과에 따라 외부로 다수의 적외선을 발산시키기 위한 발광부가 형성된 안경테를 포함한다.
헤드셋, 사용자 추종, 적외선 검출

Description

안경 형태의 헤드셋 장치, 이를 포함하는 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법{Glasses type headset apparatus, control system for robot including the same and control method for robot thereof}
본 실시예는 적외선을 이용한 로봇 제어 기술에 관한 것으로서, 보다 상세하게는 안경 형태의 헤드셋 장치를 이용한 로봇 제어 시스템 및 로봇 제어 방법에 관한 것이다.
본 발명은 지식경제부의 IT원천기술개발사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리번호: 2008-F-039-01, 과제명: 인간-로봇 상호작용 매개 기술 개발].
종래에는 단순히 로봇 기능이 표시된 리모트 컨트롤러 등을 이용하여 로봇의 위치, 행동 등을 제어하였다. 리모트 컨트롤러 방법은 로봇 제어에 관련된 기능들을 버튼 형태로 배치하여 사용자가 쉽게 로봇을 제어할 수 있게 하는 장점이 있다.
그러나, 리모트 컨트롤러를 이용한 로봇 제어 방법은 새로운 로봇 제어 동작에 대한 기능의 추가가 어렵고, 사람의 표현 방법(제스처, 영상, 음성)에 비해 직관적이지 않다는 단점이 있다.
최근 들어 영상 및 음성 인식 기술과 같은 사용자 맞춤형 인식 기술 등이 로봇 제어 방법으로 개발되었다. 영상/음성 인식 기술 중에서 대표적인 기술은 사용자의 얼굴을 검출 및 인식하여 사용자를 구별하고, 인식된 사용자의 음성을 구별하여 인식하는 기술이 있다.
그러나, 상술한 영상/음성 인식 기술을 이용한 로봇 제어 방법은 주위 환경으로부터 많은 영향을 받게 되는데, 예컨대, 영상 인식의 경우에는 주위 조명에 영향을 받게 되고, 음성 인식은 주위 소음에 영향을 받게 된다.
이러한 주위 환경의 영향은 로봇이 사용자를 인식하거나 또는 사용자의 음성 명령을 수행하는 것을 방해하며, 이는 사용자의 제어 명령에 로봇이 오동작을 수행하는 결과를 초래하게 된다.
본 발명이 해결하고자 하는 과제는, 주위 환경에 영향을 받지 않는 안경 형태의 헤드셋 장치를 제공하고자 하는데 있다.
본 발명이 해결하고자 하는 다른 과제는, 헤드셋 장치를 포함하는 로봇 제어 시스템을 제공하고자 하는데 있다.
본 발명이 해결하고자 하는 또 다른 과제는, 로봇 제어 시스템의 로봇 제어 방법을 제공하고자 하는데 있다.
상기 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 안경 형태의 헤드셋 장치는, 사용자 인식부가 형성된 렌즈 및 사용자 인식부에 의한 사용자 인증 결과에 따라 외부로 다수의 적외선을 발산시키기 위한 발광부가 형성된 안경테를 포함한다.
상기 다른 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 로봇 제어 시스템은, 사용자로부터 전송된 명령에 따라 제어되는 로봇 및 로봇의 제어 명령을 다수의 적외선으로 출력하기 위한 안경 형태의 헤드셋 장치를 포함한다.
상기 또 다른 기술적 과제를 해결하기 위한 본 발명의 일 실시예에 따른 로봇 제어 방법은, 사용자가 안경 형태의 헤드셋 장치를 착용한 후 전송한 사용자 인식 신호로부터 사용자 인증 동작을 수행하는 단계 및 사용자 인증 결과에 따라 헤드셋 장치로부터 출력된 다수의 적외선의 위치 변화를 검출하고, 검출 결과에 따른 위치 변화량만큼 로봇을 이동시키는 단계를 포함한다.
본 발명에 따른 안경 형태의 헤드셋 장치, 이를 포함하는 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법은, 주위 환경에 영향을 받지 않으면서 사용자가 직관적인 방법으로 로봇을 제어할 수 있는 효과가 있으며, 이에 따라 로봇의 오동작을 방지할 수 있다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시 예에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 실시 예를 예시하는 첨부도면 및 첨부도면에 기재된 내용을 참조하여야만 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일 실시예에 따른 안경 형태의 헤드셋 장치의 개략적인 도면이고, 도 2는 도 1에 도시된 헤드셋 장치를 포함하는 로봇 제어 시스템의 개략적인 블록도이다.
도 1 및 도 2를 참조하면, 헤드셋 장치(100)는 한 쌍의 안경 렌즈(20)와 안경 렌즈(20)를 둘러싸는 안경테(10)를 포함하는 안경 형태일 수 있다.
한 쌍의 안경 렌즈(20) 중에서 하나에는 사용자 인식부(110)가 위치할 수 있다. 사용자 인식부(110)는 제1 발광 다이오드(111) 및 촬상 모듈(113)을 포함할 수 있으며, 헤드셋 장치(100)를 착용한 사용자의 홍채를 인식할 수 있다.
예컨대, 헤드셋 장치(100)의 감지 센서(160)는 사용자의 헤드셋 장치(100) 착용을 감지하여 감지 신호(ES1), 예컨대 제1 인에이블(enable) 신호를 출력할 수 있다.
사용자 인식부(110)는 감지 신호(ES1)에 응답하여 인에이블 될 수 있다. 이때, 제1 발광 다이오드(111)는 사용자의 눈, 예컨대 홍채에 적외선을 투광시키고, 촬상 모듈(113)은 사용자의 홍채로부터 반사된 영상을 촬영하여 출력할 수 있다.
촬영된 영상은 사용자 인식 신호(UI)로써 외부, 예컨대 로봇(200)으로 전송될 수 있다. 촬상 모듈(113)은 CCD 또는 CMOS 이미지 픽업(pick-up) 장치일 수 있으나, 제한되지는 않는다.
한 쌍의 안경 렌즈(20) 중에서 다른 하나에는 디스플레이부(170)가 위치할 수 있다. 디스플레이부(170)는 로봇(200)으로부터 전송된 이미지 신호(IS), 예컨대 로봇(200)의 다수의 카메라들(미도시)로부터 전송된 주변 이미지 신호(IS)를 디스플레이할 수 있다.
한 쌍의 안경 렌즈(20)를 둘러싸며 안경 형태를 완성하는 안경테(10)에는 발광부(130) 및 통신 모듈(150)이 위치할 수 있다. 실시예에 따라 안경테(10)의 일부분이 사용자의 입 근처로 연장되고, 연장된 부분에 음성 입력부(120)가 위치할 수도 있다.
발광부(130)는 적어도 하나의 제2 발광 다이오드(131), 다수의 광섬유들(미도시) 및 다수의 렌즈들(133)을 포함할 수 있다.
제2 발광 다이오드(131)는 안경테(10)의 일 영역에 적어도 하나 위치할 수 있다. 본 실시예에서는 하나의 예로써 한 쌍의 안경 렌즈(20) 사이를 연결하는 안경테(10)에 하나의 제2 발광 다이오드(131)가 위치하는 예를 들어 설명하나, 본 발명은 이에 제한되지는 않으며, 제2 발광 다이오드(131)는 안경테(10)에 다수개 위치할 수도 있다.
제2 발광 다이오드(131)는 고휘도의 적외선(LS)을 발산할 수 있다. 실시예에 따라, 제2 발광 다이오드(131)는 가시 광선 영역 이외의 파장 영역을 가지는 광선, 예컨대 자외선 또는 적외선을 발산할 수도 있다.
다수의 광섬유들 각각은 제2 발광 다이오드(131)에 접속될 수 있으며, 안경테(10)의 내부에 위치할 수 있다. 다수의 광섬유들 각각은 제2 발광 다이오드(131) 로부터 발산되는 적외선(LS)을 안경테(10) 곳곳으로 전송할 수 있다.
다수의 렌즈들(133) 각각은 다수의 광섬유들 각각의 종단에 접속될 수 있다. 다수의 렌즈들(133) 각각은 안경테(10)의 외측으로 노출될 수 있으며, 제2 발광 다이오드(131)로부터 다수의 광섬유들 각각을 통해 전송된 적외선(LS)을 외부로 확산시켜 발산시킬 수 있다.
즉, 발광부(130)는 하나의 발광 다이오드(131)와 이에 접속된 다수의 광섬유들 및 다수의 렌즈들(133)을 구비함으로써 헤드셋 장치(100)가 소모하는 전력량을 줄이고, 안경테(10) 전체에서 다수의 적외선들(LS)이 발산되도록 할 수 있다.
다수의 광섬유들 각각의 종단에 접속된 다수의 렌즈들(133) 각각은 전송된 적외선(LS)을 확대/발산 시킬 수 있는 발산 렌즈일 수 있으나, 이에 제한되지는 않는다.
실시예에 따라 다수의 렌즈들(133)을 생략하고, 안경테(10)의 외측으로 다수의 광섬유들 각각의 끝단을 노출시켜 제2 발광 다이오드(131)로부터 전송된 적외선을 외부로 발산시킬 수도 있다.
통신 모듈(150)은 로봇(200)과 헤드셋 장치(100)의 데이터 통신을 중계하는 통신 인터페이스일 수 있다. 통신 모듈(150)은 유/무선 통신 프로토콜을 사용하는 인터페이스 일 수 있으며, 본 실시예에서는 블루투스(Bluetooth), 무선 랜, RF 등의 무선 통신 프로토콜을 사용하는 통신 인터페이스를 예로써 설명한다.
통신 모듈(150)은 사용자 인식부(110)로부터 출력된 사용자 인식 신호(UI)를 로봇(200)으로 전송하거나 또는 후술될 음성 입력부(120)로부터 출력된 사용자 음 성 명령(VS)을 로봇(200)으로 전송할 수 있다.
또한, 통신 모듈(150)은 로봇(200)으로부터 제2 인에이블 신호(ES2)와 이미지 신호(IS)를 전송받을 수 있다. 제2 인에이블 신호(ES2)는 음성 입력부(120) 및 발광부(130)로 전송되고, 이미지 신호(IS)는 디스플레이부(170)로 전송될 수 있다.
음성 입력부(120)는 사용자로부터 입력된 아날로그 음성 신호를 디지털 음성 신호, 즉 사용자 음성 명령(VS)으로 변환하고, 변환된 음성 명령(VS)을 통신 모듈(150)을 통해 로봇(200)으로 전송할 수 있다.
음성 입력부(120)는 마이크 등과 같은 사용자로부터 음성이 입력되는 장치와 사용자 음성을 디지털 신호로 변환하기 위한 코덱(codec), 예컨대 인코더(incoder)를 포함할 수 있다. 실시예에 따라 음성 입력부(120)에는 로봇(200)으로부터 전송된 디지털 음성 신호를 아날로그 음성 신호로 변환하기 위한 디코더(decoder)를 더 포함할 수도 있다.
로봇(200)은 사용자로부터 전송된 명령, 즉 사용자가 헤드셋 장치(100)를 이용하여 전송한 음성 또는 적외선 형태의 명령들에 기초하여 동작이 제어될 수 있다.
로봇(200)은 사용자로부터 전송된 명령을 분석하고, 이에 따른 동작을 수행하도록 제어하는 제어 시스템을 포함할 수 있다. 제어 시스템은 사용자 인증부(210), 음성 인식부(220), 검출부(230), 제어부(240) 및 통신부(250)를 포함할 수 있다.
사용자 인증부(210)는 헤드셋 장치(100)로부터 전송된 사용자 인식 신호(UI) 를 분석하여 사용자 인증 동작을 수행할 수 있다. 사용자 인증부(210)는 전송된 사용자 인식 신호(UI)와 기 저장된 사용자 등록 정보(UI')를 비교할 수 있으며, 비교 결과에 따라 제2 인에이블 신호(ES2)와 제3 인에이블 신호(ES3)를 출력할 수 있다.
제2 인에이블 신호(ES2)는 통신부(250)를 통해 헤드셋 장치(100)로 전송될 수 있고, 제3 인에이블 신호(ES3)는 내부의 장치들, 예컨대 음성 인식부(220), 검출부(230) 및 제어부(240)로 전송될 수 있다.
음성 인식부(220)는 헤드셋 장치(100)로부터 전송된 사용자 음성 명령(VS)을 인식하여 분석할 수 있으며, 분석 결과에 따라 검출부(230)를 제어할 수 있는 제1 제어 신호(CNT1)를 출력할 수 있다.
검출부(230)는 제1 제어 신호(CNT1)에 응답하여 헤드셋 장치(100)로부터 발산되는 적외선(LS)을 검출할 수 있다. 검출부(230)는 발산되는 적외선(LS)을 검출하여 다수의 적외선 포인트들(LP)을 출력할 수 있다. 검출부(230)는 로봇(200)에 부착된 하나 이상의 적외선 카메라일 수 있다.
제어부(240)는 검출된 다수의 적외선 포인트들(LP)의 위치 변화량에 따라 로봇(200)을 이동시킬 수 있는 제2 제어 신호(CNT2)를 출력할 수 있다. 예컨대, 제어부(240)는 초기 상태에서 검출된 다수의 적외선 포인트들(LP)의 위치와 사용자에 의해 위치 변화되어 검출된 다수의 적외선 포인트들(LP)을 비교하여 다수의 적외선 포인트들(LP)의 위치 변화량을 산출할 수 있다. 그리고, 산출된 위치 변화량만큼 로봇(200)을 이동하기 위한 제2 제어 신호(CNT2)를 출력할 수 있다. 여기서, 초기 상태란, 사용자가 헤드셋 장치(100)를 착용하여 사용자 인증이 끝난 직후 또는 사 용자로부터 아무런 음성 명령이 없는 상태를 의미할 수 있다.
본 발명에서는 하나의 실시예로써, 제어부(240)가 검출된 다수의 적외선 포인트들(LP)의 무게 중심점(CG)를 계산한 결과를 기초로 제2 제어 신호(CNT2)를 출력하는 방법에 대해 설명하나, 본 발명은 이에 제한되지는 않는다.
제어부(240)는 계산부(241), 비교부(243) 및 이동부(245)를 포함할 수 있다. 계산부(241)는 검출부(230)로부터 출력된 다수의 적외선 포인트들(LP)의 무게중심점(CG)을 계산할 수 있다. 비교부(243)는 계산된 무게중심점(CG)과 기 저장된 무게중심점(CG'), 예컨대 로봇(200)의 이전의 무게중심점을 비교하고, 비교 결과에 따라 무게중심점 변화량(△CG)을 출력할 수 있다. 이동부(245)는 무게중심점 변화량(△CG)에 기초하여 로봇(200)을 변화량(△CG)만큼 이동시키기 위한 제2 제어 신호(CNT2)를 출력할 수 있다. 로봇(200)은 이동부(245)로부터 출력된 제2 제어 신호(CNT2)에 응답하여 이동할 수 있다.
도 3은 도 2에 도시된 로봇 제어 시스템의 로봇 제어 방법에 대한 순서도이고, 도 4는 도 3에 도시된 사용자 인증 동작의 상세한 순서도이다. 본 실시예에서는 설명의 편의를 위하여 사용자로부터 추종 명령이 입력되는 예를 들어 설명한다. 그러나, 본 발명은 이에 제한되지는 않으며, 예컨대 로봇을 제어하기 위한 사용자의 다양한 명령들을 수행하는데 이용될 수도 있다.
도 2 및 도 3을 참조하면, 로봇 제어 시스템(300)은 사용자 인증 동작을 수행할 수 있다(S10). 사용자 인증 동작은 로봇(200)을 제어하기 위하여 헤드셋 장치(100)를 착용한 사용자가 인증된 사용자인지를 검사하는 동작으로써, 본 실시예 에서는 사용자의 홍채 인식을 통한 사용자 인증 동작을 수행하는 것을 예로써 설명한다.
도 2 및 도 4를 참조하면, 사용자 인증 동작(S10)은 두 부분으로 분류할 수 있다. 예컨대, 사용자 인증 동작(S10)은 헤드셋 장치(100)에서 수행되는 부분(S11) 및 로봇(200)에서 수행되는 부분(S15)으로 분류될 수 있다.
사용자가 헤드셋 장치(100)를 착용하면, 감지 센서(160)는 사용자의 착용을 감지하여 감지 신호(ES1)를 출력한다(S13).
사용자 인식부(110)는 감지 신호(ES1)에 응답하여 인에이블되고, 제1 발광 다이오드(111)는 사용자의 홍채에 적외선을 투광시킨다. 촬상 모듈(113)은 사용자의 홍채로부터 반사되는 적외선 영상을 촬영하고, 촬영 영상을 사용자 인식 신호(UI)로 출력한다. 사용자 인식 신호(UI)는 통신 모듈(150)을 통해 로봇(200)으로 전송될 수 있다(S14).
로봇(200)의 사용자 인증부(210)는 헤드셋 장치(100)로부터 전송된 사용자 인식 신호(UI)로부터 사용자를 인증하는 동작을 수행할 수 있다.
사용자 인증부(210)는 전송된 사용자 인식 신호(UI)와 로봇(200)에 이미 저장된 등록 사용자 정보(UI')를 비교할 수 있다(S17).
비교 결과, 전송된 사용자 인식 신호(UI)가 등록된 사용자이면(Yes), 사용자 인증부(210)는 제2 인에이블 신호(ES2)와 제3 인에이블 신호(ES3)를 출력할 수 있다(S19).
제2 인에이블 신호(ES2)는 로봇(200)의 통신부(250)를 통해 헤드셋 장 치(100)로 전송될 수 있다. 제2 인에이블 신호(ES2)는 헤드셋 장치(100)의 음성 입력부(120) 및 발광부(130)를 인에이블시켜 동작 대기 상태로 제어할 수 있다.
제3 인에이블 신호(ES3)는 로봇(200) 내부의 음성 인식부(220), 검출부(230) 및 제어부(240)로 전송될 수 있다. 각각의 장치는 제3 인에이블 신호(ES3)에 의해 인에이블되어 동작 대기 상태가 될 수 있다.
그러나, 전송된 사용자 인식 신호(UI)가 등록된 사용자가 아니면(No), 사용자 인증부(210)는 통신부(250)를 통해 사용자 인식 신호(UI)의 재전송을 요청할 수 있으며, 헤드셋 장치(100)의 사용자 인식부(110)는 상기 요청에 응답하여 사용자의 홍채를 재촬영한 영상을 사용자 인식 신호(UI)로 다시 전송할 수 있다(S14).
실시예에 따라, 로봇(200)의 사용자 인증부(210)는 사용자 인식 신호(UI)와 등록 사용자 정보의 비교 횟수를 제한할 수도 있다.
다시 도 2 및 도 3을 참조하면, 로봇(200)의 사용자 인증부(210)에 의해 사용자 인증 동작이 완료되면(S10), 헤드셋 장치(100)의 음성 입력부(120)는 사용자로부터 입력된 사용자 음성 명령(VS)을 로봇(200)으로 전송하고, 로봇(200)의 음성 인식부(220)는 전송된 사용자 음성 명령(VS)을 인식하여 분석할 수 있다(S20). 음성 인식부(220)는 분석 결과에 따라 제1 제어 신호(CNT1)를 출력할 수 있다.
예컨대, 사용자는 헤드셋 장치(100)의 음성 입력부(120)를 통해 '추종 시작'이라는 아날로그 음성 신호를 입력할 수 있다. 음성 입력부(120)는 입력된 '추종 시작'을 인코딩하여 디지털 음성 신호, 즉 사용자 음성 명령(VS)을 출력할 수 있다. 사용자 음성 명령(VS)은 통신 모듈(150)을 통해 로봇(200)의 음성 인식부(220) 로 전송될 수 있다. 음성 인식부(220)는 전송된 사용자 음성 명령(VS)에 기초하여 사용자 추종 동작을 제어하기 위한 제1 제어 신호(CNT1)를 출력할 수 있다.
사용자는 헤드셋 장치(100)의 발광부(130)를 통해 다수의 적외선들(LS)을 발산할 수 있다. 로봇(200)의 검출부(230)는 제1 제어 신호(CNT1)에 기초하여 헤드셋 장치(100)로부터 발산된 다수의 적외선들(LS)을 검출할 수 있다. 검출부(230)는 적외선 검출 결과에 따른 다수의 적외선 포인트들(LP)을 출력할 수 있다(S30).
검출부(230)는 헤드셋 장치(100)의 일부로부터 발산되는 적외선(LS)을 검출할 수 있다. 다시 말하면, 헤드셋 장치(100)는 안경 형태이므로, 사용자의 후면을 제외한 전면과 양측면에서 다수의 적외선(LS)을 발산할 수 있다. 검출부(230)는 헤드셋 장치(100)의 전면 또는 양측면 중에서 하나의 부분으로부터 발산되는 다수의 적외선(LS)을 검출할 수 있다. 이때, 검출부(230)는 헤드셋 장치(100)로부터 발산되는 적외선(LS)만을 검출하고, 적외선(LS)이 벽과 같은 차단물에 반사되는 경우는 검출하지 않을 수 있다.
로봇(200)의 제어부(240)는 검출부(230)로부터 출력된 다수의 적외선 포인트들(LP)에 기초하여 사용자 추종 동작을 위한 로봇(200)의 이동을 수행하거나(S50), 또는 검출부(230)의 적외선 검출 동작을 재수행 시킬 수 있다(S30).
예컨대, 검출부(230)로부터 출력된 다수의 적외선 포인트들(LP)이 2 이상이면(Yes), 제어부(240)의 계산부(241)는 다수의 적외선 포인트들(LP)의 무게중심점(CG)을 계산하여 산출할 수 있다(S51).
비교부(243)는 산출된 무게중심점(CG)을 로봇(200)의 이전 무게중심점(CG') 과 비교하여 무게중심점 변화량(△CG)을 산출하여 출력할 수 있다(S53).
이동부(245)는 산출된 변화량(△CG)에 따라 로봇(200)을 이동시키기 위한 제2 제어 신호(CNT2)를 출력할 수 있으며, 로봇(200)은 제2 제어 신호(CNT2)에 응답하여 이동될 수 있다(S55).
그러나, 검출부(230)로부터 검출된 다수의 적외선 포인트들(LP)이 2 미만이면(No), 제어부(240)는 검출부(230)의 적외선 검출 동작(S30)을 재수행시킬 수 있다. 이는, 로봇(200)이 사용자 추종 동작을 위하여 필요한 적외선 포인트(LP)가 적어도 2개 이상이기 때문이다.
로봇(200)의 무게중심점(CG) 이동을 통한 위치 이동 동작(S55)이 완료되면, 사용자는 헤드셋 장치(100)의 음성 입력부(120)를 통해 다음 명령, 예컨대 "추종 종료"를 입력할 수 있다.
사용자로부터 다음의 음성 명령이 입력되면, 로봇(200)은 상술한 음성 명령 인식의 단계(S20)를 통해 사용자의 명령을 인식하고, 이에 따라 사용자 추종 동작을 종료할 수 있다.
본 발명의 내용은 도면에 도시된 일실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 일 실시예에 따른 안경 형태의 헤드셋 장치의 개략적인 도면이다.
도 2는 도 1에 도시된 헤드셋 장치를 포함하는 로봇 제어 시스템의 개략적인 블록도이다.
도 3은 도 2에 도시된 로봇 시스템의 로봇 제어 방법에 대한 순서도이다.
도 4는 도 3에 도시된 사용자 인증 동작의 상세한 순서도이다.

Claims (10)

  1. 사용자가 헤드셋 장치를 착용하였는지를 감지하는 감지 센서;
    상기 감지 센서의 출력 신호에 의해 인에이블되어 홍채 인식을 통한 사용자 인증을 수행하는 사용자 인식부를 갖춘 렌즈; 및
    상기 사용자 인식부에 의한 사용자 인증 결과에 따라 외부로 다수의 적외선을 발산시키기 위한 발광부가 형성된 안경테를 포함하는 안경 형태의 헤드셋 장치.
  2. 청구항 1에 있어서, 상기 발광부는,
    상기 안경테의 일 영역에 위치한 하나 이상의 적외선 발광 다이오드; 및
    상기 적외선 발광 다이오드에 다수개 접속되어 상기 안경테의 내부로 연장되며, 각각의 끝단이 상기 안경테의 외측으로 노출되어 상기 적외선을 발산하는 다수의 광섬유들을 포함하는 안경 형태의 헤드셋 장치.
  3. 청구항 2에 있어서,
    상기 다수의 광섬유들 각각의 끝단에 접속되어 상기 적외선을 확산시키는 다수의 발산 렌즈들을 더 포함하는 안경 형태의 헤드셋 장치.
  4. 청구항 1에 있어서,
    헤드셋 장치는 외부와 통신할 수 있는 통신 모듈을 더 포함하고,
    상기 사용자 인식부는,
    상기 사용자의 홍채에 적외선을 투광시키는 적외선 투광 다이오드; 및
    상기 홍채로부터 반사된 영상을 촬영하고, 촬영된 영상을 상기 통신 모듈을 통해 외부로 출력하는 촬상 모듈을 포함하는 안경 형태의 헤드셋 장치.
  5. 삭제
  6. 사용자의 헤드셋 장치 착용 여부를 감지하는 감지 센서의 출력 신호를 근거로 홍채 인식을 하여 사용자 인증을 수행하는 상기 헤드셋 장치의 사용자 인식부로부터의 사용자 인식 신호를 기저장된 사용자 등록 정보와 비교하여 사용자 인증을 수행하는 사용자 인증부;
    상기 헤드셋 장치로부터의 사용자 음성 명령을 인식하여 분석하고 그에 상응하는 제어 신호를 출력하는 음성 인식부;
    상기 음성 인식부의 제어 신호를 수신함에 따라 상기 헤드셋 장치로부터 발산되는 다수의 적외선을 검출하여 해당 적외선의 포인트를 출력하는 검출부; 및
    상기 사용자 인증부의 사용자 인증 결과에 따라 상기 검출부로부터의 적외선 포인트의 위치 변화를 검출하여 위치 변화량만큼 로봇을 이동시키는 제어부;를 포함하는 로봇 제어 시스템.
  7. 삭제
  8. 청구항 6에 있어서, 상기 제어부는,
    상기 다수의 적외선을 검출하여 무게중심점을 계산하는 계산부;
    저장된 이전의 무게중심점과 상기 계산된 무게중심점을 비교하여 무게중심점 변화량을 출력하는 비교부; 및
    상기 무게중심점 변화량에 따라 상기 로봇을 이동시키는 이동부를 포함하는 로봇 제어 시스템.
  9. 사용자 인증부가, 사용자의 헤드셋 장치 착용 여부를 감지하는 감지 센서의 출력 신호를 근거로 홍채 인식을 하여 사용자 인증을 수행하는 상기 헤드셋 장치의 사용자 인식부로부터의 사용자 인식 신호를 기저장된 사용자 등록 정보와 비교하여 사용자 인증을 수행하는 단계;
    음성 인식부가, 상기 헤드셋 장치로부터의 사용자 음성 명령을 인식하여 분석하고 그에 상응하는 제어 신호를 출력하는 단계;
    검출부가, 상기 제어 신호를 수신함에 따라 상기 헤드셋 장치로부터 발산되는 다수의 적외선을 검출하여 해당 적외선의 포인트를 출력하는 단계; 및
    제어부가, 상기 사용자 인증을 수행하는 단계에서의 사용자 인증 결과에 따라 상기 해당 적외선의 포인트를 출력하는 단계에서 출력되는 적외선 포인트의 위치 변화를 검출하여 위치 변화량만큼 로봇을 이동시키는 단계;를 포함하는 헤드셋 장치를 이용한 로봇 제어 방법.
  10. 청구항 9에 있어서, 상기 로봇을 이동시키는 단계는,
    상기 헤드셋 장치로부터 발산된 상기 다수의 적외선을 검출하여 무게중심점을 계산하는 단계;
    이전의 무게중심점과 상기 계산된 무게중심점을 비교하여 무게중심점 변화량을 출력하는 단계; 및
    상기 무게중심점 변화량에 따라 상기 로봇을 이동시키는 단계를 포함하는 헤드셋 장치를 이용한 로봇 제어 방법.
KR1020090088209A 2008-12-05 2009-09-17 안경 형태의 헤드셋 장치, 이를 포함하는 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법 KR101265957B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20080123493 2008-12-05
KR1020080123493 2008-12-05

Publications (2)

Publication Number Publication Date
KR20100065065A KR20100065065A (ko) 2010-06-15
KR101265957B1 true KR101265957B1 (ko) 2013-05-22

Family

ID=42364570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090088209A KR101265957B1 (ko) 2008-12-05 2009-09-17 안경 형태의 헤드셋 장치, 이를 포함하는 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법

Country Status (1)

Country Link
KR (1) KR101265957B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105538282A (zh) * 2016-02-26 2016-05-04 方广武 一种替身机器人

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101388236B1 (ko) * 2013-01-31 2014-04-23 윤영기 카메라 안경을 이용한 안면 인식 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105538282A (zh) * 2016-02-26 2016-05-04 方广武 一种替身机器人

Also Published As

Publication number Publication date
KR20100065065A (ko) 2010-06-15

Similar Documents

Publication Publication Date Title
KR102329765B1 (ko) 홍채 기반 인증 방법 및 이를 지원하는 전자 장치
KR102023611B1 (ko) 홍채 인식 및 근접 센싱 가능한 단말 장치 및 방법
TWI498771B (zh) 可辨識手勢動作的眼鏡
US10521662B2 (en) Unguided passive biometric enrollment
KR102488410B1 (ko) 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법
WO2015176657A1 (zh) 虹膜识别装置及其制造方法和应用
US10521648B2 (en) Body information analysis apparatus and method of auxiliary comparison of eyebrow shapes thereof
US20100207872A1 (en) Optical displacement detecting device and operating method thereof
KR102627014B1 (ko) 전자 장치 및 제스처 인식 방법
JP2017102516A (ja) 表示装置、通信システム、表示装置の制御方法、及び、プログラム
WO2021158017A1 (en) Electronic device and method for recognizing object
KR20210065833A (ko) 광학적 센서를 갖는 디스플레이 및 그 광학적 센싱 모듈
KR101872757B1 (ko) 광학 센서 장치 및 광학 센싱 방법
US9377366B2 (en) Navigation device including thermal sensor
KR101265957B1 (ko) 안경 형태의 헤드셋 장치, 이를 포함하는 로봇 제어 시스템 및 이를 이용한 로봇 제어 방법
US9310903B2 (en) Displacement detection device with no hovering function and computer system including the same
KR100843590B1 (ko) 광 포인팅 장치 및 이를 구비한 휴대 단말기
US11768543B2 (en) Methods and apparatuses for controlling a system via a sensor
KR102493028B1 (ko) 가시광선 대역의 빛을 흡수할 수 있는 렌즈를 포함하는 카메라 모듈을 이용하여 적외선에 대응하는 이미지를 획득하는 방법 및 이를 구현한 전자 장치
KR20170084458A (ko) 헤드 마운트 디스플레이 장치
JP2006141589A (ja) 個人認証装置及び個人認証方法
KR20130137507A (ko) 착용형 디스플레이 장치를 위한 인터랙션 제공 장치 및 방법
TW201709022A (zh) 非接觸式控制系統及方法
KR101790518B1 (ko) 적외선 광학 장치를 탑재한 전자 장치 및 적외선 광학 장치의 제어 방법
US20190034699A1 (en) Body information analysis apparatus capable of indicating shading-areas

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160427

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180514

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190612

Year of fee payment: 7