KR20200087337A - 헬스 케어 로봇 및 그 제어 방법. - Google Patents

헬스 케어 로봇 및 그 제어 방법. Download PDF

Info

Publication number
KR20200087337A
KR20200087337A KR1020180173469A KR20180173469A KR20200087337A KR 20200087337 A KR20200087337 A KR 20200087337A KR 1020180173469 A KR1020180173469 A KR 1020180173469A KR 20180173469 A KR20180173469 A KR 20180173469A KR 20200087337 A KR20200087337 A KR 20200087337A
Authority
KR
South Korea
Prior art keywords
user
health
sensor
information
robot
Prior art date
Application number
KR1020180173469A
Other languages
English (en)
Inventor
오영재
권동욱
김준호
이상헌
조성제
한종희
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020180173469A priority Critical patent/KR20200087337A/ko
Priority to US17/288,276 priority patent/US20210394369A1/en
Priority to PCT/KR2019/016093 priority patent/WO2020141727A1/ko
Publication of KR20200087337A publication Critical patent/KR20200087337A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6897Computer input devices, e.g. mice or keyboards
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6898Portable consumer electronic devices, e.g. music players, telephones, tablet computers

Abstract

로봇을 개시한다. 본 로봇은, 이동 수단을 구비하는 바디, 바디 상에 배치되며 복수의 센서를 포함하는 헤드, 복수의 센서 중 적어도 하나의 센서에 기초하여 헤드를 조절하고, 조절된 헤드의 센서를 통해 사용자의 건강 관련 정보를 획득하는, 프로세서를 포함한다.

Description

헬스 케어 로봇 및 그 제어 방법. { HEALTHCARE ROBOT AND CONTROLLING METOHD THEREOF }
본 개시는 헬스 케어 로봇에 관한 것이다. 보다 상세하게는, 다양한 건강 정보를 획득하기 위해 스스로 이동하고 자세를 변경하는 헬스 케어 로봇에 관한 것이다.
생체 정보를 획득하기 위한 다양한 센싱 기술이 등장하고 있다.
특히, 터치만으로 맥박수를 측정할 수 있는 PPG(Photoplethysmography)센서, 신체 접촉 없이도 호흡/심박 등을 측정할 수 있는 UWB(Ultra-wideband) 센서 등이 개발되었다.
다만, 센서마다 동작 원리가 다르기 때문에, 사용자로부터 생체 정보를 획득하기 위한 사용자와 센서 간의 거리 내지는 각도가 센서별로 다르고, 따라서 각 센서가 별도의 장치로 구현되는 경우가 대부분이었다.
한편, 주변의 지형 및 사용자의 위치를 고려하여 스스로 이동할 수 있는 로봇이 다수 개발되고 있었다.
본 개시는 다양한 센서를 구비하는 한편, 각 센서를 이용하는 시점마다 스스로 사용자를 찾아 이동함으로써 능동적으로 건강 관련 정보를 획득하여 데이터베이스를 구축하는 헬스 캐어 로봇을 제공함에 목적이 있다.
본 개시는, 단순히 혈압이나 맥박수 등 생체 정보뿐만 아니라, 사용자의 수면에 대한 정보, 사용자의 운동에 대한 정보, 사용자의 복약에 대한 정보, 사용자의 감정에 대한 정보를 획득하는 헬스 캐어 로봇을 제공함에도 목적이 있다.
또한, 본 개시는, 생체 정보 측정에 대한 알림을 제공할 뿐만 아니라, 운동이나 복약 등 건강을 위해 사용자가 수행해야 하는 동작에 알림 내지 가이드를 제공하는 헬스 캐어 로봇을 제공함에도 목적이 있다.
이렇듯, 본 개시는, 사용자의 건강 관리와 관련된 종합 서비스를 제공하는 헬스 캐어 로봇을 제공함에 그 목적이 있다.
본 개시의 일 실시 예에 따른 로봇은, 이동 수단을 구비하는 바디, 상기 바디 상에 배치되며, 복수의 센서를 포함하는 헤드, 상기 복수의 센서 중 적어도 하나의 센서에 기초하여 상기 헤드를 조절하고, 상기 조절된 헤드의 상기 센서를 통해 사용자의 건강 관련 정보를 획득하는, 프로세서를 포함한다.
이때, 상기 프로세서는, 상기 헤드 상에서 상기 센서의 위치 및 상기 센서의 타입 중 적어도 하나에 기초하여 상기 헤드의 움직임 각도를 판단하고, 상기 판단된 움직임 각도에 기초하여 상기 헤드를 조절할 수 있다.
또한, 상기 복수의 센서는, 카메라 센서를 포함하고, 상기 프로세서는, 상기 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 자세를 판단하고, 상기 판단된 자세에 기초하여 상기 헤드를 조절할 수도 있다.
그리고, 상기 프로세서는, 기설정된 스케줄 정보에 따라 상기 건강 관련 정보를 획득하기 위한 시간이 도래하면, 상기 로봇이 사용자에게 접근하도록 상기 바디를 제어하고, 상기 복수의 센서 중에서 상기 기설정된 스케줄 정보에 대응되는 건강 관련 정보를 획득하기 위한 센서를 이용하여 상기 건강 관련 정보를 획득할 수 있다.
한편, 상기 프로세서는, 상기 센서의 타입에 기초하여 상기 건강 관련 정보를 획득하기 위한 상기 로봇과 상기 사용자 간의 거리를 판단하고, 상기 판단된 거리에 기초하여 상기 로봇이 상기 사용자에게 접근하도록 상기 바디를 제어할 수 있다.
그리고, 상기 복수의 센서는, 카메라 센서를 포함하고, 상기 프로세서는, 상기 카메라 센서를 통해 획득된 이미지를 이용하여 상기 사용자에 대한 인증을 수행하고, 상기 획득된 건강 관련 정보에 기초하여 상기 인증된 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다.
한편, 상기 복수의 센서는, 카메라 센서를 포함하고, 상기 프로세서는, 기설정된 스케줄 정보에 따라 상기 사용자가 약을 복용할 시간이 도래하면, 상기 카메라 센서를 통해 상기 사용자를 촬영하여 이미지를 획득하고, 상기 획득된 이미지에 기초하여 상기 사용자의 복약 여부를 판단하고, 상기 판단된 복약 여부에 대한 정보에 기초하여 상기 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다.
또한, 상기 로봇은 디스플레이를 더 포함하고, 상기 복수의 센서는, 카메라 센서를 포함하고, 상기 프로세서는, 기설정된 스케줄 정보에 따라 상기 사용자의 운동 시간이 도래하면, 상기 사용자의 운동을 가이드하기 위한 이미지를 상기 디스플레이에 표시하고, 상기 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 운동에 대한 정보를 획득하며, 상기 획득된 사용자의 동작에 대한 정보에 기초하여 상기 사용자의 운동을 가이드하기 위한 다른 이미지를 상기 디스플레이에 표시할 수 있다.
또한, 상기 로봇은 스피커를 더 포함하고, 상기 복수의 센서는, 카메라 센서 및 마이크 센서를 포함하고, 상기 프로세서는, 상기 마이크 센서를 통해 획득된 상기 사용자의 음성 및 상기 카메라 센서를 통해 획득된 이미지에 포함된 상기 사용자의 얼굴 중 적어도 하나에 기초하여 상기 사용자의 감정 상태를 판단하고, 상기 스피커를 통해 상기 사용자의 감정 상태에 대응되는 음악을 재생할 수도 있다.
한편, 상기 로봇은 회로(circuitry)를 포함하는 통신부를 더 포함하고, 상기 프로세서는, 상기 통신부를 통해 외부의 전자 장치로부터 비상 상황에 대한 정보가 수신되면, 상기 수신된 비상 상황에 대한 정보에 기초하여 상기 비상 상황에 대응되는 위치로 상기 로봇이 이동하도록 상기 바디를 제어하고, 상기 복수의 센서 중 적어도 하나의 센서를 이용하여 상기 위치에 존재하는 사용자의 건강 관련 정보를 획득할 수 있다.
이 경우, 상기 프로세서는, 상기 획득된 건강 관련 정보에 기초하여 상기 위치에 존재하는 사용자의 건강의 위험도를 판단하고, 상기 판단된 위험도에 기초하여 상기 획득된 건강 관련 정보를 외부의 전자 장치로 전송하도록 상기 통신부를 제어할 수 있다.
본 개시의 일 실시 예에 따른 로봇의 제어 방법은, 이동 수단을 구비하는 바디 및 상기 바디 상에 배치되며 복수의 센서를 포함하는 헤드를 포함하는 로봇의 제어 방법에 있어서, 상기 복수의 센서 중 적어도 하나의 센서에 기초하여 상기 헤드를 조절하는 단계, 상기 센서를 통해 사용자의 건강 관련 정보를 획득하는 단계를 포함한다.
이때, 상기 헤드를 조절하는 단계는, 상기 헤드 상에서 상기 센서의 위치 및 상기 센서의 타입 중 적어도 하나에 기초하여 상기 헤드의 움직임 각도를 판단하고, 상기 판단된 움직임 각도에 기초하여 상기 헤드를 조절할 수 있다.
또한, 상기 헤드를 조절하는 단계는, 상기 복수의 센서 중 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 자세를 판단하고, 상기 판단된 자세에 기초하여 상기 헤드를 조절할 수 있다.
한편, 본 제어 방법은, 기설정된 스케줄 정보에 따라 상기 건강 관련 정보를 획득하기 위한 시간이 도래하면, 상기 로봇이 사용자에게 접근하도록 상기 바디를 제어하는 단계를 더 포함하고, 상기 건강 관련 정보를 획득하는 단계는, 상기 복수의 센서 중에서 상기 기설정된 스케줄 정보에 대응되는 건강 관련 정보를 획득하기 위한 센서를 이용하여 상기 건강 관련 정보를 획득할 수 있다.
이때, 상기 바디를 제어하는 단계는, 상기 센서의 타입에 기초하여 상기 건강 관련 정보를 획득하기 위한 상기 로봇과 상기 사용자 간의 거리를 판단하고, 상기 판단된 거리에 기초하여 상기 로봇이 상기 사용자에게 접근하도록 상기 바디를 제어할 수도 있다.
한편, 본 제어 방법은, 상기 복수의 센서 중 카메라 센서를 통해 획득된 이미지를 이용하여 상기 사용자에 대한 인증을 수행하는 단계, 상기 획득된 건강 관련 정보에 기초하여 상기 인증된 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트하는 단계를 더 포함할 수 있다.
또한, 상기 건강 관련 정보를 획득하는 단계는, 기설정된 스케줄 정보에 따라 상기 사용자가 약을 복용할 시간이 도래하면, 상기 카메라 센서를 통해 상기 사용자를 촬영하여 이미지를 획득하고, 상기 획득된 이미지에 기초하여 상기 사용자의 복약 여부를 판단하며, 상기 판단된 복약 여부에 대한 정보에 기초하여 상기 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수도 있다.
본 제어 방법은, 기설정된 스케줄 정보에 따라 상기 사용자의 운동 시간이 도래하면, 상기 사용자의 운동을 가이드하기 위한 이미지를 표시하는 단계, 상기 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 운동에 대한 정보를 획득하는 단계, 상기 획득된 사용자의 동작에 대한 정보에 기초하여 상기 사용자의 운동을 가이드하기 위한 다른 이미지를 표시하는 단계를 더 포함할 수도 있다.
한편, 본 제어 방법은, 통신부를 통해 외부의 전자 장치로부터 비상 상황에 대한 정보가 수신되면, 상기 수신된 비상 상황에 대한 정보에 기초하여 상기 비상 상황에 대응되는 위치로 상기 로봇이 이동하도록 상기 바디를 제어하는 단계를 더 포함하고, 상기 건강 관련 정보를 획득하는 단계는, 상기 복수의 센서 중 적어도 하나의 센서를 이용하여 상기 위치에 존재하는 사용자의 건강 관련 정보를 획득할 수 있다.
본 개시에 따른 전자 장치 및 그 제어 방법은, 정해진 일정 또는 명령에 따라 사용자를 찾아 이동하고, 건강 관련 정보를 획득하기 위한 적절한 자세로 자동으로 변형되어 다양한 건강 관련 정보를 획득할 수 있다는 효과가 있다.
또한, 본 개시에 따른 전자 장치 및 그 제어 방법은, 건강 관련 정보를 획득한 결과, 사용자에게 건강 관리를 위한 적절한 정보 또는 스케줄을 알려주거나, 사용자가 건강상 위험한 경우 외부에 알려 위급한 상황에 대처할 수 있다는 장점도 있다.
도 1은 건강 관련 정보를 획득하기 위한 본 개시에 따른 로봇의 물리적 동작을 개략적으로 설명하기 위한 도면,
도 2는 본 개시의 일 실시 예에 따른 로봇의 구성을 설명하기 위한 블록도,
도 3a는 본 개시의 일 실시 예에 따라 바디 및 헤드의 구성을 설명하기 위한 도면,
도 3b는 본 개시의 일 실시 예에 따른 헤드를 측면에서 바라보는 시점으로 헤드의 구성을 설명하기 위한 도면,
도 4a는 본 개시의 일 실시 예에 따른 헤드의 회전을 설명하기 위한 도면,
도 4b는 본 개시의 일 실시 예에 따른 헤드의 회전을 설명하기 위한 도면,
도 4c는 본 개시의 일 실시 예에 따른 헤드의 회전을 설명하기 위한 도면,
도 5a는 로봇의 스케줄 정보를 설정하는 일 예를 설명하기 위한 도면,
도 5b는 별도의 전자 장치를 이용하여 로봇의 스케줄 정보를 원격 설정하는 일 예를 설명하기 위한 도면,
도 6a는 건강 관련 정보를 획득하는 동작의 일 예를 설명하기 위한 도면,
도 6b는 건강 관련 정보를 획득하는 동작의 일 예를 설명하기 위한 도면,
도 6c는 건강 관련 정보를 획득하는 동작의 일 예를 설명하기 위한 도면,
도 6d는 건강 관련 정보를 획득하는 동작의 일 예를 설명하기 위한 도면,
도 6e는 건강 관련 정보를 획득하는 동작의 일 예를 설명하기 위한 도면,
도 6f는 건강 관련 정보를 획득하는 동작의 일 예를 설명하기 위한 도면,
도 7은 로봇이 건강 관련 정보를 획득하는 구체적인 동작 순서의 일 예를 설명하기 위한 도면,
도 8a는 낙상이 감지된 경우 로봇이 동작하는 일 예를 설명하기 위한 도면,
도 8b는 낙상이 감지된 경우 로봇이 동작하는 일 예를 설명하기 위한 도면,
도 9는 획득된 건강 관련 정보를 이용하여 하나 이상의 전자 장치를 제어하는 로봇의 일 실시 예를 설명하기 위한 도면,
도 10은 획득된 건강 관련 정보를 복수의 외부 장치로 제공하는 일 예를 설명하기 위한 도면,
도 11은 본 개시의 다양한 실시 예에 따른 로봇의 상세한 구성을 설명하기 위한 블록도,
도 12는 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하기 위한 순서도,
도 13은 본 개시에 따른 로봇의 제어 방법의 구체적인 일 예를 설명하기 위한 알고리즘, 그리고
도 14는 본 개시에 따른 로봇의 제어 방법에 있어, 낙상이 감지된 경우에 대한 구체적인 실시 예를 설명하기 위한 순서도이다.
본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.
또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다.
또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.
또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 건강 관련 정보를 획득하기 위한 본 개시에 따른 로봇의 물리적 동작을 개략적으로 설명하기 위한 도면이다.
도 1의 (a)를 참조하면, 로봇(10)은 이동이 가능한 바디(20) 및 바디 위에 형성된 헤드(30)를 포함할 수 있다.
로봇(10)은 바디(20)에 구비된 이동수단(도 1a에서는 바퀴들)을 이용하여 스스로 이동할 수 있고, 헤드(30)는 정보를 제공하기 위한 디스플레이 및 다양한 센서(도시되지 않음)를 구비하는 한편 바디(20)상에서 회전하여 도 1의 (b)와 같이 자세가 변경될 수 있다.
이렇듯 본 개시에 따른 로봇은, 바디 및 헤드를 통해 물리적으로 이동 및 자세 변형이 가능한 로봇으로서, 이하 도면들을 통해 본 개시에 따른 로봇의 구체적인 구성 및 동작을 설명한다.
도 2는 본 개시의 일 실시 예에 따른 로봇(100)의 구성을 설명하기 위한 블록도이다.
도 2를 참조하면, 앞서 설명하였듯, 로봇(100)의 바디(110), 헤드(120) 및 프로세서(130)를 포함할 수 있다.
바디(110)는 로봇의 이동을 위한 이동수단을 구비할 수 있다. 이동수단은, 바퀴 등 하나 이상의 회전체를 포함하는 형태일 수 있으나 이에 한정되는 것은 아니다.
바디(110)는 공기질 센서(미세먼지 센서 및/또는 가스 센서), 조도 센서, 온도 센서, 거리 센서, 근접 센서, 레이더 센서, GPS 센서, 가속도 센서, 자이로 센서 등 다양한 센서를 포함할 수 있다.
헤드(120)는 바디(110)상에 배치되는 한편 복수의 센서를 포함할 수 있다. 복수의 센서는 PPG(Photoplethysmography) 센서, 카메라 센서, 마이크 센서, UWB(Ultra Wideband) 센서, 공기질 센서(미세먼지 센서 및/또는 가스 센서), 낙상 감지 센서, 조도 센서, 온도 센서, 체온 감지 센서 등 건강 관련 정보를 획득하기 위한 다양한 센서를 포함할 수 있다. 헤드(120)에 구비된 복수의 센서는, 그밖에 터치 센서, GPS 센서, 가속도 센서, 자이로 센서 등 다양한 센서를 추가로 포함할 수도 있다.
이때, 건강 관련 정보는, 심박(맥박)수, 혈압, 호흡수, 안구 상태, 목소리, 피부 상태, 체온, 스트레스 정도, 감정 상태 등의 생체 정보뿐만 아니라, 건강 관리에 필요한 다양한 부수 정보를 더 포함할 수 있다. 예를 들어, 사용자의 운동에 대한 정보, 사용자의 복약에 대한 정보, 사용자의 자세에 대한 정보, 사용자의 주변 환경(ex. 공기질, 조명 환경, 소음, 온도)에 대한 정보, 사고 발생(ex. 사용자의 낙상 사고)에 대한 정보 등 다양한 부수 정보를 포함될 수 있다.
한편, 바디(110) 또는 헤드(120)에 포함되는 것으로 상술한 센서들은, 그 위치가 바디(110) 또는 헤드(120)로 반드시 정해져야 하는 것은 아니고, 로봇(100)이 이용되는 목적 및 장소(환경)에 따라 달리 구현될 수 있다.
헤드(120)는 바디(110)상에서 그 자세를 변형할 수 있다. 예를 들어, 헤드(120)는 다양한 각도로 회전함으로써, 복수의 센서 중 사용될 센서에 적합한 자세를 취할 수 있다. 이를 위해, 지그/레일 등 헤드의 각도를 조절하기 위한 기구적 구조가 바디(110)에 구비되거나, 헤드(120)에 구비되거나 또는 바디(110)와 헤드(120)에 걸쳐서 구비될 수 있으나, 지그/레일 구조만으로 한정되는 것은 아니다.
프로세서(130)는 로봇(100)의 전반적인 동작을 제어할 수 있다. 이를 위해, 프로세서(130)는 RAM(Random Access Memory)(도시되지 않음), ROM(Read Only Memory)(도시되지 않음), CPU(central processing unit)(도시되지 않음), GPU(Graphic processing unit)(도시되지 않음) 및 시스템 버스(도시되지 않음) 등을 포함할 수 있으며, 로봇(100)에 포함된 하나 이상의 구성요소들의 제어에 관한 연산이나 데이터 처리를 실행할 수 있다.
프로세서(130)는 메모리(도시되지 않음)에 저장된 하나 이상의 명령어를 실행시켜 로봇(100)에 포함된 하나 이상의 구성요소들을 제어하거나, 하드웨어적인 회로 내지는 칩으로서 하나 이상의 구성요소들을 제어하거나, 또는 소프트웨어 및 하드웨어의 결합으로서 하나 이상의 구성요소들을 제어할 수 있다.
프로세서(130)는 바디(110)에 구비된 이동 수단, 헤드(120)의 회전을 위한 기구적 구조, 바디(110) 또는 헤드(120)에 구비된 다양한 센서들과 전기적으로 연결되어 이들을 제어할 수 있다.
도 3a 및 3b는 본 개시의 일 실시 예에 따른 바디 및 헤드의 구성을 설명하기 위한 도면들이다.
도 3a를 참조하면, 바디(110)는 이동 수단(도시되지 않음. 하나 이상의 바퀴 및 무게 중심부를 포함할 수 있음)을 포함할 수 있으며, 헤드(120)는 카메라 센서(121), 디스플레이(122) 및 기타 센서들(123)을 포함할 수 있다.
도 3b는 본 개시의 일 예에 따른 헤드(120)를 헤드(120)의 측면 각도에서 바라본 때에 각 구성의 배열을 도시한 구성이다.
도 3b를 참조하면, 카메라 센서(121), 디스플레이(122), PPG 센서(123-1) 등은 헤드(120)의 정면부에 배치되지만, UWB 센서(123-2)는 헤드(120)의 측면부 또는 내부에 배치된 결과, 카메라 센서(121) 또는 PPG 센서(123-1)를 이용하기에 적합한 헤드(120)의 각도가 UWB 센서(123-2)를 이용하기에 적합한 헤드(120)의 각도와 다를 수 있다.
한편, 도 3b는 도 3a를 기준으로 헤드(120) 정면에 포함된 기타 센서들(123) 중 PPG 센서(123-1) 하나만을 도시하였으나, 이외에도 다양한 센서가 헤드(120) 정면에 포함될 수 있음은 물론이다. 그밖에 헤드(120)의 측면, 후면, 내부 등에 다양한 센서가 추가로 구비될 수 있다.
도 4a 내지 4c는 본 개시의 일 실시 예에 따른 헤드의 회전을 설명하기 위한 도면들이다.
도 4a를 참조하면, 헤드(120)는 정면부가 향하는 방향이 변하도록 401 방향으로 회전하거나 및/또는 정면부가 동일한 방향을 향하는 상태에서 402 방향으로 회전할 수 있다.
또한, 도 4a를 참조하면, 바디(110) 자체가 이동 수단을 이용하여 403 방향으로 회전하거나 또는 바디(110) 내에서 이동 수단이 구비된 하부 영역과 별도의 상부 영역이 하부 영역과 독립적으로 403 방향으로 회전할 수도 있다.
한편, 도 4a와 달리, 헤드(120)가 스스로 403 방향으로 회전할 수도 있음은 물론이다.
도 4b는, 도 4a의 헤드(120)가 401 방향으로 회전하여 헤드(120)의 정면부가 위를 향하고 있는 상황을 도시한다. 이 상태에서, 헤드(120)는 402 방향 또는 403 방향으로 돌아갈 수 있음은 물론이다.
도 4c는, 도 4a의 헤드(120)가 402 방향 중 하나의 방향(시계 방향)으로 회전한 결과를 도시한다. 도 4b의 상황에서도, 헤드(120)는 401 방향으로 회전할 수 있다.
한편, 헤드(120)의 회전 방향 및 회전 각도는 도 4a 내지 도 4c에 도시 및 설명된 경우만으로 한정되는 것은 아니고, 더 다양한 방향 및 각도로 회전할 수 있다.
프로세서(130)는 기설정된 스케줄 정보에 따라 건강 관련 정보를 획득하도록 바디(110) 및 헤드(120)를 제어할 수 있다. 이때, 기설정된 스케줄 정보는, 획득될 건강 관련 정보에 대한 정보, 건강 관련 정보를 획득할 시간, 건강 관련 정보를 획득할 대상 사용자 및 건강 관련 정보를 획득할 장소에 대한 정보 중 적어도 하나가 포함될 수 있다.
획득될 건강 관련 정보에 대한 정보는, 상술한 다양한 건강 관련 정보 중 어떠한 건강 관련 정보를 획득할 것인지에 대한 정보를 포함할 수 있다.
예로, 기설정된 스케줄 정보는, 대상 사용자의 맥박수를 측정하기 위한 스케줄에 대한 정보, 대상 사용자의 운동 스케줄에 대한 정보(카메라 센서를 통해 획득된 이미지를 통해 사용자의 운동 여부에 대한 정보 획득), 대상 사용자의 복약 스케줄에 대한 정보(카메라 센서를 통해 획득된 이미지를 통해 사용자의 복약 여부에 대한 정보 획득) 등에 해당할 수 있다. 만약, 기설정된 스케줄 정보가 운동 또는 복약 스케줄에 대한 정보인 경우, 기설정된 스케줄 정보에는 운동의 종류/내용/시간 또는 복용할 약의 종류/수량에 대한 정보가 함께 포함될 수 있다.
기설정된 스케줄 정보는, 로봇(100)에 구비된 터치 센서 또는 마이크 센서 등을 통해 입력된 사용자 명령에 따라 설정된 것일 수 있다.
도 5a는 로봇(100)의 헤드(120)에 구비된 디스플레이(122)를 통해 스케줄 정보가 안내 및 설정되는 예를 도시한다. 도 5a는, 디스플레이(122)에 사용자 입력을 수신하기 위한 터치 패드가 포함된 경우를 가정한다.
도 5a를 참조하면, 프로세서(130)는 디스플레이(122)를 통해 "건강 관리 스케줄"의 형태로 다양한 건강 관련 정보를 획득하기 위한 스케줄 정보를 표시하고 있음을 확인할 수 있다.
도 5a를 참조하면, 프로세서(130)는, 영역 511, 514, 518 각각에 대한 사용자의 터치를 식별함으로써 "심장 건강 관리를 위한 혈압 측정", "혈압약 복용", "수면 분석" 스케줄을 각각 생성 또는 제거할 수 있다. 도 5a의 영역 511, 514, 518을 참조하면, 현재 "심장 건강 관리를 위한 혈압 측정" 및 "수면 분석" 스케줄이 생성(활성화: 체크)되어 있는 상태이다.
도 5a를 참조하면, 영역 512 또는 515에 대한 사용자의 터치가 식별되면, 프로세서(130)는 "혈압 측정" 또는 "혈압약 복용"의 일정을 변경하기 위한 그래픽 유저 인터페이스(도시되지 않음)를 표시하도록 디스플레이(122)를 제어할 수 있다. 그밖에 프로세서(130)는 측정할 생체 정보의 종류 또는 복용할 약의 종류 등을 선택하기 위한 그래픽 유저 인터페이스(도시되지 않음)를 표시하도록 디스플레이(122)를 제어할 수도 있다.
아울러, "더 보기"(519)에 대한 사용자의 터치가 식별되면, 프로세서(130)는 다른 건강 관련 정보를 획득하기 위한 하나 이상의 스케줄에 대한 정보를 표시하도록 디스플레이(122)를 제어할 수 있다.
이렇듯, 도 5a와 같이 로봇(100)의 디스플레이(122)를 통해 사용자는 스케줄 정보를 설정할 수 있다. 다만, 이에 한정되는 것은 아니고, 로봇(100)에 구비된 마이크 센서를 통해 수신된 사용자의 음성을 이용하여 스케줄 정보를 설정할 수도 있다.
기설정된 스케줄 정보는, 로봇(100)과 통신이 가능한 별도의 전자 장치를 통해 입력된 사용자 명령에 따라 설정된 것일 수도 있다.
도 5b는 별도의 전자 장치(200)를 통해 스케줄 정보를 원격 설정하는 예를 설명하기 위한 도면이다. 전자 장치(200)는 건강 관련 정보를 획득하는 대상 사용자의 휴대폰일 수 있으나, 대상 사용자의 보호자, 간호인, 주치의 등의 휴대폰일 수도 있다.
도 5b는 로봇(100)과 통신 가능한 휴대폰인 전자 장치(200)의 디스플레이(210)를 통해 스케줄 정보가 안내 및 설정되는 예를 도시한다. 도 5b는, 디스플레이(210)에 사용자 입력을 수신하기 위한 터치 패드가 포함된 경우를 가정한다.
도 5b를 참조하면, 도 5a에서 로봇(100)의 디스플레이(122)에 표시되었던 스케줄 정보가 전자 장치(200)의 디스플레이(210)에 표시된 것을 확인할 수 있다.
이렇듯, 기설정된 스케줄 정보는, 로봇(100)을 통해 직접 설정될 수도 있으나, 로봇(100)과 통신이 가능한 별도의 전자 장치(200)를 통해 설정될 수도 있다.
한편, 프로세서(130)는 사용자 명령에 따라 건강 관련 정보를 획득하도록 바디(110) 및 헤드(120)를 제어할 수도 있다. 이때, 사용자 명령은, 획득할 건강 관련 정보에 대한 정보, 건강 관련 정보를 획득할 시간, 건강 관련 정보를 획득할 대상 사용자 및 건강 관련 정보를 획득할 장소에 대한 정보 중 적어도 하나를 선택하기 위한 명령을 포함할 수 있다. 사용자 명령은, 로봇(100)에 구비된 터치 센서 또는 마이크 센서 등을 통해 직접 입력되거나 또는 별도의 전자 장치를 통해 입력되어 로봇(100)의 통신부를 통해 수신될 수도 있다.
예를 들어, 로봇(100)에 대한 터치 또는 음성 형태로 사용자 본인의 맥박을 측정하라는 명령이 로봇(100)에 입력된 경우 또는 맥박 측정 명령을 입력받은 원격 제어 장치로부터 맥박 측정 명령에 대응되는 제어 신호가 수신된 경우 등을 상정할 수 있다.
기설정된 스케줄 정보 또는 사용자 명령에 따라 건강 관련 정보를 획득하기 위한 시간이 도래하면, 프로세서(130)는 로봇(100)이 대상 사용자에게 접근하도록 바디(110)를 제어하고, 로봇(100)에 구비된 복수의 센서 중에서 기설정된 스케줄 정보에 대응되는 건강 관련 정보를 획득하기 위한 센서를 이용하여 대상 사용자의 건강 관련 정보를 획득할 수 있다.
다만, 대상 사용자에게 접근하기에 앞서, 프로세서(130)는 건강 관련 정보를 획득할 대상 사용자를 찾기 위해 바디(110) 및 헤드(120)를 제어할 수 있다. 구체적으로, 헤드(120) 또는 바디(110)에 구비된 거리 센서, 레이더 센서, 마이크 센서 등을 이용하여 한 명 이상의 사용자의 위치를 판단하고, 판단된 위치로 로봇(100)이 이동하도록 바디(110)를 제어할 수 있다.
또는, 프로세서(130)는 통신부(도시되지 않음)를 통해 대상 사용자의 단말 장치(도시되지 않음)로부터 수신된 해당 단말 장치의 위치에 대한 정보를 이용하여 대상 사용자의 위치를 식별할 수도 있다.
또는, 프로세서(130)는 로봇(100)이 이동하는 동안, 헤드(120)에 구비된 카메라 센서를 이용하여 로봇(100)의 주변을 모두 촬영하면서 한 명 이상의 사용자를 찾을 수도 있다. 이때, 다양한 각도의 이미지를 촬영하기 위해 하나 이상의 방향에 대한 헤드(120)의 각도를 조절할 수 있다.
또한, 프로세서(130)는 로봇(100)이 있는 장소의 지도에 대한 정보 및 건강 관련 정보를 획득하기 위한 스케줄에 따라 정해진 장소로 이동하여 대상 사용자를 찾을 수도 있다.
그리고, 프로세서(130)는 헤드(120)에 포함된 카메라 센서를 이용하여 한 명 이상의 사용자의 얼굴 이미지를 획득하고, 해당 이미지를 이용하여 각 사용자가 대상 사용자에 해당되는지에 대한 인증을 수행할 수 있다. 이때, 얼굴 인식을 이용할 수 있다. 또는, 프로세서(130)는 헤드(120)에 구비된 마이크 센서(도시되지 않음)를 통한 음성 인식 또는 별도의 터치 센서(도시되지 않음)를 통한 지문 인식을 이용할 수도 있다.
대상 사용자를 찾은 뒤, 프로세서(130)는, 건강 관련 정보를 획득하기 위해 사용될 센서의 타입에 기초하여 건강 관련 정보를 획득하기 위한 로봇(100)과 대상 사용자 간의 거리를 판단하고, 판단된 거리에 기초하여 로봇(100)이 대상 사용자에게 접근하도록 바디(110)를 제어할 수 있다.
즉, 프로세서(130)는 센서를 사용하여 건강 관련 정보를 획득하기에 적합한 거리만큼 대상 사용자에게 접근하도록 바디(110)의 이동수단을 제어할 수 있다.
프로세서(130)는, 헤드(120)에 구비된 복수의 센서 중 적어도 하나의 센서에 기초하여 헤드(120)를 조절하고, 조절된 헤드의 센서를 통해 대상 사용자의 건강 관련 정보를 획득할 수 있다.
이때, 프로세서(130)는 헤드(120) 상의 해당 센서의 위치 및 해당 센서의 타입 중 적어도 하나에 기초하여 헤드(120)의 움직임 각도를 판단하고, 판단된 움직임 각도에 기초하여 헤드(120)를 조절할 수도 있다. 즉, 프로세서(130)는, 사용될 센서의 타입 및/또는 위치에 따라, 해당 센서가 건강 관련 정보를 획득하기에 적합한 각도로 헤드(120)의 자세를 조절할 수 있다. 구체적으로, 하나 이상의 방향에 대한 헤드(120)의 회전 각도를 조절할 수 있다. 이 경우, 프로세서(130)는 헤드(120) 내 센서의 위치뿐만 아니라 방향도 고려할 수 있음은 물론이다.
센서의 타입은 센서의 종류를 의미한다. 예로, PPG(Photoplethysmography) 센서, 카메라 센서, 마이크 센서, UWB(Ultra Wideband) 센서 등은 각각 서로 다른 타입의 센서인 것으로 정의될 수 있다.
한편, 복수의 센서 각각에 대해 적합한 헤드(120)의 각도 내지는 자세가 기설정되어 있을 수도 있다. 이 경우, 프로세서(130)는 사용될 센서에 대해 기설정된 각도 내지는 자세로 헤드(120)를 조절할 수 있다.
또한, 프로세서(130)는, 바디(110) 또는 헤드(120)에 구비된 하나 이상의 카메라 센서(도시되지 않음)를 통해 획득된 이미지에 기초하여 대상 사용자의 자세를 판단하고, 판단된 자세에 기초하여 헤드(120)를 조절할 수도 있다. 프로세서(130)는, 설령 동일한 센서를 이용하더라도, 대상 사용자의 자세에 따라 헤드(120)의 각도를 달리 조절할 수 있다.
프로세서(130)는, 획득된 건강 관련 정보에 기초하여 대상 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다. 구체적으로, 인증된 대상 사용자에 대한 건강 관련 정보를 획득한 뒤, 해당 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다.
예로, 사용자의 복약 여부에 대한 정보, 사용자의 운동에 대한 정보, 사용자의 생체 정보 등을 획득한 뒤, 이를 이용하여 해당 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다.
이때, 건강 관련 정보에 대한 데이터베이스는 로봇(100)의 메모리(도시되지 않음)에 저장되어 있거나 또는 별도의 외부 장치(도시되지 않음)에 저장되어 있을 수 있다. 건강 관련 정보에 대한 데이터 베이스가 외부 장치에 저장된 경우, 프로세서(130)는 획득된 건강 관련 정보를 통신부(도시되지 않음)를 통해 외부 장치로 전송할 수도 있다.
프로세서(130)는 사용자의 명령 또는 기설정된 주기에 따라 각 사용자의 건강 관련 정보에 대한 데이터 베이스에 포함되는 정보를 제공하도록 디스플레이 및/또는 오디오 출력부를 제어할 수 있다.
다만, 프로세서(130)는 각 사용자의 건강 관련 정보에 대한 데이터 베이스에 포함되는 정보를 제공하기에 앞서, 인증을 수행할 수도 있다. 예를 들어, 특정 사용자의 건강 관련 정보에 대한 데이터 베이스를 열람하고자 하는 명령이 입력된 경우, 프로세서(130)는 카메라 센서를 통해 획득된 이미지를 통해 얼굴 인식을 수행하여 해당 사용자 또는 해당 사용자의 보호자인 경우에만 해당 정보를 제공할 수도 있다. 한편, 프로세서(130)는, 각 사용자의 건강 관련 정보에 대한 데이터 베이스에 포함되는 정보를 제공함에 있어, 얼굴 인식을 이용한 인증 외에도, 지문 인증, 음성 인식을 이용한 인증, 비밀번호 인증 등 다양한 인증을 이용할 수 있다.
이하 도 6a 내지 6f는 로봇이 하나 이상의 센서를 이용하여 다양한 건강 관련 정보를 획득하는 각각의 예들을 설명하기 위한 도면들이다.
도 6a는 로봇이 PPG 센서(123-1)를 이용하여 사용자의 맥박수(심박수)를 획득하는 동작을 설명하기 위한 도면이다. 도 6a는, 사용자(40)가 손가락 중 하나를 로봇의 PPG 센서(123-1)에 접촉해야만 로봇(100)이 사용자(40)의 맥박수를 측정할 수 있는 경우를 상정한 것이다.
도 6a의 상황에 앞서, 프로세서(130)는 헤드(120)에 구비된 카메라 센서를 이용하여, 측정 대상인 사용자(40)를 찾을 수 있다. 이때, 한 명 이상의 사용자에 대해 측정 대상인 사용자(40)가 맞는지 인증을 수행할 수 있다. 이 경우, 프로세서(130)는 카메라 센서를 통해 한 명 이상의 사용자의 얼굴을 촬영하기 편하도록 헤드(120)의 각도를 조절할 수도 있다.
도 6a를 참조하면, 인증에 성공한 사용자(40)를 찾은 프로세서(130)는 측정 대상인 사용자(40)에게 다가가도록 바디(110)를 제어한 것을 확인할 수 있다. 이때, 프로세서(130)는 PPG 센서(123-1)를 이용하여 사용자의 맥박수를 측정할 수 있다.
도 6a를 참조하면, PPG 센서(123-1)가 로봇의 정면부에 배치되어 있기 때문에, 프로세서(130)는 사용자(40)가 손가락으로 PPG 센서(123-1)를 터치하기 쉽도록 헤드(120)의 정면부가 사용자 또는 사용자보다 조금 위쪽을 바라보도록 헤드(120)의 각도를 조절할 수 있다.
한편, 도 6a에 도시되지는 않았으나, 프로세서(130)는 PPG 센서(123-1)에 손가락을 접촉시키라는 안내를 디스플레이(122) 및/또는 오디오 출력부(도시되지 않음)를 통해 시각적 및/또는 청각적으로 제공할 수도 있다. 또한, 측정된 맥박수에 대한 정보를 디스플레이(122) 및/또는 오디오 출력부(도시되지 않음)를 통해 제공할 수도 있다.
프로세서(130)는, PPG 센서(123-1)를 통해 획득된 맥박수 등의 정보를 기설정된 알고리즘을 통해 재처리함으로써, 사용자의 스트레스 정도나 혈압 등을 판단할 수도 있다.
도 6b는 로봇(100)이 헤드(120)의 측면부에 배치된 UWB 센서를 이용하여 수면 중인 사용자(40)의 호흡수/심박수 등 수면의 질에 대한 정보를 획득하는 예를 도시한다.
도 6b의 상황에 앞서, 프로세서(130)는 헤드(120) 또는 바디(110)에 구비된 카메라 센서를 이용하여, 측정 대상인 사용자(40)를 찾을 수 있다. 이때, 한 명 이상의 사용자에 대해 측정 대상인 사용자가 맞는지에 대한 인증을 수행할 수 있다. 이 경우, 프로세서(130)는 카메라 센서를 통해 한 명 이상의 사용자의 얼굴을 촬영하기 편하도록 바디(110)의 이동 및 헤드(120)의 자세(각도)를 조절할 수도 있다.
인증이 성공하여 측정 대상인 사용자(40)를 찾은 경우, 수면 중인 사용자(40)의 자세에 따라, UWB 센서를 이용하여 사용자(40)의 호흡수/심박수에 대한 정보를 획득하기에 용이한 위치로 이동하도록 바디(110)를 제어할 수 있다.
그리고, 도 6b와 같이, 프로세서(130)는 헤드(120)의 측면에 배치된 UWB 센서가 사용자(40)에게 향하도록 헤드(120)의 각도를 조절한 뒤, UWB 센서를 통해 사용자(40)의 건강 관련 정보를 획득할 수 있다. 이때, 프로세서(130)는 카메라 센서를 이용하여 수면 중 사용자(40)의 자세에 대한 정보를 추가로 획득할 수도 있다.
이 경우, 프로세서(130)는 UWB 센서 (및 카메라 센서) 외에 로봇(100) 내 다른 구성의 동작을 최소화하거나, 각 구성의 연산 또는 동작의 양을 줄이는 등 소음을 최소화하는 모드로 로봇(100)을 제어할 수도 있다.
그리고, 프로세서(130)는, 사용자(40)가 기상한 아침이 되면, 획득된 사용자(40)의 수면 중 호흡수/심박수에 대한 정보 및/또는 수면 중 자세에 대한 정보 등 수면의 질에 대한 정보를 제공하도록 디스플레이 또는 오디오 출력부를 제어할 수도 있다.
도 6c는 로봇(100)이 헤드(120)에 포함된 카메라 센서(121)를 이용하여 사용자의 맥박수(심박수)에 대한 정보를 획득하는 예를 도시한다.
도 6c를 참조하면, 프로세서(130)는 바디(110) 또는 헤드(120)에 포함된 카메라 센서를 통해 획득된 이미지를 이용하여 사용자(40)의 위치 및/또는 자세를 판단하고, 판단된 위치 및/또는 자세에 따라, 카메라 센서(121)를 이용하여 사용자(40)의 얼굴에 대한 이미지를 획득하기에 용이한 위치로 이동하도록 바디(110)를 제어할 수 있다.
그리고, 프로세서(130)는 획득된 얼굴 이미지의 Red, Blue, Green 중 적어도 하나의 속성을 분석하여 사용자(40) 얼굴 표면의 색깔 변화를 식별하고, 이를 통해 맥박수를 감지할 수 있다.
한편, 도 6c에 도시되지는 않았으나, 프로세서(130)는 카메라 센서(121)를 바라보라는 안내를 디스플레이(122) 및/또는 오디오 출력부(도시되지 않음)를 통해 시각적 및/또는 청각적으로 제공할 수도 있다. 또한, 측정된 맥박수에 대한 정보를 디스플레이(122) 및/또는 오디오 출력부(도시되지 않음)를 통해 제공할 수도 있다.
도 6d는 로봇(100)이 카메라 센서를 이용하여 사용자의 복약 여부에 대한 정보를 획득하는 일 예를 도시한다.
다만, 복약 여부에 대한 정보를 획득하기 전에, 프로세서(130)는 로봇(100)이 사용자에게 접근하도록 바디(110)를 제어하고, 복약에 대한 안내를 시각적/청각적으로 알리도록 바디(110) 또는 헤드(120)의 디스플레이/오디오 출력부를 제어할 수 있다. 구체적으로, 복용해야 하는 약의 종류, 수량 및 복용법에 대한 정보를 포함하는 안내를 시각적/청각적으로 제공할 수 있다.
그리고, 프로세서(130)는, 기설정된 스케줄 정보에 따라 사용자가 약을 복용할 시간이 도래하면, 카메라 센서를 통해 해당 사용자를 촬영하여 이미지를 획득하고, 획득된 이미지에 기초하여 해당 사용자의 복약 여부를 판단할 수 있다. 이 경우, 입력된 이미지에 포함된 사용자의 행동을 분석하여 사용자의 행동에 대한 정보를 출력하도록 학습된 인공지능 모델을 이용할 수도 있다.
예로, 도 6d를 참조하면, 프로세서(130)는 카메라 센서(121)를 통해 획득된 이미지를 분석한 결과, 사용자(40)가 기설정된 스케줄에 대응되는 약(41)을 복용하는지 여부를 판단할 수 있다.
이때, 판단된 복약 여부에 대한 정보에 기초하여 사용자(40)의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다. 구체적으로, 사용자(40)가 어떤 약을 복용했는지, 얼마나 복용했는지 등에 대한 정보를 이용하여 데이터베이스를 업데이트할 수 있다.
도 6e는 로봇(100)이 카메라 센서를 이용하여 사용자의 운동에 대한 정보를 획득하는 일 예를 설명하기 위한 도면이다.
다만, 사용자의 운동에 대한 정보를 획득하기 전에, 프로세서(130)는 사용자에게 접근하도록 바디(110)를 제어하고, 운동 시간이 도래했음을 디스플레이 또는 오디오 출력부를 통해 시각적 또는 청각적으로 알릴 수 있다.
그리고, 프로세서(130)는, 기설정된 스케줄 정보에 따라 사용자의 운동 시간이 도래하면, 사용자의 운동을 가이드하기 위한 이미지를 디스플레이에 표시하고, 카메라 센서를 통해 획득된 이미지에 기초하여 사용자의 운동에 대한 정보를 획득할 수 있다. 이 경우, 입력된 이미지에 포함된 사용자의 행동을 분석하여 사용자의 행동에 대한 정보를 출력하도록 학습된 인공지능 모델을 이용할 수도 있다.
예로, 도 6e를 참조하면, 프로세서(130)는, 기설정된 스케줄 정보에 대응되는 종류의 운동 자세를 설명하기 위한 이미지를 디스플레이(122)에 표시할 수 있다. 또한, 도 6e를 참조하면, 프로세서(130)는, 카메라 센서(121)를 이용하여 사용자(40)에 대한 이미지를 촬영할 수 있다. 이때, 프로세서(130)는 "제가 보여드리는 사진(영상) 속 자세를 따라해 주세요."와 같은 메시지를 디스플레이(122) 또는 오디오 출력부를 통해 시각적 또는 청각적으로 제공할 수도 있다.
그리고, 프로세서(130)는, 촬영된 이미지를 이용하여, 사용자의 운동에 대한 정보를 획득할 수 있다. 구체적으로, 사용자가 어떤 자세 또는 어떤 동작의 운동을 어느 정도 시간만큼 수행했는지 식별할 수 있다.
또한, 프로세서(130)는, 획득된 사용자의 운동에 대한 정보에 기초하여 사용자의 운동을 가이드하기 위한 다른 이미지를 디스플레이에 표시할 수 있다. 예를 들어, 프로세서(130)는, 사용자(40)가 도 6e에서 디스플레이(122)에 표시된 운동 자세를 기설정된 정도 이상으로 동일하게 따라한 경우, 도 6e에서 디스플레이(122)에 표시된 운동 자세 다음의 자세에 대한 이미지를 디스플레이(122)에 표시할 수 있다.
그리고, 프로세서(130)는 사용자의 운동에 대한 정보를 이용하여 해당 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다.
한편, 프로세서(130)는, 카메라 센서 또는 마이크 센서를 이용하여 사용자의 감정 상태를 판단할 수도 있다.
구체적으로, 프로세서(130)는, 마이크 센서(도시되지 않음)를 통해 획득된 사용자의 음성 및 카메라 센서를 통해 획득된 이미지에 포함된 사용자의 얼굴 중 적어도 하나에 기초하여 사용자의 감정 상태를 판단하고, 오디오 출력부에 포함된 스피커(도시되지 않음)를 통해 사용자의 감정 상태에 대응되는 음악을 재생할 수 있다. 이때, 입력된 이미지에 포함된 얼굴 이미지를 식별하고, 이를 통해 감정 상태를 판단하도록 학습된 인공지능 모델을 이용할 수도 있다.
관련하여, 도 6f는 로봇(100)이 카메라 센서를 통해 사용자의 감정 상태를 판단하는 일 예를 설명하기 위한 도면이다.
도 6f를 참조하면, 프로세서(130)는 사용자(40)에게 다가가도록 바디(110)를 제어한 뒤, 카메라 센서(121)를 통해 사용자(40)의 얼굴을 촬영하여 이미지를 획득할 수 있다. 그리고, 획득된 이미지 내 사용자(40)의 얼굴 표정이나 움직임을 분석하여 사용자의 감정 상태가 '우울한' 것으로 판단할 수 있다.
이때, 프로세서(130)는, 마이크 센서(도시되지 않음)를 통해 수신된 사용자(40)의 목소리를 통해 사용자(40)의 감정 상태를 판단할 수도 있다. 구체적으로, 수신된 사용자(40)의 목소리 톤을 사용자(40)의 평소 목소리 톤과 비교하거나 마이크 센서(도시되지 않음)를 통해 수신되는 사용자(40)의 음성이 한숨소리에 해당되는지 여부를 식별하는 등의 동작을 수행하여 사용자의 감정 상태가 '우울한' 것으로 판단할 수도 있다.
아울러, 카메라 센서(121)를 통해 획득된 이미지를 통해 판단된 사용자(40)의 피부 상태 또는 심박수에 대한 정보를 이용하거나, 또는 UWB 센서를 통해 획득된 사용자(40)의 호흡수에 대한 정보를 이용하여 사용자(40)의 감정 상태를 판단할 수도 있다.
도 6f를 참조하면, 프로세서(130)는, 바디(110)에 구비된 스피커(560)를 통해, 사용자(40)의 '우울한' 감정 상태에 위로가 될 수 있을 만한 음악을 재생할 수 있다. 이때, 복수의 감정 상태 각각에 대해 적합한 곡이 하나 이상 기설정되어 있을 수도 있고, 또는 입력된 감정 상태에 따라 적합한 음악의 장르 또는 가수에 대한 정보를 제공하도록 학습된 인공지능 모델이 이용될 수도 있다.
그리고, 프로세서(130)는 사용자(40)의 감정 상태에 대한 정보를 사용자(40)의 건강 관련 정보에 대한 데이터베이스에 추가(업데이트)할 수 있다.
또한, 프로세서(130)는, 사용자(40)의 가족, 연인 또는 지인의 전자 장치(도시되지 않음)와 통신을 수행하고, 디스플레이(122), 스피커(116), 카메라 센서(121) 및 마이크 센서(도시되지 않음)를 이용하여 가족, 연인 또는 지인과의 화상 통화를 제공할 수도 있다.
도 7은 로봇이 건강 관련 정보를 획득하는 구체적인 동작을 순서대로 설명하기 위한 일 예를 도시한 것이다. 도 7은, 건강 관련 정보 중 맥박수를 측정하는 경우에 대한 것이다.
도 7을 참조하면, 기설정된 스케줄 정보에 따라 사용자(40)의 맥박수 측정 시간이 도래하면(S710), 로봇(100)은 스피커(도시되지 않음)를 통해 "(맥박) 측정 시간이에요"(721) 등과 같은 알림 메시지를 청각적으로 제공하는 한편, 헤드(120)에 구비된 카메라 센서 및 바디(110)를 이용하여 사용자(40)를 찾을 수 있다(S720).
그리고, 헤드(120)의 카메라 센서를 통해 사용자(40)의 얼굴 인식을 수행하여 사용자(40)를 인증한 경우(S730), 로봇(100)은 PPG 센서를 이용하기에 적합한 지점에 정지한 뒤, 사용자(40)의 앉은 자세를 고려하여 PPG 센서를 통해 맥박수를 측정하기 위한 최적의 각도로 헤드(120)를 조절할 수 있다(S740).
이후 로봇(100)은 사용자(40)의 손가락이 PPG 센서(123-1)를 터치함에 따라 맥박수의 측정을 진행하고(S750), 측정이 끝나면 헤드(120)의 각도를 원상복구하는 한편 측정 결과를 토대로 사용자(40)의 건강 관련 정보 데이터베이스를 업데이트할 수 있다(S760).
이때, 로봇(100)은 측정 결과에 대한 정보 및 현재로부터 기설정된 기간 동안의 측정 결과에 대한 정보를 포함하는 "개인 건강정보"(765)를, 헤드(120)의 디스플레이에 표시하여 사용자(40)에게 제공할 수도 있다. "개인 건강 정보"(765)에는, 사용자(40)의 건강 상태를 레벨 또는 컬러로 나타내는 이미지가 포함될 수도 있다. 다만, 로봇(100)은 측정 이후, 얼굴 인식을 이용한 인증, 지문 인증, 음성 인식을 이용한 인증 등을 거쳐야만, "개인 건강정보"(765)를 제공할 수도 있다.
한편, 프로세서(130)는, 로봇(100)의 통신부를 통해 외부의 전자 장치로부터 비상 상황에 대한 정보가 수신되면, 수신된 비상 상황에 대한 정보에 기초하여 비상 상황에 대응되는 위치로 로봇이 이동하도록 바디(110)를 제어하고, 복수의 센서 중 적어도 하나의 센서를 이용하여 해당 위치에 존재하는 사용자의 건강 관련 정보를 획득할 수도 있다.
비상 상황에 대한 정보가 수신된 경우는, 예를 들어, 집안에 설치된 하나 이상의 낙상 감지 센서로부터 사용자의 낙상을 알리는 정보를 수신한 경우, 집안 내 화재 감지 센서 장치로부터 화재 발생을 알리는 정보를 수신한 경우, 집안 내 공기질 센서 장치로부터 유독 가스 검출을 알리는 정보를 수신한 경우 등에 해당할 수 있다.
그리고, 프로세서(130)는, 획득된 건강 관련 정보에 기초하여 해당 위치에 존재하는 사용자의 건강의 위험도를 판단하고, 판단된 위험도에 기초하여 획득된 건강 관련 정보를 외부의 전자 장치로 전송하도록 통신부를 제어할 수 있다.
예를 들어, 낙상, 화재, 유독 가스 등으로 인해 사용자가 기절하거나 또는 건강 상태가 위급한 경우, 프로세서(130)는 통신부를 통해 사용자의 상황을 가족, 지인의 휴대 전화에 알리거나 또는 외부 서버에 긴급 구조를 요청할 수 있다.
도 8a 내지 8b는 일 예로써, 낙상이 감지된 경우, 로봇(100)이 동작하는 일 예를 설명하기 위한 도면이다. 도 8a 내지 도 8b는, 집안 곳곳, 특히 낙상(넘어짐)을 할 수 있는 사람의 방마다 하나 이상의 낙상 감지 센서가 설치된 상황을 상정한다. 이때, 낙상 감지 센서는 카메라 센서, 뎁스 센서, DVS(Dynamic Vision Sensor) 등일 수 있으나 이에 한정되는 것은 아니다.
도 8a를 참조하면, 집안 내에 설치된 하나 이상의 낙상 감지 센서(810)를 통해 사용자(40)의 낙상이 감지된 경우, 로봇(100)은 통신부(도시되지 않음)를 통해 낙상의 발생을 알리는 정보를 낙상 감지 센서(810)로부터 수신할 수 있다.
이때, 프로세서(130)는 낙상 감지 센서(810)가 있는 위치 또는 낙상 감지 센서(810)로부터 수신된 정보에 포함된 위치로 이동하도록 바디(110)를 제어하는 한편, 하나 이상의 카메라 센서를 이용하여 해당 위치 주변에서 낙상한 사용자를 찾을 수 있다.
그리고, 도 8b를 참조하면, 낙상한 사용자(40)의 맥박수, 혈압 등 생체 정보를 하나 이상의 센서를 통해 획득하고, 획득된 생체 정보를 이용하여 사용자(40)의 건강의 위험도를 판단할 수 있다. 구체적으로, 카메라 센서를 통해 획득된 얼굴 영상을 통해 심박을 측정하거나 또는 UWB 센서를 통해 호흡수를 측정할 수 있다. 또한, 카메라 센서를 통해 획득된 이미지를 통해 사용자(40)의 움직임에 대한 정보를 획득하고, 이를 이용하여 사용자(40)의 건강의 위험도를 판단할 수도 있다.
이때, 위험도가 기설정된 정도 이상이라면(ex. 호흡이 불안정한 경우, 호흡이 없는 경우, 맥박이 매우 약하거나 불안정한 경우, 움직임이 없는 경우 등), 프로세서(130)는 사용자(40)의 가족, 보호자 또는 주치의 등의 휴대전화(850-1) 및 긴급 구조대(850-2)에 사용자(40)에 대한 정보를 전송하도록 통신부를 제어할 수 있다.
구체적으로, 프로세서(130)는 획득된 사용자(40)의 생체 정보, 사용자(40)의 위치에 대한 정보, 낙상 시점에 대한 정보, 카메라 센서를 통해 촬영된 사용자(40)의 이미지 데이터 등을 전송하도록 통신부를 제어할 수 있다.
프로세서(130)는 휴대전화(850-1) 및 긴급 구조대(850-2)와 자동으로 화상 통화를 수행하도록 카메라 센서, 마이크 센서, 스피커, 디스플레이 및 통신부를 제어할 수도 있다.
한편, 프로세서(130)는 획득된 건강 관련 정보에 기초하여, 통신부(도시되지 않음)를 통해 하나 이상의 전자 장치를 제어할 수도 있다.
도 9는 획득된 건강 관련 정보를 이용하여 하나 이상의 전자 장치를 제어하는 로봇(100)의 일 실시 예를 설명하기 위한 도면이다.
도 9를 참조하면, 로봇(100)은 통신부를 통해 집안 내 조명 장치(950-1), 에어컨(950-2), 공기 청정기(950-3) 등을 제어할 수 있다.
예를 들어, 로봇(100)은 카메라 센서를 통해 획득된 이미지를 통해 사용자의 행동을 식별하고, 이에 따라 조명 장치(950-1)를 제어할 수 있다. 구체적으로, 사용자가 낮잠을 자는데 사용자가 있는 장소의 조명 장치(950-1)가 켜져 있는 경우 조명 장치(950-1)의 전원을 원격 제어하여 끌 수 있다.
다른 예로, 로봇(100)은 온도 센서를 통해 감지된 온도가 실내 적정 온도로부터 기설정된 범위 이상 벗어나는 경우, 에어컨(950-2)을 원격 제어하여 실내 적정 온도를 유지할 수 있다.
또 다른 예로, 로봇(100)은 공기질 센서를 통해 집안 내 미세먼지 농도가 높다고 식별되는 경우, 공기 청정기(950-3)를 원격 제어하여 동작을 시작하도록 할 수도 있다.
다만, 로봇(100)이 통신부를 통해 제어할 수 있는 기기는 상술한 장치들에만 한정되는 것은 아니고, 다른 종류의 이동 로봇이나 가전기기가 될 수도 있다. 또한, 도 9에 도시되지는 않았으나, 로봇(100)은 제어 신호를 기기들(950-1, 2, 3)에 직접 전송하는 것이 아니라 별도의 서버(도시되지 않음)를 통해 전송할 수도 있다.
한편, 프로세서(130)는 획득된 건강 관련 정보를 서버를 포함하는 외부 장치에 전송하거나, 외부 장치로부터 건강 관련 정보를 수신할 수도 있다.
관련하여, 도 10은 획득된 건강 관련 정보를 복수의 외부 장치로 제공하거나 또는 건강 관련 정보를 외부 장치로부터 수신하는 일 예를 설명하기 위한 도면이다.
도 10을 참조하면, 서버(1050)상에 한 명 이상의 사용자의 건강 관련 정보에 대한 데이터베이스가 저장되어 있는 한편, 로봇(100)은 건강 관련 정보를 획득할 때마다 이를 서버(1050)로 전송하고, 서버(1050)는 데이터베이스에 포함된 사용자의 건강 관련 정보를 사용자의 가족, 지인, 간호인, 주치의 등의 휴대폰과 같은 외부 장치들(1060-1, 1060-2, 1060-3)에 제공할 수도 있다.
이때, 서버(1050)로부터 건강 관련 정보를 제공받는 외부 장치들(1060-1, 1060-2, 1060-3)은, 특정한 사용자의 데이터베이스에 접근하기 위한 명령이 입력되면, 별도의 인증 과정을 수행할 수도 있다. 서버(1050) 내 데이터베이스 형태로 저장된 사용자의 건강 관련 정보에 불특정 다수가 쉽게 접근하는 것을 방지하기 위해서이다.
또한, 도 10을 참조하면, 로봇(100)은 서버(1050)로부터 기상 정보, 주치의의 전자 장치로부터 수신된 사용자의 신체 상태와 관련된 주의사항 등에 정보를 수신하고, 이를 디스플레이 또는 오디오 출력부를 통해 사용자에게 알릴 수도 있다.
한편, 로봇(100)을 통해 획득되는 건강 관련 정보 및 기설정된 스케줄 정보는, 하나 이상의 외부 장치에 저장된 애플리케이션과 연동될 수 있다. 이때, 외부 장치는, 로봇(100)을 통해 획득되는 건강 관련 정보 및 기설정된 스케줄 정보를 제공할 뿐만 아니라, 스케줄 정보를 변경 또는 추가하라는 사용자 명령을 입력받아 기설정된 스케줄 정보를 변경할 수도 있다. 그 결과, 로봇(100)이 건강 관련 정보를 획득하는 일정이 변경될 수 있다.
도 11은 본 개시의 다양한 실시 예에 따른 로봇(100)의 구성을 설명하기 위한 블록도이다.
도 11을 참조하면, 로봇(100)은 바디(110) 및/또는 헤드(120)에 프로세서(130)는 물론, 복수의 센서(140), 메모리(150), 디스플레이(160), 오디오 출력부(170), 통신부(180), 입출력 포트(190) 등을 포함할 수 있다.
복수의 센서(140)는 PPG(Photoplethysmography) 센서, 카메라 센서, 마이크 센서, UWB(Ultra Wideband) 센서, 공기질 센서(미세먼지 센서 및/또는 가스 센서), 낙상 감지 센서, 조도 센서, 온도 센서, 체온 감지 센서 등 건강 관련 정보를 획득하기 위한 다양한 센서를 포함할 수 있다.
또한, 복수의 센서(140)는 거리 센서, 근접 센서, 레이더 센서, GPS 센서, 가속도 센서, 자이로 센서 등을 포함할 수 있다.
메모리(150)는 로봇(100)의 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System) 및 로봇(100)의 구성요소와 관련된 명령 또는 데이터를 저장하기 위한 구성이다.
이를 위해, 메모리(150)는 비휘발성 메모리(ex: 하드 디스크, SSD(Solid state drive), 플래시 메모리), 휘발성 메모리 등으로 구현될 수 있다.
메모리(150)에는 바디(110) 또는 헤드(120)에 배치된 각 센서가 동작하는 때에 바디(110) 및 헤드(120)를 제어하기 위한 정보가 저장되어 있을 수 있다. 구체적으로, 서로 다른 건강 관련 정보를 획득하기 위한 각 종류의 센서가 동작하는 경우, 바디(110)가 사용자에게 접근하는 거리 및 헤드(120)가 돌아가는 방향 및 각도에 대한 정보가 포함될 수 있다.
또한, 메모리(150)에는, 한 명 이상의 사용자의 건강 관련 정보에 대한 데이터 베이스가 저장되어 있는 한편, 데이터 베이스는 새롭게 획득되는 건강 관련 정보를 통해 업데이트될 수 있다.
디스플레이(160)는 프로세서(130)의 제어에 따라 하나 이상의 이미지를 표시하기 위한 구성이다. 이를 위해, 디스플레이(160)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), OLED(Organic Light Emitting Diodes), TOLED(Transparent OLED) 등으로 구현될 수 있다. LCD로 구성되는 경우, 디스플레이(160) 내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로(도시되지 않음), 백라이트 유닛(도시되지 않음) 등도 함께 포함될 수 있다.
한편, 디스플레이(160)는 사용자의 터치 조작을 감지할 수 있는 터치 패널이 포함된 터치스크린 형태로 구현되는 등 터치 센서를 포함할 수도 있다.
오디오 출력부(170)는 프로세서(130)의 제어에 따라 특정한 음성을 출력하기 위한 구성이다. 오디오 출력부(170)는 스피커(도시되지 않음) 및/또는 헤드폰/이어폰 출력 단자(도시되지 않음)로 구현될 수 있다.
프로세서(130)는 디스플레이(160) 및/또는 오디오 출력부(170)를 통해, 획득된 건강 관련 정보를 시각적/청각적으로 제공할 수 있다.
통신부(180)는 회로로 구성되는 한편, 외부 장치(도시되지 않음)와 무선 혹은 유선으로 데이터 통신을 수행하기 위한 수단이다. 프로세서(130)는 통신부(180)를 이용하여 각종 외부 기기와 통신을 수행할 수 있다.
무선 통신 방식으로 외부 장치와 데이터 통신을 수행할 경우, 통신부(180)는 와이파이 다이렉트(WIFI DIRECT) 통신 모듈, 블루투스(bluetooth)모듈, 적외선 통신(IrDA, infrared data association)모듈, NFC(Near Field Communication)모듈, 지그비(Zigbee) 모듈, 셀룰러 통신모듈, 3G(3세대) 이동통신 모듈, 4G(4세대) 이동통신 모듈, 4세대 LTE(Long Term Evolution) 통신 모듈, 5G(5세대) 이동통신 모듈 중 적어도 하나를 포함할 수 있다.
유선 통신 방식으로 외부 장치와 데이터 통신을 수행할 경우, 통신부(180)는 동축 케이블, 광섬유 케이블 등과 연결되어 LAN(Local Area Network) 통신을 수행함으로써 다양한 데이터를 송수신할 수도 있다.
프로세서(130)는 통신부(180)를 통해 다양한 외부 장치로부터 건강 관련 정보를 획득하거나 또는 복수의 센서(140)를 통해 획득한 건강 관련 정보를 다양한 외부 장치로 전송할 수도 있다.
입출력 포트(190)를 통해, 로봇(100)은 외부로부터 전력을 공급받거나 또는 외부에 전력을 공급할 수 있다. 또한, 입출력 포트(190)를 통해, 외부로부터 이미지/오디오에 대한 신호/데이터를 수신하거나 또는 외부에 이미지/오디오에 대한 데이터/신호를 전송할 수 있다.
이를 위해, 입출력 포트(190)는 HDMI 포트, 디스플레이 포트, RGB 포트, DVI(Digital Visual Interface) 포트, 썬더볼트 및 컴포넌트 포트 등 유선 포트로 구현될 수 있다.
입출력 포트(190)는 HDMI 포트나 썬더볼트 등으로 구현되어 이미지 및 오디오 신호를 함께 전송하도록 구현될 수도 있지만, 이미지 신호를 전송하는 제1 포트 및 음성 신호를 전송하는 제2 포트가 각각 별도로 구현된 것일 수도 있다.
입출력 포트(190)는 USB와 같은 인터페이스 모듈을 포함할 수 있으며, 이 같은 인터페이스 모듈을 통해 PC와 같은 외부 단말 장치와 물리적으로 연결되어 음성 또는 이미지 데이터를 송수신하거나 혹은 펌웨어 업그레이드를 수행하기 위한 펌웨어 데이터를 송수신할 수도 있다.
이하 도 12 내지 도 14을 통해서는, 본 개시에 따라, 이동 수단을 구비하는 바디 및 바디상에 배치되며 복수의 센서를 포함하는 헤드를 포함하는 로봇의 제어 방법을 설명한다.
도 12는 본 개시의 일 실시 예에 따른 로봇의 제어 방법을 설명하기 위한 순서도이다.
도 12를 참조하면, 본 제어 방법은 복수의 센서 중 적어도 하나의 센서에 기초하여 로봇의 헤드를 조절할 수 있다(S1210). 구체적으로, 기설정된 스케줄 정보에 따라 건강 관련 정보를 획득하기 위한 시간이 도래하면, 로봇이 사용자에게 접근하도록 바디를 제어하고, 기설정된 스케줄 정보에 대응되는 센서에 기초하여 로봇의 헤드를 조절할 수 있다. 다만, 기설정된 스케줄 정보가 아니라 사용자 명령이 입력 내지는 수신된 것에 기초하여 로봇의 바디 및 헤드를 제어할 수도 있다.
이 경우, 센서의 타입에 기초하여 건강 관련 정보를 획득하기 위한 로봇과 사용자 간의 거리를 판단하고, 판단된 거리에 기초하여 로봇이 사용자에게 접근하도록 바디를 제어할 수 있다.
또한, 헤드(120) 상의 해당 센서의 위치 및 해당 센서의 타입 중 적어도 하나에 기초하여 헤드의 움직임 각도를 판단하고, 판단된 움직임 각도에 기초하여 헤드를 조절할 수 있다. 이 경우, 해당 센서가 헤드 상의 어떤 위치에 어떤 방향으로 배치되었는지를 고려하여 헤드를 조절할 수 있다.
또한, 복수의 센서 중 카메라 센서를 통해 획득된 이미지에 기초하여 사용자의 자세를 판단하고, 판단된 자세에 기초하여 헤드를 조절할 수도 있다.
그리고, 조절된 헤드상의 센서를 통해 사용자의 건강 관련 정보를 획득할 수 있다(S1220). 구체적으로, 복수의 센서 중에서 기설정된 스케줄 정보에 대응되는 건강 관련 정보를 획득하기 위한 센서를 이용하여 건강 관련 정보를 획득할 수 있다.
건강 관련 정보는, 심박(맥박)수, 혈압, 호흡수, 안구 상태, 목소리, 피부 상태, 체온, 스트레스 정도, 감정 상태 등의 생체 정보뿐만 아니라, 건강 관리에 필요한 다양한 부수 정보를 더 포함할 수 있다. 예를 들어, 사용자의 운동에 대한 정보, 사용자의 복약에 대한 정보, 사용자의 자세에 대한 정보, 사용자의 주변 환경(ex. 공기질, 조명 환경, 소음, 온도)에 대한 정보, 사고 발생(ex. 사용자의 낙상 사고)에 대한 정보 등 다양한 부수 정보를 포함될 수 있다.
예로, 기설정된 스케줄 정보에 따라 사용자가 약을 복용할 시간이 도래하면, 카메라 센서를 통해 사용자를 촬영하여 이미지를 획득하고, 획득된 이미지에 기초하여 사용자의 복약 여부를 판단하며, 판단된 복약 여부에 대한 정보에 기초하여 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다.
다른 예로, 기설정된 스케줄 정보에 따라 사용자의 운동 시간이 도래하면, 사용자의 운동을 가이드하기 위한 이미지를 표시하는 한편, 카메라 센서를 통해 획득된 이미지에 기초하여 사용자의 운동에 대한 정보를 획득할 수도 있다. 이 경우, 획득된 사용자의 운동에 대한 정보에 기초하여 사용자의 운동을 가이드하기 위한 다른 이미지를 표시할 수도 있다.
한편, 본 제어 방법은, S1210 단계 이전에, 건강 관련 정보를 획득할 사용자를 찾기 위한 과정을 수행할 수 있다. 구체적으로, 카메라 센서, 레이더 센서, 근접 센서, 마이크 센서 등을 이용하여 특정 장소 내에 존재하는 사람들을 식별하는 한편, 로봇이 이동하도록 바디를 제어하면서 건강 관련 정보를 획득할 사용자를 찾을 수 있다.
이 경우, 복수의 센서 중 카메라 센서를 통해 획득된 이미지를 이용하여 사용자에 대한 인증을 수행할 수 있다. 이 경우, 한 명 이상의 사용자에 대해 인증을 수행할 수 있으며, 인증의 방식은 카메라 센서를 통한 얼굴인식뿐만 아니라 마이크 센서를 통한 음성 인식이나 지문 센서를 통한 지문 인식 등도 가능하다.
또한, S1220 단계 이후에, S1220 단계를 통해 획득된 건강 관련 정보를 기초로, 인증된 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트할 수 있다.
도 13은 본 개시에 따른 로봇의 제어 방법의 구체적인 일 예를 설명하기 위한 알고리즘이다.
도 13을 참조하면, 특정한 건강 관련 정보를 획득하기 위한 기설정된 스케줄이 도래하면(S1310 - Y), 해당 건강 관련 정보를 획득하기 위한 알람을 제공하는 한편 대상 사용자를 찾기 위해 이동하도록 바디(110)를 제어할 수 있다(S1330).
반면, 기설정된 스케줄이 도래하지 않았더라도(S1310 - N), 해당 건강 관련 정보를 획득하기 위한 사용자의 명령이 수신 또는 입력된 경우라면(S1320 - Y), 해당 관련 정보를 획득하기 위한 알람을 제공하는 한편 대상 사용자를 찾기 위해 이동하도록 바디를 제어할 수 있다(S1330).
그리고, 한 명 이상의 사용자의 얼굴을 헤드 카메라 센서를 통해 인식하여, 대상 사용자를 찾을 수 있다. 이때, 각 사용자의 얼굴을 인식하기에 적합한 위치로 이동하도록 바디를 제어함과 동시에 헤드의 각도를 조절할 수 있다(S1340). 그리고, 각 사용자의 얼굴을 인식하여(S1350), 대상 사용자인지 판단할 수 있다(S1360).
이때, 얼굴이 인식된 사용자가 대상 사용자가 아니면(S1360 - N) 다른 사용자에게 이동하여 해당 사용자의 얼굴을 인식하는 과정(S1330 - S1340 - S1350)을 반복할 수 있다.
만약, 얼굴이 인식된 사용자가 대상 사용자가 맞다면(S1360 - Y), 해당 건강 관련 정보를 획득하기 위한 센서에 적합하도록 헤드의 각도를 조절하고(S1370), 대상 사용자의 건강 관련 정보(S1380)를 획득할 수 있다. 이때, 해당 건강 관련 정보를 획득하기 위한 센서에 적합한 위치로 이동하도록 바디를 제어할 수 있다.
그리고, 획득된 건강 관련 정보를 대상 사용자의 데이터 베이스에 추가하여, 대상 사용자의 데이터 베이스를 업데이트할 수 있다(S1390).
한편, 본 제어 방법은, 통신부를 통해 외부의 전자 장치로부터 비상 상황에 대한 정보가 수신되면, 수신된 비상 상황에 대한 정보에 기초하여 비상 상황에 대응되는 위치로 로봇이 이동하도록 바디를 제어하고, 복수의 센서 중 적어도 하나의 센서를 이용하여 해당 위치에 존재하는 사용자의 건강 관련 정보를 획득할 수도 있다.
이때, 획득된 건강 관련 정보에 기초하여 해당 위치에 존재하는 사용자의 건강의 위험도를 판단하고, 판단된 위험도에 기초하여, 획득된 건강 관련 정보를 통신부를 통해 외부의 전자 장치로 전송할 수도 있다.
비상 상황에 대한 정보가 수신된 경우는, 예를 들어, 집안에 설치된 하나 이상의 낙상 감지 센서로부터 사용자의 낙상을 알리는 정보를 수신한 경우, 집안 내 화재 감지 센서 장치로부터 화재 발생을 알리는 정보를 수신한 경우, 집안 내 공기질 센서 장치로부터 유독 가스 검출을 알리는 정보를 수신한 경우 등에 해당할 수 있다.
관련하여, 도 14는 본 개시에 따른 로봇의 제어 방법에 있어, 낙상 센서를 통해 낙상이 감지된 경우 본 제어 방법에 대한 구체적인 실시 예를 설명하기 위한 순서도이다.
도 14를 참조하면, 낙상 센서로부터 낙상에 대한 정보가 획득된 경우(S1410), 낙상이 발생한 위치로 이동하도록 바디를 제어할 수 있다(S1420). 이때, 낙상에 대한 정보에는 낙상 발생 시점, 낙상 센서의 식별 번호 및 낙상 센서의 위치에 대한 정보 중 적어도 하나를 포함할 수 있고, 낙상에 대한 정보를 이용하여 낙상이 발생한 위치를 식별할 수 있다.
낙상이 발생한 위치로 이동한 후, 헤드에 부착된 카메라 센서를 통해 낙상을 겪은 사용자를 찾을 수 있다. 이를 위해 헤드를 조절할 수 있다(S1430).
낙상을 겪은 사용자를 찾으면, 카메라 센서를 통해 해당 사용자가 누구인지 인식하고(S1440), 헤드를 조절하여(S1450) 해당 사용자의 생체 정보를 획득할 수 있다(S1460). 구체적으로, 카메라 센서, UWB 센서 등을 통해 해당 사용자의 맥박수, 호흡수 등에 대한 정보를 획득할 수 있으며, 사용되는 센서에 따라 헤드의 각도가 달라질 수 있다.
그리고, 획득된 생체 정보를 통해 해당 사용자의 건강의 위험도를 판단할 수 있다(S1470). 만약, 판단된 위험도가 기설정된 정도 이상인 경우, 보호자의 휴대전화 또는 긴급 구조대 등의 외부 장치에 판단된 위험도에 대한 정보를 전송할 수 있다(S1480). 이때, 카메라 센서를 통해 획득된 해당 사용자에 대한 이미지를 외부 장치로 전송할 수도 있고, 카메라 센서, 마이크 센서, 스피커, 디스플레이, 통신부를 이용하여 해당 외부 장치에 해당 사용자와의 화상 통화를 제공할 수도 있다.
한편, 도 12 내지 도 14를 통해 설명한 로봇의 제어 방법은, 도 2 및 도 11을 통해 도시 및 설명한 로봇(100)을 통해 구현될 수 있다.
또는, 도 12 내지 도 14를 통해 설명한 로봇의 제어 방법은, 로봇(100) 및 하나 이상의 외부 장치(도시되지 않음)를 포함하는 시스템을 통해 구현될 수도 있다.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(Programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processor), 제어기(controller), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessor), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다.
일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서(130) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 전자 장치(100)에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자 장치(100)의 처리 동작을 상술한 특정 기기가 수행하도록 한다.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해돼서는 안 될 것이다.
100: 로봇 110: 바디
120: 헤드 130: 프로세서
140: 복수의 센서 150: 메모리
160: 디스플레이 170: 오디오 출력부
180: 통신부 190: 입출력 포트

Claims (20)

  1. 로봇에 있어서,
    이동 수단을 구비하는 바디;
    상기 바디 상에 배치되며, 복수의 센서를 포함하는 헤드; 및
    상기 복수의 센서 중 적어도 하나의 센서에 기초하여 상기 헤드를 조절하고, 상기 조절된 헤드의 상기 센서를 통해 사용자의 건강 관련 정보를 획득하는, 프로세서;를 포함하는, 로봇.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 헤드 상에서 상기 센서의 위치 및 상기 센서의 타입 중 적어도 하나에 기초하여 상기 헤드의 움직임 각도를 판단하고, 상기 판단된 움직임 각도에 기초하여 상기 헤드를 조절하는, 로봇.
  3. 제1항에 있어서,
    상기 복수의 센서는, 카메라 센서를 포함하고,
    상기 프로세서는,
    상기 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 자세를 판단하고, 상기 판단된 자세에 기초하여 상기 헤드를 조절하는, 로봇.
  4. 제1항에 있어서,
    상기 프로세서는,
    기설정된 스케줄 정보에 따라 상기 건강 관련 정보를 획득하기 위한 시간이 도래하면, 상기 로봇이 사용자에게 접근하도록 상기 바디를 제어하고, 상기 복수의 센서 중에서 상기 기설정된 스케줄 정보에 대응되는 건강 관련 정보를 획득하기 위한 센서를 이용하여 상기 건강 관련 정보를 획득하는, 로봇.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 센서의 타입에 기초하여 상기 건강 관련 정보를 획득하기 위한 상기 로봇과 상기 사용자 간의 거리를 판단하고, 상기 판단된 거리에 기초하여 상기 로봇이 상기 사용자에게 접근하도록 상기 바디를 제어하는, 로봇.
  6. 제1항에 있어서,
    상기 복수의 센서는, 카메라 센서를 포함하고,
    상기 프로세서는,
    상기 카메라 센서를 통해 획득된 이미지를 이용하여 상기 사용자에 대한 인증을 수행하고, 상기 획득된 건강 관련 정보에 기초하여 상기 인증된 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트하는, 로봇.
  7. 제1항에 있어서,
    상기 복수의 센서는, 카메라 센서를 포함하고,
    상기 프로세서는,
    기설정된 스케줄 정보에 따라 상기 사용자가 약을 복용할 시간이 도래하면, 상기 카메라 센서를 통해 상기 사용자를 촬영하여 이미지를 획득하고, 상기 획득된 이미지에 기초하여 상기 사용자의 복약 여부를 판단하고, 상기 판단된 복약 여부에 대한 정보에 기초하여 상기 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트하는, 로봇.
  8. 제1항에 있어서,
    디스플레이;를 더 포함하고,
    상기 복수의 센서는, 카메라 센서를 포함하고,
    상기 프로세서는,
    기설정된 스케줄 정보에 따라 상기 사용자의 운동 시간이 도래하면, 상기 사용자의 운동을 가이드하기 위한 이미지를 상기 디스플레이에 표시하고, 상기 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 운동에 대한 정보를 획득하며, 상기 획득된 사용자의 동작에 대한 정보에 기초하여 상기 사용자의 운동을 가이드하기 위한 다른 이미지를 상기 디스플레이에 표시하는, 로봇.
  9. 제1항에 있어서,
    스피커;를 더 포함하고,
    상기 복수의 센서는, 카메라 센서 및 마이크 센서를 포함하고,
    상기 프로세서는,
    상기 마이크 센서를 통해 획득된 상기 사용자의 음성 및 상기 카메라 센서를 통해 획득된 이미지에 포함된 상기 사용자의 얼굴 중 적어도 하나에 기초하여 상기 사용자의 감정 상태를 판단하고, 상기 스피커를 통해 상기 사용자의 감정 상태에 대응되는 음악을 재생하는, 로봇.
  10. 제1항에 있어서,
    회로(circuitry)를 포함하는 통신부;를 더 포함하고,
    상기 프로세서는,
    상기 통신부를 통해 외부의 전자 장치로부터 비상 상황에 대한 정보가 수신되면, 상기 수신된 비상 상황에 대한 정보에 기초하여 상기 비상 상황에 대응되는 위치로 상기 로봇이 이동하도록 상기 바디를 제어하고, 상기 복수의 센서 중 적어도 하나의 센서를 이용하여 상기 위치에 존재하는 사용자의 건강 관련 정보를 획득하는, 로봇.
  11. 제10항에 있어서,
    상기 프로세서는,
    상기 획득된 건강 관련 정보에 기초하여 상기 위치에 존재하는 사용자의 건강의 위험도를 판단하고, 상기 판단된 위험도에 기초하여 상기 획득된 건강 관련 정보를 외부의 전자 장치로 전송하도록 상기 통신부를 제어하는, 로봇.
  12. 이동 수단을 구비하는 바디 및 상기 바디 상에 배치되며 복수의 센서를 포함하는 헤드를 포함하는 로봇의 제어 방법에 있어서,
    상기 복수의 센서 중 적어도 하나의 센서에 기초하여 상기 헤드를 조절하는 단계; 및
    상기 센서를 통해 사용자의 건강 관련 정보를 획득하는 단계;를 포함하는, 제어 방법.
  13. 제12항에 있어서,
    상기 헤드를 조절하는 단계는,
    상기 헤드 상에서 상기 센서의 위치 및 상기 센서의 타입 중 적어도 하나에 기초하여 상기 헤드의 움직임 각도를 판단하고, 상기 판단된 움직임 각도에 기초하여 상기 헤드를 조절하는, 제어 방법.
  14. 제12항에 있어서,
    상기 헤드를 조절하는 단계는,
    상기 복수의 센서 중 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 자세를 판단하고, 상기 판단된 자세에 기초하여 상기 헤드를 조절하는, 제어 방법.
  15. 제12항에 있어서,
    기설정된 스케줄 정보에 따라 상기 건강 관련 정보를 획득하기 위한 시간이 도래하면, 상기 로봇이 사용자에게 접근하도록 상기 바디를 제어하는 단계;를 더 포함하고,
    상기 건강 관련 정보를 획득하는 단계는,
    상기 복수의 센서 중에서 상기 기설정된 스케줄 정보에 대응되는 건강 관련 정보를 획득하기 위한 센서를 이용하여 상기 건강 관련 정보를 획득하는, 제어 방법.
  16. 제12항에 있어서,
    상기 바디를 제어하는 단계는,
    상기 센서의 타입에 기초하여 상기 건강 관련 정보를 획득하기 위한 상기 로봇과 상기 사용자 간의 거리를 판단하고, 상기 판단된 거리에 기초하여 상기 로봇이 상기 사용자에게 접근하도록 상기 바디를 제어하는, 제어 방법.
  17. 제12항에 있어서,
    상기 복수의 센서 중 카메라 센서를 통해 획득된 이미지를 이용하여 상기 사용자에 대한 인증을 수행하는 단계; 및
    상기 획득된 건강 관련 정보에 기초하여 상기 인증된 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트하는 단계;를 더 포함하는, 제어 방법.
  18. 제12항에 있어서,
    상기 건강 관련 정보를 획득하는 단계는,
    기설정된 스케줄 정보에 따라 상기 사용자가 약을 복용할 시간이 도래하면, 상기 카메라 센서를 통해 상기 사용자를 촬영하여 이미지를 획득하고, 상기 획득된 이미지에 기초하여 상기 사용자의 복약 여부를 판단하며, 상기 판단된 복약 여부에 대한 정보에 기초하여 상기 사용자의 건강 관련 정보에 대한 데이터베이스를 업데이트하는, 제어 방법.
  19. 제12항에 있어서,
    기설정된 스케줄 정보에 따라 상기 사용자의 운동 시간이 도래하면, 상기 사용자의 운동을 가이드하기 위한 이미지를 표시하는 단계;
    상기 카메라 센서를 통해 획득된 이미지에 기초하여 상기 사용자의 운동에 대한 정보를 획득하는 단계; 및
    상기 획득된 사용자의 동작에 대한 정보에 기초하여 상기 사용자의 운동을 가이드하기 위한 다른 이미지를 표시하는 단계;를 더 포함하는, 제어 방법.
  20. 제12항에 있어서,
    통신부를 통해 외부의 전자 장치로부터 비상 상황에 대한 정보가 수신되면, 상기 수신된 비상 상황에 대한 정보에 기초하여 상기 비상 상황에 대응되는 위치로 상기 로봇이 이동하도록 상기 바디를 제어하는 단계;를 더 포함하고,
    상기 건강 관련 정보를 획득하는 단계는,
    상기 복수의 센서 중 적어도 하나의 센서를 이용하여 상기 위치에 존재하는 사용자의 건강 관련 정보를 획득하는, 제어 방법.
KR1020180173469A 2018-12-31 2018-12-31 헬스 케어 로봇 및 그 제어 방법. KR20200087337A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020180173469A KR20200087337A (ko) 2018-12-31 2018-12-31 헬스 케어 로봇 및 그 제어 방법.
US17/288,276 US20210394369A1 (en) 2018-12-31 2019-11-22 Healthcare robot and control method therefor
PCT/KR2019/016093 WO2020141727A1 (ko) 2018-12-31 2019-11-22 헬스 케어 로봇 및 그 제어 방법.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180173469A KR20200087337A (ko) 2018-12-31 2018-12-31 헬스 케어 로봇 및 그 제어 방법.

Publications (1)

Publication Number Publication Date
KR20200087337A true KR20200087337A (ko) 2020-07-21

Family

ID=71406681

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180173469A KR20200087337A (ko) 2018-12-31 2018-12-31 헬스 케어 로봇 및 그 제어 방법.

Country Status (3)

Country Link
US (1) US20210394369A1 (ko)
KR (1) KR20200087337A (ko)
WO (1) WO2020141727A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220052061A (ko) * 2020-10-20 2022-04-27 한국에너지기술연구원 자율주행 기반의 체온 모니터링 로봇 및 체온 모니터링 방법
US11933514B2 (en) 2018-12-19 2024-03-19 Samsung Electronics Co., Ltd. Air conditioner using gas sensing data and control method therefor

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587562B2 (en) * 2020-01-27 2023-02-21 John Lemme Conversational artificial intelligence driven methods and system for delivering personalized therapy and training sessions
US11501794B1 (en) * 2020-05-15 2022-11-15 Amazon Technologies, Inc. Multimodal sentiment detection

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7171286B2 (en) * 2003-02-24 2007-01-30 Intouch Technologies, Inc. Healthcare tele-robotic system with a robot that also functions as a remote station
US8935006B2 (en) * 2005-09-30 2015-01-13 Irobot Corporation Companion robot for personal interaction
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
KR100820316B1 (ko) * 2006-11-03 2008-04-07 송기무 베이비 케어 로봇
US20180344215A1 (en) * 2015-11-24 2018-12-06 Dacadoo Ag Automated health data acquisition, processing and communication system and method
EP2668008A4 (en) * 2011-01-28 2018-01-24 Intouch Technologies, Inc. Interfacing with a mobile telepresence robot
KR20130032891A (ko) * 2013-03-11 2013-04-02 (주)알앤디글로벌 웰니스 겸용 휴먼 케어 로봇
US9517559B2 (en) * 2013-09-27 2016-12-13 Honda Motor Co., Ltd. Robot control system, robot control method and output control method
US11093590B2 (en) * 2015-08-31 2021-08-17 Avaya Inc. Selection of robot operation mode from determined compliance with a security criteria
KR102393683B1 (ko) * 2015-10-21 2022-05-04 삼성전자주식회사 센서를 포함하는 전자 장치 및 그의 동작 방법
WO2017183319A1 (ja) * 2016-04-20 2017-10-26 株式会社ソニー・インタラクティブエンタテインメント ロボットおよび筐体
KR20180003890A (ko) * 2016-07-01 2018-01-10 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR102350493B1 (ko) * 2017-05-19 2022-01-14 삼성전자주식회사 수면과 관련된 정보를 결정하기 위한 전자 장치 및 방법
JP2019008570A (ja) * 2017-06-26 2019-01-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US11161236B2 (en) * 2017-09-14 2021-11-02 Sony Interactive Entertainment Inc. Robot as personal trainer
US10946528B2 (en) * 2018-06-01 2021-03-16 Irepa International, LLC Autonomous companion mobile robot and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11933514B2 (en) 2018-12-19 2024-03-19 Samsung Electronics Co., Ltd. Air conditioner using gas sensing data and control method therefor
KR20220052061A (ko) * 2020-10-20 2022-04-27 한국에너지기술연구원 자율주행 기반의 체온 모니터링 로봇 및 체온 모니터링 방법

Also Published As

Publication number Publication date
WO2020141727A1 (ko) 2020-07-09
US20210394369A1 (en) 2021-12-23

Similar Documents

Publication Publication Date Title
CN110874129B (zh) 显示系统
KR102407564B1 (ko) 생체 정보를 판단하는 전자 장치 및 이의 동작 방법
KR102561587B1 (ko) 전자 장치 및 그의 동작 방법
KR20200087337A (ko) 헬스 케어 로봇 및 그 제어 방법.
US10206573B2 (en) Method of obtaining biometric information in electronic device and electronic device for the same
KR102330096B1 (ko) 디스플레이로 영상 데이터가 전송되지 않는 구간에 생체 정보를 획득하기 위한 방법 및 전자 장치
US11023090B2 (en) Method and smart watch for displaying schedule tags
KR102296396B1 (ko) 비접촉 체온 측정 시 정확도를 향상시키기 위한 장치 및 방법
US9492630B2 (en) Wearable computing device and user interface method
US20130198685A1 (en) Controlling the display of a dataset
CN108076217A (zh) 用于显示使用图标的应用的执行屏幕的电子装置和方法
US11172450B2 (en) Electronic device and method for controlling operation thereof
KR20160057837A (ko) 전자 기기의 사용자 인터페이스 표시 방법 및 장치
CN105607696A (zh) 控制屏幕的方法以及用于处理该方法的电子设备
US10299716B2 (en) Side face image-based mental state determination
EP3068149B1 (en) Method and apparatus for controlling a electronic device in a communication system
KR20170046380A (ko) 센서를 포함하는 전자 장치 및 그의 동작 방법
CN112512411A (zh) 使用电子设备的情境感知呼吸率确定
KR20160051411A (ko) 외부의 물체를 제어하는 전자 장치 및 그 방법
WO2023040731A1 (zh) 用户姿势监测系统、方法及智能穿戴设备
WO2017016941A1 (en) Wearable device, method and computer program product
KR20190099847A (ko) 전자 장치 및 그의 자세 교정 방법
CN107077309A (zh) 显示控制方法及其电子设备
US11768598B2 (en) Device having a display and control method for obtaining output layout of information on the display
WO2015109907A1 (zh) 检测头戴式智能设备持续附着在人体上的装置和方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal