KR20240053736A - 대화가 가능한 돌봄 로봇 - Google Patents

대화가 가능한 돌봄 로봇 Download PDF

Info

Publication number
KR20240053736A
KR20240053736A KR1020220133623A KR20220133623A KR20240053736A KR 20240053736 A KR20240053736 A KR 20240053736A KR 1020220133623 A KR1020220133623 A KR 1020220133623A KR 20220133623 A KR20220133623 A KR 20220133623A KR 20240053736 A KR20240053736 A KR 20240053736A
Authority
KR
South Korea
Prior art keywords
user
information
conversation
control unit
care robot
Prior art date
Application number
KR1020220133623A
Other languages
English (en)
Inventor
금동옥
심우정
고영구
양승우
Original Assignee
주식회사 휠라인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 휠라인 filed Critical 주식회사 휠라인
Priority to KR1020220133623A priority Critical patent/KR20240053736A/ko
Publication of KR20240053736A publication Critical patent/KR20240053736A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Nursing (AREA)
  • Manipulator (AREA)

Abstract

사용자의 음성 및 영상에 대한 정보를 기반으로 상기 사용자와의 대화를 수행하는 돌봄 로봇이 개시된다. 돌봄 로봇은 사용자의 음성에 대한 음성정보를 클라우드 중 음성인식을 하는 클라우드 서버로 전송시켜 음성정보에 대한 텍스트 정보를 수집하고, 수집된 텍스트 정보를 클라우드 중 대화 답변을 지원하는 클라우드 서버로 전송시켜 텍스트 정보에 대한 대화 답변을 수집하며, 수집된 대화 답변이 출력되도록 제어하는 대화 지원부, 영상에 대한 영상정보를 이용하여 사용자의 상태정보를 추정하고, 사용자의 상태정보, 대화 답변 및 사용자에 의해 입력된 사용자 입력을 기반으로 다음에 수행할 행동 모드에 대한 제어신호를 생성하는 행동 제어부 및 제어신호에 따라 이동 및 이승 중 적어도 하나에 대한 구동을 제어하는 구동 제어부를 포함한다.

Description

대화가 가능한 돌봄 로봇{Conversational care robot}
본 발명은 돌봄 로봇에 관한 것으로, 더욱 상세하게는 대화를 하면서 각 사용자에 맞는 맞춤형 이동 및 이승에 대한 돌봄 서비스를 지원하는 대화가 가능한 돌봄 로봇에 관한 것이다.
돌봄 로봇은 장애인, 노인, 경증 치매환자와 같이 다양한 이유로 홀로 생활이 어려운 사람들의 일상생활을 보조하는 기계 장치이다. 돌봄 로봇은 가정, 병원, 요양원 등 다양한 곳에서 사용되고 있다.
돌봄 로봇 관련하여 개발이 가장 활발하게 이루어지는 분야는 이송, 자세 변환, 배설 도움, 식사 도움 등 반드시 필요하지만 혼자 할 수 없는 동작들을 보조하는 것이다. 그러나 종래의 돌봄 로봇은 돌봄 서비스를 제공받기 위해 조이스틱, 리모콘 등과 같은 컨트롤러로 제어되기 때문에, 컨트롤러를 사용하지 못하는 사용자인 경우 돌봄 서비스를 제공받지 못하는 문제점을 가지고 있다.
따라서 별도의 컨트롤러 사용 없이도 돌봄 서비스를 제공받을 수 있는 연구가 필요한 실정이다.
한국등록특허공보 제10-2261797호(2021.06.01.)
본 발명이 해결하고자 하는 과제는, 대화를 통해 음성정보를 수집하고, 수집된 음성정보와 영상정보를 기반으로 각 사용자에 맞는 맞춤형 자세 변환, 기립보조, 보행보조, 들어올림 등과 같은 이동 및 이승에 대한 돌봄 서비스를 지원하는 대화가 가능한 돌봄 로봇을 제공하는 것이다.
상기 과제를 해결하기 위해 본 발명에 따른 사용자의 음성 및 영상에 대한 정보를 기반으로 상기 사용자와의 대화를 수행하는 돌봄 로봇은, 상기 음성에 대한 음성정보를 클라우드 중 음성인식을 하는 클라우드 서버로 전송시켜 상기 음성정보에 대한 텍스트 정보를 수집하고, 상기 수집된 텍스트 정보를 상기 클라우드 중 대화 답변을 지원하는 클라우드 서버로 전송시켜 상기 텍스트 정보에 대한 대화 답변을 수집하며, 상기 수집된 대화 답변이 출력되도록 제어하는 대화 지원부, 상기 영상에 대한 영상정보를 이용하여 상기 사용자의 상태정보를 추정하고, 상기 사용자의 상태정보, 상기 대화 답변 및 상기 사용자에 의해 입력된 사용자 입력을 기반으로 다음에 수행할 행동 모드에 대한 제어신호를 생성하는 행동 제어부 및 상기 제어신호에 따라 이동 및 이승 중 적어도 하나에 대한 구동을 제어하는 구동 제어부를 포함하는 것을 특징으로 한다.
또한 상기 행동 제어부는, 상기 사용자의 상태정보와 상기 대화 답변을 이용하여 구동 가능한 행동 모드를 판단하고, 상기 판단된 결과가 출력되도록 제어하는 것을 특징으로 한다.
또한 상기 행동 제어부는, 상기 판단된 결과 중 구동 가능한 행동 모드가 상기 사용자 입력에 의해 선택되면 상기 제어신호를 생성하는 것을 특징으로 한다.
또한 상기 행동 제어부는, 위치 이동, 자세 변환, 물건 나르기, 의자 올리기, 기립 지원하기, 손잡고 보행하기, 허리 잡고 보행하기, 하네스 보행하기, 슬링 앉아 이동하기, 손잡기, 슬링 누워 이동하기 및 보드에 누워 이동하기 중 어느 하나의 행동 모드에 대한 제어신호를 생성하는 것을 특징으로 한다.
또한 상기 행동 제어부는, 상기 행동 모드 중 별도의 구성품을 상기 본체에 장착해야 하는 경우, 상기 구성품의 장착이 완료된 다음 상기 제어신호를 생성하는 것을 특징으로 한다.
또한 상기 행동 제어부는, 상기 행동 모드에 대응되는 눈 동작 및 경음이 출력되도록 상기 제어신호를 생성하는 것을 특징으로 한다.
또한 상기 행동 제어부는, 기 저장된 행동 모드의 구동 순서, 위치, 속도 및 메시지 출력 중 적어도 하나를 수정 또는 삭제하거나, 새로운 행동 모드를 추가하는 것을 특징으로 한다.
본 발명의 실시예에 따르면, 대화를 통해 사용자 원하는 돌봄 서비스를 검출하고, 영상정보를 통해 사용자의 주변 환경정보를 수집함으로써, 각 사용자에 맞는 맞춤형 자세 변환, 기립보조, 보행보조, 들어올림 등과 같은 이동 및 이승에 대한 돌봄 서비스를 지원할 수 있다.
특히 별도의 제어기 사용 없이 대화만으로 돌봄 서비스를 제공받아 거동이 불편한 사용자들에게 보다 편리함을 제공할 수 있다.
도 1은 본 발명의 실시예에 따른 돌봄 로봇 시스템을 설명하기 위한 구성도이다.
도 2는 본 발명의 실시예에 따른 돌봄 로봇을 설명하기 위한 블록도이다.
도 3, 도 4 및 도 5는 본 발명의 실시예에 따른 돌봄 로봇을 다양한 각도에서 바라본 사시도이다.
도 6, 도 7 및 도 8은 본 발명의 실시예에 따른 케이스가 부착된 돌봄 로봇의 다양한 각도에서 바라본 사시도이다.
도 9는 본 발명의 실시예에 따른 사용자 인터페이스의 메인 홈을 설명하기 위한 도면이다.
도 10은 본 발명의 실시예에 따른 행동 모드를 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 행동 모드 중 물건 나르기 기능을 설명하기 위한 도면이다.
도 12는 본 발명의 실시예에 따른 행동 모드 중 의자 올리기 기능을 설명하기 위한 도면이다.
도 13은 본 발명의 실시예에 따른 행동 모드 중 기립 지원 기능을 설명하기 위한 도면이다.
도 14는 본 발명의 실시예에 따른 행동 모드 중 손잡고 보행 기능을 설명하기 위한 도면이다.
도 15는 본 발명의 실시예에 따른 행동 모드 중 허리 잡고 보행 기능을 설명하기 위한 도면이다.
도 16은 본 발명의 실시예에 따른 행동 모드 중 하네스 보행 기능을 설명하기 위한 도면이다.
도 17은 본 발명의 실시예에 따른 행동 모드 중 슬링 앉아 이동 기능을 설명하기 위한 도면이다.
도 18은 본 발명의 실시예에 따른 행동 모드 중 손잡음 기능을 설명하기 위한 도면이다.
도 19는 본 발명의 실시예에 따른 행동 모드 중 슬링 누워 이동 기능을 설명하기 위한 도면이다.
도 20은 본 발명의 실시예에 따른 행동 모드 중 보드에 누워 이동 기능을 설명하기 위한 도면이다.
도 21은 본 발명의 실시예에 따른 컴퓨팅 장치를 설명하기 위한 블록도이다.
본 발명은 [표 1]에 기재된 연구 과제로부터 지원받은 특허이다.
과제번호 RR-22-02
부처명 경기도
과제관리전문기관명 경기도 경제과학진흥원
연구사업명 경기도 로봇산업 육성지원(실증지원사업) 사업
연구과제명 노인&장애인 이동이승 돌봄로봇의 현장 사용성 및 상호작용 실증
기여율 100%
과제수행기관명 (주)휠라인
연구기간 2022.07.01 ~ 2022.11.30.(5개월)
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
본 명세서 및 도면(이하 '본 명세서')에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.
도 1은 본 발명의 실시예에 따른 돌봄 로봇 시스템을 설명하기 위한 구성도이다.
도 1을 참조하면, 돌봄 로봇 시스템(500)은 대화를 통해 음성정보를 수집하고, 수집된 음성정보와 영상정보를 기반으로 각 사용자에 맞는 맞춤형 자세 변환, 기립보조, 보행보조, 들어올림 등과 같은 이동 및 이승에 대한 돌봄 서비스를 지원한다. 돌봄 로봇 시스템(500)은 별도의 제어기 사용 없이 대화만으로 돌봄 서비스를 제공받아 거동이 불편한 사용자들에게 보다 편리함을 제공할 수 있다. 돌봄 로봇 시스템(500)은 돌봄 로봇(100) 및 클라우드 서버(300)를 포함한다.
돌봄 로봇(100)은 사용자의 음성을 입력받고, 사용자의 영상을 촬영한다. 돌봄 로봇(100)은 입력된 음성에 대한 음성정보를 클라우드 서버들 중 음성인식을 하는 클라우드 서버로 전송하여 음성정보에 대한 텍스트 정보를 수집한다. 돌봄 로봇(100)은 수집된 텍스트 정보를 클라우드 서버들 중 음성인식을 하는 클라우드 서버로 전송시켜 음성정보에 대한 텍스트 정보를 수집한다. 돌봄 로봇(100)은 수집된 텍스트 정보를 클라우드 서버들 중 대화 답변을 지원하는 클라우드 서버로 전송시켜 텍스트 정보에 대한 대화 답변을 수집한다. 이때 돌봄 로봇(100)은 수집된 대화 답변을 음성합성(Text to Speech, TTS)으로 출력할 수 있다. 돌봄 로봇(100)은 촬영된 영상에 대한 영상정보를 이용하여 사용자의 상태정보를 추정한다. 여기서 사용자의 상태정보는 사용자가 현재 어디에 위치하고, 어떤 자세를 취하고 있는지 나타내는 정보일 수 있다. 돌봄 로봇(100)는 사용자의 상태정보, 대화 답변 및 사용자에 의해 입력된 사용자 입력을 기반으로 다음에 수행할 행동 모드에 대한 제어신호를 생성한다. 돌봄 로봇(100)는 생성된 제어신호에 따라 이동 및 이승 중 적어도 하나에 대한 구동을 수행할 수 있다.
클라우드(300)는 외부 접속을 통해 다양한 작업을 수행해주는 그룹핑된 서버들을 의미한다. 즉 클라우드(300)는 복수의 클라우드 서버를 포함한다. 바람직하게는 클라우드는 음성정보를 텍스트 정보로 변환하는 음성인식 관련 클라우드 서버, 텍스트 정보에 대한 최적의 대화 답변을 도출하는 대화지원 관련 클라우드 서버 등을 포함할 수 있다.
한편 돌봄 로봇 시스템(500)은 돌봄 로봇(100)과 클라우드(300) 사이에 통신망(550)을 구축하여 서로 간의 통신을 지원한다. 통신망(550)은 백본망과 가입자망으로 구성될 수 있다. 백본망은 X.25 망, Frame Relay 망, ATM망, MPLS(Multi Protocol Label Switching) 망 및 GMPLS(Generalized Multi Protocol Label Switching) 망 등 중에 하나 또는 복수의 통합된 망으로 구성될 수 있다. 가입자망은 FTTH(Fiber To The Home), ADSL(Asymmetric Digital Subscriber Line), 케이블망, 지그비(zigbee), 블루투스(bluetooth), Wireless LAN(IEEE 802.11b, IEEE 802.11a, IEEE 802.11g, IEEE 802.11n), Wireless Hart(ISO/IEC62591-1), ISA100.11a(ISO/IEC 62734), CoAP(Constrained Application Protocol), MQTT(Message Queuing Telemetry Transport), WIBro(Wireless Broadband), Wimax, 3G, HSDPA(High Speed Downlink Packet Access), 4G, 5G 및 6G 등일 수 있다. 일부 실시예로, 통신망(550)은 인터넷망일 수 있고, 이동 통신망일 수 있다. 또한 통신망(550)은 기타 널리 공지되었거나 향후 개발될 모든 무선통신 또는 유선통신 방식을 포함할 수 있다.
도 2는 본 발명의 실시예에 따른 돌봄 로봇을 설명하기 위한 블록도이고, 도 3 내지 도 5는 본 발명의 실시예에 따른 돌봄 로봇을 다양한 각도에서 바라본 사시도이다.
도 1 내지 도 5를 참조하면, 돌봄 로봇(100)은 본체(10), 통신부(20), 마이크(30), 카메라(40), 센서부(50), 제어부(60), 이송부(70), 입출력부(80) 및 저장부(90)를 포함한다.
본체(10)는 상하로 이동하면서 복수의 링크로 결합된 로봇팔을 포함하는 프레임이다. 본체(10)는 가이드 프레임(11), 이동부(13), 한 쌍의 제1 링크부(14a, 14b) 및 한 쌍의 제2 링크부(15a, 15b)를 포함하고, 중심부(12), 사용자 지지부(16)를 더 포함할 수 있다.
가이드 프레임(11)은 지면에서 상승하는 방향으로 세워진다. 가이드 프레임(11)은 이동부(13)가 상하 이동을 가이드하는 가이드 레일 등이 구비될 수 있다. 이를 위해 가이드 프레임(11)이 바(bar) 형상이지만 이에 한정하지 않을 수 있다. 또한 가이드 프레임(11)의 길이는 사용 환경 등을 고려하여 다양하게 변형될 수 있다.
중심부(12)는 가이드 프레임(11)의 하부에 형성되고, 무게 중심을 잡아준다. 상세하게는 중심부(12)는 지면에서부터 가이드 프레임(11)의 하측 후방까지 형성될 수 있다. 중심부(12)는 무게 중심을 낮춰 안정감을 줄 뿐만 아니라, 후방으로 밀리는 것을 막아주는 역할도 수행할 수 있다. 이때 중심부(12)는 후방면에 후미등(12a)을 구비하여 후방으로 빛을 밝힐 수 있다.
이동부(13)는 가이드 프레임(11)을 따라 상하 이동을 한다. 이동부(13)는 이동을 위한 구동장치를 구비할 수 있다. 또한 이동부(13)는 양 측에 가이드 프레임(11)의 폭보다 넓게 돌출된 한 쌍의 링크 체결부(13a, 13b)가 형성될 수 있다.
한 쌍의 제1 링크부(14a, 14b)는 각각 일단이 이동부(13)의 링크 체결부(13a, 13b)에 결합된다. 제1 링크부(14a, 14b)는 서로 평행한 두 개의 제1 회전축을 중심으로 이동부(13)에 회전 가능하게 결합됨으로써, 가이드 프레임(11)의 일면과 평행하게 회전한다. 또한 제1 링크부(14a, 14b)의 회전을 위해, 링크 체결부(13a, 13b)는 내부에 모터 등의 구동장치가 설치될 수 있다.
한 쌍의 제2 링크부(15a, 15b)는 각각 일단이 제1 링크부(14a, 14b)의 타단에 제1 회전축과 수직인 제2 회전축을 중심으로 회전 가능하게 결합된다. 이때 제2 링크부(15a, 15b)는 제1 링크부(14a, 14b)에 아이들(idle) 결합이 될 수 있다. 여기서 아이들 결합은 제2 링크부(15a, 15b)가 제1 링크부(14a, 14b)에 고정적으로 결합된 것이 아니라, 제1 링크부(14a, 14b)의 움직임과 무관하게 자유로운 회전이 가능하도록 하는 결합을 의미한다. 또한 제2 링크부(15a, 15b)의 회전을 위해, 제1 링크부(14a, 14b)와 제2 링크부(15a, 15b)의 결합 부분은 모터(M) 등의 구동장치가 설치될 수 있다. 한편 제2 링크부(15a, 15b)는 부재의 무게를 줄이기 위해 일부분에 관통홈을 형성할 수 있다. 또한 제2 링크부(15a, 15b)는 끝단이 꺾여 있어 사용자를 들거나, 이동시킬 때 안전하게 할 수 있으며, 끈, 물건 등을 거치할 때 빠지지 않도록 할 수 있다.
사용자 지지부(16)는 가이드 프레임(11)의 하부에 설치되고, 사용자를 지지하는 역할을 수행한다. 즉 사용자는 사용자 지지부(16)에 무릎, 정강이 등을 접촉하여 몸을 고정하거나, 일으킬 수 있다. 사용자 지지부(16)는 원활한 사용을 위해 2개의 홈이 형성된 형상일 수 있다. 또한 사용자 지지부(16)는 사용자의 신체와 접하는 부분에 대해 부드러운 재질로 형성하여 사용자의 사용감이 향상되도록 할 수 있다. 이때 사용자 지지부(16)는 연결부재(16a)를 통해 가이드 프레임(11)에 탈부착 가능하게 고정될 수 있다. 사용자 지지부(16)는 연결부재(16a)가 사용자 지지부(16)를 관통하여 관통구에 삽입됨으로 고정될 수 있으나, 이에 한정하지 않는다. 사용자 지지부(16)는 높낮이 조절이 가능하도록 설치될 수 있다. 이를 위해 연결 부재(16a)는 복수의 관통구가 형성되고, 사용자 지지부(16)는 체결되는 관통구를 조절함으로써, 높낮이를 조절할 수 있다. 또는 사용자 지지부(16)는 높낮이 조절을 위한 구동 장치를 구비할 수 있다. 이때 사용자는 사용자 입력을 입력하여 구동장치를 동작시켜 사용자 지지부(16)의 높낮이를 조절할 수 있다.
통신부(20)는 본체(10)에 구비되고, 클라우드(300)와의 통신을 수행한다. 즉 통신부(20)는 클라우드(300)에 포함된 적어도 하나의 클라우드 서버와 통신을 수행한다. 통신부(20)는 음성정보와 음성정보에 대한 텍스트 정보를 클라우드(300)로 전송하고, 클라우드(300)로부터 음성정보에 대한 텍스트 정보와 텍스트 정보에 대한 답변을 수신한다.
마이크(30)는 본체(10)에 구비되고, 사용자의 음성을 입력받는다. 마이크(30)는 이동부(13)에 구비될 수 있고, 바람직하게는 사용자와 대향하는 방향(이동부의 전방)에 구비될 수 있다. 마이크(30)는 사용자의 음성에 포함된 노이즈(noise)를 자체적으로 필터링할 수 있다.
카메라(40)는 본체(10)에 구비되고, 사용자를 촬영한다. 카메라(40)는 이동부(13)에 구비될 수 있고, 바람직하게는 사용자와 대향하는 방향(이동부의 전방)에 구비될 수 있다. 카메라(40)는 사용자뿐만 아니라, 주변 환경도 촬영하여 추후 사용자의 상태정보를 추정하기 위한 데이터로 활용될 수 있다.
센서부(50)는 본체(10)에 구비되고, 충격, 무게 등을 감지한다. 센서부(50)는 이동부(13), 제1 링크부 (14a, 14b), 제2 링크부(15a, 15b), 사용자 지지부(16)에 구비될 수 있고, 바람직하게는 사용자와의 접촉이 이루어지는 부분에 구비될 수 있다. 센서부(50)는 사용자 또는 별도의 구성품과의 접촉에 의한 충격을 감지하거나, 무게에 대한 압력을 감지할 수 있다.
제어부(60)는 전반적인 돌봄 로봇(100)의 제어를 수행한다. 제어부(60)는 대화 지원부(61), 행동 제어부(62) 및 구동 제어부(63)를 포함한다.
대화 지원부(61)는 사용자와의 대화를 가능하도록 지원한다. 대화 지원부(61)는 마이크(30)를 통해 사용자의 음성이 입력되면 음성에 대한 음성정보를 클라우드(300) 중 음성인식을 하는 클라우드 서버로 전송시킨다. 이를 통해 대화 지원부(61)는 클라우드 서버에서 음성인식하여 음성정보를 텍스트로 변환한 텍스트 정보를 수집할 수 있다. 대화 지원부(61)는 수집된 텍스트 정보를 클라우드 중 대화 답변을 지원하는 클라우드 서버로 전송시킨다. 이를 통해 대화 지원부(61)는 클라우드 서버에서 도출한 대화 답변을 수집할 수 있다. 한편 대화 지원부(61)가 음성정보와 텍스트 정보를 전송하는 클라우드 서버는 동일한 서버일 수도 있고, 서로 다른 서버일 수도 있다. 대화 지원부(61)는 수집된 대화 답변을 행동 제어부(62)에 전달하면서 입출력부(80)에서 음성으로 출력되도록 제어한다.
행동 제어부(62)는 카메라(40)에서 촬영된 영상에 대한 영상정보를 이용하여 사용자의 상태정보를 추정한다. 사용자의 상태정보는 현재 사용자의 외형(성별, 나이, 신체조건 등), 위치, 주변 환경 등을 나타내는 정보를 의미하고, 추후 제어신호를 생성할 때, 해당 사용자의 상태에 맞도록 본체(10) 및 이송부(70)를 조정할 수 있다. 예를 들어 행동 제어부(62)는 영상정보를 이용하여 사용자가 남자이고, 나이가 60대이며, 키가 165~170cm이고, 이동부(13)의 전방 2m에 위치하며, 주변에 다른 사용자가 존재하지 않는다는 상태정보를 추정할 수 있고, 추정된 상태정보를 통해 이동부(11)의 높이를 사용자의 키에 맞게 상하 이동하거나, 이송부(70)의 구동되도록 제어할 수 있다.
행동 제어부(62)는 추정된 사용자의 상태정보, 수집된 대화 답변 및 사용자에 의해 입력된 사용자 입력을 기반으로 다음에 수행할 행동 모드에 대한 제어신호를 생성한다. 상세하게는 행동 제어부(62)는 사용자의 상태정보와 대화 답변을 이용하여 구동 가능한 행동 모드를 판단한다. 이때 행동 제어부(62)는 구동 가능한 행동 모드를 '가능', '불가능'과 같이 구분하여 판단할 수 있다. 행동 모드는 위치 이동, 자세 변환, 물건 나르기, 의자 올리기, 기립 지원하기, 손잡고 보행하기, 허리 잡고 보행하기, 하네스 보행하기, 슬링 앉아 이동하기, 손잡기, 슬링 누워 이동하기 및 보드에 누워 이동하기 중 적어도 하나를 포함할 수 있다. 행동 제어부(62)는 판단된 결과가 입출력부(80)를 통해 출력되도록 제어한다. 행동 제어부(62)는 판단된 결과 중 구동 가능한 행동 모드가 사용자 입력에 의해 선택되면 해당 행동 모드에 대한 제어신호를 생성한다. 제어신호는 해당 행동 모드를 수행하기 위해 돌봄 로봇(100)의 구동을 제어하는 신호를 의미한다.
한편 행동 제어부(62)는 행동 모드 중 별도의 구성품을 본체(10)에 장착해야 하는 경우, 구성품의 장착이 완료된 다음 제어신호를 생성한다. 예를 들어 행동 제어부(62)는 사용자 입력에 의해 구성품의 장착이 필요한 행동 모드가 선택되면 바로 제어신호를 생성하지 않고, 구성품 장착을 요청하는 메시지를 입출력부(80)를 통해 출력되도록 제어한다. 행동 제어부(62)는 사용자에 의해 구성품 장착의 완료됨을 나타내는 사용자 입력이 입력된 다음에 제어신호를 생성할 수 있다. 구성품은 끈, 물건, 의자, 하네스, 슬링, 보드 등을 포함할 수 있다.
또한 행동 제어부(62)는 행동 모드에 대응되는 입출력부(80)를 통해 눈 동작 및 경음이 출력되도록 제어신호를 생성할 수 있다. 이때 눈 동작 및 경음은 [표 2]과 같이 출력되도록 설정될 수 있으나, 이에 한정하지 않는다.
행동 모드 눈 동작 경음
정지 웃고 있음 -
대기 감고 있음 -> 깜박임 -
사용자 입력(터치) 눈 띄고 깜박임 -> 웃음 -
이동(전진) 속도에 따라 눈 커짐/작아짐 멜로디
이동(후진) 작아짐 멜로디
이동(좌회전) 좌측 보기 멜로디
이동(우회전) 우측 보기 멜로디
자세 변환(이동부 상승) 위로 보기 힘쓰는 소리
자세 변환(이동부 하강) 아래로 보기 -
자세 변환(오른팔 올림/내림) 좌측 보기 -
자세 변환(왼팔 올림/내림) 우측 보기 -
슬링 앉아 이동 눈 마주침상향 -> 힘쓰는 눈 힘쓰는 소리
손잡음 전방 보기 -
슬링 누워 이동 얼굴 방향 보기 -
보드에 누워 이동 얼굴 방향 보기 -
한편 행동 제어부(62)는 기 저장된 행동 모드의 구동 순서, 위치, 속도 및 메시지 출력 중 적어도 하나를 수정 또는 삭제하거나, 새로운 행동 모드를 추가할 수 있다. 이를 통해 행동 제어부(62)는 주기적으로 사용하는 행동 모드를 사용자에 점진적으로 맞춰가거나, 사용하지 않는 행동 모드를 삭제할 수 있다. 또한 행동 제어부(62)는 새롭게 수행되는 행동에 대한 행동 모드를 추가함으로써, 다양한 행동 모드를 사용자에게 맞게 지원할 수 있다. 구동 제어부(63)는 제어신호에 따라 이동 및 이승 중 적어도 하나에 대한 구동을 제어한다. 즉 구동 제어부(63)는 제어신호에 포함된 각 구성의 구동을 제어할 수 있다. 여기서 구동 제어부(63)는 별도의 조이스틱(미도시), 컨트롤러(미도시) 등을 통해 제어신호가 입력된 경우, 해당 제어신호에 따라 이동 및 이승 중 적어도 하나에 대한 구동을 제어할 수 있다.
이송부(70)는 중심부(12)의 하부에 설치되고, 본체(10)를 제어신호에 따라 이동시킨다. 이송부(70)는 복수의 바퀴를 포함한다. 예를 들어 복수의 바퀴는 중심부(12)의 후방에 2개의 바퀴(71)와, 중심부(12)로부터 이격된 2개의 바퀴(72)를 포함한다. 이때 2개의 바퀴(72)는 중심부(12)와 이격되기 위해 조절바(73)에 설치될 수 있다. 조절바(73)은 중심부(12)에 삽입 또는 중심부(12)로부터 인출 가능하도록 설치되고, 소정 각도 범위 내에서 회전이 가능하다. 따라서 2개의 바퀴(72)에 대한 위치 조절이 가능함에 따라 돌봄 로봇(100)은 이동 중에도 안정감을 유지할 수 있다.
입출력부(80)는 사용자에 의해 입력되는 사용자 입력을 입력받고, 돌봄 로봇(100)의 상태를 출력한다. 또한 입출력부(80)는 사용자에게 대화 답변을 출력한다. 이를 위해 입출력부(80)는 터치스크린 기능 및 스피커 기능이 포함된 디스플레이일 수 있다. 바람직하게는 입출력부(80)는 이동부(13)의 중앙에 위치한 제1 입출력부(81) 및 이동부(13)의 상부에 위치한 제2 입출력부(82)를 포함할 수 있다.
제1 입출력부(81)은 돌봄 로봇(100)의 동작 상태, 행동 모드 등과 같은 모니터링 정보를 사용자 인터페이스로 표시할 수 있다. 또한 제1 입출력부(81)는 돌봄 로봇(100)에 대한 사용자 입력을 입력받을 수 있고, 사용자에게 대화 답변을 출력할 수 있다. 제2 입출력부(82)는 이동부(13)로부터 인장되거나, 이동부(13)로 삽입되도록 설치될 수 있다. 제2 입출력부(82)는 제1 입출력부(81)의 보조 디스플레이로 사용될 수 있으며, 돌봄 로봇(100)의 행동 모드에 따른 눈 동작을 표시할 수 있다.
저장부(90)는 돌봄 로봇(100)이 구동되기 위한 프로그램 또는 알고리즘이 저장된다. 저장부(90)는 음성정보, 영상정보, 대화 답변, 사용자의 상태정보, 사용자 입력 등이 저장된다. 또한 저장부(90)는 행동 모드와 관련된 정보가 저장된다. 저장부(90)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기메모리, 자기 디스크 및 광디스크 중 적어도 하나의 저장매체를 포함할 수 있다.
도 6 내지 도 8은 본 발명의 실시예에 따른 케이스가 부착된 돌봄 로봇의 다양한 각도에서 바라본 사시도이다.
도 6 내지 도 8을 참조하면, 돌봄 로봇(200)은 전체적으로 커버를 활용하여 다양한 색상과 심미감을 높일 수 있다. 이를 통해 돌봄 로봇(200)은 사용자가 로봇에 대한 거부감을 줄일 수 있도록 도와준다.
가이드 프레임(211)은 상단면에 탑커버(211a)가 부착될 수 있다. 가이드 프레임(211)은 탑커버(211a)를 통해 외부로부터 먼지, 오염 물질 등이 유입되는 것을 차단할 수 있다. 가이드 프레임(211)은 상단에 전조등(211b)가 설치되고, 전면에는 전면 커버(211c)가 부착될 수 있다. 가이드 프레임(211)은 후방에 이동 손잡이(211d)가 설치될 수 있다. 관리자는 이동 손잡이(211d)를 잡고 돌봄 로봇(200)을 수동으로 밀거나, 당겨 이동시킬 수 있다. 또한 가이드 프레임(211)은 후방에 컨트롤러 거치대(211e)가 설치되고, 컨트롤러 거치(211e)에 컨트롤러(211f)가 거치될 수 있다. 사용자는 컨트롤러(211f)를 통해 돌봄 로봇(200)에 사용자 입력을 입력하여 구동을 제어할 수 있다. 중심부(212)는 하부의 후방에 후미등(212a)과 반사판(212c)이 설치될 수 있다. 이를 통해 돌봄 로봇(200)은 후방에서 접근하는 다른 사용자에게 주의하라는 신호를 줄 수 있다. 마지막으로 중심부(212)의 하부의 전방에는 발 받침대(212b)가 설치되어 사용자가 돌봄 로봇(200)의 탑승을 원활하게 이루어지도록 도와줄 수 있다.
제1 링크부(214a, 214b)는 사용자 손잡이(214c)가 설치될 수 있다. 사용자는 돌봄 로봇(200)을 이용할 때 사용자 손잡이(214c)를 잡아 안정적으로 돌봄 로봇(200)을 이용할 수 있다. 제2 링크부(215a, 215b)도 제1 링크부(214a, 214b)와 마찬가지로 안전 손잡이(215c)가 설치됨으로써, 사용자가 돌봄 로봇(200)을 이용할 때 안전 손잡이(215c)를 잡을 수 있도록 할 수 있다. 사용자는 돌봄 로봇(200)을 사용하는 방법에 따라 사용자 손잡이(214c) 또는 안전 손잡이(215c)를 선택적으로 잡을 수 있다. 한편 제2 링크부(215a, 215b)는 상단에 복수의 홈을 형성될 수 있다. 이러한 홈은 돌봄 로봇(200)에 끈, 물건 등을 거치할 때 빠지지 않도록 할 수 있다. 또한 사용자들에게 거부감을 없애기 위해 제2 링크부(215a, 215b)도 커버로 감싸일 수 있다.
제2 입출력부(282)는 카메라를 통해 촬영된 사용자의 영상정보에 의해 감지된 움직임에 따라 눈 동작을 다양한 모양으로 출력할 수 있다. 이를 통해 사용자는 돌봄 로봇(100)에 대한 친밀감을 향상시킬 수 있다.
도 9는 본 발명의 실시예에 따른 사용자 인터페이스의 메인 홈을 설명하기 위한 도면이고, 도 10은 본 발명의 실시예에 따른 행동 모드를 설명하기 위한 도면이며, 도 11은 본 발명의 실시예에 따른 행동 모드 중 물건 나르기 기능을 설명하기 위한 도면이고, 도 12는 본 발명의 실시예에 따른 행동 모드 중 의자 올리기 기능을 설명하기 위한 도면이며, 도 13은 본 발명의 실시예에 따른 행동 모드 중 기립 지원 기능을 설명하기 위한 도면이고, 도 14는 본 발명의 실시예에 따른 행동 모드 중 손잡고 보행 기능을 설명하기 위한 도면이며, 도 15는 본 발명의 실시예에 따른 행동 모드 중 허리 잡고 보행 기능을 설명하기 위한 도면이고, 도 16은 본 발명의 실시예에 따른 행동 모드 중 하네스 보행 기능을 설명하기 위한 도면이며, 도 17은 본 발명의 실시예에 따른 행동 모드 중 슬링 앉아 이동 기능을 설명하기 위한 도면이고, 도 18은 본 발명의 실시예에 따른 행동 모드 중 손잡음 기능을 설명하기 위한 도면이며, 도 19는 본 발명의 실시예에 따른 행동 모드 중 슬링 누워 이동 기능을 설명하기 위한 도면이고, 도 20은 본 발명의 실시예에 따른 행동 모드 중 보드에 누워 이동 기능을 설명하기 위한 도면이다.
도 1, 도 3, 도 9 내지 도 20을 참조하면, 돌봄 로봇(100)은 사용자 인터페이스를 통한 다양한 돌봄 서비스를 제공할 수 있으며, 이러한 사용자 인터페이스는 제1 입출력부(81)를 통해 출력될 수 있다. 돌봄 로봇(100)은 홈 화면(600)을 나타내는 사용자 인터페이스를 통해 조이스틱 조정(610), 터치 조정(62), 모드 조정(630), 교시(640), 대기(650) 및 종료(660)에 대한 기능을 지원할 수 있다.
조이스틱 조정(610)은 해당 기능이 선택되면 외부로부터 연결된 조이스틱의 조정을 통해 돌봄 로봇(100)의 구동을 제어할 수 있다. 여기서 조이스틱 조정(610)은 조이스틱이 돌봄 로봇(100)과 연결 안된 경우, 메뉴가 비활성화될 수 있다.
터치 조정(620)은 해당 기능이 선택되면 제1 입출력부(81) 상에서 제공되는 별도의 사용자 인터페이스를 통해 돌봄 로봇(100)의 구동을 제어할 수 있다. 이때 터치 조정(620)은 버튼을 누르는 형태로 돌봄 로봇(100)의 구동을 제어할 수 있다.
모드 조정(630)는 해당 기능이 선택되면 세부적인 행동 모드를 더 선택한 후, 선택된 행동 모드에 대응되는 기능에 대한 돌봄 로봇(100)의 구동을 제어할 수 있다. 상세하게는 모드 조정(630)는 홈 화면 이동(630a), 대기 화면 이동(630b), 물건 나르기(630c), 의자 올리기(630d), 기립 지원하기(630e), 손잡고 보행하기(630f), 허리 잡고 보행하기(630g), 하네스 보행하기(630h), 슬링 앉아 이동하기(630i), 손잡기(630j), 슬링 누워 이동하기(630k) 및 보드에 누워 이동하기(630l)에 대한 기능이 수행되도록 지원한다.
홈 화면 이동(630a)는 홈 화면(600)으로 이동한다. 이를 통해 홈 화면 이동(630a)는 사용자가 모드 조종(630)이 아닌 다른 기능을 수행할 수 있도록 도와준다.
대기 화면 이동(630b)은 대기 화면(미도시)으로 이동한다. 대기 화면 이동(630b)는 현재 진행 중이던 구동을 일시 정지하고, 대기 모드로 전환할 수 있다.
물건 나르기(630c)는 무거운 물건을 들어주는 기능으로써, 자세 설정, 준비 과정, 자세 잡기, 일(작업) 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 물건 나르기 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 물건을 거치하였는지 안내 메시지를 출력하고, 물건 거치가 완료됨을 나타내는 버튼이 클릭되면 자세 잡기(준비 완료)를 한 후, 일 시작으로 전환된다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "물건 나르기 자세로 전환 중입니다.", "물건 나르기 자세입니다.", "선반을 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일(작업)하는 중인 경우, 안내/경고 메시지는 "상승 중이니 주의하세요.", "하강 중이니 주의하세요.", "상승이 완료되었습니다.", "하강이 완료되었습니다." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "하부에 장애물이 있어서 내려가지 못합니다.", "상부에 장애물이 있어서 올라가지 못합니다.", "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "물건이 너무 무거워서 들어올리지 못합니다.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "선반을 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
의자 올리기(630d)는 의자를 올려주는 기능으로써, 자세 설정, 준비 과정, 자세 잡기, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 의자 올리기 버튼을 클릭하면 환면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 의자를 장착하였는지 안내 메시지를 출력하고, 의자 장착이 완료됨을 나타내는 버튼이 클릭되면 자세 잡기(준비 완료)를 한 후, 일 시작으로 전환된다. 일이 완료되면 대기 모드로 전환된다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "물건 올림 자세로 전환 중입니다.", "물건 나르기 자세입니다.", "선반을 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "팔걸이를 잡으세요. 상승합니다.", "상승 중이니 주의하세요.", "하강 중이니 주의하세요.", "상승이 완료되었습니다.", "하강이 완료되었습니다." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "하부에 장애물이 있어서 내려가지 못합니다.", "상부에 장애물이 있어서 올라가지 못합니다.", "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "물건이 너무 무거워서 들어올리지 못합니다.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "의자를 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
기립 지원하기(630e)는 사용자를 안아서 일으키는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 기립 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 가이드 허리띠를 장착하였는지 안내 메시지를 출력하고, 가이드 허리띠 장착이 완료됨을 나타내는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "안아 일으키기 자세로 전환 중입니다.", "안아 일으키기 자세입니다.", "가이드 허리띠를 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "팔걸이를 잡으세요. 상승합니다.", "상승 중이니 머리를 주의하세요.", "하강 중이니 다리를 주의하세요.", "상승이 완료되었습니다.", "하강이 완료되었습니다." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "하부에 장애물이 있어서 내려가지 못합니다.", "상부에 장애물이 있어서 올라가지 못합니다.", "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "사용자가 너무 무거워서 들어올리지 못합니다.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "가이드 허리띠를 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
손잡고 보행하기(630f)는 보행을 지원하는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세설정은 손잡고 보행 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 한다. 준비 과정은 손잡이를 장착하였는지 안내 메시지를 출력하고, 손잡이 장착이 완료됨을 나태는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "손잡고 보행 자세로 전환 중입니다.", "손잡고 보행 자세입니다.", "손잡이를 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "손잡이를 잡고 이동하세요.", "이동 중이니 걸음과 조작을 주의하세요.", "회전합니다. 넘어지지 않도록 발과 조작을 주의하세요." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "속도가 너무 빨라 속도를 줄입니다.", "보행을 멈추어 이동을 중지합니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "손잡이를 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
허리 잡고 보행하기(630g)는 보행을 지원하는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 허리 잡고 보행 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 가이드 허리띠를 장착하였는지 안내 메시지를 출력하고, 가이드 허리띠 장착이 완료됨을 나타내는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "허리 잡고 보행 자세로 전환 중입니다.", "허리 잡고 보행 자세입니다.", "가이드 허리띠를 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "허리를 잡는 중입니다. 주의하세요.", "더 이상 허리를 세게 잡을 수 없습니다.", "허리를 풉니다. 쓰러지지 않도록 주의하세요." "이동 중이니 걸음과 조작을 주의하세요.", "회전을 합니다. 넘어지지 않도록 발과 조작을 주의하세요." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "보행을 멈추어 이동을 중지합니다.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "가이드 허리띠를 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
하네스 보행하기(630h)는 이동을 지원하는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행됩니다. 예를 들어 자세 설정은 하네스 보행 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 하네스용 팔을 장착하였는지 안내 메시지를 출력하고, 하네스용 팔 장착이 완료됨을 나타내는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "하네스 보행 자세로 전환 중입니다.", "하네스 보행 자세입니다.", "하네스용 팔을 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "내려갑니다.", "올라갑니다.", "하네스를 충분히 지지하도록 올려주세요.", "이동 중이니 걸음과 조작을 주의하세요.", "회전합니다. 넘어지지 않도록 발과 조작을 주의하세요." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "보행을 멈추어 이동을 중지합니다.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "하네스용 팔을 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
슬링 앉아 이동하기(630i)는 이동 및 이승을 지원하는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 슬링 앉아 이동 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 슬링용 팔을 장착하였는지 안내 메시지를 출력하고, 슬링용 팔 장착이 완료됨을 나타내는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "슬링 앉아 이동 자세로 전환 중입니다.", "슬링 앉아 이동 자세입니다.", "슬링용 팔을 장착해주세요.", "슬링을 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "작업 가능합니다.", "내려갑니다.", "올라갑니다.", "이동 중이니 걸음과 조작을 주의하세요.", "회전합니다. 넘어지지 않도록 발과 조작을 주의하세요." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "보행을 멈추어 이동을 중지합니다.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "슬링용 팔을 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
손잡기(630j)는 자세를 변환하는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 손잡음 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 손잡이용 팔을 장착하였는지 안내 메시지를 출력하고, 가이드 허리띠 장착이 완료됨을 나타내는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "손잡음 자세로 전환 중입니다.", "손잡음 자세입니다.", "손잡이용 팔을 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "작업 가능합니다.", "내려갑니다.", "올라갑니다.", "이동 중 충돌을 주의하세요.", "회전 중 충돌을 주의하세요." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "보행을 멈추어 이동을 중지하세요.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "손잡이용 팔을 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
슬링 누워 이동하기(630k)는 이동을 지원하는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 슬링 누워 이동 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 슬링을 장착하였는지 안내 메시지를 출력하고, 슬링 장착이 완료됨을 나타내는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "슬링 누워 이동 자세로 전환 중입니다.", "슬링 누워 이동 자세입니다.", "슬링을 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "작업 가능합니다.", "내려갑니다.", "올라갑니다.", "이동 중 충돌을 주의하세요.", "회전 중 충돌을 주의하세요." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "보행을 멈추어 이동을 중지하세요.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "슬링을 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
보드에 누워 이동하기(630l)는 이동을 지원하는 기능으로써, 자세 설정, 준비 과정, 일 시작 및 대기 순으로 수행된다. 예를 들어 자세 설정은 보드에 누워 이동 버튼을 클릭하면 화면전환이 이루어지면서 준비 중을 표시하고, 구동 중인 안내/경고 메시지를 표시한다. 준비 과정은 보드를 장착하였는지 안내 메시지를 출력하고, 보드 장착이 완료됨을 나타내는 버튼이 클릭되면 일 시작으로 전환한다. 여기서 일은 자동으로 수행되는 것이 기본 설정이나, 사용자의 의해 조이스틱으로도 수동 제어할 수 있다. 일이 완료되면 대기 모드로 전환된다.
여기서 안내/경고 메시지는 현재 상태에 대한 표시를 할 수 있다. 현재 상태가 준비 중인 경우, 안내/경고 메시지는 "로봇팔을 움직이니 주의하세요.", "보드에 누워 이동 자세로 전환 중입니다.", "보드에 누워 이동 자세입니다.", "보드를 장착해주세요." 등을 포함할 수 있다. 현재 상태가 일하는 중인 경우, 안내/경고 메시지는 "작업 가능합니다.", "내려갑니다.", "올라갑니다.", "이동 중 충돌을 주의하세요.", "회전 중 충돌을 주의하세요." 등을 포함할 수 있다. 현재 상태가 위험인 경우, 안내/경고 메시지는 "전방에 장애물이 있어서 전진하지 못합니다.", "후방에 장애물이 있어서 후진하지 못합니다.", "측면에 장애물이 있어서 회전하지 못합니다.", "보행을 멈추어 이동을 중지합다.", "속도가 너무 빨라 속도를 줄입니다." 등을 포함할 수 있다. 현재 상태가 대기 상태인 경우, 안내/경고 메시지는 "대기 자세로 전환됩니다.", "보드를 제거해 주세요.", "로봇팔을 움직이니 주의하세요."등을 포함할 수 있다.
상술된 바와 같이, 돌봄 로봇(100)은 대화를 통해 사용자 원하는 돌봄 서비스를 검출하고, 영상정보를 통해 사용자의 주변 환경정보를 수집함으로써, 각 사용자에 맞는 맞춤형 자세 변환, 기립보조, 보행보조, 들어올림 등과 같은 이동 및 이승에 대한 돌봄 서비스를 지원할 수 있다.
도 21은 본 발명의 실시예에 따른 컴퓨팅 장치를 설명하기 위한 블록도이다.
도 21을 참조하면, 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예를 들면 돌봄 로봇, 클라우드 서버 등) 일 수 있다.
컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다.
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
10: 본체
20: 통신부
30: 마이크
40: 카메라
50: 센서부
60: 제어부
61: 대화 지원부
62: 행동 제어부
63: 구동 제어부
70: 이송부
80: 입출력부
90: 저장부
100, 200: 돌봄 로봇
300: 클라우드
500: 돌봄 로봇 시스템
550: 통신망
600: 사용자

Claims (7)

  1. 사용자의 음성 및 영상에 대한 정보를 기반으로 상기 사용자와의 대화를 수행하는 돌봄 로봇에 있어서,
    상기 음성에 대한 음성정보를 클라우드 중 음성인식을 하는 클라우드 서버로 전송시켜 상기 음성정보에 대한 텍스트 정보를 수집하고, 상기 수집된 텍스트 정보를 상기 클라우드 중 대화 답변을 지원하는 클라우드 서버로 전송시켜 상기 텍스트 정보에 대한 대화 답변을 수집하며, 상기 수집된 대화 답변이 출력되도록 제어하는 대화 지원부;
    상기 영상에 대한 영상정보를 이용하여 상기 사용자의 상태정보를 추정하고, 상기 사용자의 상태정보, 상기 대화 답변 및 상기 사용자에 의해 입력된 사용자 입력을 기반으로 다음에 수행할 행동 모드에 대한 제어신호를 생성하는 행동 제어부; 및
    상기 제어신호에 따라 이동 및 이승 중 적어도 하나에 대한 구동을 제어하는 구동 제어부;
    를 포함하는 돌봄 로봇.
  2. 제 1항에 있어서,
    상기 행동 제어부는,
    상기 사용자의 상태정보와 상기 대화 답변을 이용하여 구동 가능한 행동 모드를 판단하고, 상기 판단된 결과가 출력되도록 제어하는 것을 특징으로 하는 돌봄 로봇.
  3. 제 2항에 있어서,
    상기 행동 제어부는,
    상기 판단된 결과 중 구동 가능한 행동 모드가 상기 사용자 입력에 의해 선택되면 상기 제어신호를 생성하는 것을 특징으로 하는 돌봄 로봇.
  4. 제 1항에 있어서,
    상기 행동 제어부는,
    위치 이동, 자세 변환, 물건 나르기, 의자 올리기, 기립 지원하기, 손잡고 보행하기, 허리 잡고 보행하기, 하네스 보행하기, 슬링 앉아 이동하기, 손잡기, 슬링 누워 이동하기 및 보드에 누워 이동하기 중 어느 하나의 행동 모드에 대한 제어신호를 생성하는 것을 특징으로 하는 돌봄 로봇.
  5. 제 4항에 있어서,
    상기 행동 제어부는,
    상기 행동 모드 중 별도의 구성품을 상기 본체에 장착해야 하는 경우,
    상기 구성품의 장착이 완료된 다음 상기 제어신호를 생성하는 것을 특징으로 하는 돌봄 로봇.
  6. 제 1항에 있어서,
    상기 행동 제어부는,
    상기 행동 모드에 대응되는 눈 동작 및 경음이 출력되도록 상기 제어신호를 생성하는 것을 특징으로 하는 돌봄 로봇.
  7. 제 1항에 있어서,
    상기 행동 제어부는,
    기 저장된 행동 모드의 구동 순서, 위치, 속도 및 메시지 출력 중 적어도 하나를 수정 또는 삭제하거나, 새로운 행동 모드를 추가하는 것을 특징으로 하는 돌봄 로봇.
KR1020220133623A 2022-10-17 2022-10-17 대화가 가능한 돌봄 로봇 KR20240053736A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220133623A KR20240053736A (ko) 2022-10-17 2022-10-17 대화가 가능한 돌봄 로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220133623A KR20240053736A (ko) 2022-10-17 2022-10-17 대화가 가능한 돌봄 로봇

Publications (1)

Publication Number Publication Date
KR20240053736A true KR20240053736A (ko) 2024-04-25

Family

ID=90885290

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220133623A KR20240053736A (ko) 2022-10-17 2022-10-17 대화가 가능한 돌봄 로봇

Country Status (1)

Country Link
KR (1) KR20240053736A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261797B1 (ko) 2018-12-14 2021-06-07 신라대학교 산학협력단 의료 보조서비스를 제공하는 로봇 시스템 및 그 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102261797B1 (ko) 2018-12-14 2021-06-07 신라대학교 산학협력단 의료 보조서비스를 제공하는 로봇 시스템 및 그 방법

Similar Documents

Publication Publication Date Title
US9854203B2 (en) Convertible telepresence robot
JP5688574B2 (ja) 触覚提示付ロボット
JP7119896B2 (ja) コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
JP6329121B2 (ja) 移動ロボットを含むロボットシステムにより実行される方法
JP4745606B2 (ja) ネットワークに接続可能なコンピュータ装備型移動装置およびその改造キット
US7047105B2 (en) Robot controlled by wireless signals
EP4023200A1 (en) Guide robot and method and system for operating the same
JP4786519B2 (ja) ロボットによる物体を移動するサービスに必要な情報の取得方法と該方法を用いたロボットによる物体移動サービスシステム
US9694717B2 (en) Systems and methods for adjusting the position of a wheelchair occupant
EP2954883A1 (en) Movement assistance robot
NL8401051A (nl) Inrichting voor het besturen van een elektrisch bedreven inrichting.
WO2015045010A1 (ja) 介助ロボット
JP2017154210A (ja) 動作支援装置、及び、動作支援システム
US11918537B2 (en) Robotic walking assistant, method for controlling the same and computer-readable storage medium
KR20210063317A (ko) 이동 보조 장치 및 제조 방법
JPH1099390A (ja) 歩行訓練装置並びに歩行訓練システム
KR20240053736A (ko) 대화가 가능한 돌봄 로봇
JP2007175831A (ja) 歩行ロボット
JP4793904B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
CN207571782U (zh) 一种聊天机器人
JP2002059389A (ja) 自律歩行ロボット装置
JP6944791B2 (ja) 移動補助装置、管理装置、移動補助システム、移動補助方法、および制御情報提供方法
JP2012232352A (ja) コミュニケーションロボット
JP3830196B2 (ja) 障害者用の操作器
JPH1133002A (ja) 介護システム