KR101954610B1 - Communion robot system for senior citizen - Google Patents

Communion robot system for senior citizen Download PDF

Info

Publication number
KR101954610B1
KR101954610B1 KR1020160160207A KR20160160207A KR101954610B1 KR 101954610 B1 KR101954610 B1 KR 101954610B1 KR 1020160160207 A KR1020160160207 A KR 1020160160207A KR 20160160207 A KR20160160207 A KR 20160160207A KR 101954610 B1 KR101954610 B1 KR 101954610B1
Authority
KR
South Korea
Prior art keywords
user
robot
touch
sensor
sympathetic
Prior art date
Application number
KR1020160160207A
Other languages
Korean (ko)
Other versions
KR20180060567A (en
Inventor
신동욱
박재현
강준호
장우석
Original Assignee
한국기술교육대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국기술교육대학교 산학협력단 filed Critical 한국기술교육대학교 산학협력단
Priority to KR1020160160207A priority Critical patent/KR101954610B1/en
Publication of KR20180060567A publication Critical patent/KR20180060567A/en
Application granted granted Critical
Publication of KR101954610B1 publication Critical patent/KR101954610B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/026Acoustical sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Nursing (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

본 발명은, 본 발명의 교감 로봇시스템(100)은, 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 로봇 기술을 실현함으로써, 사람과의 흔한 상호작용에서 쉽게 소외될 수 있는 독거노인이나 노인환자가 느끼는 삶의 질을 향상시키는 효과를 도출한다.The present invention is characterized in that the sympathetic robot system 100 of the present invention is designed to feel the characteristic communicative sense targeted to the elderly, so as to alleviate the loneliness / boredom in the daily life felt by the elderly, By realizing robotic technology that can help maintain health, we derive the effect of improving the quality of life felt by elderly or elderly living alone who can be easily alienated from common interactions with people.

Description

노년층을 위한 교감 로봇시스템{COMMUNION ROBOT SYSTEM FOR SENIOR CITIZEN}{COMMUNION ROBOT SYSTEM FOR SENIOR CITIZEN}

본 발명은, 로봇 기술에 관한 것으로, 보다 구체적으로 사람, 특히 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 기술에 관한 것이다.More particularly, the present invention relates to a robotic technology, and more specifically, to provide a characteristic addition function targeted at an elderly person by alleviating the feeling of loneliness / boredom in the daily life felt by the elderly, It is about technology that can help maintain health of the elderly.

컴퓨터에 의해 제어되는 로봇이 등장한 이래, 단순한 작업만 할 수 있었던 초기의 산업용 로봇에서부터 사람과 감정을 교류하고 걸어 다니는 최근의 로봇에 이르기까지, 로봇의 기술은 컴퓨터의 발달과 함께 고도화 되어 왔다. 따라서 인간(사람)과 같이 지능적으로 행동하는 다양한 로봇이 개발되고 있기에 로봇과 사람이 대면하는 기회는 많아질 것이다.Since the advent of computer-controlled robots, robot technology has advanced with the development of computers, from early industrial robots that can only do simple tasks to the latest robots that walk and interact with people. Therefore, since various robots that act like human beings (intelligent) are being developed, there will be more opportunities for robots and people to meet.

이에, 일상생활에서 사람과 함께 생활할 수 있는 로봇에 대한 관심 역시 높아지고 있다.Therefore, interest in robots that can live with people in everyday life is also increasing.

최근, 이러한 추세에 맞게, 다양한 감정이나 행동을 표현하는 애완용 로봇이 개발되었고, 환자를 보살피기 위한 기능의 의료용 로봇이 개발되었다.Recently, a pet robot that expresses various emotions and behaviors has been developed to meet this trend, and a medical robot functioning to take care of a patient has been developed.

하지만, 기존의 애완용 로봇은, 특정한 타겟 없이 보편적인 모든 사람을 대상으로 하는 로봇 기술이기 때문에, 동물을 모사하거나 사람의 감정을 흉내내는 정도로 매우 단순한 수준이므로, 실제로 사람이 로봇이 아닌 사람과 교감하는 듯한 느낌을 받을 수 없다.However, since conventional pet robots are robot technology that targets universal people without specific target, it is very simple level to simulate animals or imitate human emotions. Therefore, I can not feel like it.

또한, 기존의 의료용 로봇은, 의료의 목적 즉 그 기능이 분명한 기술임에도 불구하고, 사람(환자)와의 상호작용이 부족한 수준이므로, 실제로 환자가 사람이 보살펴주는 것과 같은 느낌을 받을 수 없다.In addition, the conventional medical robots can not receive the feeling that the patient actually cares for the patient because the interaction with the person (patient) is insufficient even though the purpose of the medical care, that is, the function is obvious.

이에, 사람과의 흔한 상호작용에서 쉽게 소외될 수 있는 독거노인이나 노인환자들에 특화된, 감정적 교감 및 의료적 도움을 제공하기 위한 로봇 기술 개발이 필요하다고 할 수 있다.Therefore, it is necessary to develop robotic technology to provide emotional sympathy and medical help for elderly or elderly people living alone who can be easily alienated from common interactions with people.

따라서, 본 발명에서는, 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 로봇 기술을 제안하고자 한다.Accordingly, in the present invention, a robot that can help elderly people maintain their health by providing a characteristic additive function targeted to the elderly is provided to feel the loneliness / boredness in the daily life felt by the elderly, Technology.

본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 로봇 기술을 실현하는데 있다.The present invention has been made in view of the above circumstances. The object of the present invention is to provide a sense of characteristic communion targeted to the elderly, so as to alleviate the loneliness / boredness in the daily life felt by the elderly, And to provide robots that can help maintain the health of the elderly by providing additional functions.

상기 목적을 달성하기 위한 본 발명의 제 1 관점에 따른 교감 로봇시스템은, 로봇 본체의 다수 위치에 구비되는 다수의 압력센서; 상기 다수의 압력센서를 통해 감지되는 사용자의 터치패턴을 기반으로, 상기 사용자의 터치의도를 판단하는 판단부; 및 상기 판단한 터치의도에 기 설정되어 있는 교감동작을 수행하는 로봇제어부를 포함한다.In order to achieve the above object, a sympathetic robot system according to a first aspect of the present invention includes: a plurality of pressure sensors provided at a plurality of positions of a robot body; A determination unit for determining a degree of touch of the user based on a touch pattern of a user sensed through the plurality of pressure sensors; And a robot controller for performing a sympathetic operation preset for the determined touch intention.

바람직하게는, 상기 판단부는, 상기 다수의 압력센서 중 적어도 하나 이상의 압력센서에서 터치가 감지되는 감지 순서 및 시간 간격을 근거로, 사용자의 터치패턴을 확인하고, 기 정의된 터치패턴 별로 터치의도를 매핑시킨 터치의도테이블에서, 상기 확인한 터치패턴에 매핑된 터치의도를 확인하여 판단할 수 있다.Preferably, the determining unit determines a touch pattern of a user based on a sensing order and a time interval in which a touch is sensed by at least one of the plurality of pressure sensors, It is possible to check the degree of touch mapped to the identified touch pattern and determine the degree of touch mapped to the touch pattern.

바람직하게는, 상기 로봇 본체는, 사람 또는 동물의 모형으로 형성되며, 압력센서가 구비되는 상기 다수 위치는, 머리, 가슴, 배, 등, 엉덩이, 양쪽 팔, 손바닥, 목덜미 중 적어도 하나일 수 있다.Preferably, the robot body is formed of a human or animal model, and the plurality of positions provided with the pressure sensor may be at least one of a head, a chest, a stomach, a back, a hips, both arms, a palm and a neck .

바람직하게는, 상기 터치의도는, 머리 쓰다듬기, 등 쓰다듬기, 배 쓰다듬기, 등 토닥거리기, 엉덩이 토닥거리기, 하이파이브하기 중 적어도 하나일 수 있다.Preferably, the degree of touch may be at least one of head stroking, stroking, padding, stabbing, asshole, and high-five.

바람직하게는, 상기 교감동작은, 상기 판단한 터치의도에 기 설정되어 있는, 음성 또는 효과음을 출력하는 청각적 교감동작, 얼굴 표정 또는 캐릭터를 표시하는 시각적 교감동작, 로봇 일부분을 움직여 몸짓을 취하는 행위 교감동작 중 적어도 하나를 포함할 수 있다.Preferably, the sympathetic operation includes an auditory communicating operation for outputting a voice or an effect sound, which is pre-set to the determined touch intention, a visual communicating operation for displaying a facial expression or a character, a gesture by moving a part of the robot And a sympathetic operation.

바람직하게는, 인체인식센서 및 음성인식센서를 더 포함하며; 상기 로봇제어부는, 상기 인체인식센서를 통해 사용자가 감지되며, 상기 음성인식센서 및 상기 다수의 압력센서를 통한 사용자의 음성 및 터치 입력이 없는 상태로 일정 시간이 경과되면, 기 정의된 관심끌기동작을 수행할 수 있다.Preferably, the apparatus further includes a human body recognition sensor and a speech recognition sensor; The robot control unit may detect a user through the human recognition sensor, and when a predetermined time has elapsed without a user's voice and touch input through the speech recognition sensor and the plurality of pressure sensors, Can be performed.

바람직하게는, 상기 로봇제어부는, 상기 음성인식센서를 통해 사용자의 음성이 감지되면, 상기 인체인식센서를 통해 사용자가 감지되는 방향으로 로봇 얼굴이 향하도록 로봇 일부분을 움직여 쳐다보기동작을 수행할 수 있다.Preferably, when the user's voice is sensed through the voice recognition sensor, the robot controller may perform a look-up operation by moving a part of the robot so that the face of the robot faces in a direction in which the user is sensed through the human recognition sensor have.

바람직하게는, 상기 인체인식센서를 통해 감지되는 사용자를 촬영하기 위한 카메라를 더 포함하며; 상기 로봇제어부는, 상기 카메라를 통해 사용자를 촬영한 영상으로부터 인지되는 사용자 행위에 근거하여, 노년층에 타겟팅된 치매예방게임을 상기 사용자와 진행하는 게임기능을 제공할 수 있다.Preferably, the apparatus further comprises a camera for capturing a user sensed through the human body recognition sensor; The robot control unit may provide a game function for advancing the dementia prevention game targeted for the elderly to the user, on the basis of a user action recognized from the image of the user through the camera.

바람직하게는, 조도감지센서, 온도감지센서, 습도감지센서, 인체인식센서를 더 포함하고; 상기 로봇제어부는, 상기 조도감지센서 및 인체인식센서를 기반으로 어두운 환경에서 사용자의 움직임이 감지되면 취침등을 온(on)시키는 기능, 취침등을 온(on)시킨 후 사용자가 감지되지만 움직임이 감지되지 않으면 취침등을 오프(off)시키는 기능, 상기 온도감지센서 및 습도감지센서를 기반으로 기 설정된 조건에 따라 온/습도를 알리는 기능, 기 저장된 약복용시간정보를 기반으로 약 먹을 시간이 도래하면 알람하는 기능 중 적어도 하나의 편의기능을 제공할 수 있다.Preferably, the apparatus further includes an illumination sensor, a temperature sensor, a humidity sensor, and a human recognition sensor; The robot control unit may include a function of turning on a sleeping light when a user's movement is detected in a dark environment based on the illumination detection sensor and a human body recognition sensor, The function of turning off the sleeping light when it is not detected, the function of notifying the on / humidity according to the preset conditions based on the temperature sensing sensor and the humidity sensing sensor, and the time of taking the medicine based on the stored medicine taking time information It is possible to provide at least one convenient function among the alarming functions.

본 발명의 실시예들에 따르면, 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 로봇 기술을 실현함으로써, 사람과의 흔한 상호작용에서 쉽게 소외될 수 있는 독거노인이나 노인환자가 느끼는 삶의 질을 향상시키는 효과를 도출한다.According to the embodiments of the present invention, it is possible to feel the characteristic communicative sense targeted to the elderly, so as to alleviate the loneliness / boredness in the daily life felt by the elderly, and to provide the characteristic supplementary function targeted to the elderly By realizing robotic technology, it is possible to improve the quality of life felt by elderly or elderly living alone who can be easily alienated from common interactions with people.

도 1은 본 발명에서 제안하는 교감 로봇시스템의 외관을 보여주는 예시이다.
도 2는 본 발명의 바람직한 실시예에 따른 교감 로봇시스템의 구성을 설명하는 구성도이다.
Fig. 1 is an illustration showing the appearance of the sympathetic robot system proposed in the present invention.
2 is a block diagram illustrating the configuration of a sympathetic robot system according to a preferred embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 설명한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

본 발명은, 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 로봇 기술에 관한 것이다.The present invention relates to a robot technology capable of helping elderly people to maintain their health by providing a characteristic addition function targeted at an elderly person by alleviating the loneliness / boredness in the daily life felt by the elderly, .

이에, 본 발명에서는, 노년층에 타겟팅된 교감 로봇시스템을 제안한다.Accordingly, the present invention proposes a sympathetic robot system targeted to the elderly.

도 1은, 본 발명에서 제안하는 교감 로봇시스템의 외관을 예시적으로 보여주고 있다.Fig. 1 exemplarily shows the appearance of the sympathetic robot system proposed by the present invention.

본 발명의 교감 로봇시스템은, 이동형으로 설계될 수 있고, 고정형으로 설계될 수도 있다.The sympathetic robot system of the present invention can be designed as a mobile type or a fixed type.

도 1에서 도시된 교감 로봇시스템(100)의 경우는, 로봇 본체(10)에 바퀴 형태의 이동수단을 구비하고 있는 이동형을 도시하고 있다.In the case of the sympathetic robot system 100 shown in Fig. 1, a mobile type having a wheel-shaped moving means is shown in the robot body 10. [

본 발명의 교감 로봇시스템은, 이동형이든 고정형이든 외형적 설계 면에서는 제약이 없으며, 다만 후술하게 될 노년층 타켓팅된 특징적 교감을 표현할 수 있는 외형적 설계를 가지면 된다.The sympathetic robot system of the present invention is not limited in terms of external design, whether it is a mobile type or a fixed type, and it can have an external design capable of expressing a characteristic sympathetic object which is to be described later.

노년층 타켓팅된 특징적 교감을 표현할 수 있는 외형적 설계로서, 가장 대표적인 것은 교감 로봇시스템(100)의 로봇 얼굴(20)에 해당되는 디스플레이 구성일 것이다.As the outline design capable of expressing the characteristic communion that is targeted for the elderly person, the most representative one is the display configuration corresponding to the robot face 20 of the sympathetic robot system 100.

이하에서는, 도 2를 참조하여 본 발명의 교감 로봇시스템의 구성을 구체적으로 설명하겠다. Hereinafter, the configuration of the sympathetic robot system of the present invention will be described in detail with reference to FIG.

도 2에 도시된 바와 같이, 본 발명의 교감 로봇시스템(100)은, 하드웨어적으로 다양한 종류의 센서들을 포함하는 센서부(110)와, 사용자(사람)와의 인터페이스를 위한 입/출력부(120)와, 로봇을 움직이기 위한 각종 모터들을 포함하는 구동부(130)를 포함하고, 소프트웨어적으로 교감 로봇시스템(100)을 제어하는 컨트롤러(160)를 포함한다.2, the sympathetic robot system 100 of the present invention includes a sensor unit 110 including various kinds of sensors in hardware, an input / output unit 120 for interfacing with a user And a controller 160 that includes a driving unit 130 including various motors for moving the robot and controls the sympathetic robot system 100 in software.

그 밖에도, 본 발명의 교감 로봇시스템(100)은, 카메라(140), 취침등(150)을 더 포함할 수 있다. In addition, the sympathetic robot system 100 of the present invention may further include a camera 140, a sleeping light 150, and the like.

도 2에 도시된 바와 같이, 센서부(110)는, 다수의 압력센서(111), 인체인식센서(112), 음성인식센서(113), 조도감지센서(114), 온도감지센서(115), 습도감지센서(116)를 포함할 수 있다.2, the sensor unit 110 includes a plurality of pressure sensors 111, a human recognition sensor 112, a voice recognition sensor 113, an illumination sensor 114, a temperature sensor 115, A humidity sensor 116, and the like.

다수의 압력센서(111)는, 로봇 본체(10)의 다수 위치에 구비되는 것이 바람직하다.It is preferable that a plurality of pressure sensors 111 are provided at a plurality of positions of the robot body 10.

이때, 본 발명의 교감 로봇시스템(100)에서 로봇 본체는, 사람 또는 동물의 모형으로 형성될 수 있다.At this time, in the sympathetic robot system 100 of the present invention, the robot main body can be formed as a human or animal model.

다만, 이하에서는 설명의 편의를 위해, 도 1에 도시된 바와 같이 본 발명의 교감 로봇시스템(100)에서 로봇 본체는, 사람의 모형으로 형성되는 것을 가정하여 설명하겠다. Hereinafter, for convenience of explanation, it is assumed that the robot main body in the sympathetic robot system 100 of the present invention is formed as a human model as shown in FIG.

이에, 다수의 압력센서(111)가 구비되는 로봇 본체(10)의 다수 위치는, 머리, 가슴, 배, 등, 엉덩이, 양쪽 팔, 손바닥, 목덜미 중 적어도 하나일 수 있다. The plurality of pressure sensors 111 may include at least one of the head, the chest, the stomach, the back, the buttocks, the arms, the palm and the neck.

즉, 로봇 본체(10)의 머리, 가슴, 배, 등, 엉덩이, 양쪽 팔, 손바닥, 목덜미 등 다수 위치에, 압력센서들이 구비되는 것이다.That is, the pressure sensors are provided at a plurality of positions such as the head, the chest, the stomach, the back, the hip, the arms, the palm, the neck, etc. of the robot body 10.

이에, 다수의 압력센서(111) 각각은, 자신이 구비된 로봇 본체(10)의 위치를 사용자(사람)이 터치하면, 이름 감지한 터치신호를 발생할 것이다.Each of the plurality of pressure sensors 111 generates a touch signal sensed by the user when the user touches the position of the robot body 10 provided with the pressure sensor 111.

물론, 각 위치에 구비된 압력센서를 통해 감지되는 터치신호에는, 어떤 위치에 구비된 압력센서로부터 감지된 터치신호인지를 식별할 수 있게 하는 식별자가 포함될 것이다.Of course, the touch signal sensed through the pressure sensor provided at each position may include an identifier for identifying the sensed touch signal from the pressure sensor provided at a certain position.

인체인식센서(112)는, 본 발명의 교감 로봇시스템(100) 보다 구체적으로 로봇 본체(10)의 인근에 있는 사용자(사람)을 감지한다. The human body recognition sensor 112 detects a user (person) in the vicinity of the robot body 10 more specifically than the sympathetic robot system 100 of the present invention.

즉, 인체인식센서(112)는, 로봇 본체(10)의 인근에 있는 사용자(사람)이 있는지 감지하여, 사람의 존재 여부를 나타내는 감지신호를 발생하는 것이다.That is, the human body recognition sensor 112 detects whether there is a user (person) in the vicinity of the robot body 10, and generates a detection signal indicating presence of a person.

음성인식센서(113)는, 교감 로봇시스템(100)의 사용자(사람) 음성이 기 등록된 음성데이터를 근거로, 사용자의 음성을 인식한다.The voice recognition sensor 113 recognizes the user's voice based on the voice data in which the user (human) voice of the sympathetic robot system 100 is pre-registered.

예컨대, 본 발명의 교감 로봇시스템(100)은, 교감 로봇시스템(100)의 사용자로 정해진 특정 사람의 음성 즉 목소리 분석 과정을 거쳐 음성데이터를 획득/저장할 수 있다.For example, the sympathetic robot system 100 of the present invention can acquire / store voice data through the voice of a specific person, that is, a voice analyzed by the user of the sympathetic robot system 100.

이에, 음성인식센서(113)는, 교감 로봇시스템(100)의 사용자로 정해진 특정 사람의 음성 만을 인식하는 것이 바람직하다. Therefore, the speech recognition sensor 113 preferably recognizes only the voice of a specific person determined as the user of the sympathetic robot system 100.

조도감지센서(114)는, 본 발명의 교감 로봇시스템(100) 보다 구체적으로 로봇 본체(10) 인근의 조도를 감지한 감지신호를 발생한다.The illuminance detection sensor 114 generates a sensing signal that senses the illuminance near the robot body 10 more specifically than the sympathetic robot system 100 of the present invention.

온도감지센서(115)는, 본 발명의 교감 로봇시스템(100) 보다 구체적으로 로봇 본체(10) 인근의 온도를 감지한 감지신호를 발생한다.The temperature sensing sensor 115 generates a sensing signal that senses a temperature near the robot body 10 more specifically than the sympathetic robot system 100 of the present invention.

습도감지센서(116)는, 본 발명의 교감 로봇시스템(100) 보다 구체적으로 로봇 본체(10) 인근의 습도를 감지한 감지신호를 발생한다.The humidity sensor 116 generates a sensing signal that senses the humidity in the vicinity of the robot body 10 more specifically than the sympathetic robot system 100 of the present invention.

입/출력부(120)는, 사용자(사람)와의 인터페이스를 위한 구성이다.The input / output unit 120 is a configuration for interfacing with a user (person).

입/출력부(120)는, 도 2에 도시된 바와 같이, 마이크(122), 스피커(124), 디스플레이(126)을 포함할 수 있다. The input / output unit 120 may include a microphone 122, a speaker 124, and a display 126, as shown in FIG.

이에, 입/출력부(120)는, 마이크(122)를 통해 입력되는 사운드를 신호 형태로 후술의 컨트롤러(160)로 제공하고, 컨트롤러(160)로부터 제공되는 신호에 따른 사운드를 스피커(124)를 통해 출력하고, 컨트롤러(160)로부터 제공되는 신호에 따른 이미지를 디스플레이(126)에 표시(출력)할 수 있다. The input / output unit 120 provides the sound input through the microphone 122 to the controller 160, which will be described below, in a signal form, and outputs sound corresponding to the signal provided from the controller 160 to the speaker 124. [ And can display (output) an image according to a signal provided from the controller 160 on the display 126. [

이러한, 입/출력부(120)는, 본 발명의 교감 로봇시스템(100) 보다 구체적으로 로봇 본체(10)에 고정적으로 구비되는 구성일 수도 있다.The input / output unit 120 may be fixedly provided on the robot body 10 more specifically than the sympathetic robot system 100 of the present invention.

또는, 입/출력부(120)는, 본 발명의 교감 로봇시스템(100) 보다 구체적으로 로봇 본체(10)에 탈착 가능한 형태로 추가 연결되는 구성일 수도 있다.Alternatively, the input / output unit 120 may be further connected to the robot main body 10 in a detachable form more specifically than the sympathetic robot system 100 of the present invention.

예를 들면, 입/출력부(120)는, 일반적으로 사용되고 있는 스마트폰, 태블릿PC 등과 같이, 마이크(122), 스피커(124), 디스플레이(126)를 모두 포함하고 있는 소형 단말기기일 수 있다.For example, the input / output unit 120 may be a mini terminal unit including a microphone 122, a speaker 124, and a display 126, such as a commonly used smart phone, a tablet PC, and the like.

이 경우, 소형 단말기기가 근거리 무선통신(예: 블루투스) 또는 유선을 통해 본 발명의 교감 로봇시스템(100) 보다 구체적으로 로봇 본체(10)에 추가적으로 연결되어, 입/출력부(120)로서 그 역할을 수행할 수 있다.In this case, the miniature terminal device is additionally connected to the robot body 10 more specifically than the sympathetic robot system 100 of the present invention via short-range wireless communication (e.g., Bluetooth) or wire, Can be performed.

이때, 입/출력부(120)로서 그 역할을 수행하는 소형 단말기기는, 도 1에서 교감 로봇시스템(100)의 로봇 얼굴(20)에 해당되는 것이 바람직하다.In this case, it is preferable that the small terminal unit that performs the role as the input / output unit 120 corresponds to the robot face 20 of the sympathetic robot system 100 in FIG.

그리고, 이 경우라면, 스마트폰, 태블릿PC 등과 같은 소형 단말기기의 OS(예: 안드로이드) 및 후술의 컨트롤러(160)가 채용하는 로봇 OS(예: 이두아노 나노) 간 연동기능이, 전제될 것이다.In this case, an interworking function between the OS (e.g., Android) of a small-sized terminal such as a smart phone, a tablet PC, and the robot OS (e.g., AIDANO Nano) employed by the controller 160 .

구동부(130)는, 로봇을 움직이기 위한 각종 모터들 예컨대 다이나믹셀(133), DC모터(126) 등을 포함하고, 컨트롤러(160)로부터의 제어에 따라 해당되는 모터를 구동시켜 로봇을 움직인다.The driving unit 130 includes various motors for moving the robot such as a dynamixel 133 and a DC motor 126 and drives the corresponding motor under the control of the controller 160 to move the robot.

예를 들면, 구동부(130)는, 컨트롤러(160)로부터의 제어에 따라 로봇 본체(10)에 이동수단에 연계된 모터를 구동시켜, 로봇 본체(10)의 위치를 이동시킬 수 있다.For example, the driving unit 130 can move the position of the robot body 10 by driving the motor associated with the moving means to the robot body 10 under the control of the controller 160. [

그 밖에도, 구동부(130)는, 컨트롤러(160)로부터의 제어에 따라 로봇 목에 연계된 모터를 구동시켜 로봇 얼굴(20)의 방향을 바꾸거나, 컨트롤러(160)로부터의 제어에 따라 로봇 오른쪽 및/또는 왼쪽의 어깨, 손목 등에 연계된 모터를 구동시켜 특정 몸짓을 취하도록 할 수 있다. In addition, the driving unit 130 may drive the motor associated with the robot neck to change the direction of the robot face 20 in accordance with the control from the controller 160, You can drive a motor associated with the left shoulder, wrist, etc. to make a certain gesture.

컨트롤러(160)는, 센서부(110)에서 감지되는 각종 감지신호 및 입/출력부(120)의 입력을 근거로 필요한 제어를 판단하고, 판단한 제어를 실행시키는 제어신호를 발생하여 구동부(130) 및 입/출력부(120)의 출력 기능을 제어함으로써, 교감 로봇시스템(100)을 전체적으로 제어한다.The controller 160 determines a necessary control based on various sensing signals sensed by the sensor unit 110 and input of the input / output unit 120, generates a control signal for performing the determined control, And the output function of the input / output unit 120, thereby controlling the sympathetic robot system 100 as a whole.

이러한 컨트롤러(160)의 제어에 의해, 본 발명의 핵심, 즉 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 로봇 기술을 실현한다.Under the control of the controller 160, it is possible to feel the loneliness / boredom in the daily life felt by the elderly and to provide a characteristic addition function targeted to the elderly people by feeling the characteristic sympathy sensed at the core of the present invention, We realize robot technology that can help maintain health for the elderly.

보다 구체적으로 설명하면, 컨트롤러(160)는, 판단부(163), 로봇제어부(165)를 포함한다.More specifically, the controller 160 includes a determination unit 163 and a robot control unit 165.

판단부(163)는, 다수의 압력센서(111)를 통해 감지되는 사용자(사람)의 터치패턴을 기반으로, 사용자의 터치의도를 판단한다.The determination unit 163 determines the degree of touch of the user based on the touch pattern of the user (person) sensed through the plurality of pressure sensors 111. [

판단부(163)는, 다수의 압력센서(111) 중 적어도 하나 이상의 압력센서에서 터치가 감지되는 감지 순서 및 시간 간격을 근거로, 사용자(사람)의 터치패턴을 확인할 수 있다. The determination unit 163 can confirm the touch pattern of the user based on the sensing order and the time interval in which the touch is sensed by at least one of the plurality of pressure sensors 111. [

예를 들면, 도 1에 도시된 로봇 얼굴(20)의 후면(로봇 머리)과 로봇 목덜미에 압력센서가 N개 구비된다고 가정한다.For example, it is assumed that the rear face (robot head) of the robot face 20 shown in Fig. 1 and N pressure sensors are provided on the nape of the robot.

그리고, 사용자(사람)이 손으로 로봇의 머리를 정수기부터 못덜미 방향으로 쓸어내리듯 만진다고 가정한다. 즉, 사용자(사람)가 로봇 머리를 쓰다듬듯 만진 것이다.Then, it is assumed that the user (person) touches the robot's head by sweeping the head of the robot from the water purifier to the direction of the nail. That is, the user (person) touched the robot head in a stroked manner.

이때, 사용자(사람)이 로봇 머리를 쓰다듬듯 만질 때, 로봇 얼굴(20)의 후면(로봇 머리)과 로봇 목덜미에 구비된 N개의 압력센서 중 일부 또는 전체에서 감지신호가 발생되는 순서 및 간격을 패턴화(이하, 패턴1)하여 기 설정해 두는 것을 전제로 한다.At this time, when the user (person) touches the robot head, the order and interval in which the detection signal is generated in some or all of the rear side (robot head) of the robot face 20 and the N pressure sensors provided on the nape of the robot (Hereinafter referred to as pattern 1).

이에, 판단부(163)는, 만약 사용자(사람)가 로봇 머리를 쓰다듬듯 만진다면, 다수의 압력센서(111) 중 적어도 하나 이상의 압력센서에서 터치가 감지되는 감지 순서 및 시간 간격을 근거로, 사용자(사람)의 터치패턴을 기 설정해둔 패턴1로 확인할 수 있다.If the user touches the robot head by stroking the head of the robot, the determination unit 163 may determine that the touch is detected by at least one pressure sensor among the plurality of pressure sensors 111, The touch pattern of the user (person) can be confirmed by the previously set pattern 1.

그리고, 판단부(163)는, 기 정의된 터치패턴 별로 터치의도를 매핑시킨 터치의도테이블에서, 금번 확인한 터치패턴(예: 패턴1)에 매핑된 터치의도를 확인하여 판단할 수 있다.Then, the determination unit 163 can determine the touch intention mapped to the touch pattern (for example, pattern 1) that has been checked in the touch intention table obtained by mapping the touch intention for each of the predefined touch patterns .

터치의도테이블은, 기 정의된 터치패턴 별로 터치의도를 매핑시킨 정보 테이블이다.The touch degree table is an information table in which touch intensities are mapped for each of the predefined touch patterns.

예컨대, 터치의도테이블에는, 전술한 예시와 같이 사용자(사람)이 로봇 머리를 쓰다듬듯 만질 때, 로봇 얼굴(20)의 후면(로봇 머리)과 로봇 목덜미에 구비된 N개의 압력센서 중 일부 또는 전체에서 감지신호가 발생되는 순서 및 간격을 패턴화한 패턴1에 대해, 머리 쓰다듬기를 터치의도로 매핑시키고 있을 것이다.For example, when the user (person) touches the robot head in a stroking manner as shown in the above-described example, the touch degree table stores a part of N pressure sensors provided on the back surface (robot head) of the robot face 20 and the nape of the robot For the pattern 1 in which the order and intervals in which the detection signals are generated in total are patterned, the head stroking will map the touch road.

이와 같이, 터치의도테이블에는, 터치패턴 별로 매핑된 터치의도로서, 머리 쓰다듬기 외에도, 등 쓰다듬기, 배 쓰다듬기, 등 토닥거리기, 엉덩이 토닥거리기, 하이파이브하기 등을 포함할 수 있다. As described above, the touch degree table of the touch may include touch strokes mapped on a touch pattern basis, such as stroking the back, stroking the back, stroking the buttocks, hitting the hip, and high-fives.

하나 더 예를 들자면, 사용자(사람)이 자신의 손바닥을 로봇 손바닥에 마주치듯 때릴 때(일명, 하이파이브), 로봇 손바닥에 구비된 L개의 압력센서 전체에서 감지신호가 동시에 발생되는 순서(예: 동시) 및 간격(예: 동시)을 패턴화(이하, 패턴2)할 수 있고, 이 경우 터치의도테이블에는, 패턴2에 대해 하이파이브하기를 터치의도로 매핑키시고 있을 것이다.For example, when a user (person) hits his / her palm as if it faces the palm of a robot (aka high-five), the order in which detection signals are simultaneously generated in all L pressure sensors provided on the palm of the robot (Hereinafter, referred to as "pattern 2") can be patterned (in the following, pattern 2). In this case, the touch degree table will map the high-five touch point of the pattern 2 to the touch point.

이에, 판단부(163)는, 전술과 같이 정의된 터치의도테이블에서, 금번 확인한 터치패턴(예: 패턴1)에 매핑된 터치의도로서 머리 쓰다듬기를 확인/판단할 수 있다.Thus, the determination unit 163 can confirm / determine the head rubbing as the touch intention mapped to the touch pattern (e.g., pattern 1) thus confirmed in the touch intention table defined as described above.

로봇제어부(165)는, 판단부(163)에서 판단한 터치의도에 기 설정되어 있는 교감동작을 수행한다.The robot control unit 165 performs the sympathetic operation preset for the touch intention determined by the determination unit 163. [

여기서, 교감동작은, 터치의도에 기 설정되어 있는, 음성 또는 효과음을 출력하는 청각적 교감동작, 얼굴 표정 또는 캐릭터를 표시하는 시각적 교감동작, 로봇 일부분을 움직여 몸짓을 취하는 행위 교감동작 중 적어도 하나를 포함할 수 있다. Here, the sympathetic operation includes at least one of an auditory acupuncture operation for outputting a voice or a sound effect, a visual acmege operation for displaying a facial expression or a character, and a behavioral sympathetic operation for taking a gesture by moving a part of the robot, . ≪ / RTI >

예를 들어, 로봇제어부(165)는, 터치의도로 머리 쓰다듬기가 판단된 경우, 머리 쓰다듬기에 기 설정되어 있는 교감동작을 수행한다.For example, when the road head stroking of the touch is determined, the robot control unit 165 performs the sympathetic operation previously set on the head stroking.

이때의 교감동작은, 흐믓한 또는 온화한 어린 아기의 얼굴 표정을 표시하는 시각적 교감동작일 수 있다. The sympathetic operation at this time may be a visual acupuncture operation for displaying a facial expression of a baby who is faint or mild.

즉, 로봇제어부(165)는, 판단부(163)에서 머리 쓰다듬기를 터치의도로 판단한 경우, 머리 쓰다듬기에 기 설정되어 있는 흐믓한 또는 온화한 어린 아기의 얼굴 표정을 입/출력부(120)의 디스플레이(126)에 표시하여, 시각적 교감동작을 수행할 수 있다.That is, when the determination unit 163 determines that the head stroking is a touch, the robot control unit 165 displays the facial expression of the infant or gentle baby set in the head stroking mode on the display (not shown) of the input / output unit 120 126 to perform visual sympathetic operations.

또는, 로봇제어부(165)는, 터치의도로 하이파이브하기가 판단된 경우, 하이파이브하기에 기 설정되어 있는 교감동작을 수행한다.Alternatively, if it is determined that the road is to be high-touched by the touch, the robot controller 165 performs the sympathetic operation preset for high-five.

이때의 교감동작은, 환호성을 출력하는 청각적 교감동작 및 로봇 양 팔을 들어올려 만세의 몸짓을 취하는 행위 교감동작일 수 있다. The sympathetic operation at this time may be an auditory acupuncture operation for outputting cheers, and an act for actively engaging in lifting both arms of the robot to take a gesture of agelessness.

즉, 로봇제어부(165)는, 판단부(163)에서 하이파이브하기를 터치의도로 판단한 경우, 하이파이브하기에 기 설정되어 있는 환호성을 입/출력부(120)의 스피커(124)를 통해 출력하며 로봇 양 팔을 들어올려 만세의 몸짓을 취하도록 구동부(130)의 해당 모터를 구동시킴으로써, 청각적 교감동작 및 행위 교감동작을 수행할 수 있다. That is, when the determination unit 163 determines that the high-five is to be touched, the robot control unit 165 outputs the cheering preset for high-five through the speaker 124 of the input / output unit 120 And the motor of the driving unit 130 is driven so as to lift the arms of the robot and take the gesture of the longevity.

더 나아가, 로봇제어부(165)는, 인체인식센서(112)를 통해 사용자(사람)가 감지되며, 음성인식센서(113) 및 다수의 압력센서(111)를 통한 사용자의 음성 및 터치 입력이 없는 상태로 일정 시간(예: 30분)이 경과되면, 기 정의된 관심끌기동작을 수행할 수 있다. Further, the robot control unit 165 can detect the user (person) through the human body recognition sensor 112 and detect the user's voice and touch input through the voice recognition sensor 113 and the plurality of pressure sensors 111 If a certain amount of time (for example, 30 minutes) has elapsed in the state, it is possible to perform a predefined attention drag operation.

구체적으로, 로봇 본체(10)의 인근에 있는 사용자(사람)이 있는지 여부를 감지하는 인체인식센서(112)에서 사용자가 감지되고 있는데, 음성인식센서(113) 및 다수의 압력센서(111)에서는 사용자의 음성이나 터치 입력이 감지되지 않는다면, 사용자(사람)이 가만히 쉬고 있는 경우일 수도 있고 정신을 잃은 위급한 상태일 수도 있다.Specifically, the user is detected by the human body recognition sensor 112 that detects whether there is a user (person) in the vicinity of the robot main body 10. The voice recognition sensor 113 and the plurality of pressure sensors 111 If the user's voice or touch input is not detected, the user (person) may be resting or may be in an emergency.

이에, 로봇제어부(165)는, 인체인식센서(112)를 통해 사용자(사람)가 감지되며, 음성인식센서(113) 및 다수의 압력센서(111)를 통한 사용자의 음성 및 터치 입력이 없는 상태로 일정 시간(예: 30분)이 경과되면, 기 정의된 관심끌기동작 예컨대 기 설정되어 있는 음성(예: 치매예방게임 할까요 또는 괜찮으세요? 등)을 입/출력부(120)의 스피커(124)를 통해 출력하여 관심끌기동작을 수행할 수 있다. The robot control unit 165 detects the user (person) through the human body recognition sensor 112 and outputs the voice and touch input of the user through the voice recognition sensor 113 and the plurality of pressure sensors 111 Output section 120 to the loudspeaker 124 of the input / output section 120 when the predetermined attention period (for example, 30 minutes) elapses in the input / output section 120, ) To perform the attracting operation.

이에, 로봇제어부(165)는, 관심끌기동작을 수행한 후, 음성인식센서(113)를 통해 교감 로봇시스템(100)의 사용자로 정해진 특정 사람의 음성이 감지되는 경우, 그 음성 내용에 따른 이후 동작(예: 게임 시작하기, 경과한 일정 시간 리셋하기 등)을 수행할 수 있다. When the voice of a specific person determined as the user of the sympathetic robot system 100 is sensed through the voice recognition sensor 113 after performing the attracting operation, (E.g., starting the game, resetting the elapsed time, etc.).

물론, 로봇제어부(165)는, 관심끌기동작을 수행한 후, 음성인식센서(113)를 통해 교감 로봇시스템(100)의 사용자로 정해진 특정 사람의 음성이 감지되지 않으면, 정신을 잃은 위급한 상태일 수도 있으므로 지정된 연락처로 위급 상황이 의심됨을 통지할 수도 있다. Of course, after performing the attracting operation, if the voice of a specific person determined as the user of the sympathetic robot system 100 is not detected through the voice recognition sensor 113, The designated contact may be notified that the emergency is suspected.

더 나아가, 로봇제어부(165)는, 음성인식센서(113)를 통해 사용자의 음성 즉 교감 로봇시스템(100)의 사용자로 정해진 특정 사람의 음성이 감지되면, 인체인식센서(112)를 통해 사용자가 감지되는 방향으로 로봇 얼굴(2)이 향하도록 로봇 일부분을 움직여 쳐다보기동작을 수행할 수 있다. When the user's voice, that is, the voice of a specific person determined as a user of the sympathetic robot system 100 is detected through the voice recognition sensor 113, the robot control unit 165 controls the robot It is possible to perform a glancing operation by moving a portion of the robot so that the robot face 2 faces in the direction in which it is sensed.

즉, 로봇제어부(165)는, 교감 로봇시스템(100)의 사용자로 정해진 특정 사람이 말하는 동안 로봇 얼굴(2)이 그 사람을 향하도록, 구동부(130)의 로봇 목에 연계된 모터를 구동시킴으로써, 쳐다보기동작을 수행할 수 있다.That is, the robot control unit 165 drives the motor associated with the robot neck of the driving unit 130 such that the robot face 2 faces the person while the specific person designated as the user of the sympathetic robot system 100 speaks , And a look-ahead operation can be performed.

이처럼, 본 발명의 교감 로봇시스템(100)은, 마치 사람이나 동물처럼 사용자(사람)이 터치하는 터치의도를 파악하여 적당한 교감동작을 수행하거나, 자발적으로 관심을 끌거나 말할 때 쳐다보는 등의 노년층에 타겟팅된 특징적 교감을 느끼도록 함으로써, 노인이 느끼는 일상생활에서의 외로움/심심함을 달래줄 수 있다.As described above, the sympathetic robot system 100 according to the present invention can be applied to various types of devices such as a human being or an animal, for example, by grasping the degree of touch that the user (person) touches and performing a proper sympathetic operation, By feeling the characteristic communicative sympathy that is targeted to the elderly, it can alleviate the loneliness / boredness in the daily life that the elderly feels.

더 나아가, 로봇제어부(165)는, 카메라(140)를 통해 사용자(사람)를 촬영한 영상으로부터 인지되는 사용자 행위에 근거하여, 노년층에 타겟팅된 치매예방게임을 사용자와 진행하는 게임기능을 제공할 수 있다.Furthermore, the robot control unit 165 provides a game function for advancing the dementia prevention game targeted for the elderly to the user, on the basis of the user action recognized from the image of the user (person) through the camera 140 .

카메라(140)는, 도 1에 도시된 바와 같이 로봇 본체(10)의 로봇 몸통에 구비되어, 교감 로봇시스템(100)의 로봇 몸통과 마주하고 있는 사용자를 촬영하는 것이 바람직하다.The camera 140 is preferably provided on the robot body of the robot body 10 as shown in FIG. 1, and preferably photographs a user facing the robot body of the sympathetic robot system 100.

교감 로봇시스템(100)의 사용자로 정해진 특정 사람이 음성으로 치매예방게임 시작을 명령하거나, 또는 다른 방식(예: 터치패드를 이용한 조작)으로 치매예방게임 시작을 명령할 수 있다. The specific person designated as the user of the sympathetic robot system 100 can instruct the start of the dementia prevention game by voice or instruct the start of the dementia prevention game in another way (for example, operation using the touch pad).

또는, 전술과 같이 관심끌기동작 예컨대 기 설정되어 있는 음성(예: 치매예방게임 할까요?)을 입/출력부(120)의 스피커(124)를 통해 출력한 후, 음성인식센서(113)를 통해 교감 로봇시스템(100)의 사용자로 정해진 특정 사람의 음성이 감지되며, 그 음성 내용이 치매예방게임을 진행하게 하는 내용인 경우, 로봇제어부(165)는, 이에 따른 이후 동작 즉 게임 시작하기를 수행할 수도 있다.Or, as described above, after the interest dragging operation, for example, a preset voice (for example, a game for preventing dementia) is output through the speaker 124 of the input / output unit 120, If the voice of a specific person determined as a user of the sympathetic robot system 100 is detected and the contents of the voice cause the dementia prevention game to proceed, the robot control unit 165 performs a subsequent operation You may.

이때, 치매예방게임은, 로봇에서 음성으로 특정 색을 말하면 사용자가 특정 색의 카드를 로봇에게 들어 보여주는 색깔맞추기, 로봇에서 음성으로 특정 숫자를 말하면 사용자가 특정 숫자의 카드를 로봇에게 들어 보여주는 숫자맞추기 등, 사용자가 행동(행위)을 취해야 하는 타입의 게임인 것이 바람직하다.At this time, the dementia prevention game is a game in which a user colors a color to show a specific color card to a robot when a specific color is spoken by the robot, and when a specific number is spoken by the robot, It is preferable that the game is of a type in which a user must take an action (action).

이에, 로봇제어부(165)는, 치매예방게임을 시작하면, 기 설정된 색깔맞추기, 숫자맞추기 등의 치매예방게임을 개시하고, 카메라(140)를 통해 사용자(사람)를 촬영한 영상으로부터 인지되는 사용자 행위에 근거하여 정답인지 오답인지를 알려주는 방식으로, 노년층에 타겟팅된 치매예방게임을 사용자와 진행하는, 게임기능을 제공할 수 있다.When the dementia prevention game is started, the robot control unit 165 starts a dementia prevention game, such as pre-set color matching and number matching, It is possible to provide a game function of advancing the dementia prevention game targeted to the elderly with the user in such a manner that the correct answer or the wrong answer is given based on the action.

더 나아가, 로봇제어부(165)는, 조도감지센서(114) 및 인체인식센서(112)를 기반으로 어두운 환경에서 사용자의 움직임이 감지되면 취침등(150)을 온(on)시키는 기능, 취침등(150)을 온(on)시킨 후 사용자가 감지되지만 움직임이 감지되지 않으면 취침등(150)을 오프(off)시키는 기능, 온도감지센서(115) 및 습도감지센서(116)를 기반으로 기 설정된 조건에 따라 온/습도를 알리는 기능, 기 저장된 약복용시간정보를 기반으로 약 먹을 시간이 도래하면 알람하는 기능 중 적어도 하나의 편의기능을 제공할 수 있다.Further, the robot control unit 165 controls the function of turning on the sleeping light 150 when the user's movement is detected in a dark environment based on the illumination detection sensor 114 and the human recognition sensor 112, A function of turning off the sleeping light 150 when a user is sensed but motion is not detected after the user turns on the temperature sensor 150 and the humidity sensing sensor 116, According to the condition, it is possible to provide at least one convenient function among the function of notifying the on / humidity and the function of alarming when the time to take medicine is based on the stored medicine taking time information.

구체적으로, 로봇제어부(165)는, 조도감지센서(114) 및 인체인식센서(112)를 기반으로, 어두운 환경에서 사용자의 움직임이 감지되면 취침등(150)을 온(on)시킬 수 있다.Specifically, the robot controller 165 can turn on the sleeping light 150 based on the illumination sensor 114 and the human body recognition sensor 112 when the user's movement is detected in a dark environment.

한편, 로봇제어부(165)는, 조도감지센서(114) 및 인체인식센서(112)를 기반으로, 취침등(150)을 온(on)시킨 후 어두운 환경에서 사용자가 감지되지만 움직임이 감지되지 않으면 취침등(150)을 오프(off)시킬 수 있다. On the other hand, the robot controller 165 turns on the sleeping light 150 based on the illumination sensor 114 and the human body recognition sensor 112, and then detects the user in a dark environment, The sleeping light 150 can be turned off.

이때, 본 발명의 교감 로봇시스템(100)은, 도 1에 도시된 바와 같이 취침등(150)을 별도로 구비할 수도 있고, 별도 취침등(150) 구비 없이 입/출력부(120)의 디스플레이(126)를 온/오프시키는 방식으로 전술의 취침등 기능을 실현할 수도 있고, 실내에 있는 외부 취침등(미도시)를 유/무선 방식으로 제어하여 온/오프시키는 방식으로 전술의 취침등 기능을 실현할 수도 있다.The sympathetic robot system 100 of the present invention may include a sleeping light 150 as shown in FIG. 1 or may be provided separately from the display (not shown) of the input / output unit 120 Described sleeping function can be realized by a method of turning on / off the sleeping light (not shown) by turning on / off the sleeping light It is possible.

한편, 로봇제어부(165)는, 온도감지센서(115) 및 습도감지센서(116)를 기반으로, 기 설정된 조건 예컨대 1시간 단위로 또는 온도 및 습도 중 적어도 어느 하나에서 임계치 이상의 변화가 발생할 때 또는 미리 등록해 둔 적정 온습도범위를 벗어날 때, 온/습도를 알릴 수 있다.On the other hand, the robot control unit 165 controls the robot controller 165 based on the temperature sensor 115 and the humidity sensor 116 when a change in a predetermined condition, for example, in units of one hour or at least one of temperature and humidity, Humidity can be notified when the humidity exceeds the pre-registered temperature and humidity range.

한편, 로봇제어부(165)는, 기 저장된 약복용시간정보를 기반으로, 약 먹을 시간이 도래하면 "XX 약을 먹을 시간이에요~"의 음성을 출력하는 등의 방식으로 알람할 수 있다.On the other hand, on the basis of the previously stored medicine taking time information, the robot control unit 165 can output a voice of "It is time to eat XX medicine"

이에, 본 발명의 교감 로봇시스템(100)은, 취침등 온/오프 기능, 온/습도를 알림 기능, 약 복용 알람 기능 등을 실현하여, 노년층에 타겟팅된 특징적 편의기능(부가기능)을 통해서 노인 건강 유지에 도움을 줄 수 있다.Accordingly, the sympathetic robot system 100 of the present invention realizes a sleeping on / off function, a notification function of on / humidity, an alarm function of taking medicine, and the like, It can help maintain health.

이상에서 설명한 바와 같이, 본 발명의 교감 로봇시스템(100)은, 노년층에 타겟팅된 특징적 교감을 느끼도록 하여 노인이 느끼는 일상생활에서의 외로움/심심함을 달래주고, 노년층에 타겟팅된 특징적 부가기능을 제공하여 노인 건강 유지에 도움을 줄 수 있는 로봇 기술을 실현함으로써, 사람과의 흔한 상호작용에서 쉽게 소외될 수 있는 독거노인이나 노인환자가 느끼는 삶의 질을 향상시키는 효과를 도출한다.As described above, the sympathetic robot system 100 of the present invention allows the elderly to feel loneliness / boredom in their everyday life by making them feel the characteristic communicative sense targeted to the elderly, and provides the characteristic addition function targeted to the elderly The purpose of this study is to develop a robotic technology that can help maintain the health of the elderly, and to improve the quality of life of elderly or elderly living alone who can be easily alienated from common interactions with people.

본 발명에서 제안하는 교감 로봇시스템의 동작들을 실현하는 방법은, 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method for realizing the operations of the sympathetic robot system proposed by the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

100 : 교감 로봇시스템
110 : 센서부
120 : 입/출력부
130 : 구동부
140 : 카메라
150 : 취침등
100: Sympathetic robot system
110:
120: input / output section
130:
140: camera
150: Sleep light

Claims (9)

교감 로봇시스템에 있어서,
로봇 본체의 다수 위치에 구비되는 다수의 압력센서;
상기 다수의 압력센서를 통해 감지되는 사용자의 터치패턴을 기반으로, 상기 사용자의 터치의도를 판단하는 판단부; 및
상기 판단한 터치의도에 기 설정되어 있는 교감동작을 수행하는 로봇제어부를 포함하며,
인체인식센서 및 음성인식센서를 더 포함하며;
상기 로봇제어부는,
상기 인체인식센서를 통해 사용자가 감지되며, 상기 음성인식센서 및 상기 다수의 압력센서를 통한 사용자의 음성 및 터치 입력이 없는 상태로 일정 시간이 경과되면, 기 정의된 관심끌기동작을 수행하며,
상기 관심끌기동작을 수행한 이후 상기 음성인식센서를 통해 사용자의 음성이 감지되면 상기 인체인식센서를 통해 사용자가 감지되는 방향으로 로봇 얼굴이 향하도록 로봇 일부분을 움직여 쳐다보기동작을 수행하며, 상기 관심끌기동작을 수행한 이후 상기 음성인식센서를 통해 사용자의 음성이 감지되지 않으면 지정된 연락처로 통지하는 것을 특징으로 하는 교감 로봇시스템.
In the sympathetic robot system,
A plurality of pressure sensors provided at a plurality of positions of the robot body;
A determination unit for determining a degree of touch of the user based on a touch pattern of a user sensed through the plurality of pressure sensors; And
And a robot controller for performing a sympathetic operation preset on the determined touch intention,
A human body recognition sensor and a speech recognition sensor;
The robot controller may include:
A user is sensed through the human body recognition sensor and performs a predefined attention drag operation when a predetermined time elapses in a state in which there is no voice and touch input of the user through the speech recognition sensor and the plurality of pressure sensors,
When the voice of the user is sensed through the voice recognition sensor after performing the attracting operation, the user performs a look-up operation by moving a portion of the robot so that the face of the robot faces the direction in which the user is sensed through the human recognition sensor, And notifies the designated contact when the voice of the user is not detected through the voice recognition sensor after performing the drag operation.
제 1 항에 있어서,
상기 판단부는,
상기 다수의 압력센서 중 적어도 하나 이상의 압력센서에서 터치가 감지되는 감지 순서 및 시간 간격을 근거로, 사용자의 터치패턴을 확인하고
기 정의된 터치패턴 별로 터치의도를 매핑시킨 터치의도테이블에서, 상기 확인한 터치패턴에 매핑된 터치의도를 확인하여 판단하는 것을 특징으로 하는 교감 로봇시스템.
The method according to claim 1,
Wherein,
A touch pattern of a user is checked based on a sensing order and a time interval in which a touch is sensed by at least one pressure sensor among the plurality of pressure sensors
Wherein the control unit checks the degree of touch mapped to the identified touch pattern in the touch degree table in which the degree of touch is mapped according to the predefined touch pattern.
제 1 항에 있어서,
상기 로봇 본체는, 사람 또는 동물의 모형으로 형성되며,
압력센서가 구비되는 상기 다수 위치는,
머리, 가슴, 배, 등, 엉덩이, 양쪽 팔, 손바닥, 목덜미 중 적어도 하나인 것을 특징으로 하는 교감 로봇시스템.
The method according to claim 1,
The robot main body is formed of a human or animal model,
The plurality of positions, in which the pressure sensor is provided,
Wherein the robot is at least one of a head, a chest, a stomach, a back, a hip, arms, palms, and a neck.
제 3 항에 있어서,
상기 터치의도는,
머리 쓰다듬기, 등 쓰다듬기, 배 쓰다듬기, 등 토닥거리기, 엉덩이 토닥거리기, 하이파이브하기 중 적어도 하나인 것을 특징으로 하는 교감 로봇시스템.
The method of claim 3,
The degree of the touch
A head stroking, a back stroking, a back stroking, a fluttering, a buttocking, and a high-fingering.
제 1 항에 있어서,
상기 교감동작은,
상기 판단한 터치의도에 기 설정되어 있는, 음성 또는 효과음을 출력하는 청각적 교감동작, 얼굴 표정 또는 캐릭터를 표시하는 시각적 교감동작, 로봇 일부분을 움직여 몸짓을 취하는 행위 교감동작 중 적어도 하나를 포함하는 것을 특징으로 하는 교감 로봇시스템.
The method according to claim 1,
In the sympathetic operation,
An auditory acupuncture operation for outputting a voice or sound effect preset for the determined touch intention, a visual acupuncture operation for displaying a facial expression or a character, and an action for acupressure action for taking a gesture by moving a part of the robot A sympathetic robot system that features.
삭제delete 삭제delete 제 1 항에 있어서,
상기 인체인식센서를 통해 감지되는 사용자를 촬영하기 위한 카메라를 더 포함하며;
상기 로봇제어부는,
상기 카메라를 통해 사용자를 촬영한 영상으로부터 인지되는 사용자 행위에 근거하여, 노년층에 타겟팅된 치매예방게임을 상기 사용자와 진행하는 게임기능을 제공하는 것을 특징으로 하는 교감 로봇시스템.
The method according to claim 1,
Further comprising: a camera for capturing a user sensed through the human body recognition sensor;
The robot controller may include:
And a game function for advancing the dementia prevention game targeted for the elderly to the user based on a user action recognized from the image photographed by the user through the camera.
제 1 항에 있어서,
조도감지센서, 온도감지센서, 습도감지센서, 인체인식센서를 더 포함하고;
상기 로봇제어부는,
상기 조도감지센서 및 인체인식센서를 기반으로 어두운 환경에서 사용자의 움직임이 감지되면 취침등을 온(on)시키는 기능, 취침등을 온(on)시킨 후 사용자가 감지되지만 움직임이 감지되지 않으면 취침등을 오프(off)시키는 기능, 상기 온도감지센서 및 습도감지센서를 기반으로 기 설정된 조건에 따라 온/습도를 알리는 기능, 기 저장된 약복용시간정보를 기반으로 약 먹을 시간이 도래하면 알람하는 기능 중 적어도 하나의 편의기능을 제공하는 것을 특징으로 하는 교감 로봇시스템.
The method according to claim 1,
An illumination sensor, a temperature sensor, a humidity sensor, and a human body recognition sensor;
The robot controller may include:
A function of turning on a sleeping light when a movement of a user is detected in a dark environment based on the illuminance detection sensor and a human body recognition sensor, a sleeping function when a user is detected after the sleeping is turned on, Based on the temperature sensing sensor and the humidity sensing sensor, a function of notifying the on / humidity according to a predetermined condition, and a function of alarming when the time of taking the medicine is reached based on the stored medicine taking time information And provides at least one convenience function.
KR1020160160207A 2016-11-29 2016-11-29 Communion robot system for senior citizen KR101954610B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160160207A KR101954610B1 (en) 2016-11-29 2016-11-29 Communion robot system for senior citizen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160160207A KR101954610B1 (en) 2016-11-29 2016-11-29 Communion robot system for senior citizen

Publications (2)

Publication Number Publication Date
KR20180060567A KR20180060567A (en) 2018-06-07
KR101954610B1 true KR101954610B1 (en) 2019-03-06

Family

ID=62621834

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160160207A KR101954610B1 (en) 2016-11-29 2016-11-29 Communion robot system for senior citizen

Country Status (1)

Country Link
KR (1) KR101954610B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230928A1 (en) * 2019-05-15 2020-11-19 엘지전자 주식회사 Robot and control method for same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110605722A (en) * 2018-06-14 2019-12-24 中瑞福宁机器人(沈阳)有限公司 Three-level care system of endowment service robot
CN109079807A (en) * 2018-07-24 2018-12-25 上海常仁信息科技有限公司 A kind of health robot
CN109318239A (en) * 2018-10-09 2019-02-12 深圳市三宝创新智能有限公司 A kind of hospital guide robot, hospital guide's method and device
CN110757475A (en) * 2019-10-18 2020-02-07 郑州星海科技有限公司 Home-based care service robot
CN110802614A (en) * 2019-11-18 2020-02-18 苏州大成有方数据科技有限公司 Nursing robot and working method thereof
CN111673769A (en) * 2020-06-24 2020-09-18 浙江神汽电子商务有限公司 Intelligent voice business robot
KR102415997B1 (en) 2020-11-05 2022-07-05 (주)로보티즈 Companion robot

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100857578B1 (en) * 2007-05-14 2008-09-09 주식회사 유진로봇 Assistance robot for visually impaired
JP2011110644A (en) * 2009-11-26 2011-06-09 Fujitsu Ltd Autonomous mobile robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020088880A (en) * 2001-05-22 2002-11-29 안현기 Multi Functional Robot and Method for Controlling thereof
KR20120061688A (en) * 2010-12-03 2012-06-13 한국기술교육대학교 산학협력단 Apparatus and control method for robot of old people's welfare support
KR20160095789A (en) * 2015-02-04 2016-08-12 금오공과대학교 산학협력단 Smart puppy robot connecting with mobile terminal

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100857578B1 (en) * 2007-05-14 2008-09-09 주식회사 유진로봇 Assistance robot for visually impaired
JP2011110644A (en) * 2009-11-26 2011-06-09 Fujitsu Ltd Autonomous mobile robot

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020230928A1 (en) * 2019-05-15 2020-11-19 엘지전자 주식회사 Robot and control method for same
US11376742B2 (en) 2019-05-15 2022-07-05 Lg Electronics Inc. Robot and method of controlling the same

Also Published As

Publication number Publication date
KR20180060567A (en) 2018-06-07

Similar Documents

Publication Publication Date Title
KR101954610B1 (en) Communion robot system for senior citizen
US11285614B2 (en) Autonomously acting robot that understands physical contact
US11000952B2 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
McColl et al. A survey of autonomous human affect detection methods for social robots engaged in natural HRI
JP6402320B2 (en) An autonomous behavioral robot
US11230014B2 (en) Autonomously acting robot and computer program
Stefanov et al. The smart house for older persons and persons with physical disabilities: structure, technology arrangements, and perspectives
JPWO2018097089A1 (en) Autonomous robot that changes eyes
JP6557840B2 (en) Robot, server and action control program
US20160154468A1 (en) Intraoral User Interface
WO2018084170A1 (en) Autonomous robot that identifies persons
WO2020122236A1 (en) Robot which can wear clothing
JP7375770B2 (en) Information processing device, information processing method, and program
CN110914914A (en) Method and system for accompanying robot
KR20180082777A (en) Communion robot system for senior citizen
JP2018192559A (en) Autonomous mobile robot detecting touch to body of curved surface shape
JPWO2020105309A1 (en) Information processing equipment, information processing methods, and programs
Trivedi et al. Design and implementation of a smart wheelchair
WO2021085175A1 (en) Autonomous mobile object, information processing method, program, and information processing device
JP2022074047A (en) Interactive reminder companion
JP2003339796A (en) Robot for nursing care
KR101727941B1 (en) Interaction training device and method, and system thereof
WO2023037609A1 (en) Autonomous mobile body, information processing method, and program
JPWO2020009098A1 (en) robot
WO2023037608A1 (en) Autonomous mobile body, information processing method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant