KR20190114931A - Robot and method for controlling the same - Google Patents
Robot and method for controlling the same Download PDFInfo
- Publication number
- KR20190114931A KR20190114931A KR1020190115655A KR20190115655A KR20190114931A KR 20190114931 A KR20190114931 A KR 20190114931A KR 1020190115655 A KR1020190115655 A KR 1020190115655A KR 20190115655 A KR20190115655 A KR 20190115655A KR 20190114931 A KR20190114931 A KR 20190114931A
- Authority
- KR
- South Korea
- Prior art keywords
- care
- information
- robot
- image information
- sound information
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/003—Controls for manipulators by means of an audio-responsive input
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/061—Safety devices with audible signals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 로봇 및 그의 제어 방법에 관한 것으로, 더 상세하게는 소정 공간에 위치한 돌봄 대상을 케어하는 로봇 및 그의 제어 방법에 관한 것이다.The present invention relates to a robot and a control method thereof, and more particularly, to a robot and a control method thereof for caring for a care object located in a predetermined space.
최근, 전자 및 광학기술이 발달함에 따라 카메라의 성능은 향상되고, 그 크기는 점차 소형화되어, 다양한 IoT(Internet of Things) 기기에 탑재되고 있다.Recently, with the development of electronic and optical technology, the performance of the camera is improved, and the size thereof is gradually reduced, and is mounted on various Internet of Things (IoT) devices.
선행 기술 1에 개시된 돌봄 단말 시스템은 아이, 노인 및 애완 동물 등의 돌봄 대상이 갖고 있는 RFID 단말로부터 위치 정보 및 돌봄 대상의 상태 정보를 실시간으로 수집함으로써, 케어 서비스를 제공한다.The care terminal system disclosed in Prior Art 1 provides a care service by collecting location information and state information of a care object in real time from an RFID terminal owned by a care object such as a child, an elderly person, and a pet.
선행 기술 2에 개시된 돌봄 장치는 놀이 시설에 적용 가능하며, 비콘 태그를 지닌 아이의 위치를 실시간으로 추적하고 아이가 배치된 영역의 카메라를 활성화하여 아이를 모니터링한다.The caring device disclosed in Prior Art 2 is applicable to a play facility and monitors the child by tracking the location of the child with the beacon tag in real time and activating a camera in the area where the child is placed.
다만, 선행 기술 1 및 2의 경우 카메라를 이용하여 돌봄 대상을 모니터링하는 내용이 개시되기는 하나, 보호자의 상황 관여가 언제 필요한지에 대한 구체적인 내용이 개시되지 않았으며, 돌봄 대상을 인식하는 내용이 개시되지 않아서, 맞춤형으로 돌봄 대상을 케어하기 어려운 한계가 있다.However, in the case of prior arts 1 and 2, although the contents of monitoring the caregiver using a camera are disclosed, specific details on when the caregiver needs to be involved in the situation are not disclosed, and the content of recognizing the caregiver is not disclosed. As a result, there is a limit that it is difficult to care for a customized care subject.
본 발명이 해결하고자 하는 과제는 보호자가 부재중인 경우에 소정 공간에 위치된 돌봄 대상의 니즈(Needs)를 맞춤형으로 충족시키는 로봇 및 그의 제어 방법을 제공하는 데에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a robot and a control method thereof that satisfactorily meet the needs of care targets located in a predetermined space in the absence of a guardian.
본 발명의 또 다른 과제는, 돌봄 대상을 인식하고 돌봄 대상의 나이를 추정하는 로봇 및 그의 제어 방법을 제공하는 데에 있다.Another object of the present invention is to provide a robot and a control method thereof for recognizing a care object and estimating the age of the care object.
본 발명의 또 다른 과제는, 돌봄 대상과 인터랙션하는 로봇 및 그의 제어 방법을 제공하는 데에 있다.Another object of the present invention is to provide a robot that interacts with a care target and a control method thereof.
본 발명의 또 다른 과제는, 돌봄 대상의 케어가 필요한 시점을 결정하는 로봇 및 그의 제어 방법을 제공하는 데에 있다.Another object of the present invention is to provide a robot and a control method thereof for determining a time point at which care for a care subject is required.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예예 따른 로봇은 통신부, 카메라, 마이크, 출력부 및 제어부를 포함한다. 제어부는, 소정 공간에 위치한 돌봄 대상(Caring Target)을 촬영한 영상 정보를 카메라를 통해 획득하거나 돌봄 대상의 사운드 정보를 마이크를 통해 획득하고, 영상 정보 또는 사운드 정보에 기초하여, 로봇이 케어(Care) 모드로 진입할지 여부를 결정하며, 케어 모드의 진입이 결정된 경우, 영상 정보 또는 사운드 정보를 돌봄 대상의 보호자가 컨트롤하는 이동 단말로 통신부를 통해 전송할 수 있다.In order to achieve the above object, the robot according to an embodiment of the present invention includes a communication unit, a camera, a microphone, an output unit and a control unit. The controller acquires image information of a caring target located in a predetermined space through a camera or obtains sound information of the caring target through a microphone, and the robot cares based on the image information or sound information. ) Is determined whether to enter the mode, and if the entry into the care mode is determined, the image information or sound information may be transmitted through the communication unit to the mobile terminal controlled by the caregiver of the caregiver.
로봇의 제어부는 영상 정보 또는 사운드 정보에 대응하는 피드백 정보를 이동 단말로부터 통신부를 통해 수집하며, 피드백 정보에 기초하여, 소정의 메시지를 돌봄 대상을 향하여 출력하도록 구성될 수 있다.The controller of the robot collects feedback information corresponding to the image information or sound information from the mobile terminal through the communication unit, and may be configured to output a predetermined message toward the care object based on the feedback information.
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 로봇의 제어 방법은 소정 공간에 위치한 돌봄 대상을 촬영한 영상 정보 또는 돌봄 대상의 사운드 정보를 입력받는 단계, 영상 정보 또는 사운드 정보를 케어(Care) 시스템으로 전송하는 단계, 케어 시스템이 영상 정보 또는 사운드 정보에 대응하는 피드백 정보를 돌봄 대상의 보호자로부터 수집하는 경우, 피드백 정보를 케어 시스템으로부터 수신하는 단계 및 수신된 피드백 정보에 기초하여 돌봄 대상을 케어하기 위한 소정의 메시지를 출력하는 단계를 포함할 수 있다.In order to achieve the above object, the control method of the robot according to an embodiment of the present invention, the step of receiving the image information or the sound information of the care object to take care of the care object located in a predetermined space, care for the image information or sound information ( Step of transmitting to the care system, if the care system collects feedback information corresponding to the image information or sound information from the caregiver of the care subject, receiving the feedback information from the care system and based on the received feedback information The method may include outputting a predetermined message for treating the problem.
상기 과제를 달성하기 위하여, 본 발명의 일 실시 예에 따른 로봇의 제어 방법은 소정 공간에 위치한 돌봄 대상을 촬영한 영상 정보 또는 돌봄 대상의 사운드 정보를 획득하는 단계, 영상 정보 또는 사운드 정보에 기초하여, 케어(Care) 모드의 진입 여부를 결정하는 단계, 케어 모드의 진입이 결정된 경우, 영상 정보 또는 사운드 정보를 돌봄 대상의 보호자가 컨트롤하는 이동 단말로 전송하는 단계, 영상 정보 또는 사운드 정보에 대응하는 피드백 정보를 상기 이동 단말로부터 수집하는 단계 및 피드백 정보에 기초하여, 소정의 메시지를 상기 돌봄 대상을 향하여 출력하는 단계를 포함할 수 있다.In order to achieve the above object, the control method of the robot according to an embodiment of the present invention, the step of acquiring the image information or the sound information of the care object, the care object located in a predetermined space, based on the image information or sound information Determining whether to enter a care mode; when entering the care mode, transmitting image information or sound information to a mobile terminal controlled by a caregiver of a care target; corresponding to the image information or sound information Collecting feedback information from the mobile terminal and outputting a predetermined message toward the care subject based on the feedback information.
본 발명의 다양한 실시 예에 따르면, 보호자가 부재중인 경우에도 소정 공간에 위치된 돌봄 대상의 니즈가 맞춤형으로 충족될 수 있으므로, 사용자 편의가 제고될 수 있다.According to various embodiments of the present disclosure, even when the guardian is absent, the needs of the care object located in a predetermined space may be customized to be customized, thereby improving user convenience.
도 1은 본 발명의 일 실시 예에 따른 5G 네트워크 기반의 클라우드 시스템을 나타내는 도면,
도 2는 본 발명의 일 실시 예에 따른 돌봄 대상 및 보호자의 인터랙션을 제공하는 로봇을 설명하기 위한 도면,
도 3은 본 발명의 일 실시 예에 따른 케어 시스템 및 로봇의 구성을 설명하는 상대 블록도,
도 4는 본 발명의 일 실시 예에 따른 돌봄 대상을 케어하기 위한 로봇 및 케어 시스템의 구동을 설명하기 위한 시퀀스도, 그리고,
도 5는 본 발명의 일 실시 예에 따른 로봇의 구동 방법을 나타내는 시퀀스도이다.1 is a view showing a 5G network-based cloud system according to an embodiment of the present invention,
2 is a view for explaining a robot that provides the interaction between the care target and the guardian according to an embodiment of the present invention;
3 is a relative block diagram illustrating a configuration of a care system and a robot according to an embodiment of the present disclosure;
4 is a sequence diagram for explaining the driving of the robot and the care system for caring for the care object according to an embodiment of the present invention, and
5 is a sequence diagram illustrating a method of driving a robot according to an exemplary embodiment.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, and the same or similar components are denoted by the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other. In addition, in describing the embodiments disclosed herein, when it is determined that the detailed description of the related known technology may obscure the gist of the embodiments disclosed herein, the detailed description thereof will be omitted. In addition, the accompanying drawings are intended to facilitate understanding of the embodiments disclosed herein, but are not limited to the technical spirit disclosed herein by the accompanying drawings, all changes included in the spirit and scope of the present invention. It should be understood to include equivalents and substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprises" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
본 발명의 다양한 실시 예는 인공 지능에 관한 기술을 이용할 수 있으므로, 이하에서는, 인공 지능에 대해 개략적으로 설명한다.Since various embodiments of the present disclosure may use techniques related to artificial intelligence, the following is an overview of artificial intelligence.
인공 지능(AI: Artificial Intelligence)은 인공적인 지능 또는 이를 만들 수 있는 방법론을 연구하는 분야를 의미하며, 머신 러닝(기계 학습, Machine Learning)은 인공 지능 분야에서 다루는 다양한 문제를 정의하고 그것을 해결하는 방법론을 연구하는 분야를 의미한다. 머신 러닝은 어떠한 작업에 대하여 꾸준한 경험을 통해 그 작업에 대한 성능을 높이는 알고리즘으로 정의하기도 한다.Artificial Intelligence (AI) refers to the field of researching artificial intelligence or the methodology that can produce it, and Machine Learning (method of machine learning) defines and solves various problems in the field of artificial intelligence. Means the field of research. Machine learning is defined as an algorithm that improves the performance of a task through a consistent experience with a task.
인공 신경망(ANN: Artificial Neural Network)은 머신 러닝에서 사용되는 모델로서, 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)들로 구성되는, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다. 인공 신경망은 다른 레이어의 뉴런들 사이의 연결 패턴, 모델 파라미터를 갱신하는 학습 과정, 출력값을 생성하는 활성화 함수(Activation Function)에 의해 정의될 수 있다.Artificial Neural Network (ANN) is a model used in machine learning, and may refer to an overall problem-solving model composed of artificial neurons (nodes) formed by a combination of synapses. The artificial neural network may be defined by a connection pattern between neurons of different layers, a learning process of updating model parameters, and an activation function generating an output value.
인공 신경망은 입력층(Input Layer), 출력층(Output Layer), 그리고 선택적으로 하나 이상의 은닉층(Hidden Layer)을 포함할 수 있다. 각 층은 하나 이상의 뉴런을 포함하고, 인공 신경망은 뉴런과 뉴런을 연결하는 시냅스를 포함할 수 있다. 인공 신경망에서 각 뉴런은 시냅스를 통해 입력되는 입력 신호들, 가중치, 편향에 대한 활성 함수의 함숫값을 출력할 수 있다.The artificial neural network may include an input layer, an output layer, and optionally one or more hidden layers. Each layer includes one or more neurons, and the artificial neural network may include synapses that connect neurons to neurons. In an artificial neural network, each neuron may output a function value of an active function for input signals, weights, and deflections input through a synapse.
모델 파라미터는 학습을 통해 결정되는 파라미터를 의미하며, 시냅스 연결의 가중치와 뉴런의 편향(Bias) 등이 포함된다. 그리고, 하이퍼파라미터는 머신 러닝 알고리즘에서 학습 전에 설정되어야 하는 파라미터를 의미하며, 학습률(Learning Rate), 반복 횟수, 미니 배치 크기, 초기화 함수 등이 포함된다.The model parameter refers to a parameter determined through learning and includes weights of synaptic connections and bias of neurons. In addition, the hyperparameter means a parameter to be set before learning in the machine learning algorithm, and includes a learning rate, the number of iterations, a mini batch size, and an initialization function.
인공 신경망에서 학습의 목적은 손실 함수를 최소화하는 모델 파라미터를 결정하는 것으로 볼 수 있다. 손실 함수는 인공 신경망의 학습 과정에서 최적의 모델 파라미터를 결정하기 위한 지표로 이용될 수 있다.The goal of learning in artificial neural networks can be seen as determining model parameters that minimize the loss function. The loss function can be used as an index for determining optimal model parameters in the learning process of artificial neural networks.
머신 러닝은 학습 방식에 따라 지도 학습(Supervised Learning), 비지도 학습(Unsupervised Learning), 강화 학습(Reinforcement Learning)으로 분류할 수 있다.Machine learning can be categorized into supervised learning, unsupervised learning, and reinforcement learning.
지도 학습은 학습 데이터에 대한 레이블(Label)이 주어진 상태에서 인공 신경망을 학습시키는 방법을 의미하며, 레이블이란 학습 데이터가 인공 신경망에 입력되는 경우 인공 신경망이 추론해 내야 하는 정답(또는 결과 값)을 의미할 수 있다. 비지도 학습은 학습 데이터에 대한 레이블이 주어지지 않는 상태에서 인공 신경망을 학습시키는 방법을 의미할 수 있다. 강화 학습은 어떤 환경 안에서 정의된 에이전트가 각 상태에서 누적 보상을 최대화하는 행동 혹은 행동 순서를 선택하도록 학습시키는 학습 방법을 의미할 수 있다. Supervised learning refers to a method of learning artificial neural networks with a label for training data, and a label indicates a correct answer (or result value) that the artificial neural network must infer when the training data is input to the artificial neural network. Can mean. Unsupervised learning may refer to a method of training artificial neural networks in a state where a label for training data is not given. Reinforcement learning can mean a learning method that allows an agent defined in an environment to learn to choose an action or sequence of actions that maximizes cumulative reward in each state.
인공 신경망 중에서 복수의 은닉층을 포함하는 심층 신경망(DNN: Deep Neural Network)으로 구현되는 머신 러닝을 딥 러닝(심층 학습, Deep Learning)이라 부르기도 하며, 딥 러닝은 머신 러닝의 일부이다. 이하에서, 머신 러닝은 딥 러닝을 포함하는 의미로 사용된다.Machine learning, which is implemented as a deep neural network (DNN) including a plurality of hidden layers among artificial neural networks, is called deep learning (Deep Learning), which is part of machine learning. In the following, machine learning is used to mean deep learning.
도 1은 본 발명의 일 실시 예에 따른 5G 네트워크 기반의 클라우드 시스템(1000)을 나태낸다.1 illustrates a 5G network-based
도 1을 참고하면, 클라우드 시스템(1000)은 로봇(100), 이동 단말(200), 케어 시스템(300), 각종 기기(400) 및 5G 네트워크(500)을 포함할 수 있다.Referring to FIG. 1, the
로봇(100)은 소정 공간에 위치하여 아이, 노인 또는 반려 동물 등의 돌봄 대상을 모니터링할 수 있다. 선택적 실시 예로 로봇(100)은 복수의 휠을 구비하여 이동하도록 구현될 수 있으며, 고정형으로 구현될 수도 있다. The
이동 단말(200)은 5G 네트워크(500)를 통해 로봇(100)과 통신할 수 있으며, 이동 단말(200)은 소정 공간에 위치한 돌봄 대상의 보호자가 소지한 기기일 수 있다. 여기서, 이동 단말(100)은 휴대폰, 스마트 폰(smart phone), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display) 등) 를 포함할 수 있다.The
케어 시스템(300)은 로봇(100)을 원격으로 제어할 수 있으며, 로봇(100)의 다양한 요청에 응답할 수 있다. 케어 시스템(300)은 보호자의 위치 정보를 로봇(100)에 제공할 수 있으며, 보호자가 발화한 사운드 정보 또는 보호자를 촬영한 영상 정보를 로봇(100)에 제공할 수 있다. The
각종 기기(400)는 개인 컴퓨터(PC, 400a), 자율 주행차(400b), 이동 로봇(400c) 등을 포함할 수 있다. 상기 로봇(100)은 이동 로봇(400c)과 통신할 수 있다. 각종 기기(400)는 로봇(100), 이동 단말(200), 케어 시스템(300) 등과 5G 네트워크(500)를 통해 유무선으로 연결될 수 있다. The
상기의 로봇(100), 이동 단말(200), 케어 시스템(300) 및 각종 기기(400)는 모두 5G 모듈을 탑재하여 100Mbps 내지 20Gbps(또는, 그 이상) 속도로 데이터를 송수신할 수 있어서 대용량의 동영상 파일을 다양한 기기로 전송할 수 있으며, 저전력으로 구동되어 전력 소비가 최소화되게 할 수 있다. 다만, 상기 전송 속도는 실시 예에 따라 달리 구현될 수 있다.The
5G 네트워크(500)는 5G 이동 통신 네트워크, 근거리 네트워크, 인터넷 등을 포함하여 유무선으로 기기들의 통신 환경을 제공할 수 있다.The
도 2는 본 발명의 일 실시 예에 따른 돌봄 대상 및 보호자의 인터랙션을 제공하는 로봇(100)을 설명하기 위한 도면이다.2 is a diagram illustrating a
도 2를 참고하면, 예시적으로 아이가 돌봄 대상(Caring Target, Tar)이며, 돌봄 대상(Tar)은 홈(HOME)에 위치할 수 있다. 돌봄 대상(Tar)의 보호자(Prot)는 엄마이며 보호자(Prot)는 이동 단말(200)을 소지할 수 있다. 보호자(Prot)는 상기 소정 공간(HOME)에 위치하지 않고 외출한 상태이다. 참고로, 상기 보호자의 도면 부호인 Prot 및 상기 돌봄 대상의 도면 부호인 Tar는 이하에서도 다양한 보호자 및 돌봄 대상에 기입될 수 있다.Referring to FIG. 2, for example, a child may be a caring target (Tar), and the care target (Tar) may be located in a home (HOME). The caregiver Prot of the care target Tar is a mother and the caregiver Prot may carry the
로봇(100)은 홈 로봇으로 구현될 수 있으며, 로봇(100)은 카메라(121)를 통해 소정 영역을 모니터링 할 수 있으며, 돌봄 대상(Tar)이 "엄마, 언제와"(S1)라고 발화하면, 후술할 마이크(도 3의 123)를 통해 발화된 사운드 정보를 입력받을 수 있다.The
로봇(100)은 돌봄 대상(Tar)을 케어하기 위한 케어 모드로 진입할지 여부를 결정할 수 있다. 예를 들면, 로봇(100)은 발화된 돌봄 대상(Tar)의 사운드 정보에 보호자(Prot)를 찾는 사운드 정보가 포함되었는지 여부, 촬영된 돌봄 대상(Tar)의 영상 정보에 기초하여, 보호자(Prot)의 관여가 필요한 상황인지를 결정할 수 있다.The
로봇(100)은 돌봄 대상(Tar)을 케어하기 위한 케어 모드로 진입을 결정한 경우, 돌봄 대상(Tar)을 촬영한 영상 정보 및/또는 돌봄 대상(Tar)의 사운드 정보를 케어 시스템(300)으로 전송할 수 있다.When the
케어 시스템(300)은 돌봄 대상(Tar)을 촬영한 영상 정보, 사운드 정보 및/또는 상기 사운드 정보를 STT 알고리즘을 이용하여 변환한 텍스트 정보 중 적어도 하나를 돌봄 대상(Tar)의 보호자(Prot)가 소지한 이동 단말(200)로 전송할 수 있다. 실시 예에 따라서는 상기 보호자(Prot)가 긴급 보호 기관(소방서, 경찰서, 병원 등)을 포함할 수 있다.The
이동 단말(200)은 상기 영상 정보, 사운드 정보 및/또는 텍스트 정보 중 적어도 하나를 디스플레이(241)에 출력할 수 있다. 예를 들면, 이동 단말(200)의 디스플레이(241)는 돌봄 대상(TarA)을 표시할 수 있으며, "OO가 엄마를 찾고 있어요. 언제 집에 오시나요"와 같은 문구(L1)를 디스플레이(241)에 출력할 수 있다.The
여기서, 돌봄 대상(Tar)의 보호자(Prot)가 출력된 정보에 대한 피드백 정보를 이동 단말(200)에 입력하면, 입력된 피드백 정보는 케어 시스템(300) 및 로봇(100)을 통해 돌봄 대상(Tar)에 제공될 수 있다.Here, when the guardian Prot of the care target Tar inputs feedback information on the output information to the
만약, 보호자(Prot)의 피드백 정보가 "30분 후에 도착해"라는 문구를 포함하는 경우, 로봇(100)은 실시간으로 해당 문구를 돌봄 대상(Tar)에게 전달할 수 있으며, 선택적 실시 예로, 로봇(100)은 "30분 후에 엄마가 도착하니, OO 콘텐츠 보면서 기다리자"라고 돌봄 대상(Tar)에게 전달할 수 있다.If the feedback information of the protector Prot includes the phrase "arriving after 30 minutes", the
이를 위해, 로봇(100)은 돌봄 대상(Tar)에게 Predefined 메시지를 제공할 수 있으며, 피드백 정보를 가공한 메시지를 제공할 수 있고, 피드백 정보를 그대로 돌봄 대상(Tar)에게 제공할 수 있다. 상기 메시지는 다이알로그 매니저(Dialog Manager)에 의해 결정될 수 있다.To this end, the
아울러, 로봇(100)은 돌봄 대상(Tar)에게 보호자(Prot)의 위치 정보, 상태 정보 및 돌봄 대상(Tar)의 콘텐츠 이용 패턴을 분석하여 콘텐츠를 돌봄 대상(Tar)에게 제공할 수 있다.In addition, the
도 3은 본 발명의 일 실시 예에 따른 케어 시스템(300) 및 로봇(100)의 구성을 나타내는 상대 블록도이다.3 is a relative block diagram showing the configuration of the
먼저, 로봇(100)은 로봇 통신부(110), 입력부(120), 센싱부(130), 출력부(140), 로봇 메모리(150), 전원 공급부(160) 및 훨 구동부(170)를 포함할 수 있다. 도 3에 도시된 구성요소들은 로봇(100)을 구현하는데 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.First, the
로봇 통신부(110)는 케어 시스템(300), 이동 단말(200) 등과 통신할 수 있는 유무선의 통신 모듈을 포함할 수 있다. 선택적 실시 예로 상기 로봇 통신부(110)는 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association;IrDA), ZigBee, NFC(Near Field Communication) 통신에 관한 모듈을 탑재할 수 있다.The robot communication unit 110 may include a wired or wireless communication module capable of communicating with the
입력부(120)는 사용자로부터 정보를 입력받기 위한 사용자 입력부를 포함할 수 있다. 선택적 실시 예로 입력부(120)는 영상 신호 입력을 위한 카메라(121), 오디오 신호를 수신하기 위한 마이크로폰(123, "이하, 마이크로 칭함")을 포함할 수 있다. 여기서, 카메라(121)나 마이크(123)를 센서로 취급하여, 카메라(121)나 마이크(123)에서 획득한 신호를 센싱 데이터 또는 센서 정보라고 할 수도 있다.The
입력부(120)는 모델 학습을 위한 학습 데이터 및 학습 모델을 이용하여 출력을 획득할 때, 사용될 입력 데이터 등을 획득할 수 있다. 입력부(120)는 가공되지 않은 입력 데이터를 획득할 수도 있으며, 이 경우 로봇 제어부(190)는 입력 데이터에 대하여 전처리로써 입력 특징점(input feature)을 추출할 수 있다.The
센싱부(130)는 다양한 센서들을 이용하여 로봇(100)의 내부 정보, 로봇(100)의 주변 환경 정보 및 사용자 정보 중 적어도 하나를 획득할 수 있다. The
이때, 센싱부(130)는 위성에 기반한 위치 수신 센서, 거리 감지 센서(131), 조도 센서, 가속도 센서, 자기 센서, 자이로 센서, 관성 센서, RGB 센서, IR 센서, 지문 인식 센서, 초음파 센서, 광 센서, 마이크, 라이다 센서, 바로미터 센서, 레이더 등을 포함할 수 있다. At this time, the
출력부(140)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시킬 수 있는데, 출력부(140)는 시각 정보를 출력하는 광 출력부, 디스플레이(141, 복수로 구현 가능) 등을 포함할 수 있으며, 청각 정보를 출력하는 스피커(143), 비가청 주파수에 속하는 초음파 신호를 출력하는 초음파 출력부 등을 포함할 수 있고, 촉각 정보를 출력하는 햅틱 모듈을 포함할 수 있다.The
로봇 메모리(150)는 로봇(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 로봇(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다.The
아울러, 로봇 메모리(150)는 인공 지능, 머신 러닝, 인공 신경망을 이용하여 연산을 수행하는데 필요한 정보를 저장할 수 있다. 로봇 메모리(150)는 심층 신경망 모델을 저장할 수 있다. 상기 심층 신경망 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.In addition, the
전원 공급부(160)는 로봇 제어부(190)의 제어 하에서, 외부의 전원, 내부의 전원을 인가받아 로봇(100)의 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(160)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체 가능한 형태의 배터리가 될 수 있다. 상기 배터리는 유선 또는 무선 충전 방식으로 충전될 수 있는데, 무선 충전 방식은 자기 유도 방식 또는 자기 공진 방식을 포함할 수 있다.The
휠 구동부(170)는 복수의 휠을 제어하여 로봇(100)을 이동시킬 수 있다. 휠 구동부(170)는 로봇 제어부(190)에 의해 구동될 수 있다.The
로봇 제어부(190)는 이동 로봇(100)의 구성들을 컨트롤하는 모듈이다. 상기 로봇 제어부(190)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The
이하에서는, 로봇 제어부(190)의 구동을 주로 설명하기로 한다.Hereinafter, the driving of the
로봇 제어부(190)는 보호자 정보를 로봇 메모리(150)에 저장할 수 있다. 로봇 제어부(190)는 보호자(Prot)의 안면을 카메라(121)를 통해 입력하거나 보이스를 마이크(123)를 통해 입력할 수 있다. 로봇 제어부(190)는 입력된 보호자 정보를 케어 시스템(300)에 제공할 수 있다.The
로봇 제어부(190)는 보호자 정보를 입력받고, 피보호자인 돌봄 대상(Tar)의 정보를 입력받을 수 있다. 예를 들면, 로봇 제어부(190)는 돌봄 대상(Tar)이 사람인지 동물인지 구분할 수 있으며, 사람인 경우 노인인지 아이인지 구분할 수 있다. 아울러, 로봇 제어부(190)는 돌봄 대상(Tar)에게 제공할 메시지를 미리 설정할 수 있다.The
로봇 제어부(190)는 소정 공간에 위치한 돌봄 대상(Tar)을 촬영한 영상 정보를 카메라(121)를 통해 획득하거나 돌봄 대상(Tar)의 사운드 정보를 마이크(123)를 통해 획득할 수 있다.The
로봇 제어부(190)는 영상 정보 및/또는 사운드 정보에 기초하여, 상기 돌봄 대상이 사람 또는 반려 동물인지 인식 또는 추정할 수 있다. 또한, 로봇 제어부(190)는 돌봄 대상(Tar)이 사람인 경우, 제1 소정 나이 이하 또는 제2 소정 나이 이상인지 추정할 수 있다. 여기서, 제1 소정 나이는 7세로 설정할 수 있으며, 제2 소정 나이는 70세로 설정할 수 있으나, 실시 예에 따라 나이가 다르게 설정될 수 있다.The
이에, 로봇 제어부(190)는 돌봄 대상(Tar)이 사람인 경우, 나이가 어린 아이 또는 나이가 많은 노인을 구분할 수 있다. 이에 따라, 로봇 제어부(190)는 인식 또는 추정된 돌봄 대상(Tar)에 따라 맞춤형으로 케어 서비스를 제공할 수 있다.Thus, when the care target Tar is a human, the
여기서, 돌봄 대상(Tar)의 사운드 정보는 돌봄 대상(Tar)이 발화하는 사운드 정보를 포함할 수 있으며, 돌봄 대상(Tar)에 의해 발생되는 사운드 정보를 포함할 수 있다.Here, the sound information of the care target Tar may include sound information spoken by the care target Tar, and may include sound information generated by the care target Tar.
로봇 제어부(190)는 로봇 메모리(150)에 저장된 심층 신경망 모델을 이용하여 반려 동물, 아이, 노인 등을 구분할 수 있다. 상기 심층 신경망 모델은 입력되는 영상 정보 및 사운드 정보에 기초하여 돌봄 대상(Tar)을 추정하는 모델이며, 레이블(그라운드 트루스(Ground Truth))에 기초하여 모델을 완성하며 모델의 정확도를 높일 수 있다.The
로봇 제어부(190)는 돌봄 대상(Tar)에 관련된 영상 정보 또는 사운드 정보에 기초하여, 로봇(100)이 케어(Care) 모드로 진입할지 여부를 결정할 수 있다.The
여기서, 케어 모드는 로봇(100)이 돌봄 대상(Tar)을 돌보기 위한 모드로 돌봄 대상(Tar)의 보호자(Prot)의 도움을 받아 케어 서비스를 돌봄 대상(Tar)에 제공할 수 있다.Here, the care mode is a mode in which the
로봇 제어부(190)는 영상 정보 또는 사운드 정보에 기초하여, 보호자(Prot)의 관여가 필요한 것으로 결정한 경우, 로봇(100)을 케어 모드로 진입시킬 수 있다.The
로봇 제어부(190)는 영상 정보에서 획득한 돌봄 대상(Tar)의 모션 정보 또는 사운드 정보를 입력 데이터로 하고, 보호자(Prot)의 관여가 필요한지 여부를 출력 데이터로 하는 기 저장된 심층 신경망 모델을 이용하여, 로봇(100)이 케어 모드로 진입할지 여부를 결정할 수 있다.The
예를 들어 돌봄 대상(Tar)이 노인인 경우, 심층 신경망 모델은 돌봄 대상(Tar)이 갑자기 쓰러지는 모션, 괴로운 표정을 지으면서 신체 부위를 움켜지는 모션 등을 입력받는 경우, 보호자(Prot)의 관여가 필요한 것으로 출력할 수 있다.For example, if the target of care is an elderly person, the deep neural network model receives a caretist's involvement when the target of the caregiver suddenly falls down or grabs a body part while having a painful expression. You can output it as you need.
또한, 돌봄 대상(Tar)이 아이인 경우, 심층 신경망 모델은 돌봄 대상(Tar)이 우는 모션 정보(눈을 비비면서 눈물이 떨어지는 상황), 위험한 곳에 올라가는 모션 정보 등을 입력받는 경우, 보호자(Prot)의 관여가 필요한 것으로 출력할 수 있다.In addition, when the care target (Tar) is a child, the deep neural network model is a caregiver (Prot) when the care target (Tar) receives the motion information crying (when the eye falls tears), motion information rising to a dangerous place, etc. ) Can be output as necessary.
또한, 돌봄 대상(Tar)이 반려 동물인 경우, 심층 신경망 모델은 돌봄 대상(Tar)이 토하는 모션 정보, 위험한 곳에 올라가는 모션 정보, 배고파서 힘 없이 축 늘어진 모션 정보 등을 입력받는 경우, 보호자(Prot)의 관여가 필요한 것으로 출력할 수 있다.In addition, when the target of care (Tar) is a companion animal, the deep neural network model Prot when receiving the motion information vomiting Tar, motion information going up in a dangerous place, limp motion information without hungry force Can be outputted as necessary.
또한, 상기 심층 신경망 모델은 돌봄 대상(Tar)의 각종 사운드 정보에 기초하여 보호자(Prot)의 관여가 필요한지 여부를 출력할 수 있다. 가령, 심층 신경망 모델은 돌봄 대상(Tar)이 보호자(Prot)를 부르면서 우는 사운드 정보를 입력받는 경우, 보호자(Prot)의 관여가 필요한 것으로 출력할 수 있다.In addition, the deep neural network model may output whether the involvement of the protector Prot is necessary based on various sound information of the care target Tar. For example, the deep neural network model may output that the care target (Prot) is required when the care target (Tar) receives the crying sound information while calling the protector (Prot).
로봇 제어부(190)는 상기 심층 신경망 모델을 생성, 훈련 및 완성할 수 있다. 이를 위해, 로봇 제어부(190)는 입력되는 영상 정보 및/또는 사운드 정보에 기초하여 출력되는 보호자 관여 여부에 대한 정보를 레이블(그라운드 트루스)에 기초하여 심층 신경망 모델을 훈련시킬 수 있다.The
선택적 실시 예로, 로봇 제어부(190)는 사운드만 검출된 경우에는 케어 모드로 진입하지 않다가 아이 사운드가 입력되면, 아이를 위한 케어 모드로 진입할 수 있으며, 반려 동물의 사운드가 입력되면, 반려 동물을 위한 케어 모드로 진입할 수 있다. As an optional embodiment, when only the sound is detected, the
선택적 실시 예로, 로봇 제어부(190)는 영상 정보에서 사람이 검출되면, 사람의 나이를 추정하고 추정 나이가 아이인 경우, 아이를 위한 케어 모드로 진입할 수 있으며, 추정 나이가 노인인 경우, 노인을 위한 케어 모드로 진입할 수 있다.As an optional embodiment, when a person is detected from the image information, the
선택적 실시 예로, 로봇 제어부(190)는 돌봄 대상(Tar)이 카메라(121)를 소정 시간 동안 바라보는 경우, 돌봄 대상(Tar)을 촬영한 영상 정보에서 나이에 따른 돌봄 서비스를 제공할 수 있다. 만약, 로봇 제어부(190)는 돌봄 대상(Tar)이 카메라(121)를 바라보지 않는 경우, 돌봄 서비스를 종료할 수 있다. As an optional embodiment, when the care target Tar looks at the
선택적 실시 예로, 로봇 제어부(190)는 돌봄 대상(Tar)이 소정 거리 내인 경우, 보호자 명칭이 마이크(123)를 통해 입력되는지 모니터링하고, 보호자 명칭이 입력되면, 보호자(Prot)에게 메시지를 전송할 수 있다.As an optional embodiment, when the care target Tar is within a predetermined distance, the
로봇 제어부(190)는 케어 모드의 진입이 결정된 경우, 영상 정보 또는 상기 사운드 정보를 상기 돌봄 대상(Tar)의 보호자(Prot)가 컨트롤하는 이동 단말(200)로 통신부(110)를 통해 전송할 수 있다. When entering the care mode, the
이때, 로봇 제어부(190)는 사운드 정보에 대응하는 텍스트 정보를 STT(Speech To Text) 알고리즘을 이용하여 변환하고, 상기 변환된 텍스트 정보를 이동 단말(200)로 전송할 수 있다. 이를 위해, STT 알고리즘이 상기 로봇 메모리(150)에 저장될 수 있다. 선택적 실시 예로 로봇 제어부(190)는 모션 정보에 대응하는 텍스트 정보를 추출하여 이동 단말(200)로 전송할 수 있다. In this case, the
로봇 제어부(190)는 영상 정보 또는 사운드 정보에 대응하는 피드백 정보를 이동 단말(200)로부터 로봇 통신부(110)를 통해 수집할 수 있다. 여기서, 피드백 정보는 보호자(Prot)가 제공하는 정보일 수 있다. The
선택적 실시 예로 상기 피드백 정보는 외부 병원 시스템, 긴급 출동 서비스 시스템 등을 통해서 수신되는 정보일 수 있다. 특히, 상기 피드백 정보는 돌봄 대상(Tar)을 케어하기 위한 사운드 정보 또는 영상 정보를 포함하는 정보일 수 있다.In some embodiments, the feedback information may be information received through an external hospital system, an emergency dispatch service system, or the like. In particular, the feedback information may be information including sound information or image information for caring for the target of care.
로봇 제어부(190)는 피드백 정보를 그대로 포함하는 소정의 메시지를 돌봄 대상(Tar)을 향하여 출력부(140)를 통해 출력할 수 있다. 로봇 제어부(190)는 상기 소정의 메시지를 로봇(100)이 직접 출력할 수 있으며, 연관된 기기(TV, 블루투스 스피커)를 통해 출력할 수 있다.The
또한, 로봇 제어부(190)는 피드백 정보에 포함된 영상 정보 및/또는 사운드 정보를 가공한 소정의 메시지를 돌봄 대상(Tar)을 향하여 출력할 수 있다.In addition, the
예를 들면, 로봇 제어부(190)는 보호자(Prot)가 발화한 사운드 정보를 그대로 전송하지 않고, 발화한 사운드 정보를 STT 알고리즘을 이용하여 텍스트 정보로 바꾼 후, 보호자(Prot)의 발화 내용을 인용하는 방식으로 사운드 정보를 가공하여 돌봄 대상(Tar)에 제공할 수 있다. 가령, "엄마가 30분 후에 오신다고 하네요"와 같이 가공될 수 잇다. 이런 경우, 보호자(Prot)의 사운드 정보 및/또는 영상 정보를 보고 돌봄 대상(Tar)의 감정적 동요를 억제시킬 수 있다.For example, the
또한, 상기 로봇 제어부(190)는 피드백 정보에 포함된 보호자(Prot)의 의도에 기초하여 돌봄 대상(Tar)을 향하여 기 설정된 콘텐츠를 제공하거나 돌봄 대상(Tar)을 향하여 특정 활동을 제안할 수 있다.In addition, the
구체적으로, 로봇 제어부(190)는 보호자(Prot)가 돌봄 대상(Tar)에 만화 영화를 재생해달라고 명령하면, 돌봄 대상(Tar)이 선호하는 콘텐츠를 돌봄 대상(Tar)에게 제공할 수 있다. 또한, 로봇 제어부(190)는 돌봄 대상(Tar)이 좋아하는 책을 읽어주라고 보호자(Prot)가 요청하면, 돌봄 대상(Tar)이 좋아할 법한 책을 선택하여 돌봄 대상(Tar)에게 책을 읽어줄 수 있다. 또한, 로봇 제어부(190)는 돌봄 대상(Tar)이 배고픈 것으로 판단한 경우, 돌봄 대상(Tar)에게 음식을 제공할 수 있으며, 돌봄 대상(Tar)이 약 먹을 시간인 경우, 돌봄 대상(Tar)에게 약을 가져다 줄 수 있다.In detail, when the protector Prot instructs the care subject Tar to play a cartoon movie, the
또한, 로봇 제어부(190)는 특정 콘텐츠 및/또는 특정 활동을 돌봄 대상(Tar)에게 제공하면서, 돌봄 대상(Tar)의 콘텐츠/활동 몰입도를 모니터링할 수 있다. In addition, the
가령, 로봇 제어부(190)는 콘텐츠를 바라보는 돌봄 대상(Tar)이 콘텐츠에만 몰입하는 시간 정보, 표정 정보 등을 모니터링한 후, 콘텐츠 별로 선호 순위를 결정할 수 있다. 로봇 제어부(190)는 돌봄 대상(Tar)에게 선호 순위에 기초하여 콘텐츠를 제안할 수 있다.For example, the
또한, 로봇 제어부(190)는 돌봄 대상(Tar)의 안면을 인식하여 콘텐츠가 재생 중인 경우, 돌봄 대상(Tar)이 선호하는 콘텐츠 재생을 제공할 수 있다.In addition, the
만약, 로봇 제어부(190)가 피드백 정보를 수신하지 못하는 경우, 로봇 메모리(150)에 저장된 소정의 메시지를 돌봄 대상(Tar)에게 제공할 수 있다. 가령, 로봇 제어부(190)는 보호자(Prot)가 오는 중이라는 사운드 정보를 돌봄 대상(Tar)에게 제공할 수 있다. If the
아울러, 로봇 제어부(190)는 돌봄 대상(Tar)에 기 설정된 콘텐츠를 제공하거나 돌봄 대상(Tar)을 향하여 특정 활동을 제안할 수 있다. 로봇 제어부(190)는 이전에 돌봄 대상(Tar)에게 제공한 놀이, 활동 등을 제안할 수 있으며, 돌봄 대상(Tar)이 선호했던 콘텐츠를 돌봄 대상(Tar)에게 제공할 수 있다.In addition, the
로봇 제어부(190)는 돌봄 대상(Tar)과 소정의 대화(Dialog)를 수행하는 경우(특정 메시지를 전달하는 경우), DM(Dialog Manager)를 이용할 수 있다. DM은 돌봄 대상(Tar)에 따른 미리 설정된 다이알로그와 보호자의 메시지를 가공한 다이알로그, 보호자의 메시지를 그대로 포함하는 다이알로그 등을 포함할 수 있다. 로봇 제어부(190)는 DM에 포함된 다이알로그를 상황에 맞게 맞춤형으로 돌봄 대상(Tar) 별로 다르게 전달할 수 있다.The
이하에서는, 케어 시스템(300)의 구성요소들을 설명하기로 한다. 케어 시스템(300)은 시스템 통신부(310), 시스템 메모리(320) 및 시스템 제어부(330)를 포함할 수 있다. 도 3에 도시된 구성요소들은 케어 시스템(300)를 구현하는데 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 케어 시스템(300)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.Hereinafter, the components of the
시스템 통신부(310)는 하나 이상의 로봇(100 포함), 각종 통신 기기 등과 통신하는 모듈이며, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), LTE(Long Term Evolution), 5G, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association;IrDA), ZigBee, NFC(Near Field Communication) 통신에 관한 모듈을 탑재할 수 있다.The
시스템 메모리(320)는 인공 지능, 머신 러닝, 인공 신경망을 이용하여 연산을 수행하는데 필요한 정보를 저장할 수 있다. 시스템 메모리(320)는 심층 신경망 모델을 저장할 수 있다. 상기 심층 신경망 모델은 학습 데이터가 아닌 새로운 입력 데이터에 대하여 결과 값을 추론해 내는데 사용될 수 있고, 추론된 값은 어떠한 동작을 수행하기 위한 판단의 기초로 이용될 수 있다.The
시스템 제어부(330)는 케어 시스템(300)을 전반적으로 제어하는 모듈에 해당된다. 시스템 제어부(330)는 돌봄 대상(Tar)에 제공할 콘텐츠 사용에 대한 제어 기능을 로봇(100) 또는 돌봄 대상(Tar)에게 부여할 것인지 보호자(Prot)의 의사에 의해 또는 자체적으로 결정할 수 있다.The
시스템 제어부(330)는 보호자(Prot)의 요청 사항을 돌봄 대상(Tar)에 전달할 수 있으며, 보호자(Prot)의 도착 예정 시간 정보, 보호자(Prot)의 위치 정보 등을 로봇(100)에게 제공할 수 있다.The
이하에서는, 도 4의 시퀀스도를 참고하여 본 발명의 일 실시 예에 따른 로봇(100), 보호자(Prot)의 이동 단말(200) 및 케어 시스템(300)의 구동을 설명하기로 한다.Hereinafter, driving of the
로봇(100)은 홈에 배치되고, 홈 내부에서 돌봄 대상(Tar)의 사운드 정보를 획득한다(S410).The
로봇(100)은 바로 케어 모드로 진입(S420)하고, 돌봄 대상(Tar)의 사운드 정보를 케어 시스템(300)으로 전송하며(S425). 대기 상태로 진입한다(S423, 대기중).The
선택적 실시 예로 로봇(100)은 돌봄 대상(Tar)의 영상 정보를 획득한 후, 상기 영상 정보를 케어 시스템(300)으로 전송할 수 있다.As an optional embodiment, the
케어 시스템(300)은 자연어 처리를 수행하고(S430), 돌봄 대상(Tar)의 요청 정보를 보호자(Prot)의 이동 단말(200)로 전송한다(S435).The
케이 시스템(300)은 사운드 정보를 보다 명확하게 가공하거나 사운드 정보의 의미를 보다 명확하게 인식할 수 있다. 케어 시스템(300)은 추가적으로, 다이알로그 매니저(DM)를 실행하여 돌봄 대상(Tar)에 전달될 말을 설정할 수 있다. DM은 돌봄 대상(Tar) 및 상황에 따라 적절한 다이알로그를 생성할 수 있다.The
케어 시스템(300)은 보호자(Prot)의 피드백 정보를 수신하고(S440), 보호자(Prot)의 피드백 정보를 로봇(100)에 전송한다(S445).The
로봇(100)은 보호자(Prot)의 피드백 정보를 수신하여, 돌봄 대상(Tar)에게 소정의 메시지를 출력한다(S450).The
로봇(100)은 소정 시간 동안 보호자의 피드백 정보를 받지 못한 경우, 기 설정된 메시지를 로봇(100)에 전달할 수 있다. When the
도 5는 본 발명의 일 실시 예에 따른 로봇(100)의 구동 방법을 나타낸 시퀀스도이다.5 is a sequence diagram illustrating a method of driving the
먼저, 로봇(100)은 소정 공간에 위치한 돌봄 대상(Tar)을 촬영한 영상 정보 및/또는 돌봄 대상(Tar)의 사운드 정보를 획득한다(S710, 획득 단계).First, the
그 다음, 로봇(100)은 영상 정보 또는 사운드 정보에 기초하여, 케어(Care) 모드의 진입 여부를 결정한다(S720, 결정 단계).Next, the
로봇(100)은 케어 모드의 진입이 결정된 경우, 영상 정보 또는 사운드 정보를 돌봄 대상(Tar)의 보호자(Prot)가 컨트롤하는 이동 단말(200)로 전송한다(S730, 전송 단계).When the entry into the care mode is determined, the
그 후에, 로봇(100)은 영상 정보 또는 사운드 정보에 대응하는 피드백 정보를 이동 단말(200)로부터 수집한다(S740, 수집 단계).Thereafter, the
이때, 로봇(100)은 이동 단말(200)로부터 이동 단말(200)의 위치 정보(또는 보호자의 위치 정보)를 로봇(100)으로 전송할 수 있다.In this case, the
그 후에, 로봇(100)은 피드백 정보에 기초하여, 소정의 메시지를 돌봄 대상(Tar)을 향하여 출력한다(S750, 출력 단계).Thereafter, the
상기 S720 단계 이전에, 로봇(100)의 구동 방법은 영상 정보 또는 사운드 정보에 기초하여, 돌봄 대상이 사람 또는 반려 동물인지 추정하는 단계 및 돌봄 대상(Tar)을 사람으로 추정한 경우, 추정된 사람의 나이가 제1 소정 나이 이하 또는 제2 소정 나이 이상인지 추정하는 단계를 더 포함할 수 있다.Before the step S720, the driving method of the
상기 S730 단계(전송 단계)는, 영상 정보 또는 사운드 정보에 기초하여, 돌봄 대상(Tar)을 케어하는 보호자(Prot)의 관여가 필요한 것으로 결정한 경우, 케어 모드로 진입하는 단계를 포함할 수 있다.The step S730 (transmission step) may include entering a care mode when it is determined that the involvement of the caregiver Prot who cares for the care target Tar is required based on the image information or the sound information.
구체적으로, 로봇(100)은 영상 정보에서 수집한 돌봄 대상(Tar)의 모션 정보, 획득한 사운드 정보를 입력 데이터로 하고, 돌봄 대상(Tar)을 케어하는 보호자(Prot)의 관여가 필요한지 여부를 출력 데이터로 하는 기 저장된 심층 신경망 모델을 이용하여, 로봇이 케어 모드로 진입할지 여부를 결정할 수 있다.Specifically, the
또한, S730 단계(전송 단계)는, 상기 케어 모드로 진입이 결정되면, 획득한 상기 영상 정보, 상기 사운드 정보 및 상기 사운드 정보를 STT(Speech To Text) 알고리즘을 이용하여 변환한 텍스트 정보 중 적어도 하나를 상기 이동 단말로 전송하는 단계를 포함할 수 있다.In operation S730, when it is determined to enter the care mode, at least one of acquired text information, sound information, and text information obtained by converting the sound information using a speech to text (STT) algorithm may be used. It may include transmitting to the mobile terminal.
S740 단계(수집 단계)는, 돌봄 대상(Tar)을 케어하기 위한 사운드 정보 또는 영상 정보를 포함하는 상기 피드백 정보를 상기 이동 단말로부터 수집하는 단계를 포함할 수 있다.The step S740 (collecting step) may include collecting the feedback information including the sound information or the image information for caring for the care target Tar from the mobile terminal.
S750 단계(출력 단계)는 피드백 정보를 그대로 포함하는 소정의 메시지를 돌봄 대상(Tar)을 향하여 출력하거나, 피드백 정보에 포함된 영상 정보 또는 사운드 정보에 기초하여 가공한 소정의 메시지를 돌봄 대상(Tar)을 향하여 출력하는 단계를 포함할 수 있다.Step S750 (output step) outputs a predetermined message including the feedback information directly to the care target Tar or takes care of a predetermined message processed based on the image information or the sound information included in the feedback information. And outputting toward).
S750 단계(출력 단계) 이후에, 상기 로봇(100)의 구동 방법은 피드백 정보에 포함된 상기 돌봄 대상(Tar)의 보호자(Prot)의 의도에 기초하여 상기 돌봄 대상(Tar)을 향하여 기 설정된 콘텐츠를 제공하거나 상기 돌봄 대상(Tar)을 향하여 특정 활동을 제안하는 단계를 더 포함할 수 있다. After the step S750 (output step), the driving method of the
한편, 상기 S750 단계(출력 단계)는 피드백 정보를 수신하지 못하는 경우, 기 저장된 소정의 메시지를 상기 돌봄 대상(Tar)을 향하여 출력하는 단계를 포함할 수 있다.On the other hand, step S750 (output step) may include the step of outputting a pre-stored predetermined message toward the care target (Tar) when the feedback information is not received.
또한, 보호자(Prot)의 이동 단말(200)은 영상 통화를 로봇(100)과 수행할 수 있다. 상기 영상 통화는 이동 단말(200) 또는 로봇(100) 양측에 의해 트리거될 수 있다.In addition, the
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한, 상기 컴퓨터는 로봇(100)의 프로세서(190)를 포함할 수도 있다. The present invention described above can be embodied as computer readable codes on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAM, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. In addition, the computer may include a
앞에서, 본 발명의 특정한 실시예가 설명되고 도시되었지만 본 발명은 기재된 실시예에 한정되는 것이 아니고, 이 기술 분야에서 통상의 지식을 가진 자는 본 발명의 사상 및 범위를 벗어나지 않고서 다른 구체적인 실시예로 다양하게 수정 및 변형할 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 설명된 실시예에 의하여 정하여 질 것이 아니고 청구범위에 기재된 기술적 사상에 의해 정하여져야 할 것이다.In the foregoing, specific embodiments of the present invention have been described and illustrated, but the present invention is not limited to the described embodiments, and those skilled in the art can variously change to other specific embodiments without departing from the spirit and scope of the present invention. It will be understood that modifications and variations are possible. Therefore, the scope of the present invention should be determined by the technical spirit described in the claims rather than by the embodiments described.
Claims (20)
통신부; 카메라; 마이크; 출력부; 및 제어부를 포함하며,
상기 제어부는,
소정 공간에 위치한 돌봄 대상(Caring Target)을 촬영한 영상 정보를 상기 카메라를 통해 획득하거나 상기 돌봄 대상의 사운드 정보를 상기 마이크를 통해 획득하고,
상기 영상 정보 또는 사운드 정보에 기초하여, 상기 로봇이 케어(Care) 모드로 진입할지 여부를 결정하며,
상기 케어 모드의 진입이 결정된 경우, 상기 영상 정보 또는 상기 사운드 정보를 상기 돌봄 대상의 보호자가 컨트롤하는 이동 단말로 상기 통신부를 통해 전송하고,
상기 영상 정보 또는 사운드 정보에 대응하는 피드백 정보를 상기 이동 단말로부터 상기 통신부를 통해 수집하며,
상기 피드백 정보에 기초하여, 소정의 메시지를 상기 돌봄 대상을 향하여 출력하도록 상기 출력부를 제어하도록 구성되는, 로봇.As a robot,
Communication unit; camera; MIC; An output unit; And a control unit,
The control unit,
Obtaining image information of a caring target located in a predetermined space through the camera or acquiring sound information of the caring target through the microphone;
Determining whether the robot enters a care mode based on the image information or sound information,
When it is determined to enter the care mode, and transmits the image information or the sound information to the mobile terminal controlled by the caregiver of the care object through the communication unit,
Collecting feedback information corresponding to the image information or sound information from the mobile terminal through the communication unit;
And configured to control the output unit to output a predetermined message toward the care object based on the feedback information.
싱기 제어부는,
상기 영상 정보 또는 상기 사운드 정보에 기초하여, 상기 돌봄 대상이 사람 또는 반려 동물인지 추정하고, 추정된 상기 돌봄 대상이 사람인 경우, 제1 소정 나이 이하 또는 제2 소정 나이 이상인지 추정하도록 구성되는, 로봇.The method of claim 1,
Xinggi control unit,
A robot configured to estimate whether the care object is a human or a companion animal based on the image information or the sound information, and estimate whether the care object is a human being below a first predetermined age or a second predetermined age when the estimated care object is a human. .
상기 제어부는,
상기 영상 정보 또는 상기 사운드 정보에 기초하여, 상기 보호자의 관여가 필요한 것으로 결정한 경우, 상기 로봇이 상기 케어 모드로 진입하도록 구성되는, 로봇.The method of claim 2,
The control unit,
And the robot is configured to enter the care mode when it is determined that involvement of the guardian is necessary based on the image information or the sound information.
상기 제어부는,
상기 영상 정보에서 획득한 상기 돌봄 대상의 모션 정보 또는 상기 사운드 정보를 입력 데이터로 하고, 상기 보호자의 관여가 필요한지 여부를 출력 데이터로 하는 기 저장된 심층 신경망 모델을 이용하여, 상기 로봇이 상기 케어 모드로 진입할지 여부를 결정하도록 구성되는, 로봇.The method of claim 3,
The control unit,
The robot enters into the care mode using a pre-stored deep neural network model which uses the motion information or the sound information of the care target obtained from the image information as input data, and outputs whether the involvement of the guardian is necessary. A robot configured to determine whether to enter.
상기 제어부는,
상기 케어 모드로 진입이 결정되면, 획득한 상기 영상 정보, 상기 사운드 정보 및 상기 사운드 정보를 STT(Speech To Text) 알고리즘을 이용하여 변환한 텍스트 정보 중 적어도 하나를 상기 보호자의 이동 단말로 상기 통신부를 통해 전송하도록 구성되는, 로봇.The method of claim 1,
The control unit,
When it is determined to enter the care mode, the communication unit transmits at least one of the acquired image information, the sound information, and text information obtained by converting the sound information using a speech to text (STT) algorithm to the mobile terminal of the guardian. Configured to transmit via a robot.
상기 제어부는,
상기 돌봄 대상을 케어하기 위한 사운드 정보 또는 영상 정보를 포함하는 상기 피드백 정보를 상기 이동 단말로부터 상기 통신부를 통해 수집하도록 구성되는, 로봇.The method of claim 5,
The control unit,
And collect feedback information including sound information or image information for caring for the care object from the mobile terminal through the communication unit.
상기 제어부는,
상기 피드백 정보를 그대로 포함하는 상기 소정의 메시지를 상기 돌봄 대상을 향하여 상기 출력부를 통해 출력하거나, 상기 피드백 정보에 포함된 영상 정보 또는 상기 사운드 정보에 기초하여 가공한 소정의 메시지를 상기 돌봄 대상을 향하여 상기 출력부를 통해 출력하도록 구성되는, 로봇.The method of claim 6,
The control unit,
The predetermined message including the feedback information as it is output through the output unit toward the care object, or a predetermined message processed based on the image information or the sound information included in the feedback information toward the care object. And configured to output through the output.
상기 제어부는,
상기 피드백 정보에 포함된 상기 보호자의 의도에 기초하여 상기 돌봄 대상을 향하여 기 설정된 콘텐츠를 제공하거나 상기 돌봄 대상을 향하여 특정 활동을 제안하도록 구성되는, 로봇.The method of claim 7, wherein
The control unit,
And provide a preset content towards the caregiver or suggest a specific activity toward the caregiver based on the intention of the caregiver included in the feedback information.
상기 제어부는,
상기 피드백 정보를 수신하지 못하는 경우, 기 저장된 소정의 메시지를 상기 돌봄 대상을 향하여 상기 출력부를 통해 출력하도록 구성되는, 로봇.The method of claim 5,
The control unit,
If the feedback information is not received, the robot is configured to output a predetermined message through the output unit toward the care object.
상기 제어부는,
상기 돌봄 대상을 향하여 기 설정된 콘텐츠를 제공하거나 상기 돌봄 대상을 향하여 특정 활동을 상기 출력부를 통해 제안하도록 구성되는, 로봇.The method of claim 9,
The control unit,
The robot is configured to provide preset content toward the care object or suggest specific activities through the output unit toward the care object.
소정 공간에 위치한 돌봄 대상을 촬영한 영상 정보 또는 상기 돌봄 대상의 사운드 정보를 입력받는 단계;
상기 영상 정보 또는 상기 사운드 정보를 케어(Care) 시스템으로 전송하는 단계;
상기 케어 시스템이 상기 영상 정보 또는 상기 사운드 정보에 대응하는 피드백 정보를 상기 돌봄 대상의 보호자로부터 수집하는 경우, 상기 피드백 정보를 상기 케어 시스템으로부터 수신하는 단계; 및
수신된 상기 피드백 정보에 기초하여 상기 돌봄 대상을 케어하기 위한 소정의 메시지를 출력하는 단계를 포함하는, 로봇의 제어 방법.As a control method of the robot,
Receiving image information of a care object located in a predetermined space or sound information of the care object;
Transmitting the image information or the sound information to a care system;
Receiving the feedback information from the care system when the care system collects feedback information corresponding to the image information or the sound information from a caregiver of the care subject; And
And outputting a predetermined message for caring for the care object based on the received feedback information.
소정 공간에 위치한 돌봄 대상(Caring Target)을 촬영한 영상 정보 또는 상기 돌봄 대상의 사운드 정보를 획득하는 단계;
상기 영상 정보 또는 사운드 정보에 기초하여, 케어(Care) 모드의 진입 여부를 결정하는 단계;
상기 케어 모드의 진입이 결정된 경우, 상기 영상 정보 또는 상기 사운드 정보를 상기 돌봄 대상의 보호자가 컨트롤하는 이동 단말로 전송하는 단계;
상기 영상 정보 또는 사운드 정보에 대응하는 피드백 정보를 상기 이동 단말로부터 수집하는 단계; 및
상기 피드백 정보에 기초하여, 소정의 메시지를 상기 돌봄 대상을 향하여 출력하는 단계를 포함하는, 로봇의 제어 방법.As a control method of the robot,
Acquiring image information of a caring target located in a predetermined space or sound information of the caring target;
Determining whether to enter a care mode based on the image information or sound information;
If it is determined to enter the care mode, transmitting the image information or the sound information to a mobile terminal controlled by a caregiver of the care subject;
Collecting feedback information corresponding to the image information or sound information from the mobile terminal; And
And outputting a predetermined message toward the care object based on the feedback information.
상기 케어 모드의 진입 여부를 결정하는 단계 이전에,
상기 영상 정보 또는 상기 사운드 정보에 기초하여, 상기 돌봄 대상이 사람 또는 반려 동물인지 추정하는 단계; 및
상기 돌봄 대상을 사람으로 추정한 경우, 추정된 사람의 나이가 제1 소정 나이 이하 또는 제2 소정 나이 이상인지 추정하는 단계를 더 포함하는, 로봇의 제어 방법.The method of claim 12,
Before the step of determining whether to enter the care mode,
Estimating whether the care subject is a human or companion animal based on the image information or the sound information; And
And estimating whether the estimated person's age is less than or equal to a first predetermined age or greater than or equal to a second predetermined age when the care subject is estimated as a person.
상기 케어 모드의 진입 여부를 결정하는 단계는,
상기 영상 정보 또는 상기 사운드 정보에 기초하여, 상기 돌봄 대상을 케어하는 보호자의 관여가 필요한 것으로 결정한 경우, 상기 케어 모드로 진입하는 단계를 포함하는, 로봇의 제어 방법.The method of claim 13,
Determining whether or not to enter the care mode,
And entering the care mode when it is determined that involvement of a caregiver who cares for the care object is necessary based on the image information or the sound information.
상기 케어 모드의 진입 여부를 결정하는 단계는,
상기 영상 정보에서 수집한 상기 돌봄 대상의 모션 정보, 상기 획득한 사운드 정보를 입력 데이터로 하고, 상기 돌봄 대상을 케어하는 보호자의 관여가 필요한지 여부를 출력 데이터로 하는 기 저장된 심층 신경망 모델을 이용하여, 상기 로봇이 상기 케어 모드로 진입할지 여부를 결정하는 단계를 포함하는, 로봇의 제어 방법.The method of claim 14,
Determining whether or not to enter the care mode,
By using the previously stored deep neural network model using the motion information of the care subject collected from the image information and the acquired sound information as input data, and whether the involvement of a caregiver who cares for the care subject is necessary as output data. Determining whether the robot enters the care mode.
상기 전송하는 단계는,
상기 케어 모드로 진입이 결정되면, 획득한 상기 영상 정보, 상기 사운드 정보 및 상기 사운드 정보를 STT(Speech To Text) 알고리즘을 이용하여 변환한 텍스트 정보 중 적어도 하나를 상기 이동 단말로 전송하는 단계를 포함하는, 로봇의 제어 방법.The method of claim 12,
The transmitting step,
If it is determined to enter the care mode, transmitting at least one of the acquired image information, the sound information, and the text information converted by using a speech to text (STT) algorithm to the mobile terminal. How to control the robot.
상기 이동 단말로부터 수집하는 단계는,
상기 돌봄 대상을 케어하기 위한 사운드 정보 또는 영상 정보를 포함하는 상기 피드백 정보를 상기 이동 단말로부터 수집하는 단계를 포함하는, 로봇의 제어 방법.The method of claim 16,
Collecting from the mobile terminal,
And collecting the feedback information from the mobile terminal, the feedback information including sound information or image information for caring for the care target.
상기 출력하는 단계는,
상기 피드백 정보를 그대로 포함하는 상기 소정의 메시지를 상기 돌봄 대상을 향하여 출력하거나, 상기 피드백 정보에 포함된 영상 정보 또는 상기 사운드 정보에 기초하여 가공한 소정의 메시지를 상기 돌봄 대상을 향하여 출력하는 단계를 포함하는, 로봇의 제어 방법.The method of claim 17,
The outputting step,
Outputting the predetermined message including the feedback information to the care object, or outputting a predetermined message to the care object based on the image information or the sound information included in the feedback information; A control method of the robot, including.
상기 출력하는 단계 이후에,
상기 피드백 정보에 포함된 상기 돌봄 대상의 보호자의 의도에 기초하여 상기 돌봄 대상을 향하여 기 설정된 콘텐츠를 제공하거나 상기 돌봄 대상을 향하여 특정 활동을 제안하는 단계를 더 포함하는, 로봇의 제어 방법.The method of claim 18,
After the outputting step,
And providing a preset content toward the care object or suggesting a specific activity toward the care object based on the intention of the caregiver of the care object included in the feedback information.
상기 출력하는 단계는,
상기 피드백 정보를 수신하지 못하는 경우, 기 저장된 소정의 메시지를 상기 돌봄 대상을 향하여 출력하는 단계를 포함하는, 로봇의 제어 방법.The method of claim 16,
The outputting step,
And if the feedback information is not received, outputting a pre-stored predetermined message toward the care subject.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190115655A KR20190114931A (en) | 2019-09-19 | 2019-09-19 | Robot and method for controlling the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190115655A KR20190114931A (en) | 2019-09-19 | 2019-09-19 | Robot and method for controlling the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20190114931A true KR20190114931A (en) | 2019-10-10 |
Family
ID=68206197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190115655A KR20190114931A (en) | 2019-09-19 | 2019-09-19 | Robot and method for controlling the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20190114931A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102635981B1 (en) * | 2023-02-06 | 2024-02-13 | 김영숙 | A device that provides parenting support counseling and coaching applications |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101552289B1 (en) | 2015-02-16 | 2015-09-14 | 이동환 | System for take care of terminal |
KR101617342B1 (en) | 2015-06-26 | 2016-05-02 | 배상윤 | Application for caring children and method for operating the same |
-
2019
- 2019-09-19 KR KR1020190115655A patent/KR20190114931A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101552289B1 (en) | 2015-02-16 | 2015-09-14 | 이동환 | System for take care of terminal |
KR101617342B1 (en) | 2015-06-26 | 2016-05-02 | 배상윤 | Application for caring children and method for operating the same |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102635981B1 (en) * | 2023-02-06 | 2024-02-13 | 김영숙 | A device that provides parenting support counseling and coaching applications |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8321221B2 (en) | Speech communication system and method, and robot apparatus | |
US11217246B2 (en) | Communication robot and method for operating the same | |
KR102281590B1 (en) | System nad method of unsupervised training with weight sharing for the improvement in speech recognition and recording medium for performing the method | |
KR20190022109A (en) | Method for activating voice recognition servive and electronic device for the same | |
KR20190084789A (en) | Electric terminal and method for controlling the same | |
US11404066B2 (en) | Device and method for providing voice recognition service based on artificial intelligence | |
EP3756185B1 (en) | Electronic device for outputting response to speech input by using application and operation method thereof | |
KR102321855B1 (en) | Artificial intelligence device that interacts with voice and method therefor | |
US11605379B2 (en) | Artificial intelligence server | |
US20230266767A1 (en) | Information processing apparatus, information processing method, and program | |
US10850400B2 (en) | Robot with anti-noise speaker | |
KR102206181B1 (en) | Terminla and operating method thereof | |
KR20210138181A (en) | Guide robot and operation method of guide robot | |
US20210092219A1 (en) | Apparatus and control method for recommending do-not-disturb mode based on context-awareness | |
US20210208595A1 (en) | User recognition-based stroller robot and method for controlling the same | |
KR102511517B1 (en) | Voice input processing method and electronic device supportingthe same | |
KR20190114931A (en) | Robot and method for controlling the same | |
JP2019175432A (en) | Dialogue control device, dialogue system, dialogue control method, and program | |
KR20210089782A (en) | sleep inducer | |
US11478925B2 (en) | Robot and method for controlling same | |
US11938625B2 (en) | Information processing apparatus, information processing method, and program | |
US20200012273A1 (en) | Communication robot and method for operating the same | |
US20190371149A1 (en) | Apparatus and method for user monitoring | |
KR20180082777A (en) | Communion robot system for senior citizen | |
WO2023006033A1 (en) | Speech interaction method, electronic device, and medium |