KR20090079655A - Method of executing robot behavior based on user behavior and its robot - Google Patents
Method of executing robot behavior based on user behavior and its robot Download PDFInfo
- Publication number
- KR20090079655A KR20090079655A KR1020080005788A KR20080005788A KR20090079655A KR 20090079655 A KR20090079655 A KR 20090079655A KR 1020080005788 A KR1020080005788 A KR 1020080005788A KR 20080005788 A KR20080005788 A KR 20080005788A KR 20090079655 A KR20090079655 A KR 20090079655A
- Authority
- KR
- South Korea
- Prior art keywords
- behavior
- robot
- value
- user
- reaction
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/008—Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1653—Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Toys (AREA)
- Manipulator (AREA)
Abstract
Description
본 발명은 로봇의 행동 수행 방법 및 그 로봇에 관한 것으로, 더욱 상세하게는 로봇을 대하는 사용자(예; 아동)의 자극행동에 해당되는 스크립트 기반의 반응행동을 실행하고서 사용자와 로봇 간의 친밀도를 업데이트함으로써 로봇을 통한 아동의 성격 순화를 유도하기 위한, 사용자 자극행동에 따른 로봇 반응행동 수행 방법 및 그 로봇에 관한 것이다.The present invention relates to a method of performing a robot's behavior and the robot, and more particularly, by updating the intimacy between the user and the robot by executing a script-based reaction behavior corresponding to a stimulus behavior of a user (eg, a child) facing the robot. The present invention relates to a method of performing a robot reaction behavior according to a user stimulus behavior, and a robot thereof to induce a child's personalization through a robot.
최근에 지능형 로봇[일명 "URC(Ubiquitous Robotic Companion) 로봇"이라고도 함]의 기술 발전에 힘입어 인터넷에 접속한 로봇을 통해 사용자에게 각종 콘텐츠, 서비스 등을 제공할 수 있게 되었다.Recently, with the development of intelligent robots (also known as "URC (Ubiquitous Robotic Companion robots)"), it is possible to provide various contents and services to users through robots connected to the Internet.
예컨대, 이러한 지능형 로봇은 사용자에게 뉴스, 날씨, 교육 콘텐츠, 일정 알림, 모닝콜, 홈 모니터링, 청소 등과 같이 다양한 콘텐츠, 서비스를 제공하고 있다. 이러한 각각의 지능형 로봇의 사양, 기능, 제공 서비스 및 그 형상은 모두 제 각각이며, 이에 각 사용자들은 자신의 이용 목적 및 취향 등에 따라 해당되는 지능형 로봇을 사용하고 있다.For example, such intelligent robots provide various contents and services to users, such as news, weather, educational content, calendar reminders, wake-up calls, home monitoring, and cleaning. The specifications, functions, services, and shapes of each intelligent robot are all different, and each user uses the corresponding intelligent robot according to his purpose of use and taste.
한편, 최근에는 로봇 보편화에 힘입어 각 가정에서 여러 대의 로봇, 즉 할머니의 건강 상태를 체크하는 헬스케어 로봇, 엄마의 청소를 도와주는 청소 로봇, 아빠의 업무를 보조하는 업무 로봇, 아동에게 교육, 엔터테인먼트, 펫(pet) 기능을 제공하기 위한 로봇[주; 구체적으로 에듀 로봇, 엔터테인먼트 로봇, 펫 로봇 등으로 분류할 수 있음]이 사용되고 있다.On the other hand, recently, thanks to the generalization of robots, several robots in each home, such as a health care robot that checks the state of grandmother's health, a cleaning robot that helps mom's cleaning, a work robot that assists father's work, education for children, Robot for providing entertainment, pet function [Note; Specifically, it can be classified into an edu robot, an entertainment robot, a pet robot, etc.].
현재도 그렇지만 향후에는 더욱더 소규모 핵가족화가 진전됨에 따라 앞서 언급한 바와 같이 댁내에서 아동은 로봇과 매우 밀접한 관계를 갖으면서 로봇을 통해 각종 정보 등을 습득하게 될 것인데, 이러한 로봇을 통한 인성 교육이 매우 활발하게 이루어질 것으로 기대된다.Even now, but in the future, as more and more small nuclear families become more advanced, as mentioned above, children will have a very close relationship with robots and acquire various information through robots. It is expected to be done.
그런데, 현재까지 개발, 제안된 로봇 및 관련 기술을 살펴보면 아동에게 제공할 로봇 교육 콘텐츠 품질에만 집중되어 있고, 특히 로봇 자체도 아동의 사용법 미숙을 고려해 인터페이스 부분만 개선되고 있는 형편이다.However, looking at the developed and proposed robots and related technologies to date, only the quality of robot education contents to be provided to children is concentrated, and in particular, the robot itself is improving only in consideration of children's immature usage.
상기와 같은 종래 기술들은 아동에게 우수한 교육 콘텐츠 제공 및 편리한 사용 조작 기능 제공을 통해 아동이 조기 교육을 통해 지식 능력을 함양할 수 있도록 할 수는 있겠으나, 인성 발달 시기에 있어 무엇보다도 중요한 아동의 성격 순화를 유도하지 못하고 있는 형편이다.Such prior arts can enable children to cultivate their knowledge skills through early education through providing excellent educational contents and providing convenient operation and operation functions, but most importantly in the development of personality. It is not able to induce purification.
즉, 상기와 같은 종래 기술들에서는 로봇이 제공하는 콘텐츠를 통해 어린 나이의 아동이 스스로 자신의 성격에 대한 잘잘못을 인지하지 못할 뿐만 아니라 스스로 교육 콘텐츠 중 명작 동화 등을 통해 자신의 성격 순화를 이룬다는 것은 현실적으로 매우 어려운 문제점이 있다.In other words, in the above-described conventional techniques, children of young age are not aware of their own personality wrong through contents provided by the robot, but also realize their personality through the masterpieces of educational contents. Things are very difficult issues in reality.
따라서 최근의 로봇 기술을 백분 활용해 아동을 포함한 여타 특정인의 성격 순화가 로봇 간의 자극/반응을 통해 이루어질 수 있도록 하는 기술이 절실히 요구되고 있다. 또한, 특히 사용자의 자극행동과 로봇의 반응행동 간의 연결(매칭) 기술 개발이 요구되고 아울러 로봇이 사용자에게 반응하는 데 있어 필요한 정보(스크립트 기반의 행동 DB)를 효율적으로 구축할 필요성이 요구되고 있다.Therefore, there is an urgent need for a technology that utilizes the latest robot technology to enable the purification of the personality of other specific people including children through stimulation / reaction between robots. In addition, there is a need to develop a connection (matching) technology between the user's stimulus behavior and the robot's reaction behavior, and to efficiently construct the information (script-based behavior DB) necessary for the robot to respond to the user. .
이에, 본 발명은 상기와 같은 문제점을 해결하고 상기와 같은 요구에 부응하기 위하여 제안된 것으로, 로봇을 대하는 사용자(예; 아동)의 자극행동에 해당되는 스크립트 기반의 반응행동을 실행하고서 사용자와 로봇 간의 친밀도를 업데이트함으로써 로봇을 통한 아동의 성격 순화를 유도하기 위한, 사용자 자극행동에 따른 로봇 반응행동 수행 방법 및 그 로봇을 제공하는 데 그 목적이 있다.Accordingly, the present invention has been proposed in order to solve the above problems and to meet the above requirements, by executing a script-based reaction behavior corresponding to the stimulus behavior of the user (for example, a child) dealing with the robot, the user and the robot The purpose of the present invention is to provide a method for performing a robot reaction behavior according to user stimulus behavior and a robot for inducing the purification of the personality of the child through the robot by updating the intimacy between the two.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned above can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
상기의 목적을 달성하기 위한 본 발명의 방법은, 로봇 반응행동 수행 방법에 있어서, 사용자자극행동값, 사용자 자극행동 긍정성 파라미터, 로봇반응행동값, 로봇 반응행동 긍정성 파라미터 및 친밀도를 설정하는 단계; 적어도 하나의 센싱 수단을 사용해 사용자의 자극행동에 관한 데이터를 센싱하는 단계; 상기 센싱한 데이터가 어떠한 사용자자극행동값을 갖는지를 인식하는 단계; 상기 설정한 사용자자극행동값, 로봇반응행동값, 사용자 자극행동 긍정성 파라미터, 로봇 반응행동 긍정성 파라미터 및 친밀도를 토대로 상기 인식한 사용자자극행동값에 매칭되는 로봇반응행동값을 선택하는 로봇반응행동 선택단계; 및 상기 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 상기 사용자에 대한 반응행동을 실행하는 반응행동 실행단계를 포함한다.In the method of the present invention for achieving the above object, in the method of performing a robot reaction behavior, setting the user stimulus behavior value, the user stimulus behavior affirmation parameter, the robot reaction behavior value, the robot reaction behavior affirmation parameter and intimacy ; Sensing data relating to stimulus behavior of the user using at least one sensing means; Recognizing a user stimulus behavior value of the sensed data; A robot reaction behavior for selecting a robot reaction behavior value matching the recognized user stimulus behavior value based on the set user stimulus behavior value, robot response behavior value, user stimulus behavior affirmation parameter, robot response behavior affirmation parameter and intimacy Selection step; And a reaction action execution step of executing a reaction action for the user according to the contents of the corresponding script of the selected robot reaction action value.
또한, 상기 본 발명의 방법은, 상기 반응행동을 실행 완료함에 따라 상기 실행한 반응행동을 상기 친밀도에 반영시켜 현재의 친밀도를 업데이트시키는 친밀도 업데이트단계를 더 포함한다.The method may further include an intimacy updating step of updating the current intimacy by reflecting the executed reaction behavior in the intimacy as the reaction behavior is completed.
한편, 본 발명은, 로봇에 있어서, 사용자자극행동값, 사용자 자극행동 긍정성 파라미터, 로봇반응행동값, 로봇 반응행동 긍정성 파라미터 및 친밀도가 설정되어 있는 행동 데이터베이스; 사용자의 자극행동에 관한 데이터를 센싱하기 위한 센싱 수단; 상기 센싱 수단에서 센싱한 데이터를 토대로 상기 행동 데이터베이스를 조회해 상기 사용자의 자극행동에 해당되는 스크립트 기반의 반응행동을 출력 인터페이스부를 통해 실행하고 상기 사용자와의 친밀도를 업데이트시키기 위한 제어부; 및 상기 반응행동을 상기 사용자에게 출력하기 위한 상기 출력 인터페이스부를 포함한다.On the other hand, the present invention, the robot, the user stimulus behavior value, the user stimulus behavior affirmation parameter, the robot reaction behavior value, the robot reaction behavior affirmation parameter and the familiarity database is set; Sensing means for sensing data relating to stimulus behavior of a user; A controller for querying the behavioral database based on the data sensed by the sensing means to execute a script-based reaction behavior corresponding to the stimulus behavior of the user through an output interface and to update the intimacy with the user; And the output interface unit for outputting the reaction action to the user.
상기와 같은 본 발명은 사용자(특히 아동)가 자신이 로봇에게 자극한 행동에 따른 로봇의 반응 행동 변화를 지켜볼 수 있도록 하고, 로봇의 긍정적인 성격 변화 모습을 모방하도록 함으로써 자신의 성격 순화를 통한 인성 교육 효과를 제공할 수 있는 이점이 있다.The present invention as described above allows the user (especially the child) to watch the change in the response behavior of the robot according to the actions stimulated by the robot, and to mimic the positive personality change of the robot through the purification of his personality There is an advantage that can provide character education effect.
또한, 본 발명은 스크립트 기반의 행동 DB와 같이 간단한 소프트웨어 모듈만을 탑재해 아동 성격 순화 기능을 로봇에 구현할 수 있고, 기존 하드웨어 모듈 추가/교체/수정 없이도 효율적으로 아동 성격 순화 기능을 구현할 수 있는 효과가 있 다.In addition, the present invention is equipped with only a simple software module, such as script-based behavior DB can implement the child personality purification function to the robot, and can effectively implement the child personality purification function without adding / replacing / modifying existing hardware modules. have.
상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.The above objects, features, and advantages will become more apparent from the detailed description given hereinafter with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may share the technical idea of the present invention. It will be easy to implement. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 사용자 자극행동에 따른 로봇 반응행동 수행 방법에 대한 일실시예 흐름도이고, 도 2는 본 발명에 따른 스크립트 기반의 행동 DB에 대한 일실시예 구조도이고, 도 3a 및 도 3b는 도 2의 행동 DB에 관한 구체적인 테이블 예시도이고, 도 4는 본 발명에 따른 로봇에 대한 일실시예 구성도이고, 도 5는 본 발명이 적용되는 로봇에 대한 일실시예 사시도이다.1 is a flowchart illustrating a method for performing a robot reaction behavior according to a user stimulus behavior according to the present invention, FIG. 2 is a diagram illustrating an embodiment of a script-based behavior DB according to the present invention, and FIGS. 3A and 3B. 2 is a detailed table illustrating a behavior DB of FIG. 2, FIG. 4 is a diagram illustrating an embodiment of a robot according to the present invention, and FIG. 5 is a perspective view of an embodiment of a robot to which the present invention is applied.
본 발명은 로봇을 대하는 사용자(예; 아동)의 자극행동, 예컨대 미소, 찡그림, 때리기, 쓰다듬기, 욕하기, 칭찬하기 등에 따라 로봇이 이를 인식해 사용자 자극행동에 대해 반응할 행동을 스크립트 기반의 행동 DB로부터 선택해 해당 반응행동을 스피커, 귀, LED 등을 통해 실행하고서 사용자 자극행동에 따른 로봇 반응행 동 변화를 통해 사용자와 로봇 간의 친밀도를 업데이트함으로서, 로봇을 통한 아동의 성격 순화를 유도하기 위한 것이다. 이와 같은 본 발명은 인성 교육 대상자, 특히 성격 순화 교육 대상자를 아동에 한정하지 않고서 어떠한 사람도 그 대상자가 될 수 있으며, 이하 아동을 사용자로서 예를 들어 설명하기로 한다.According to the present invention, a script-based action is used to recognize a robot's response to a user's stimulus behavior according to a stimulus behavior of a user (eg, a child), for example, a smile, frowning, hitting, stroking, swearing, praising, or the like. It is to induce the refinement of the personality of the child through the robot by updating the intimacy between the user and the robot by changing the robot response behavior according to the user's stimulus behavior by executing the corresponding response behavior from the DB through the speaker, ear, and LED. . In the present invention as described above, any person can be a subject without limiting personality education subjects, in particular, subjects for character purifying education, to children. Hereinafter, the child will be described as an example.
이를 위해, 본 발명에서는 사용자의 자극행동과 로봇의 반응행동 간의 연결(매칭) 기법을 제시하고, 로봇이 사용자에게 반응하는 데 있어 필요한 정보를 스크립트 기반의 행동 DB로서 구성하고, 사용자 자극행동에 대한 평가 기법, 로봇 반응행동에 대한 평가 기법, 사용자와 로봇 간의 친밀도 도출 기법을 제시한다.To this end, the present invention proposes a connection (matching) technique between the user's stimulus behavior and the robot's reaction behavior, configures the information necessary for the robot to respond to the user as a script-based behavior DB, and The evaluation method, the evaluation method for robot reaction behavior, and the intimacy derivation method between the user and the robot are presented.
이하, 본 발명에 대해 구체적으로 설명하기로 하며, 먼저 도 5를 참조하여 본 발명이 적용되는 로봇에 대해 간략히 살펴보기로 한다.Hereinafter, the present invention will be described in detail. First, the robot to which the present invention is applied will be briefly described with reference to FIG. 5.
도 5에 도시된 로봇은 제품명 "포롱이"로서 아동에게 교육, 엔터테인먼트 등의 콘텐츠, 서비스를 제공하며, 카메라, 터치센서, 마이크, 스피커, 날개 모양의 귀, 이 귀에 장착된 LED, 안면부, 이 안면부에 장착된 LED 및 제어부 등의 하드웨어 스펙을 구비하고 있다. 이와 같이 본 발명에서는 기존 로봇에 하드웨어 모듈 추가/교체/수정 없이도[즉, 로봇에 기 탑재된 하드웨어 모듈을 그대로 사용해] 효율적으로 아동 성격 순화 기능을 구현하는 것을 목표로 한다.The robot shown in FIG. 5 is a product name "Porong", which provides contents and services such as education and entertainment to children, and includes a camera, a touch sensor, a microphone, a speaker, a wing-shaped ear, an LED mounted on the ear, a face part, and a face part. It is equipped with hardware specifications such as the LED and the control unit mounted on the. As described above, the present invention aims to efficiently implement a child personality purification function without adding / replacing / modifying a hardware module to an existing robot (that is, using a hardware module mounted on the robot as it is).
한편, 본 발명을 설명하는 데 있어 카메라, 터치센서, 마이크로부터 입력받은 데이터를 토대로 제어부가 해당 상황 인지(센싱 데이터 인식)를 하는 기술 및 제어부에 의해 스피커, 날개 모양의 귀, 이 귀에 장착된 LED, 안면부, 이 안면부에 장착된 LED 등을 통해 로봇 행동 제어를 하는 기술은 어떠한 공지 기술을 사용해도 무방하기에 이에 대한 설명은 하기에서 생략하기로 한다.Meanwhile, in describing the present invention, a speaker, a wing-shaped ear, and an LED mounted on the ear are provided by a technology and a control unit for controlling the situation based on the data received from the camera, the touch sensor, and the microphone. The technology for controlling robot behavior through the face part, the LED mounted on the face part, and the like may be used, and thus description thereof will be omitted below.
그럼, 도 1을 참조해 본 발명의 플로우에 대해 설명하기로 하며, 이하 로봇은 아동의 자극행동에 따라 반응행동을 수차례 수행했으며, 이러한 반응행동 수행에 따른 친밀도, 즉 현재 아동과 로봇 간의 친밀한 정도를 나타내는 지표로서 어떠한 값을 갖고 있다고 설정한다. 이러한 친밀도는 "-1"부터 "+1"까지의 값을 갖는데 "-1"에 가까울수록 로봇과 아동의 친밀도가 나쁘다는 것을, "+1"에 가까울수록 로봇과 아동의 친밀도가 좋다는 것을 의미한다. 덧붙여, 로봇에 설정되는 초기 친밀도는 "-1"의 값을 갖도록 셋팅되어 있다.Then, the flow of the present invention will be described with reference to FIG. 1. Hereinafter, the robot performs a number of reaction actions in accordance with a stimulus action of a child, and intimacy according to the reaction action, that is, intimacy between the current child and the robot. It is set to have some value as an index indicating the degree. This intimacy ranges from "-1" to "+1", which means that the closer to "-1", the poorer the robot and children are, and the closer to "+1", the better the robot and children. do. In addition, the initial familiarity set by the robot is set to have a value of "-1".
아동은 로봇을 대하는데 있어, 미소를 보이거나 찡그리거나 쳐진 모습을 보이거나 일상적인 평범한 모습을 보이거나 로봇 때리기, 로봇 누르기, 로봇 쓰다듬기, 로봇 간지럽히기, 로봇 안기와 같은 액션을 취하거나 잘했어 로봇 등과 같은 긍정적인 음성멘트, 욕설 등과 같은 부정적인 음성멘트, 전래동화 보여줘 등과 같은 평범한 음성멘트 등과 같은 다양한 자극행동을 선택, 조합적으로 행한다.The child has taken or done good actions in dealing with the robot, such as smiling, frowning or struck, showing a normal or ordinary routine, hitting the robot, pressing the robot, stroking the robot, tickling the robot, or embracing the robot. A variety of stimulus actions such as positive voicement such as robots, negative voicement such as swear words, and ordinary voicement such as show tales are selected and combined.
그러면, 상기 로봇은 카메라, 터치센서, 마이크 등과 같은 센서를 사용해 아동의 영상데이터(모습), 터치데이터, 음성데이터 등을 센싱(수집)한다(101).Then, the robot senses (collects) the child's image data (look), touch data, voice data, etc. using a sensor such as a camera, a touch sensor, a microphone, and the like (101).
이후, 상기 로봇은 인식기를 사용해 상기 입력받은 센싱데이터[영상데이터(모습), 터치데이터, 음성데이터 등] 각각이 어떠한 아동자극행동값을 갖는지를 인식한다(102). 여기서, 인식 결과, 즉 아동자극행동값의 데이터 표현은 통상의 사람이 이해할 만한 정보 형태이고 하기에서 후술할 스크립트 기반의 행동 DB에서 다룰 수 있는 포맷을 갖는다.Thereafter, the robot recognizes (102) which child stimulus behavior value each of the input sensing data (image data, image, touch data, voice data, etc.) has. Here, the recognition result, that is, the data representation of the child stimulus behavior value is in the form of information that can be understood by a normal person and has a format that can be handled in a script-based behavior DB to be described later.
그런 후, 상기 로봇은 자신에게 탑재되어 있는 스크립트 기반의 행동 DB 조회 및 현재의 친밀도를 토대로 상기 인식한 아동자극행동값에 매칭되는 로봇반응행동값을 선택한다(103). 이와 같은 로봇반응행동값 선택 과정에 대해서 도 2, 도 3a, 및 도 3b를 참조하여 보다 상세히 설명하면 다음과 같다.Thereafter, the robot selects a robot response behavior value that matches the recognized child stimulus behavior value based on the script-based behavior DB query and current familiarity installed in the robot (103). The robot reaction behavior value selection process will be described in more detail with reference to FIGS. 2, 3A, and 3B as follows.
도 2에 도시된 본 발명에 따른 스크립트 기반의 행동 DB는 아동 자극행동 아이디/로봇 반응행동 아이디 리스트, 아동 자극행동 리스트, 로봇 반응행동 리스트가 연결된 구조를 갖는다. 이와 같은 본 발명의 행동 DB는 스크립트를 기반으로 하는 것으로서, 간단한 소프트웨어 모듈로 로봇에 손쉽게 구현 가능함을 당업자라면 쉽게 이해할 것이다.The script-based behavior DB according to the present invention shown in FIG. 2 has a structure in which a child stimulus action ID / robot reaction action ID list, a child stimulation action list, and a robot reaction action list are connected. Such behavior DB of the present invention is script-based, and those skilled in the art will readily understand that it can be easily implemented in a robot with a simple software module.
특히, 상기 아동 자극행동 리스트에는 로봇이 센싱, 인식할 수 있는 아동 자극행동에 해당되는 아동자극행동값이 사전에 설정되어 있으며, 상기 로봇 반응행동 리스트에는 로봇이 취할 수 있는 로봇 반응행동에 해당되는 로봇반응행동값이 사전에 설정되어 있다.In particular, a child stimulus behavior value corresponding to a child stimulation behavior that can be sensed and recognized by the robot is set in the child stimulus behavior list, and the robot response behavior list corresponds to a robot reaction behavior that the robot can take. The robot response behavior value is set in advance.
또한, 상기 아동 자극행동 리스트에는 아동의 자극행동이 긍정적인지, 부정적인지, 중립인지를 나타내는 아동 자극행동 긍정성 파라미터가 포함되어 있으며, 상기 로봇 반응행동 리스트에는 로봇의 반응행동이 긍정적인지, 부정적인지, 중립인지를 나타내는 로봇 반응행동 긍정성 파라미터가 포함되어 있다.In addition, the child stimulus behavior list includes a child stimulus behavior positive parameter indicating whether the child's stimulus behavior is positive, negative, or neutral, and the robot reaction behavior list indicates whether the robot's reaction behavior is positive or negative The robot response behavior affinity parameter, which indicates whether it is neutral or not, is included.
도 3a 및 도 3b는 도 2의 행동 DB에 관한 구체적인 테이블 예시도를 보여주고 있는데, 1번째 컬럼에는 카메라에서 획득한 아동 영상에 대해 인식한 아동자극행동값을, 2번째 컬럼에는 터치센서에서 획득한 아동 터치에 대해 인식한 아동자극 행동값을, 3번째 컬럼에는 마이크에서 획득한 아동 음성멘트에 대해 인식한 아동자극행동값을, 4번째 컬럼에는 카메라/터치센서/마이크를 통해 인식한 동일한 행에 있어서의 아동자극행동값 조합에 해당되는 아동 자극행동 긍정성 파라미터를, 5번째 컬럼에는 상기의 아동자극행동값 조합에 따라 로봇이 취할 행동을 나타내는 로봇반응행동값을 기술한 스크립트를, 6번째 컬럼에는 상기의 로봇반응행동값에 해당되는 로봇 반응행동 긍정성 파라미터가 각각 기록되어 있다.3A and 3B show detailed table examples of the behavior DB of FIG. 2, in which the first column acquires a child stimulus behavior value recognized for a child image acquired by a camera, and the second column obtains a child stimulus behavior value from a touch sensor. Recognized child stimulus behavior value for a child touch, the third column recognizes child stimulus behavior value for the child's voice announcement obtained from the microphone, and the fourth column the same row recognized through the camera / touch sensor / microphone. In the fifth column, a script describing the robot response behavior values representing the actions taken by the robot according to the combination of the child stimulation behavior values is shown. In the column, the robot reaction behavior positive parameters corresponding to the above robot reaction behavior values are respectively recorded.
또한, 도 3a 및 도 3b에서 상기 행동 DB의 테이블을 살펴보면 동일한 아동자극행동값 조합에 매칭되는 로봇반응행동값이 다수개, 즉 도 2에서 하나의 아동 자극행동 리스트가 다수 개의 로봇 반응행동 리스트에 연결되어 있음을 확인할 수 있다. 이에 대해서는 하기에서 후술하기로 한다.3A and 3B, when looking at the table of the behavior DB, a plurality of robot response behavior values matching the same child stimulus behavior value combination, that is, one child stimulus behavior list in FIG. You can see that it is connected. This will be described later.
상기 도 2, 도 3a, 도 3b를 참조해 앞서 언급한 아동자극행동값에 매칭되는 로봇반응행동값을 선택하는 과정에 대해 설명하면 다음과 같다.Referring to FIGS. 2, 3A, and 3B, a process of selecting a robot response behavior value matching the aforementioned child stimulation behavior value will be described below.
먼저, 상기 로봇은 스크립트 기반의 행동 DB에서 상기 인식한 아동자극행동값에 매칭되는 적어도 하나의 로봇반응행동값을 검색한다(103a).First, the robot retrieves at least one robot response behavior value matching the recognized child stimulus behavior value from the script-based behavior DB (103a).
그리고 상기 로봇은 기 설정된(누적된) 현재의 친밀도값을 확인하고서(103b), 상기 검색한 각 로봇반응행동값의 로봇 반응행동 긍정성 파라미터와 상기 확인한 친밀도값을 각각 곱해 각각의 로봇반응행동값에 대한 각각의 확률을 구한다(103c).The robot checks a preset (accumulated) current intimacy value (103b), multiplies the robot response behavior affinity parameter of each searched robot response behavior value with the checked intimacy value, respectively, and then each robot response behavior value. Obtain each probability for (103c).
그런 후, 상기 로봇은 상기 구한 각 로봇반응행동값에 대한 각각의 확률을 토대로 각 확률로서 해당 로봇반응행동값을 상기 아동 자극행동에 따라 로봇이 취 할 해당 로봇 반응행동으로 선택한다(103d). 즉, 본 발명에서 제시하는 로봇 반응행동 선택 과정은 각 로봇반응행동값에 대한 각각의 확률을 가중치 부여된 임의 선택(Weighted random selection) 방식에 적용하여 로봇 반응행동[대상 행동]이 확률적으로 결정되도록 하는 것이다. 예를 들어, 상기 "103c" 과정에서 "A 로봇반응행동값"에 대한 확률을 "0.2"로, "B 로봇반응행동값"에 대한 확률을 "0.4"로, "C 로봇반응행동값"에 대한 확률을 "0.6"으로 각각 구한 경우에, 로봇이 취할 대상 행동에 대해 상기 "A 로봇 반응행동"이 "0.2"의 확률로 선택되도록 하고 상기 "B 로봇 반응행동"이 "0.4"의 확률로 선택되도록 하고 상기 "C 로봇 반응행동"이 "0.6"의 확률로 선택되도록 하는 것이다. 이러한 로봇 반응행동 선택 과정은 아동 성격 순화의 심리학적 효과를 더욱 높이기 위해 보다 다양한 로봇 반응행동을 아동에게 보여주기 위함이며, 이는 "Paul Chance"의 "학습과 행동(learning and behavior)"을 통해 정리된 심리학적 실험 결과를 그 근거로 한다. 예컨대, 본 발명에서는 아동의 자극행동에 대한 로봇의 반응행동을 항상 예상대로 되지 않도록 하는 것이 오히려 아동 성격 순화에 있어 보다 강력하다는 점에 착안해, 아동의 긍정적 행동에 대해 로봇이 항상 긍정적으로 동일한 반응을 나타내지 않고, 다만 긍정적 성향을 드러낼 때 아동의 긍정적 행동을 더욱 지속 가능하도록 해 보다 높은 교육적 효과를 발현하고자 함이다.Then, the robot selects the corresponding robot reaction behavior value as the corresponding robot reaction behavior to be taken by the robot according to the child stimulation behavior based on the respective probabilities of the obtained robot reaction behavior values (103d). That is, in the robot response behavior selection process proposed in the present invention, the robot response behavior [target behavior] is probabilistically determined by applying each probability for each robot response behavior value to a weighted random selection method. It is to be possible. For example, in the process of "103c", the probability for "A robot reaction behavior value" is "0.2", the probability for "B robot reaction behavior value" is "0.4", and the "C robot reaction behavior value". In the case of obtaining the probability of each of them as "0.6", the "A robot reaction behavior" is selected as the probability of "0.2" and the "B robot reaction behavior" is the probability of "0.4" for the target behavior to be taken by the robot. And the "C robot reaction behavior" is selected with a probability of "0.6". This process of choosing robot response behavior is to show children more diverse robot response behavior in order to further enhance the psychological effect of child personality purification, which can be summarized through "learning and behavior" of "Paul Chance". Based on the results of psychological experiments. For example, in the present invention, focusing on the fact that the robot's response to the child's stimulus behavior is not always as expected, it is more powerful in purifying the child's personality, so that the robot always responds positively to the child's positive behavior. It is not intended to show a higher educational effect by making children's positive behavior more sustainable when showing positive tendencies.
다른 예로, 본 발명에서는 로봇 반응행동을 선택하는 데 있어, 상기 로봇은 상기 구한 확률을 토대로 가장 높은 확률값을 갖는 로봇반응행동값을 상기 아동 자극행동에 따라 취할 로봇 반응행동으로 선택할 수도 있다. 이와 같은 본 발명의 다 른 예에서는 로봇이 아동에 대해 적절한 반응 행동을 보여주고자 하는 경우에 매우 유효하다.As another example, in the present invention, in selecting a robot response behavior, the robot may select a robot response behavior having the highest probability value as a robot response behavior to be taken according to the child stimulation behavior based on the obtained probability. Such another example of the present invention is very effective when the robot wants to show appropriate response behavior to the child.
위와 같은 본 발명에서는 현재의 로봇과 아동의 친밀도에 따라 로봇 반응행동 긍정성 파라미터가 긍정적인 경우에는 로봇 반응행동이 아동에게 긍정적으로 나오게 되고, 로봇 반응행동 긍정성 파라미터가 부정적인 경우에는 로봇 반응행동이 아동에게 부정적으로 나오게 되는 것이다.In the present invention as described above, if the robot response behavior positive parameter is positive according to the current intimacy of the robot and the child, the robot response behavior is positive for the child, and if the robot response behavior positive parameter is negative, the robot response behavior is negative. Negative to children.
그런 후, 상기 로봇은 상기 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 스피커, 날개 모양의 귀, 이 귀에 장착된 LED, 안면부, 이 안면부에 장착된 LED 등을 통해 해당 반응행동을 실행한다(104).Then, the robot executes the corresponding reaction behavior through the speaker, the wing-shaped ears, the LED mounted on the ear, the face portion, the LED mounted on the face portion, and the like according to the corresponding script content of the selected robot reaction behavior value (104). ).
그런 후[즉, 로봇 반응행동 실행 후], 상기 로봇은 아동에게 실행한 반응행동을 친밀도에 반영시켜 현재의 친밀도를 업데이트시킨다(105). 예를 들어, 로봇은 상기 실행한 로봇반응행동값의 로봇 반응행동 긍정성 파라미터가 긍정의 값(예; "+1")이면 현재의 친밀도값에 소정의 값(예; "0.05")을 더해 친밀도값을 긍정적으로 업데이트시키고, 상기 실행한 로봇반응행동값의 로봇 반응행동 긍정성 파라미터가 부정의 값(예; "-1")이면 현재의 친밀도값에서 소정의 값(예; "0.05")을 빼서 친밀도값을 부정적으로 업데이트시킨다. 이와 같이 업데이트된 친밀도는 이후에 아동과 로봇 간의 자극/반응에 영향을 미치어, 아동이 로봇에게 자극한 자신의 행동에 따른 로봇의 반응 행동 변화를 지켜볼 수 있도록 한다.Thereafter (ie, after executing the robot reaction action), the robot updates the current familiarity by reflecting the reaction action performed on the child in intimacy (105). For example, the robot may add a predetermined value (eg, "0.05") to the current intimacy value if the robot response behavior positive parameter of the executed robot response action value is a positive value (eg, "+1"). Positively update the intimacy value, and if the robot response behavior positive parameter of the executed robot response behavior value is a negative value (eg "-1"), a predetermined value (eg "0.05") from the current intimacy value Update the intimacy value negatively by subtracting This updated intimacy subsequently affects the stimulus / response between the child and the robot, allowing the child to watch the robot's response behavior change as a result of his or her own stimulation.
다음으로, 도 4를 참조해 본 발명에 따른 로봇에 대해 설명하기로 한다.Next, a robot according to the present invention will be described with reference to FIG. 4.
도 4에 도시된 바와 같이, 본 발명에 따른 로봇은 카메라(41), 터치센서(42) 및 마이크(43) 등과 같은 센서(40)와, 스피커(51), 날개 모양의 2개의 귀(52), 각 귀(52)에 장착된 LED(53), 안면부(54), 이 안면부(54)에 장착된 LED(55) 등과 같은 출력 인터페이스부(50)와, 아동자극행동값[아동 자극행동 리스트], 아동 자극행동 긍정성 파라미터, 로봇반응행동값[로봇 반응행동 리스트], 로봇 반응행동 긍정성 파라미터 및 친밀도를 포함하는 스크립트 기반의 행동 DB(60)와, 인식기(71), 선택기(72), 실행기(73), 수정기(74)를 포함하는 제어부(70)로 이루어진다.As shown in FIG. 4, the robot according to the present invention includes a
상기 카메라(41)는 아동이 로봇에 대해 미소를 보이거나 찡그리거나 쳐진 모습을 보이거나 일상적인 평범한 모습을 보이는 것과 같은 아동의 영상 데이터를 센싱한다.The
상기 터치센서(42)는 아동이 로봇에 대해 때리기, 누르기, 쓰다듬기, 간지럽히기, 안기 등과 같은 아동의 접촉 데이터, 액션 데이터를 센싱한다.The
상기 마이크(43)는 아동이 로봇에 대해 잘했어 로봇 등과 같은 긍정적인 음성멘트, 욕설 등과 같은 부정적인 음성멘트, 전래동화 보여줘 등과 같은 평범한 음성멘트 등과 같은 아동의 음성멘트 데이터를 센싱한다.The
상기 제어부(70)의 인식기(71)는 상기 카메라(41), 터치센서(42) 및 마이크(43) 등과 같은 센서(40)로부터 센싱된 데이터의 조합이 어떠한 아동자극행동값을 갖는지를 인식한다. 여기서, 인식기(71)는 공지의 카메라를 통한 사용자 표정 인식 기술을 사용하고, 터치센서의 범위와 크기 인식 기술을 사용하고, 마이크를 통한 사용자 발화 음성 볼륨과 파장 인식 기술을 사용해 아동 자극행동이 어떠한 것인지를 인식한다.The
상기 제어부(70)의 선택기(72)는 스크립트 기반의 행동 DB(60) 상의 아동자극행동값, 로봇반응행동값, 아동 자극행동 긍정성 파라미터, 로봇 반응행동 긍정성 파라미터 및 친밀도를 토대로 상기 인식기(71)에서 인식한 아동자극행동값에 매칭되는 로봇반응행동값을 선택한다.The
상기 제어부(70)의 실행기(73)는 상기 선택기(72)에서 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 출력 인터페이스부(50)의 스피커(51), 날개 모양의 2개의 귀(52), 각 귀(52)에 장착된 LED(53), 안면부(54), 안면부(54)에 장착된 LED(55)의 조합을 통해 해당 반응행동을 실행시킨다.The
상기 스피커(51)를 통해서는 기 저장된 웨이브 파일 등이 재생된 사운드[예; 아파요, 하지마세요, 제길 하지마, 그런 말 하지 마세요, 나도 기분 나뻐, 아 부드럽다, 뭐야 귀찮게, 아 숨막혀 하지마, 아 고마워요 등]가 출력되고, 상기 귀(52)는 로봇의 양쪽 날개 부분에 내장된 구동 모터를 통해 동작[예; flip_down: 양 귀를 45도 아래로 내림, flip_up: 양 귀를 45도 위로 올림, Flap: 양 귀를 천천히 30도 위아래로 올렸다 내렸다를 2번 반복, Shake: 양 귀를 10도 위아래로 빠르게 올렸다 내렸다를 4번 반복 등]하고, 상기 귀(52)에 장착된 LED(53)는 귀 색깔을 표시[예; Blue: 파란색 LED 발광, Red: 빨간색 LED 발광, Green: 녹색 LED 발광, Twinkle: 빨간색, 녹색, 파란색 LED를 번갈아가면서 발광 등]한다.Through the
상기 제어부(70)의 수정기(74)는 상기 실행기(73)에서 실행한 반응행동을 상기 친밀도에 반영시켜 현재의 친밀도를 업데이트시킨다.The
한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.
이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.
도 1은 본 발명에 따른 사용자 자극행동에 따른 로봇 반응행동 수행 방법에 대한 일실시예 흐름도이고,1 is a flowchart illustrating a method for performing a robot reaction behavior according to a user stimulus behavior according to the present invention;
도 2는 본 발명에 따른 스크립트 기반의 행동 DB에 대한 일실시예 구조도이고,2 is a structural diagram of an embodiment of a script-based behavior DB according to the present invention;
도 3a 및 도 3b는 도 2의 행동 DB에 관한 구체적인 테이블 예시도이고,3A and 3B are exemplary diagrams illustrating specific tables of the behavior DB of FIG. 2.
도 4는 본 발명에 따른 로봇에 대한 일실시예 구성도이고,4 is a configuration diagram of an embodiment of a robot according to the present invention;
도 5는 본 발명이 적용되는 로봇에 대한 일실시예 사시도이다.5 is a perspective view of an embodiment of a robot to which the present invention is applied.
* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing
41 : 카메라 42 : 터치센서41: camera 42: touch sensor
43 : 마이크 51 : 스피커43: microphone 51: speaker
52 : 날개 모양의 귀 53 : 귀에 장착된 LED52: wing-shaped ear 53: LED mounted on the ear
54 : 안면부 55 : 안면부에 장착된 LED54: face part 55: LED mounted on face part
60 : 행동 DB 71 : 인식기60: behavior DB 71: recognizer
72 : 선택기 73 : 실행기72: Selector 73: Launcher
74 : 수정기74: modifier
Claims (15)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080005788A KR100919095B1 (en) | 2008-01-18 | 2008-01-18 | Method of executing robot behavior based on user behavior and its robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080005788A KR100919095B1 (en) | 2008-01-18 | 2008-01-18 | Method of executing robot behavior based on user behavior and its robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090079655A true KR20090079655A (en) | 2009-07-22 |
KR100919095B1 KR100919095B1 (en) | 2009-09-28 |
Family
ID=41290817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080005788A KR100919095B1 (en) | 2008-01-18 | 2008-01-18 | Method of executing robot behavior based on user behavior and its robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100919095B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013183822A1 (en) * | 2012-06-07 | 2013-12-12 | 한국과학기술연구원 | Apparatus for training sociability and a method therefor |
KR20180129301A (en) | 2017-05-26 | 2018-12-05 | 한국과학기술원 | Method and apparatus for emulating behavior of robot |
KR20200116185A (en) * | 2019-03-13 | 2020-10-12 | 주식회사 티오이십일콤즈 | Pet robot equipped with artificial intelligence |
KR20210060802A (en) * | 2019-11-19 | 2021-05-27 | 주식회사 와이닷츠 | User interaction reaction robot |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101772583B1 (en) * | 2012-12-13 | 2017-08-30 | 한국전자통신연구원 | Operating method of robot providing user interaction services |
KR102140292B1 (en) * | 2017-12-27 | 2020-07-31 | (주) 퓨처로봇 | System for learning of robot service and method thereof |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000326274A (en) * | 1999-05-24 | 2000-11-28 | Nec Corp | Acting robot |
JP2001353679A (en) * | 2000-06-13 | 2001-12-25 | Oki Electric Ind Co Ltd | Robot for use as pet |
JP2002127059A (en) * | 2000-10-20 | 2002-05-08 | Sony Corp | Action control device and method, pet robot and control method, robot control system and recording medium |
JP2004090109A (en) * | 2002-08-29 | 2004-03-25 | Sony Corp | Robot device and interactive method for robot device |
-
2008
- 2008-01-18 KR KR1020080005788A patent/KR100919095B1/en active IP Right Grant
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013183822A1 (en) * | 2012-06-07 | 2013-12-12 | 한국과학기술연구원 | Apparatus for training sociability and a method therefor |
KR20180129301A (en) | 2017-05-26 | 2018-12-05 | 한국과학기술원 | Method and apparatus for emulating behavior of robot |
KR20200116185A (en) * | 2019-03-13 | 2020-10-12 | 주식회사 티오이십일콤즈 | Pet robot equipped with artificial intelligence |
KR20210060802A (en) * | 2019-11-19 | 2021-05-27 | 주식회사 와이닷츠 | User interaction reaction robot |
Also Published As
Publication number | Publication date |
---|---|
KR100919095B1 (en) | 2009-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230373097A1 (en) | Control of social robot based on prior character portrayal | |
US8321221B2 (en) | Speech communication system and method, and robot apparatus | |
CN107225578B (en) | Robot control device, robot control method and system | |
KR100919095B1 (en) | Method of executing robot behavior based on user behavior and its robot | |
CA2912243C (en) | Immersive story creation | |
US10052769B2 (en) | Robot capable of incorporating natural dialogues with a user into the behaviour of same, and methods of programming and using said robot | |
JP3159242B2 (en) | Emotion generating apparatus and method | |
US7987091B2 (en) | Dialog control device and method, and robot device | |
US20180117479A1 (en) | Voice-Enabled Connected Smart Toy | |
EP3923198A1 (en) | Method and apparatus for processing emotion information | |
CN105126355A (en) | Child companion robot and child companioning system | |
US9805493B2 (en) | Social identity models for automated entity interactions | |
CN108537321A (en) | A kind of robot teaching's method, apparatus, server and storage medium | |
US20180204107A1 (en) | Cognitive-emotional conversational interaction system | |
US20210151154A1 (en) | Method for personalized social robot interaction | |
US20230260536A1 (en) | Interactive artificial intelligence analytical system | |
WO2016206645A1 (en) | Method and apparatus for loading control data into machine device | |
KR20200117712A (en) | Artificial intelligence smart speaker capable of sharing feeling and emotion between speaker and user | |
JP2023016740A (en) | Method, computer program and device for performing artificial intelligence-based video question answering in data processing system (neural-symbolic action transformers for video question answering) | |
Platz | Design Beyond Devices: Creating Multimodal, Cross-device Experiences | |
CN113946222A (en) | Control method, electronic device and computer storage medium | |
US20220009082A1 (en) | Method for controlling a plurality of robot effectors | |
KR102637704B1 (en) | Method For Providing Compliment Message To Child And Server Performing The Same | |
NL1042811B1 (en) | A cognitive-emotional conversational interaction system. | |
Kraus | User-centred Proactive Dialogue Modelling for Trustworthy Conversational Assistants |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20120904 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130830 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140901 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160908 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20180903 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190807 Year of fee payment: 11 |