KR20090079655A - Method of executing robot behavior based on user behavior and its robot - Google Patents

Method of executing robot behavior based on user behavior and its robot Download PDF

Info

Publication number
KR20090079655A
KR20090079655A KR1020080005788A KR20080005788A KR20090079655A KR 20090079655 A KR20090079655 A KR 20090079655A KR 1020080005788 A KR1020080005788 A KR 1020080005788A KR 20080005788 A KR20080005788 A KR 20080005788A KR 20090079655 A KR20090079655 A KR 20090079655A
Authority
KR
South Korea
Prior art keywords
behavior
robot
value
user
reaction
Prior art date
Application number
KR1020080005788A
Other languages
Korean (ko)
Other versions
KR100919095B1 (en
Inventor
윤완철
박귀홍
김종철
김영명
정성택
이영훈
김요찬
Original Assignee
주식회사 케이티
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티, 한국과학기술원 filed Critical 주식회사 케이티
Priority to KR1020080005788A priority Critical patent/KR100919095B1/en
Publication of KR20090079655A publication Critical patent/KR20090079655A/en
Application granted granted Critical
Publication of KR100919095B1 publication Critical patent/KR100919095B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

A method for performing robot reaction behavior according to a stimulus of a user and a robot using the same are provided to offer education of humanism effects, and to offer change of reaction behaviors of a robot according to a stimulus of the user. A method for performing robot reaction behavior according to a stimulus of a user includes the following steps of: setting up robot reaction behavior affirmation parameter and closeness, a robot reaction behavior value etc; sensing data about a stimulus action of the user with at least one sensing unit; recognizing the robot reaction behavior value; selecting the robot reaction behavior value based on the robot reaction behavior affirmation parameter and the closeness; and performing reaction behaviors to the user according to corresponding script contents of the selected robot reaction behavior value.

Description

사용자 자극행동에 따른 로봇 반응행동 수행 방법 및 그 로봇{Method of executing robot behavior based on user behavior and its robot}Method of executing robot behavior based on user behavior and its robot}

본 발명은 로봇의 행동 수행 방법 및 그 로봇에 관한 것으로, 더욱 상세하게는 로봇을 대하는 사용자(예; 아동)의 자극행동에 해당되는 스크립트 기반의 반응행동을 실행하고서 사용자와 로봇 간의 친밀도를 업데이트함으로써 로봇을 통한 아동의 성격 순화를 유도하기 위한, 사용자 자극행동에 따른 로봇 반응행동 수행 방법 및 그 로봇에 관한 것이다.The present invention relates to a method of performing a robot's behavior and the robot, and more particularly, by updating the intimacy between the user and the robot by executing a script-based reaction behavior corresponding to a stimulus behavior of a user (eg, a child) facing the robot. The present invention relates to a method of performing a robot reaction behavior according to a user stimulus behavior, and a robot thereof to induce a child's personalization through a robot.

최근에 지능형 로봇[일명 "URC(Ubiquitous Robotic Companion) 로봇"이라고도 함]의 기술 발전에 힘입어 인터넷에 접속한 로봇을 통해 사용자에게 각종 콘텐츠, 서비스 등을 제공할 수 있게 되었다.Recently, with the development of intelligent robots (also known as "URC (Ubiquitous Robotic Companion robots)"), it is possible to provide various contents and services to users through robots connected to the Internet.

예컨대, 이러한 지능형 로봇은 사용자에게 뉴스, 날씨, 교육 콘텐츠, 일정 알림, 모닝콜, 홈 모니터링, 청소 등과 같이 다양한 콘텐츠, 서비스를 제공하고 있다. 이러한 각각의 지능형 로봇의 사양, 기능, 제공 서비스 및 그 형상은 모두 제 각각이며, 이에 각 사용자들은 자신의 이용 목적 및 취향 등에 따라 해당되는 지능형 로봇을 사용하고 있다.For example, such intelligent robots provide various contents and services to users, such as news, weather, educational content, calendar reminders, wake-up calls, home monitoring, and cleaning. The specifications, functions, services, and shapes of each intelligent robot are all different, and each user uses the corresponding intelligent robot according to his purpose of use and taste.

한편, 최근에는 로봇 보편화에 힘입어 각 가정에서 여러 대의 로봇, 즉 할머니의 건강 상태를 체크하는 헬스케어 로봇, 엄마의 청소를 도와주는 청소 로봇, 아빠의 업무를 보조하는 업무 로봇, 아동에게 교육, 엔터테인먼트, 펫(pet) 기능을 제공하기 위한 로봇[주; 구체적으로 에듀 로봇, 엔터테인먼트 로봇, 펫 로봇 등으로 분류할 수 있음]이 사용되고 있다.On the other hand, recently, thanks to the generalization of robots, several robots in each home, such as a health care robot that checks the state of grandmother's health, a cleaning robot that helps mom's cleaning, a work robot that assists father's work, education for children, Robot for providing entertainment, pet function [Note; Specifically, it can be classified into an edu robot, an entertainment robot, a pet robot, etc.].

현재도 그렇지만 향후에는 더욱더 소규모 핵가족화가 진전됨에 따라 앞서 언급한 바와 같이 댁내에서 아동은 로봇과 매우 밀접한 관계를 갖으면서 로봇을 통해 각종 정보 등을 습득하게 될 것인데, 이러한 로봇을 통한 인성 교육이 매우 활발하게 이루어질 것으로 기대된다.Even now, but in the future, as more and more small nuclear families become more advanced, as mentioned above, children will have a very close relationship with robots and acquire various information through robots. It is expected to be done.

그런데, 현재까지 개발, 제안된 로봇 및 관련 기술을 살펴보면 아동에게 제공할 로봇 교육 콘텐츠 품질에만 집중되어 있고, 특히 로봇 자체도 아동의 사용법 미숙을 고려해 인터페이스 부분만 개선되고 있는 형편이다.However, looking at the developed and proposed robots and related technologies to date, only the quality of robot education contents to be provided to children is concentrated, and in particular, the robot itself is improving only in consideration of children's immature usage.

상기와 같은 종래 기술들은 아동에게 우수한 교육 콘텐츠 제공 및 편리한 사용 조작 기능 제공을 통해 아동이 조기 교육을 통해 지식 능력을 함양할 수 있도록 할 수는 있겠으나, 인성 발달 시기에 있어 무엇보다도 중요한 아동의 성격 순화를 유도하지 못하고 있는 형편이다.Such prior arts can enable children to cultivate their knowledge skills through early education through providing excellent educational contents and providing convenient operation and operation functions, but most importantly in the development of personality. It is not able to induce purification.

즉, 상기와 같은 종래 기술들에서는 로봇이 제공하는 콘텐츠를 통해 어린 나이의 아동이 스스로 자신의 성격에 대한 잘잘못을 인지하지 못할 뿐만 아니라 스스로 교육 콘텐츠 중 명작 동화 등을 통해 자신의 성격 순화를 이룬다는 것은 현실적으로 매우 어려운 문제점이 있다.In other words, in the above-described conventional techniques, children of young age are not aware of their own personality wrong through contents provided by the robot, but also realize their personality through the masterpieces of educational contents. Things are very difficult issues in reality.

따라서 최근의 로봇 기술을 백분 활용해 아동을 포함한 여타 특정인의 성격 순화가 로봇 간의 자극/반응을 통해 이루어질 수 있도록 하는 기술이 절실히 요구되고 있다. 또한, 특히 사용자의 자극행동과 로봇의 반응행동 간의 연결(매칭) 기술 개발이 요구되고 아울러 로봇이 사용자에게 반응하는 데 있어 필요한 정보(스크립트 기반의 행동 DB)를 효율적으로 구축할 필요성이 요구되고 있다.Therefore, there is an urgent need for a technology that utilizes the latest robot technology to enable the purification of the personality of other specific people including children through stimulation / reaction between robots. In addition, there is a need to develop a connection (matching) technology between the user's stimulus behavior and the robot's reaction behavior, and to efficiently construct the information (script-based behavior DB) necessary for the robot to respond to the user. .

이에, 본 발명은 상기와 같은 문제점을 해결하고 상기와 같은 요구에 부응하기 위하여 제안된 것으로, 로봇을 대하는 사용자(예; 아동)의 자극행동에 해당되는 스크립트 기반의 반응행동을 실행하고서 사용자와 로봇 간의 친밀도를 업데이트함으로써 로봇을 통한 아동의 성격 순화를 유도하기 위한, 사용자 자극행동에 따른 로봇 반응행동 수행 방법 및 그 로봇을 제공하는 데 그 목적이 있다.Accordingly, the present invention has been proposed in order to solve the above problems and to meet the above requirements, by executing a script-based reaction behavior corresponding to the stimulus behavior of the user (for example, a child) dealing with the robot, the user and the robot The purpose of the present invention is to provide a method for performing a robot reaction behavior according to user stimulus behavior and a robot for inducing the purification of the personality of the child through the robot by updating the intimacy between the two.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention which are not mentioned above can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기의 목적을 달성하기 위한 본 발명의 방법은, 로봇 반응행동 수행 방법에 있어서, 사용자자극행동값, 사용자 자극행동 긍정성 파라미터, 로봇반응행동값, 로봇 반응행동 긍정성 파라미터 및 친밀도를 설정하는 단계; 적어도 하나의 센싱 수단을 사용해 사용자의 자극행동에 관한 데이터를 센싱하는 단계; 상기 센싱한 데이터가 어떠한 사용자자극행동값을 갖는지를 인식하는 단계; 상기 설정한 사용자자극행동값, 로봇반응행동값, 사용자 자극행동 긍정성 파라미터, 로봇 반응행동 긍정성 파라미터 및 친밀도를 토대로 상기 인식한 사용자자극행동값에 매칭되는 로봇반응행동값을 선택하는 로봇반응행동 선택단계; 및 상기 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 상기 사용자에 대한 반응행동을 실행하는 반응행동 실행단계를 포함한다.In the method of the present invention for achieving the above object, in the method of performing a robot reaction behavior, setting the user stimulus behavior value, the user stimulus behavior affirmation parameter, the robot reaction behavior value, the robot reaction behavior affirmation parameter and intimacy ; Sensing data relating to stimulus behavior of the user using at least one sensing means; Recognizing a user stimulus behavior value of the sensed data; A robot reaction behavior for selecting a robot reaction behavior value matching the recognized user stimulus behavior value based on the set user stimulus behavior value, robot response behavior value, user stimulus behavior affirmation parameter, robot response behavior affirmation parameter and intimacy Selection step; And a reaction action execution step of executing a reaction action for the user according to the contents of the corresponding script of the selected robot reaction action value.

또한, 상기 본 발명의 방법은, 상기 반응행동을 실행 완료함에 따라 상기 실행한 반응행동을 상기 친밀도에 반영시켜 현재의 친밀도를 업데이트시키는 친밀도 업데이트단계를 더 포함한다.The method may further include an intimacy updating step of updating the current intimacy by reflecting the executed reaction behavior in the intimacy as the reaction behavior is completed.

한편, 본 발명은, 로봇에 있어서, 사용자자극행동값, 사용자 자극행동 긍정성 파라미터, 로봇반응행동값, 로봇 반응행동 긍정성 파라미터 및 친밀도가 설정되어 있는 행동 데이터베이스; 사용자의 자극행동에 관한 데이터를 센싱하기 위한 센싱 수단; 상기 센싱 수단에서 센싱한 데이터를 토대로 상기 행동 데이터베이스를 조회해 상기 사용자의 자극행동에 해당되는 스크립트 기반의 반응행동을 출력 인터페이스부를 통해 실행하고 상기 사용자와의 친밀도를 업데이트시키기 위한 제어부; 및 상기 반응행동을 상기 사용자에게 출력하기 위한 상기 출력 인터페이스부를 포함한다.On the other hand, the present invention, the robot, the user stimulus behavior value, the user stimulus behavior affirmation parameter, the robot reaction behavior value, the robot reaction behavior affirmation parameter and the familiarity database is set; Sensing means for sensing data relating to stimulus behavior of a user; A controller for querying the behavioral database based on the data sensed by the sensing means to execute a script-based reaction behavior corresponding to the stimulus behavior of the user through an output interface and to update the intimacy with the user; And the output interface unit for outputting the reaction action to the user.

상기와 같은 본 발명은 사용자(특히 아동)가 자신이 로봇에게 자극한 행동에 따른 로봇의 반응 행동 변화를 지켜볼 수 있도록 하고, 로봇의 긍정적인 성격 변화 모습을 모방하도록 함으로써 자신의 성격 순화를 통한 인성 교육 효과를 제공할 수 있는 이점이 있다.The present invention as described above allows the user (especially the child) to watch the change in the response behavior of the robot according to the actions stimulated by the robot, and to mimic the positive personality change of the robot through the purification of his personality There is an advantage that can provide character education effect.

또한, 본 발명은 스크립트 기반의 행동 DB와 같이 간단한 소프트웨어 모듈만을 탑재해 아동 성격 순화 기능을 로봇에 구현할 수 있고, 기존 하드웨어 모듈 추가/교체/수정 없이도 효율적으로 아동 성격 순화 기능을 구현할 수 있는 효과가 있 다.In addition, the present invention is equipped with only a simple software module, such as script-based behavior DB can implement the child personality purification function to the robot, and can effectively implement the child personality purification function without adding / replacing / modifying existing hardware modules. have.

상술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되어 있는 상세한 설명을 통하여 보다 명확해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다.The above objects, features, and advantages will become more apparent from the detailed description given hereinafter with reference to the accompanying drawings, and accordingly, those skilled in the art to which the present invention pertains may share the technical idea of the present invention. It will be easy to implement. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 사용자 자극행동에 따른 로봇 반응행동 수행 방법에 대한 일실시예 흐름도이고, 도 2는 본 발명에 따른 스크립트 기반의 행동 DB에 대한 일실시예 구조도이고, 도 3a 및 도 3b는 도 2의 행동 DB에 관한 구체적인 테이블 예시도이고, 도 4는 본 발명에 따른 로봇에 대한 일실시예 구성도이고, 도 5는 본 발명이 적용되는 로봇에 대한 일실시예 사시도이다.1 is a flowchart illustrating a method for performing a robot reaction behavior according to a user stimulus behavior according to the present invention, FIG. 2 is a diagram illustrating an embodiment of a script-based behavior DB according to the present invention, and FIGS. 3A and 3B. 2 is a detailed table illustrating a behavior DB of FIG. 2, FIG. 4 is a diagram illustrating an embodiment of a robot according to the present invention, and FIG. 5 is a perspective view of an embodiment of a robot to which the present invention is applied.

본 발명은 로봇을 대하는 사용자(예; 아동)의 자극행동, 예컨대 미소, 찡그림, 때리기, 쓰다듬기, 욕하기, 칭찬하기 등에 따라 로봇이 이를 인식해 사용자 자극행동에 대해 반응할 행동을 스크립트 기반의 행동 DB로부터 선택해 해당 반응행동을 스피커, 귀, LED 등을 통해 실행하고서 사용자 자극행동에 따른 로봇 반응행 동 변화를 통해 사용자와 로봇 간의 친밀도를 업데이트함으로서, 로봇을 통한 아동의 성격 순화를 유도하기 위한 것이다. 이와 같은 본 발명은 인성 교육 대상자, 특히 성격 순화 교육 대상자를 아동에 한정하지 않고서 어떠한 사람도 그 대상자가 될 수 있으며, 이하 아동을 사용자로서 예를 들어 설명하기로 한다.According to the present invention, a script-based action is used to recognize a robot's response to a user's stimulus behavior according to a stimulus behavior of a user (eg, a child), for example, a smile, frowning, hitting, stroking, swearing, praising, or the like. It is to induce the refinement of the personality of the child through the robot by updating the intimacy between the user and the robot by changing the robot response behavior according to the user's stimulus behavior by executing the corresponding response behavior from the DB through the speaker, ear, and LED. . In the present invention as described above, any person can be a subject without limiting personality education subjects, in particular, subjects for character purifying education, to children. Hereinafter, the child will be described as an example.

이를 위해, 본 발명에서는 사용자의 자극행동과 로봇의 반응행동 간의 연결(매칭) 기법을 제시하고, 로봇이 사용자에게 반응하는 데 있어 필요한 정보를 스크립트 기반의 행동 DB로서 구성하고, 사용자 자극행동에 대한 평가 기법, 로봇 반응행동에 대한 평가 기법, 사용자와 로봇 간의 친밀도 도출 기법을 제시한다.To this end, the present invention proposes a connection (matching) technique between the user's stimulus behavior and the robot's reaction behavior, configures the information necessary for the robot to respond to the user as a script-based behavior DB, and The evaluation method, the evaluation method for robot reaction behavior, and the intimacy derivation method between the user and the robot are presented.

이하, 본 발명에 대해 구체적으로 설명하기로 하며, 먼저 도 5를 참조하여 본 발명이 적용되는 로봇에 대해 간략히 살펴보기로 한다.Hereinafter, the present invention will be described in detail. First, the robot to which the present invention is applied will be briefly described with reference to FIG. 5.

도 5에 도시된 로봇은 제품명 "포롱이"로서 아동에게 교육, 엔터테인먼트 등의 콘텐츠, 서비스를 제공하며, 카메라, 터치센서, 마이크, 스피커, 날개 모양의 귀, 이 귀에 장착된 LED, 안면부, 이 안면부에 장착된 LED 및 제어부 등의 하드웨어 스펙을 구비하고 있다. 이와 같이 본 발명에서는 기존 로봇에 하드웨어 모듈 추가/교체/수정 없이도[즉, 로봇에 기 탑재된 하드웨어 모듈을 그대로 사용해] 효율적으로 아동 성격 순화 기능을 구현하는 것을 목표로 한다.The robot shown in FIG. 5 is a product name "Porong", which provides contents and services such as education and entertainment to children, and includes a camera, a touch sensor, a microphone, a speaker, a wing-shaped ear, an LED mounted on the ear, a face part, and a face part. It is equipped with hardware specifications such as the LED and the control unit mounted on the. As described above, the present invention aims to efficiently implement a child personality purification function without adding / replacing / modifying a hardware module to an existing robot (that is, using a hardware module mounted on the robot as it is).

한편, 본 발명을 설명하는 데 있어 카메라, 터치센서, 마이크로부터 입력받은 데이터를 토대로 제어부가 해당 상황 인지(센싱 데이터 인식)를 하는 기술 및 제어부에 의해 스피커, 날개 모양의 귀, 이 귀에 장착된 LED, 안면부, 이 안면부에 장착된 LED 등을 통해 로봇 행동 제어를 하는 기술은 어떠한 공지 기술을 사용해도 무방하기에 이에 대한 설명은 하기에서 생략하기로 한다.Meanwhile, in describing the present invention, a speaker, a wing-shaped ear, and an LED mounted on the ear are provided by a technology and a control unit for controlling the situation based on the data received from the camera, the touch sensor, and the microphone. The technology for controlling robot behavior through the face part, the LED mounted on the face part, and the like may be used, and thus description thereof will be omitted below.

그럼, 도 1을 참조해 본 발명의 플로우에 대해 설명하기로 하며, 이하 로봇은 아동의 자극행동에 따라 반응행동을 수차례 수행했으며, 이러한 반응행동 수행에 따른 친밀도, 즉 현재 아동과 로봇 간의 친밀한 정도를 나타내는 지표로서 어떠한 값을 갖고 있다고 설정한다. 이러한 친밀도는 "-1"부터 "+1"까지의 값을 갖는데 "-1"에 가까울수록 로봇과 아동의 친밀도가 나쁘다는 것을, "+1"에 가까울수록 로봇과 아동의 친밀도가 좋다는 것을 의미한다. 덧붙여, 로봇에 설정되는 초기 친밀도는 "-1"의 값을 갖도록 셋팅되어 있다.Then, the flow of the present invention will be described with reference to FIG. 1. Hereinafter, the robot performs a number of reaction actions in accordance with a stimulus action of a child, and intimacy according to the reaction action, that is, intimacy between the current child and the robot. It is set to have some value as an index indicating the degree. This intimacy ranges from "-1" to "+1", which means that the closer to "-1", the poorer the robot and children are, and the closer to "+1", the better the robot and children. do. In addition, the initial familiarity set by the robot is set to have a value of "-1".

아동은 로봇을 대하는데 있어, 미소를 보이거나 찡그리거나 쳐진 모습을 보이거나 일상적인 평범한 모습을 보이거나 로봇 때리기, 로봇 누르기, 로봇 쓰다듬기, 로봇 간지럽히기, 로봇 안기와 같은 액션을 취하거나 잘했어 로봇 등과 같은 긍정적인 음성멘트, 욕설 등과 같은 부정적인 음성멘트, 전래동화 보여줘 등과 같은 평범한 음성멘트 등과 같은 다양한 자극행동을 선택, 조합적으로 행한다.The child has taken or done good actions in dealing with the robot, such as smiling, frowning or struck, showing a normal or ordinary routine, hitting the robot, pressing the robot, stroking the robot, tickling the robot, or embracing the robot. A variety of stimulus actions such as positive voicement such as robots, negative voicement such as swear words, and ordinary voicement such as show tales are selected and combined.

그러면, 상기 로봇은 카메라, 터치센서, 마이크 등과 같은 센서를 사용해 아동의 영상데이터(모습), 터치데이터, 음성데이터 등을 센싱(수집)한다(101).Then, the robot senses (collects) the child's image data (look), touch data, voice data, etc. using a sensor such as a camera, a touch sensor, a microphone, and the like (101).

이후, 상기 로봇은 인식기를 사용해 상기 입력받은 센싱데이터[영상데이터(모습), 터치데이터, 음성데이터 등] 각각이 어떠한 아동자극행동값을 갖는지를 인식한다(102). 여기서, 인식 결과, 즉 아동자극행동값의 데이터 표현은 통상의 사람이 이해할 만한 정보 형태이고 하기에서 후술할 스크립트 기반의 행동 DB에서 다룰 수 있는 포맷을 갖는다.Thereafter, the robot recognizes (102) which child stimulus behavior value each of the input sensing data (image data, image, touch data, voice data, etc.) has. Here, the recognition result, that is, the data representation of the child stimulus behavior value is in the form of information that can be understood by a normal person and has a format that can be handled in a script-based behavior DB to be described later.

그런 후, 상기 로봇은 자신에게 탑재되어 있는 스크립트 기반의 행동 DB 조회 및 현재의 친밀도를 토대로 상기 인식한 아동자극행동값에 매칭되는 로봇반응행동값을 선택한다(103). 이와 같은 로봇반응행동값 선택 과정에 대해서 도 2, 도 3a, 및 도 3b를 참조하여 보다 상세히 설명하면 다음과 같다.Thereafter, the robot selects a robot response behavior value that matches the recognized child stimulus behavior value based on the script-based behavior DB query and current familiarity installed in the robot (103). The robot reaction behavior value selection process will be described in more detail with reference to FIGS. 2, 3A, and 3B as follows.

도 2에 도시된 본 발명에 따른 스크립트 기반의 행동 DB는 아동 자극행동 아이디/로봇 반응행동 아이디 리스트, 아동 자극행동 리스트, 로봇 반응행동 리스트가 연결된 구조를 갖는다. 이와 같은 본 발명의 행동 DB는 스크립트를 기반으로 하는 것으로서, 간단한 소프트웨어 모듈로 로봇에 손쉽게 구현 가능함을 당업자라면 쉽게 이해할 것이다.The script-based behavior DB according to the present invention shown in FIG. 2 has a structure in which a child stimulus action ID / robot reaction action ID list, a child stimulation action list, and a robot reaction action list are connected. Such behavior DB of the present invention is script-based, and those skilled in the art will readily understand that it can be easily implemented in a robot with a simple software module.

특히, 상기 아동 자극행동 리스트에는 로봇이 센싱, 인식할 수 있는 아동 자극행동에 해당되는 아동자극행동값이 사전에 설정되어 있으며, 상기 로봇 반응행동 리스트에는 로봇이 취할 수 있는 로봇 반응행동에 해당되는 로봇반응행동값이 사전에 설정되어 있다.In particular, a child stimulus behavior value corresponding to a child stimulation behavior that can be sensed and recognized by the robot is set in the child stimulus behavior list, and the robot response behavior list corresponds to a robot reaction behavior that the robot can take. The robot response behavior value is set in advance.

또한, 상기 아동 자극행동 리스트에는 아동의 자극행동이 긍정적인지, 부정적인지, 중립인지를 나타내는 아동 자극행동 긍정성 파라미터가 포함되어 있으며, 상기 로봇 반응행동 리스트에는 로봇의 반응행동이 긍정적인지, 부정적인지, 중립인지를 나타내는 로봇 반응행동 긍정성 파라미터가 포함되어 있다.In addition, the child stimulus behavior list includes a child stimulus behavior positive parameter indicating whether the child's stimulus behavior is positive, negative, or neutral, and the robot reaction behavior list indicates whether the robot's reaction behavior is positive or negative The robot response behavior affinity parameter, which indicates whether it is neutral or not, is included.

도 3a 및 도 3b는 도 2의 행동 DB에 관한 구체적인 테이블 예시도를 보여주고 있는데, 1번째 컬럼에는 카메라에서 획득한 아동 영상에 대해 인식한 아동자극행동값을, 2번째 컬럼에는 터치센서에서 획득한 아동 터치에 대해 인식한 아동자극 행동값을, 3번째 컬럼에는 마이크에서 획득한 아동 음성멘트에 대해 인식한 아동자극행동값을, 4번째 컬럼에는 카메라/터치센서/마이크를 통해 인식한 동일한 행에 있어서의 아동자극행동값 조합에 해당되는 아동 자극행동 긍정성 파라미터를, 5번째 컬럼에는 상기의 아동자극행동값 조합에 따라 로봇이 취할 행동을 나타내는 로봇반응행동값을 기술한 스크립트를, 6번째 컬럼에는 상기의 로봇반응행동값에 해당되는 로봇 반응행동 긍정성 파라미터가 각각 기록되어 있다.3A and 3B show detailed table examples of the behavior DB of FIG. 2, in which the first column acquires a child stimulus behavior value recognized for a child image acquired by a camera, and the second column obtains a child stimulus behavior value from a touch sensor. Recognized child stimulus behavior value for a child touch, the third column recognizes child stimulus behavior value for the child's voice announcement obtained from the microphone, and the fourth column the same row recognized through the camera / touch sensor / microphone. In the fifth column, a script describing the robot response behavior values representing the actions taken by the robot according to the combination of the child stimulation behavior values is shown. In the column, the robot reaction behavior positive parameters corresponding to the above robot reaction behavior values are respectively recorded.

또한, 도 3a 및 도 3b에서 상기 행동 DB의 테이블을 살펴보면 동일한 아동자극행동값 조합에 매칭되는 로봇반응행동값이 다수개, 즉 도 2에서 하나의 아동 자극행동 리스트가 다수 개의 로봇 반응행동 리스트에 연결되어 있음을 확인할 수 있다. 이에 대해서는 하기에서 후술하기로 한다.3A and 3B, when looking at the table of the behavior DB, a plurality of robot response behavior values matching the same child stimulus behavior value combination, that is, one child stimulus behavior list in FIG. You can see that it is connected. This will be described later.

상기 도 2, 도 3a, 도 3b를 참조해 앞서 언급한 아동자극행동값에 매칭되는 로봇반응행동값을 선택하는 과정에 대해 설명하면 다음과 같다.Referring to FIGS. 2, 3A, and 3B, a process of selecting a robot response behavior value matching the aforementioned child stimulation behavior value will be described below.

먼저, 상기 로봇은 스크립트 기반의 행동 DB에서 상기 인식한 아동자극행동값에 매칭되는 적어도 하나의 로봇반응행동값을 검색한다(103a).First, the robot retrieves at least one robot response behavior value matching the recognized child stimulus behavior value from the script-based behavior DB (103a).

그리고 상기 로봇은 기 설정된(누적된) 현재의 친밀도값을 확인하고서(103b), 상기 검색한 각 로봇반응행동값의 로봇 반응행동 긍정성 파라미터와 상기 확인한 친밀도값을 각각 곱해 각각의 로봇반응행동값에 대한 각각의 확률을 구한다(103c).The robot checks a preset (accumulated) current intimacy value (103b), multiplies the robot response behavior affinity parameter of each searched robot response behavior value with the checked intimacy value, respectively, and then each robot response behavior value. Obtain each probability for (103c).

그런 후, 상기 로봇은 상기 구한 각 로봇반응행동값에 대한 각각의 확률을 토대로 각 확률로서 해당 로봇반응행동값을 상기 아동 자극행동에 따라 로봇이 취 할 해당 로봇 반응행동으로 선택한다(103d). 즉, 본 발명에서 제시하는 로봇 반응행동 선택 과정은 각 로봇반응행동값에 대한 각각의 확률을 가중치 부여된 임의 선택(Weighted random selection) 방식에 적용하여 로봇 반응행동[대상 행동]이 확률적으로 결정되도록 하는 것이다. 예를 들어, 상기 "103c" 과정에서 "A 로봇반응행동값"에 대한 확률을 "0.2"로, "B 로봇반응행동값"에 대한 확률을 "0.4"로, "C 로봇반응행동값"에 대한 확률을 "0.6"으로 각각 구한 경우에, 로봇이 취할 대상 행동에 대해 상기 "A 로봇 반응행동"이 "0.2"의 확률로 선택되도록 하고 상기 "B 로봇 반응행동"이 "0.4"의 확률로 선택되도록 하고 상기 "C 로봇 반응행동"이 "0.6"의 확률로 선택되도록 하는 것이다. 이러한 로봇 반응행동 선택 과정은 아동 성격 순화의 심리학적 효과를 더욱 높이기 위해 보다 다양한 로봇 반응행동을 아동에게 보여주기 위함이며, 이는 "Paul Chance"의 "학습과 행동(learning and behavior)"을 통해 정리된 심리학적 실험 결과를 그 근거로 한다. 예컨대, 본 발명에서는 아동의 자극행동에 대한 로봇의 반응행동을 항상 예상대로 되지 않도록 하는 것이 오히려 아동 성격 순화에 있어 보다 강력하다는 점에 착안해, 아동의 긍정적 행동에 대해 로봇이 항상 긍정적으로 동일한 반응을 나타내지 않고, 다만 긍정적 성향을 드러낼 때 아동의 긍정적 행동을 더욱 지속 가능하도록 해 보다 높은 교육적 효과를 발현하고자 함이다.Then, the robot selects the corresponding robot reaction behavior value as the corresponding robot reaction behavior to be taken by the robot according to the child stimulation behavior based on the respective probabilities of the obtained robot reaction behavior values (103d). That is, in the robot response behavior selection process proposed in the present invention, the robot response behavior [target behavior] is probabilistically determined by applying each probability for each robot response behavior value to a weighted random selection method. It is to be possible. For example, in the process of "103c", the probability for "A robot reaction behavior value" is "0.2", the probability for "B robot reaction behavior value" is "0.4", and the "C robot reaction behavior value". In the case of obtaining the probability of each of them as "0.6", the "A robot reaction behavior" is selected as the probability of "0.2" and the "B robot reaction behavior" is the probability of "0.4" for the target behavior to be taken by the robot. And the "C robot reaction behavior" is selected with a probability of "0.6". This process of choosing robot response behavior is to show children more diverse robot response behavior in order to further enhance the psychological effect of child personality purification, which can be summarized through "learning and behavior" of "Paul Chance". Based on the results of psychological experiments. For example, in the present invention, focusing on the fact that the robot's response to the child's stimulus behavior is not always as expected, it is more powerful in purifying the child's personality, so that the robot always responds positively to the child's positive behavior. It is not intended to show a higher educational effect by making children's positive behavior more sustainable when showing positive tendencies.

다른 예로, 본 발명에서는 로봇 반응행동을 선택하는 데 있어, 상기 로봇은 상기 구한 확률을 토대로 가장 높은 확률값을 갖는 로봇반응행동값을 상기 아동 자극행동에 따라 취할 로봇 반응행동으로 선택할 수도 있다. 이와 같은 본 발명의 다 른 예에서는 로봇이 아동에 대해 적절한 반응 행동을 보여주고자 하는 경우에 매우 유효하다.As another example, in the present invention, in selecting a robot response behavior, the robot may select a robot response behavior having the highest probability value as a robot response behavior to be taken according to the child stimulation behavior based on the obtained probability. Such another example of the present invention is very effective when the robot wants to show appropriate response behavior to the child.

위와 같은 본 발명에서는 현재의 로봇과 아동의 친밀도에 따라 로봇 반응행동 긍정성 파라미터가 긍정적인 경우에는 로봇 반응행동이 아동에게 긍정적으로 나오게 되고, 로봇 반응행동 긍정성 파라미터가 부정적인 경우에는 로봇 반응행동이 아동에게 부정적으로 나오게 되는 것이다.In the present invention as described above, if the robot response behavior positive parameter is positive according to the current intimacy of the robot and the child, the robot response behavior is positive for the child, and if the robot response behavior positive parameter is negative, the robot response behavior is negative. Negative to children.

그런 후, 상기 로봇은 상기 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 스피커, 날개 모양의 귀, 이 귀에 장착된 LED, 안면부, 이 안면부에 장착된 LED 등을 통해 해당 반응행동을 실행한다(104).Then, the robot executes the corresponding reaction behavior through the speaker, the wing-shaped ears, the LED mounted on the ear, the face portion, the LED mounted on the face portion, and the like according to the corresponding script content of the selected robot reaction behavior value (104). ).

그런 후[즉, 로봇 반응행동 실행 후], 상기 로봇은 아동에게 실행한 반응행동을 친밀도에 반영시켜 현재의 친밀도를 업데이트시킨다(105). 예를 들어, 로봇은 상기 실행한 로봇반응행동값의 로봇 반응행동 긍정성 파라미터가 긍정의 값(예; "+1")이면 현재의 친밀도값에 소정의 값(예; "0.05")을 더해 친밀도값을 긍정적으로 업데이트시키고, 상기 실행한 로봇반응행동값의 로봇 반응행동 긍정성 파라미터가 부정의 값(예; "-1")이면 현재의 친밀도값에서 소정의 값(예; "0.05")을 빼서 친밀도값을 부정적으로 업데이트시킨다. 이와 같이 업데이트된 친밀도는 이후에 아동과 로봇 간의 자극/반응에 영향을 미치어, 아동이 로봇에게 자극한 자신의 행동에 따른 로봇의 반응 행동 변화를 지켜볼 수 있도록 한다.Thereafter (ie, after executing the robot reaction action), the robot updates the current familiarity by reflecting the reaction action performed on the child in intimacy (105). For example, the robot may add a predetermined value (eg, "0.05") to the current intimacy value if the robot response behavior positive parameter of the executed robot response action value is a positive value (eg, "+1"). Positively update the intimacy value, and if the robot response behavior positive parameter of the executed robot response behavior value is a negative value (eg "-1"), a predetermined value (eg "0.05") from the current intimacy value Update the intimacy value negatively by subtracting This updated intimacy subsequently affects the stimulus / response between the child and the robot, allowing the child to watch the robot's response behavior change as a result of his or her own stimulation.

다음으로, 도 4를 참조해 본 발명에 따른 로봇에 대해 설명하기로 한다.Next, a robot according to the present invention will be described with reference to FIG. 4.

도 4에 도시된 바와 같이, 본 발명에 따른 로봇은 카메라(41), 터치센서(42) 및 마이크(43) 등과 같은 센서(40)와, 스피커(51), 날개 모양의 2개의 귀(52), 각 귀(52)에 장착된 LED(53), 안면부(54), 이 안면부(54)에 장착된 LED(55) 등과 같은 출력 인터페이스부(50)와, 아동자극행동값[아동 자극행동 리스트], 아동 자극행동 긍정성 파라미터, 로봇반응행동값[로봇 반응행동 리스트], 로봇 반응행동 긍정성 파라미터 및 친밀도를 포함하는 스크립트 기반의 행동 DB(60)와, 인식기(71), 선택기(72), 실행기(73), 수정기(74)를 포함하는 제어부(70)로 이루어진다.As shown in FIG. 4, the robot according to the present invention includes a sensor 40 such as a camera 41, a touch sensor 42, a microphone 43, a speaker 51, two ears 52 in the shape of a wing. ), An output interface 50 such as an LED 53 mounted on each ear 52, a face 54, an LED 55 mounted on the face 54, and a child stimulus behavior [child stimulation behavior] List], a script-based behavioral DB 60 including a child stimulus behavior affirmation parameter, a robot response behavior value [robot response behavior list], a robot response behavior affirmation parameter, and intimacy, a recognizer 71, and a selector 72. ), The executor 73, and the controller 70 including the modifier 74.

상기 카메라(41)는 아동이 로봇에 대해 미소를 보이거나 찡그리거나 쳐진 모습을 보이거나 일상적인 평범한 모습을 보이는 것과 같은 아동의 영상 데이터를 센싱한다.The camera 41 senses image data of the child, such as the child smiles, frowns, struck, or looks normal to the robot.

상기 터치센서(42)는 아동이 로봇에 대해 때리기, 누르기, 쓰다듬기, 간지럽히기, 안기 등과 같은 아동의 접촉 데이터, 액션 데이터를 센싱한다.The touch sensor 42 senses contact data and action data of a child, such as hitting, pressing, stroking, tickling, and embracing the child with respect to the robot.

상기 마이크(43)는 아동이 로봇에 대해 잘했어 로봇 등과 같은 긍정적인 음성멘트, 욕설 등과 같은 부정적인 음성멘트, 전래동화 보여줘 등과 같은 평범한 음성멘트 등과 같은 아동의 음성멘트 데이터를 센싱한다.The microphone 43 senses data of a child's voicement such as a positive voicement such as a robot that is good for a robot, a negative voicement such as abusive language, or an ordinary voicement such as a traditional story.

상기 제어부(70)의 인식기(71)는 상기 카메라(41), 터치센서(42) 및 마이크(43) 등과 같은 센서(40)로부터 센싱된 데이터의 조합이 어떠한 아동자극행동값을 갖는지를 인식한다. 여기서, 인식기(71)는 공지의 카메라를 통한 사용자 표정 인식 기술을 사용하고, 터치센서의 범위와 크기 인식 기술을 사용하고, 마이크를 통한 사용자 발화 음성 볼륨과 파장 인식 기술을 사용해 아동 자극행동이 어떠한 것인지를 인식한다.The recognizer 71 of the controller 70 recognizes a child stimulus behavior value of a combination of data sensed by the sensor 40 such as the camera 41, the touch sensor 42, the microphone 43, or the like. . Here, the recognizer 71 uses a user's facial expression recognition technology through a known camera, uses a range and size recognition technology of a touch sensor, and uses a user's spoken voice volume and a wavelength recognition technology through a microphone. Recognize that

상기 제어부(70)의 선택기(72)는 스크립트 기반의 행동 DB(60) 상의 아동자극행동값, 로봇반응행동값, 아동 자극행동 긍정성 파라미터, 로봇 반응행동 긍정성 파라미터 및 친밀도를 토대로 상기 인식기(71)에서 인식한 아동자극행동값에 매칭되는 로봇반응행동값을 선택한다.The selector 72 of the controller 70 may be configured to recognize the recognizer based on the child stimulus behavior value, the robot response behavior value, the child stimulus behavior affirmation parameter, the robot response behavior affirmation parameter, and the intimacy on the script-based behavior DB 60. The robot response behavior value that matches the child stimulus behavior value recognized in 71) is selected.

상기 제어부(70)의 실행기(73)는 상기 선택기(72)에서 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 출력 인터페이스부(50)의 스피커(51), 날개 모양의 2개의 귀(52), 각 귀(52)에 장착된 LED(53), 안면부(54), 안면부(54)에 장착된 LED(55)의 조합을 통해 해당 반응행동을 실행시킨다.The executor 73 of the controller 70 includes a speaker 51 of the output interface unit 50, two ears 52 in the shape of wings, according to the contents of the corresponding script of the robot response action value selected by the selector 72. The reaction action is executed through the combination of the LEDs 53 mounted on each ear 52, the face portion 54, and the LEDs 55 mounted on the face portion 54.

상기 스피커(51)를 통해서는 기 저장된 웨이브 파일 등이 재생된 사운드[예; 아파요, 하지마세요, 제길 하지마, 그런 말 하지 마세요, 나도 기분 나뻐, 아 부드럽다, 뭐야 귀찮게, 아 숨막혀 하지마, 아 고마워요 등]가 출력되고, 상기 귀(52)는 로봇의 양쪽 날개 부분에 내장된 구동 모터를 통해 동작[예; flip_down: 양 귀를 45도 아래로 내림, flip_up: 양 귀를 45도 위로 올림, Flap: 양 귀를 천천히 30도 위아래로 올렸다 내렸다를 2번 반복, Shake: 양 귀를 10도 위아래로 빠르게 올렸다 내렸다를 4번 반복 등]하고, 상기 귀(52)에 장착된 LED(53)는 귀 색깔을 표시[예; Blue: 파란색 LED 발광, Red: 빨간색 LED 발광, Green: 녹색 LED 발광, Twinkle: 빨간색, 녹색, 파란색 LED를 번갈아가면서 발광 등]한다.Through the speaker 51, a pre-stored sound of a wave file or the like is reproduced (eg; It hurts, don't, don't shit, don't say that, I'm feeling bad, too soft, what's bothering me, don't choke, thank you, etc.] and the ear 52 is built into both wings of the robot. Operating via a drive motor [eg; flip_down: lowers both ears 45 degrees, flip_up: raises both ears 45 degrees, Flap: raises both ears slowly up and down 30 degrees and repeats twice, Shake: quickly raises and lowers both ears 10 degrees 4 times, etc., and the LED 53 mounted on the ear 52 indicates the color of the ear [eg; Blue: blue LED light, Red: red LED light, Green: green LED light, Twinkle: red, green, blue LED light alternately.

상기 제어부(70)의 수정기(74)는 상기 실행기(73)에서 실행한 반응행동을 상기 친밀도에 반영시켜 현재의 친밀도를 업데이트시킨다.The modifier 74 of the controller 70 updates the current intimacy by reflecting the reaction behavior executed by the executor 73 in the intimacy.

한편, 전술한 바와 같은 본 발명의 방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the method of the present invention as described above can be written in a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. In addition, the written program is stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

도 1은 본 발명에 따른 사용자 자극행동에 따른 로봇 반응행동 수행 방법에 대한 일실시예 흐름도이고,1 is a flowchart illustrating a method for performing a robot reaction behavior according to a user stimulus behavior according to the present invention;

도 2는 본 발명에 따른 스크립트 기반의 행동 DB에 대한 일실시예 구조도이고,2 is a structural diagram of an embodiment of a script-based behavior DB according to the present invention;

도 3a 및 도 3b는 도 2의 행동 DB에 관한 구체적인 테이블 예시도이고,3A and 3B are exemplary diagrams illustrating specific tables of the behavior DB of FIG. 2.

도 4는 본 발명에 따른 로봇에 대한 일실시예 구성도이고,4 is a configuration diagram of an embodiment of a robot according to the present invention;

도 5는 본 발명이 적용되는 로봇에 대한 일실시예 사시도이다.5 is a perspective view of an embodiment of a robot to which the present invention is applied.

* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing

41 : 카메라 42 : 터치센서41: camera 42: touch sensor

43 : 마이크 51 : 스피커43: microphone 51: speaker

52 : 날개 모양의 귀 53 : 귀에 장착된 LED52: wing-shaped ear 53: LED mounted on the ear

54 : 안면부 55 : 안면부에 장착된 LED54: face part 55: LED mounted on face part

60 : 행동 DB 71 : 인식기60: behavior DB 71: recognizer

72 : 선택기 73 : 실행기72: Selector 73: Launcher

74 : 수정기74: modifier

Claims (15)

로봇 반응행동 수행 방법에 있어서,In the robot reaction behavior method, 사용자자극행동값, 사용자 자극행동 긍정성 파라미터, 로봇반응행동값, 로봇 반응행동 긍정성 파라미터 및 친밀도를 설정하는 단계;Setting a user stimulus behavior value, a user stimulus behavior affirmation parameter, a robot response behavior value, a robot response behavior affirmation parameter, and an intimacy; 적어도 하나의 센싱 수단을 사용해 사용자의 자극행동에 관한 데이터를 센싱하는 단계;Sensing data relating to stimulus behavior of the user using at least one sensing means; 상기 센싱한 데이터가 어떠한 사용자자극행동값을 갖는지를 인식하는 단계;Recognizing a user stimulus behavior value of the sensed data; 상기 설정한 사용자자극행동값, 로봇반응행동값, 사용자 자극행동 긍정성 파라미터, 로봇 반응행동 긍정성 파라미터 및 친밀도를 토대로 상기 인식한 사용자자극행동값에 매칭되는 로봇반응행동값을 선택하는 로봇반응행동 선택단계; 및A robot reaction behavior for selecting a robot reaction behavior value matching the recognized user stimulus behavior value based on the set user stimulus behavior value, robot response behavior value, user stimulus behavior affirmation parameter, robot response behavior affirmation parameter and intimacy Selection step; And 상기 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 상기 사용자에 대한 반응행동을 실행하는 반응행동 실행단계Reaction action execution step of executing the reaction action for the user according to the content of the script of the selected robot reaction action value 를 포함하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.Robot response behavior according to the user stimulus behavior comprising a. 제 1 항에 있어서,The method of claim 1, 상기 반응행동을 실행 완료함에 따라 상기 실행한 반응행동을 상기 친밀도에 반영시켜 현재의 친밀도를 업데이트시키는 친밀도 업데이트단계An intimacy updating step of updating the current intimacy by reflecting the executed reaction behavior to the intimacy as the reaction behavior is completed; 를 더 포함하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.Robot response behavior according to the user stimulus behavior further comprising a. 제 2 항에 있어서,The method of claim 2, 상기 친밀도 업데이트단계는,The intimacy update step, 상기 실행한 반응행동에 대한 로봇반응행동값의 로봇 반응행동 긍정성 파라미터가 긍정의 값임에 따라 상기 친밀도의 값에 소정의 값을 더해 친밀도의 값을 긍정적으로 업데이트시키고, 상기 실행한 반응행동에 대한 로봇반응행동값의 로봇 반응행동 긍정성 파라미터가 부정의 값임에 따라 상기 친밀도의 값에서 소정의 값을 빼서 친밀도의 값을 부정적으로 업데이트시키는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.As the robot reaction behavior positive parameter of the robot response behavior value to the executed reaction behavior is a positive value, a predetermined value is added to the value of the intimacy to positively update the intimacy value, and And a method of performing a robot reaction behavior according to user stimulus behavior, wherein the familiarity value of the robot response behavior is negatively updated by subtracting a predetermined value from the intimacy value as the robot response behavior positive parameter of the robot response behavior value is negative. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 사용자자극행동값은 로봇이 센싱, 인식할 수 있는 사용자 자극행동에 해당되는 값을 포함하고, 상기 로봇반응행동값은 상기 로봇이 취할 수 있는 로봇 반응행동에 해당되는 값을 포함하는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.The user stimulus behavior value includes a value corresponding to user stimulation behavior that can be sensed and recognized by the robot, and the robot response behavior value includes a value corresponding to a robot response behavior that the robot can take. Robot response behavior according to the user stimulus behavior. 제 4 항에 있어서,The method of claim 4, wherein 상기 사용자자극행동값은 적어도 하나의 로봇반응행동값에 연결(매칭)되어 있는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.And the user stimulus behavior value is connected (matched) to at least one robot response behavior value. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 사용자 자극행동 긍정성 파라미터는 사용자의 자극행동이 긍정적인지, 부정적인지, 중립인지를 나타내고, 상기 로봇 반응행동 긍정성 파라미터는 로봇의 반응행동이 긍정적인지, 부정적인지, 중립인지를 나타내는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.The user stimulus behavior positive parameter indicates whether the user's stimulus behavior is positive, negative or neutral, and the robot reaction behavior positive parameter indicates whether the robot's response behavior is positive, negative or neutral. Robot response behavior according to the user stimulus behavior. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 센싱한 데이터는, 카메라에서 센싱한 사용자 영상 데이터, 터치센서에서 센싱한 사용자 터치 데이터, 마이크에서 센싱한 사용자 음성멘트 데이터 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.The sensed data includes at least one of user image data sensed by a camera, user touch data sensed by a touch sensor, and user voicement data sensed by a microphone. How to do it. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 로봇반응행동 선택단계는,The robot reaction action selection step, 상기 인식한 사용자자극행동값에 매칭되는 적어도 하나의 로봇반응행동값을 검색하는 과정;Searching for at least one robot response behavior value matching the recognized user stimulus behavior value; 상기 설정된 현재의 친밀도의 값을 확인해 상기 검색한 각 로봇반응행동값의 로봇 반응행동 긍정성 파라미터와 상기 확인한 친밀도의 값을 각각 곱해 각각의 로봇반응행동값에 대한 확률을 구하는 과정; 및Determining a probability value for each robot response behavior value by checking the set current familiarity value and multiplying the robot response behavior positive parameter of each searched robot response behavior value by the value of the identified intimacy value; And 상기 구한 각각의 로봇반응행동값에 대한 확률을 토대로 상기 사용자 자극행동에 따라 취할 로봇 반응행동을 결정하는 로봇반응행동 결정과정A robot reaction behavior determination process for determining a robot reaction behavior to be taken according to the user stimulus behavior based on the probabilities of the obtained robot reaction behavior values. 을 포함하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.Robot response behavior according to the user stimulus behavior comprising a. 제 8 항에 있어서,The method of claim 8, 상기 로봇반응행동 결정과정은,The robot reaction behavior determination process, 상기 구한 각 로봇반응행동값에 대한 각각의 확률로서 해당 로봇반응행동값을 상기 사용자 자극행동에 따라 로봇이 취할 해당 로봇 반응행동으로 결정하는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.And a corresponding robot reaction action value to be taken by the robot according to the user stimulus action as a respective probability for each of the obtained robot reaction action values. 제 8 항에 있어서,The method of claim 8, 상기 로봇반응행동 결정과정은,The robot reaction behavior determination process, 상기 구한 각 로봇반응행동값에 대한 각각의 확률 중에서 가장 높은 확률값을 갖는 로봇반응행동값을 상기 사용자 자극행동에 따라 취할 해당 로봇 반응행동 으로 결정하는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.Performing the robot response behavior according to the user stimulus behavior, characterized in that the robot response behavior value having the highest probability value among the probabilities for the respective robot response behavior values is determined as the corresponding robot response behavior to be taken according to the user stimulation behavior. Way. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 반응행동 실행단계는,The reaction action execution step, 상기 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 로봇에 탑재된 스피커, 날개 모양의 귀, 상기 귀에 장착된 제 1 표시기, 안면부, 상기 안면부에 장착된 제 2 표시기 중 적어도 어느 하나를 사용해 해당 반응행동을 실행하는 것을 특징으로 하는 사용자 자극행동에 따른 로봇 반응행동 수행 방법.According to the script content of the selected robot response behavior value, the response behavior is performed using at least one of a speaker mounted on the robot, a wing-shaped ear, a first indicator mounted on the ear, a face part, and a second indicator mounted on the face part. Robot response behavior according to the user stimulation behavior, characterized in that for executing. 로봇에 있어서,In robots, 사용자자극행동값, 사용자 자극행동 긍정성 파라미터, 로봇반응행동값, 로봇 반응행동 긍정성 파라미터 및 친밀도가 설정되어 있는 행동 데이터베이스;A behavior database in which a user stimulus behavior value, a user stimulus behavior affirmation parameter, a robot response behavior value, a robot response behavior affinity parameter, and an intimacy are set; 사용자의 자극행동에 관한 데이터를 센싱하기 위한 센싱 수단;Sensing means for sensing data relating to stimulus behavior of a user; 상기 센싱 수단에서 센싱한 데이터를 토대로 상기 행동 데이터베이스를 조회해 상기 사용자의 자극행동에 해당되는 스크립트 기반의 반응행동을 출력 인터페이스부를 통해 실행하고 상기 사용자와의 친밀도를 업데이트시키기 위한 제어부; 및A controller for querying the behavioral database based on the data sensed by the sensing means to execute a script-based reaction behavior corresponding to the stimulus behavior of the user through an output interface and to update the intimacy with the user; And 상기 반응행동을 상기 사용자에게 출력하기 위한 상기 출력 인터페이스부The output interface unit for outputting the reaction behavior to the user 를 포함하는 사용자 자극행동에 따라 반응행동을 수행하는 로봇.A robot that performs a reaction action according to a user stimulus action comprising a. 제 12 항에 있어서,The method of claim 12, 상기 제어부는,The control unit, 상기 센싱 수단에서 센싱한 데이터가 어떠한 사용자자극행동값을 갖는지를 인식하기 위한 인식기;A recognizer for recognizing a user stimulus action value of the data sensed by the sensing means; 상기 행동 데이터베이스 상의 사용자자극행동값, 로봇반응행동값, 사용자 자극행동 긍정성 파라미터, 로봇 반응행동 긍정성 파라미터 및 친밀도를 토대로 상기 인식기에서 인식한 사용자자극행동값에 매칭되는 로봇반응행동값을 선택하기 위한 선택기;Selecting a robot response behavior value matching the user stimulus behavior value recognized by the recognizer based on the user stimulus behavior value, the robot response behavior value, the user stimulus behavior affirmation parameter, the robot response behavior affirmation parameter, and the intimacy on the behavior database Selector for; 상기 선택기에서 선택한 로봇반응행동값의 해당 스크립트 내용에 따라 상기 사용자에 대한 반응행동을 상기 출력 인터페이스부를 통해 실행시키기 위한 실행기; 및An executor for executing a reaction action for the user through the output interface unit according to the contents of the script of the robot reaction action value selected by the selector; And 상기 실행기에서 실행한 반응행동을 상기 행동 데이터베이스 상의 친밀도에 반영시켜 현재의 친밀도를 업데이트시키기 위한 수정기Modifier for updating the current intimacy by reflecting the reaction behavior executed in the executor to the intimacy on the behavior database 를 포함하는 사용자 자극행동에 따라 반응행동을 수행하는 로봇.A robot that performs a reaction action according to a user stimulus action comprising a. 제 12 항 또는 제 13 항에 있어서,The method according to claim 12 or 13, 상기 센싱 수단은, 카메라, 터치센서 및 마이크 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 사용자 자극행동에 따라 반응행동을 수행하는 로봇.The sensing means, the robot for performing a reaction behavior according to the user stimulus action, characterized in that it comprises at least one of a camera, a touch sensor and a microphone. 제 12 항 또는 제 13 항에 있어서,The method according to claim 12 or 13, 상기 출력 인터페이스부는, 스피커, 날개 모양의 귀, 상기 귀에 장착된 제 1 표시기, 안면부, 상기 안면부에 장착된 제 2 표시기 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 사용자 자극행동에 따라 반응행동을 수행하는 로봇.The output interface unit may include at least one of a speaker, a wing-shaped ear, a first indicator mounted on the ear, a face unit, and a second indicator mounted on the face unit to perform a reaction action according to a user stimulus action. Robot.
KR1020080005788A 2008-01-18 2008-01-18 Method of executing robot behavior based on user behavior and its robot KR100919095B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080005788A KR100919095B1 (en) 2008-01-18 2008-01-18 Method of executing robot behavior based on user behavior and its robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080005788A KR100919095B1 (en) 2008-01-18 2008-01-18 Method of executing robot behavior based on user behavior and its robot

Publications (2)

Publication Number Publication Date
KR20090079655A true KR20090079655A (en) 2009-07-22
KR100919095B1 KR100919095B1 (en) 2009-09-28

Family

ID=41290817

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080005788A KR100919095B1 (en) 2008-01-18 2008-01-18 Method of executing robot behavior based on user behavior and its robot

Country Status (1)

Country Link
KR (1) KR100919095B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013183822A1 (en) * 2012-06-07 2013-12-12 한국과학기술연구원 Apparatus for training sociability and a method therefor
KR20180129301A (en) 2017-05-26 2018-12-05 한국과학기술원 Method and apparatus for emulating behavior of robot
KR20200116185A (en) * 2019-03-13 2020-10-12 주식회사 티오이십일콤즈 Pet robot equipped with artificial intelligence
KR20210060802A (en) * 2019-11-19 2021-05-27 주식회사 와이닷츠 User interaction reaction robot

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772583B1 (en) * 2012-12-13 2017-08-30 한국전자통신연구원 Operating method of robot providing user interaction services
KR102140292B1 (en) * 2017-12-27 2020-07-31 (주) 퓨처로봇 System for learning of robot service and method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000326274A (en) * 1999-05-24 2000-11-28 Nec Corp Acting robot
JP2001353679A (en) * 2000-06-13 2001-12-25 Oki Electric Ind Co Ltd Robot for use as pet
JP2002127059A (en) * 2000-10-20 2002-05-08 Sony Corp Action control device and method, pet robot and control method, robot control system and recording medium
JP2004090109A (en) * 2002-08-29 2004-03-25 Sony Corp Robot device and interactive method for robot device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013183822A1 (en) * 2012-06-07 2013-12-12 한국과학기술연구원 Apparatus for training sociability and a method therefor
KR20180129301A (en) 2017-05-26 2018-12-05 한국과학기술원 Method and apparatus for emulating behavior of robot
KR20200116185A (en) * 2019-03-13 2020-10-12 주식회사 티오이십일콤즈 Pet robot equipped with artificial intelligence
KR20210060802A (en) * 2019-11-19 2021-05-27 주식회사 와이닷츠 User interaction reaction robot

Also Published As

Publication number Publication date
KR100919095B1 (en) 2009-09-28

Similar Documents

Publication Publication Date Title
US20230373097A1 (en) Control of social robot based on prior character portrayal
US8321221B2 (en) Speech communication system and method, and robot apparatus
CN107225578B (en) Robot control device, robot control method and system
KR100919095B1 (en) Method of executing robot behavior based on user behavior and its robot
CA2912243C (en) Immersive story creation
US10052769B2 (en) Robot capable of incorporating natural dialogues with a user into the behaviour of same, and methods of programming and using said robot
JP3159242B2 (en) Emotion generating apparatus and method
US7987091B2 (en) Dialog control device and method, and robot device
US20180117479A1 (en) Voice-Enabled Connected Smart Toy
EP3923198A1 (en) Method and apparatus for processing emotion information
CN105126355A (en) Child companion robot and child companioning system
US9805493B2 (en) Social identity models for automated entity interactions
CN108537321A (en) A kind of robot teaching's method, apparatus, server and storage medium
US20180204107A1 (en) Cognitive-emotional conversational interaction system
US20210151154A1 (en) Method for personalized social robot interaction
US20230260536A1 (en) Interactive artificial intelligence analytical system
WO2016206645A1 (en) Method and apparatus for loading control data into machine device
KR20200117712A (en) Artificial intelligence smart speaker capable of sharing feeling and emotion between speaker and user
JP2023016740A (en) Method, computer program and device for performing artificial intelligence-based video question answering in data processing system (neural-symbolic action transformers for video question answering)
Platz Design Beyond Devices: Creating Multimodal, Cross-device Experiences
CN113946222A (en) Control method, electronic device and computer storage medium
US20220009082A1 (en) Method for controlling a plurality of robot effectors
KR102637704B1 (en) Method For Providing Compliment Message To Child And Server Performing The Same
NL1042811B1 (en) A cognitive-emotional conversational interaction system.
Kraus User-centred Proactive Dialogue Modelling for Trustworthy Conversational Assistants

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120904

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130830

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140901

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160908

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20180903

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190807

Year of fee payment: 11