KR102636908B1 - Method and system for interaction between social robot and user based on non-verbal recognition - Google Patents

Method and system for interaction between social robot and user based on non-verbal recognition Download PDF

Info

Publication number
KR102636908B1
KR102636908B1 KR1020210163991A KR20210163991A KR102636908B1 KR 102636908 B1 KR102636908 B1 KR 102636908B1 KR 1020210163991 A KR1020210163991 A KR 1020210163991A KR 20210163991 A KR20210163991 A KR 20210163991A KR 102636908 B1 KR102636908 B1 KR 102636908B1
Authority
KR
South Korea
Prior art keywords
user
interaction
class
biometric information
intimacy
Prior art date
Application number
KR1020210163991A
Other languages
Korean (ko)
Other versions
KR20230077097A (en
Inventor
고광은
이동욱
이덕연
최동운
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020210163991A priority Critical patent/KR102636908B1/en
Publication of KR20230077097A publication Critical patent/KR20230077097A/en
Application granted granted Critical
Publication of KR102636908B1 publication Critical patent/KR102636908B1/en

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Manipulator (AREA)

Abstract

소셜 로봇과 사용자 간의 인터랙션을 위한 방법 및 시스템이 제공된다. 상기의 소셜 로봇은 적어도 하나 이상의 사용자들의 생체 정보를 학습하고, 인터랙션을 요청하는 사용자로부터 수집된 생체 정보와 학습된 생체 정보가 일치할 경우 친밀도 값을 부여하고, 부여된 친밀도 값에 따라 다수 사용자들의 친밀도 클래스를 분류하고, 분류된 친밀도 클래스 레벨에 따라 사용자 별 인터랙션의 우선순위를 정하거나, 또는 분류된 친밀도 클래스 레벨에 따라 수행 가능한 인터랙션의 종류를 정하도록 구성된다.A method and system for interaction between a social robot and a user are provided. The social robot learns the biometric information of at least one user, assigns an intimacy value when the biometric information collected from the user requesting interaction matches the learned biometric information, and interacts with multiple users according to the assigned intimacy value. It is configured to classify intimacy classes and prioritize interactions for each user according to the classified intimacy class level, or to determine the type of interaction that can be performed according to the classified intimacy class level.

Description

비언어적 인식에 기초하여 소셜 로봇과 사용자 간의 인터랙션을 위한 방법 및 시스템{METHOD AND SYSTEM FOR INTERACTION BETWEEN SOCIAL ROBOT AND USER BASED ON NON-VERBAL RECOGNITION}Method and system for interaction between social robot and user based on non-verbal recognition {METHOD AND SYSTEM FOR INTERACTION BETWEEN SOCIAL ROBOT AND USER BASED ON NON-VERBAL RECOGNITION}

본 발명은 소셜 로봇과 사용자 간의 인터랙션을 위한 방법 및 시스템에 관한 것이다.The present invention relates to a method and system for interaction between a social robot and a user.

최근 인공지능(artificial intelligence, AI) 기술의 발전에 따라 인간과 인터랙션(interaction)이 가능한 소셜 서비스 로봇의 연구가 활발히 이루어지고 있다. 특히 가정 내 소셜 로봇은 사용자에게 맞춤형 서비스를 기대할 것으로 기대된다. Recently, with the development of artificial intelligence (AI) technology, research on social service robots capable of interacting with humans is being actively conducted. In particular, social robots in the home are expected to provide customized services to users.

예를 들어 소셜 로봇은 인공지능 스피커, 가정용 로봇 청소기 등에 접목되거나, 사물 인터넷(IoT) 기술과 함께 IoT 허브로서 활용되는 방안이 대두되고 있다. 불특정 다수를 대상으로 하는 서비스형 로봇과 달리, 가정, 사무실 등의 공간에서 사용되는 소셜 로봇은 대체적으로 특정된 몇몇의 사용자에게 맞춤형 서비스를 제공한다는 점에서 특징적이다.For example, social robots are being applied to artificial intelligence speakers, home robot vacuum cleaners, etc., or are being used as IoT hubs along with Internet of Things (IoT) technology. Unlike service robots that target an unspecified number of people, social robots used in spaces such as homes and offices are characteristic in that they generally provide customized services to a few specific users.

한편 영상 인식 기술 및 데이터 처리 기술의 발달에 힘입어 영상 데이터에 기초해 사용자를 인식하거나, 분류하는 기술이 점차 상용화되고 있다. 예를 들어, 특허문헌 1은 카메라 등의 영상 획득 장치를 이용해 사용자를 인식하는 기술을 개시한다.Meanwhile, thanks to the development of image recognition technology and data processing technology, technology to recognize or classify users based on image data is gradually being commercialized. For example, Patent Document 1 discloses a technology for recognizing a user using an image acquisition device such as a camera.

미국등록특허공보 제7,930,555호, Image recognition, 2011.04.19U.S. Patent Publication No. 7,930,555, Image recognition, 2011.04.19

종래의 소셜 로봇은 사용자의 음성 인식에 기초한 것이었다. 즉, 사용자의 음성 정보를 수집하여 음성 정보에 담긴 지시의 의미에 따라 동작을 수행하는 것에 그치는 실정이었다. 이러한 음성 인식 기반 소셜 로봇의 예로는 인공지능 스피커 또는 스마트폰이나 차량에 탑재된 음성 인식 소프트웨어 등을 들 수 있다.Conventional social robots were based on user voice recognition. In other words, the situation was limited to collecting the user's voice information and performing actions according to the meaning of the instructions contained in the voice information. Examples of such voice recognition-based social robots include artificial intelligence speakers or voice recognition software installed in smartphones or vehicles.

그러나 사용자들의 서비스형 로봇에 대한 기대치 상승과 함께 종래에 비해 사용자 맞춤형 서비스에 대한 요구가 높아지고 있다. 뿐만 아니라, 소셜 로봇과 사용자 간의 정서적 교감까지도 요구된다. 그러나 사용자의 음성 인식에 기초한 소셜 로봇이 제공 가능한 기능에는 한계가 있다.However, as users' expectations for service robots rise, the demand for user-customized services is increasing compared to before. In addition, emotional communication between social robots and users is also required. However, there are limits to the functions that social robots based on user voice recognition can provide.

이에 본 발명은 비언어적 인식 내지는 비언어적 지시에 기초한 소셜 로봇을 제공하고자 한다. 앞서 설명한 것과 같이 다양한 종류의 소셜 로봇 중에서도, 가정이나 사무실 등에서 사용되는 소셜 로봇은 몇몇의 사용자들이 주로 이용한다는 점에서, 키오스크 서비스 등과 같이 불특정 다수를 대상으로 서비스를 제공하는 소셜 로봇과 차별화된다. 이러한 가정/사무실용 소셜 로봇은 소수의 사용자를 대상으로 한다는 점에서 특징적인 기술의 적용이 가능할 것으로 보인다.Accordingly, the present invention seeks to provide a social robot based on non-verbal recognition or non-verbal instructions. As described above, among various types of social robots, social robots used at home or in the office are differentiated from social robots that provide services to an unspecified number of people, such as kiosk services, in that they are mainly used by a few users. These home/office social robots seem to be capable of applying unique technologies in that they target a small number of users.

즉, 본 발명이 해결하고자 하는 과제는 사용자 편의가 향상되고 사용자 맞춤형 서비스를 제공할 수 있는 비언어적 동작 기반 소셜 로봇을 제공하는 것이다.In other words, the problem to be solved by the present invention is to provide a non-verbal motion-based social robot that improves user convenience and provides customized services to users.

또 본 발명이 해결하고자 하는 다른 과제는 사용자 편의가 향상되고 사용자 맞춤형 서비스를 제공할 수 있는 소셜 로봇의 제어 방법 내지는 동작 방법을 제공하는 것이다.Another problem that the present invention aims to solve is to provide a control method or operation method for a social robot that improves user convenience and provides customized services.

본 발명이 해결하고자 하는 또 다른 과제는 이러한 소셜 로봇을 포함하여 사람과 로봇 간의 비언어적 인터랙션을 위한 인터랙션 시스템을 제공하는 것이다.Another problem that the present invention aims to solve is to provide an interaction system for non-verbal interaction between people and robots, including such social robots.

본 발명의 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 소셜 로봇은 적어도 하나 이상의 사용자들의 생체 정보를 학습하고, 인터랙션을 요청하는 사용자로부터 수집된 생체 정보와 학습된 생체 정보가 일치할 경우 친밀도 값을 부여하고, 부여된 친밀도 값에 따라 다수 사용자들의 친밀도 클래스를 분류하고, 분류된 친밀도 클래스 레벨에 따라 사용자 별 인터랙션의 우선순위를 정하거나, 또는 분류된 친밀도 클래스 레벨에 따라 수행 가능한 인터랙션의 종류를 정하도록 구성된다.A social robot according to an embodiment of the present invention to solve the above problem learns the biometric information of at least one user, and sets an intimacy value when the biometric information collected from the user requesting interaction matches the learned biometric information. classifies the intimacy class of multiple users according to the assigned intimacy value, prioritizes interactions for each user according to the classified intimacy class level, or determines the types of interactions that can be performed according to the classified intimacy class level. It is configured to do so.

상기 소셜 로봇은 수집된 생체 정보에 따라 다수 사용자들의 연령 클래스를 더 분류하되, 상기 연령 클래스는 제1 레벨 연령 클래스 및 상기 제1 레벨 연령 클래스 보다 높은 권한을 갖는 제2 레벨 연령 클래스를 포함하고, 어느 인터랙션은, 기준 레벨 이상의 친밀도 클래스의 사용자 중, 제2 레벨 연령 클래스에 속하는 사용자에 의해서만 수행되도록 구성된다.The social robot further classifies the age classes of multiple users according to the collected biometric information, wherein the age classes include a first level age class and a second level age class with higher authority than the first level age class, A certain interaction is configured to be performed only by users belonging to the second level age class among users of the affinity class above the reference level.

상기 소셜 로봇은 수집된 생체 정보에 따라 다수 사용자들의 성별 클래스를 더 분류하되, 상기 성별 클래스는 제1 성별 클래스 및 제2 성별 클래스를 포함하고, 어느 인터랙션은, 기준 레벨 이상의 친밀도 클래스의 사용자 중, 제2 성별 클래스에 속하는 사용자에 의해서만 수행되도록 구성된다.The social robot further classifies the gender classes of multiple users according to the collected biometric information, where the gender classes include a first gender class and a second gender class, and in which interaction, among users of the intimacy class above the reference level, It is configured to be performed only by users belonging to the second gender class.

또, 상기 소셜 로봇은 제1 레벨 친밀도 클래스의 제1 사용자로부터 제1 인터랙션 요청을 수신하고, 소정의 인터벌 내에 제1 레벨 친밀도 클래스 보다 높은 제2 레벨 친밀도 클래스의 제2 사용자로부터 상기 제1 인터랙션과 상이한 제2 인터랙션 요청을 수신하는 경우, 제2 인터랙션을 우선 수행하도록 구성될 수 있다.In addition, the social robot receives a first interaction request from a first user of a first level intimacy class, and receives the first interaction request from a second user of a second level intimacy class higher than the first level intimacy class within a predetermined interval. When receiving a different second interaction request, it may be configured to perform the second interaction first.

상기 소셜 로봇은 제1 인터랙션 요청과 제2 인터랙션 요청이 상반되는 종류의 것일 때, 제1 인터랙션을 수행하지 않도록 구성될 수 있다.The social robot may be configured not to perform the first interaction when the first interaction request and the second interaction request are of conflicting types.

상기 인터랙션은 제한된 종류의 제한 인터랙션 및 그렇지 않은 범용 인터랙션을 포함할 수 있다.The interaction may include a limited type of restricted interaction and a non-general purpose interaction.

이 때 상기 소셜 로봇은 제1 레벨 친밀도 클래스의 제1 사용자로부터 제한 인터랙션 요청을 수신하는 경우 수행하지 않고, 제1 레벨 친밀도 클래스 보다 높은 제2 레벨 친밀도 클래스의 제2 사용자로부터 상기 제한 인터랙션 요청을 수신하는 경우 수행하도록 구성될 수 있다.At this time, the social robot does not perform the limited interaction request when receiving it from the first user of the first level intimacy class, but receives the limited interaction request from the second user of the second level intimacy class higher than the first level intimacy class. It can be configured to perform if so.

상기 인터랙션은 사용자의 음성 인식에 따라 수행 가능한 음성 인터랙션, 사용자의 비언어적 동작에 따라 수행 가능한 비언어적 인터랙션, 및 사용자의 음석 인식과 함께 비언어적 동작이 요구되는 복합 인터랙션을 포함할 수 있다.The interaction may include a voice interaction that can be performed based on the user's voice recognition, a non-verbal interaction that can be performed based on the user's non-verbal actions, and a complex interaction that requires non-verbal actions along with voice recognition of the user.

이 때 상기 소셜 로봇은 사용자로부터 복합 인터랙션 요청이 수신되는 경우, 음성 지시 및 비언어적 동작을 순차적으로 판별하여 복합 인터랙션을 수행하도록 구성될 수 있다.At this time, when a complex interaction request is received from a user, the social robot may be configured to sequentially determine voice instructions and non-verbal actions to perform complex interaction.

상기 생체 정보는 사용자의 눈동자 위치, 고개 방향, 팔의 위치, 손의 위치, 눈 깜빡임의 빈도, 목소리 파형, 홍채 정보, 안면 색상, 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치를 포함하여 수집될 수 있다.The biometric information may be collected including the user's eye position, head direction, arm position, hand position, eye blink frequency, voice waveform, iris information, facial color, eye corner position, eyebrow position, and mouth corner position.

또, 상기 눈동자 위치, 고개 방향, 팔의 위치 및 손의 위치는 적어도 지시 생체 정보로 정의되고, 상기 눈 깜빡임의 빈도, 목소리 파형, 홍채 정보 및 안면 색상은 적어도 사용자 식별 생체 정보로 정의되고, 상기 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치는 적어도 사용자 상태 생체 정보로 정의될 수 있다.In addition, the eye position, head direction, arm position, and hand position are defined as at least indicator biometric information, and the eye blink frequency, voice waveform, iris information, and facial color are defined as at least user identification biometric information, The eye corner position, eyebrow position, and mouth corner position may be defined as at least user state biometric information.

상기 소셜 로봇은 상기 상태 생체 정보에 기초하여, 로봇 선제적 인터랙션의 빈도를 결정하도록 구성될 수 있다.The social robot may be configured to determine the frequency of robot preemptive interaction based on the state biometric information.

상기 눈 깜빡임의 빈도는 사용자 상태 생체 정보로 더 정의되고, 눈 깜빡임의 빈도에 기초하여 로봇 선제적 인터랙션의 빈도를 더 결정하도록 구성될 수 있다.The frequency of eye blinking is further defined as user state biometric information, and may be configured to further determine the frequency of robot preemptive interaction based on the eye blinking frequency.

상기 인터랙션은, 적어도 사용자의 비언어적 동작에 기초한 비언어적 또는 복합 인터랙션을 포함하고, 상기 지시 생체 정보는 비언어적 또는 복합 인터랙션의 수행 여부를 결정함에 사용되도록 구성될 수 있다.The interaction may include at least a non-verbal or complex interaction based on a user's non-verbal movement, and the indicated biometric information may be configured to be used to determine whether to perform the non-verbal or complex interaction.

상기 다른 과제를 해결하기 위한 본 발명의 일 실시예에 따른 소셜 로봇의 제어 방법은 사용자로부터 인터랙션이 없는 상태에서 사용자의 생체 정보를 스캔하여 사용자 정보를 학습하는 단계; 사용자로부터 인터랙션 요청이 있는 경우, 요청한 사용자의 생체 정보를 스캔하여 학습된 생체 정보와 비교하는 단계; 스캔한 생체 정보와 학습된 생체 정보가 일치할 경우 친밀도 값을 부여하는 단계; 및 등록된 다수의 사용자들의 친밀도 값에 따라 다수 사용자들의 친밀도 클래스를 분류하는 단계를 포함한다.A method of controlling a social robot according to an embodiment of the present invention to solve the above other problems includes the steps of learning user information by scanning the user's biometric information in a state where there is no interaction from the user; When there is a request for interaction from a user, scanning biometric information of the requesting user and comparing it with learned biometric information; assigning an intimacy value when the scanned biometric information matches the learned biometric information; and classifying intimacy classes of multiple users according to the intimacy values of the multiple registered users.

몇몇 실시예에서, 상기 방법은 인터랙션의 종류를 분류하는 단계; 및 어느 사용자로부터 요청 받은 인터랙션의 종류와 상기 사용자의 친밀도 클래스를 비교하는 단계를 더 포함할 수 있다.In some embodiments, the method includes classifying a type of interaction; And it may further include comparing the type of interaction requested from a user with the intimacy class of the user.

또 상기 방법은 상기 친밀도 클래스 레벨에 기초하여 사용자 별 인터랙션의 우선순위를 결정하는 단계를 더 포함할 수 있다.Additionally, the method may further include determining the priority of interaction for each user based on the intimacy class level.

몇몇 실시예에서, 상기 방법은 사용자의 생체 정보에 기초하여 연령 클래스를 분류하는 단계; 사용자의 생체 정보에 기초하여 성별 클래스를 분류하는 단계; 및 분류된 연령 클래스의 레벨 또는 성별 클래스의 레벨에 따라 인터랙션 요청의 수행 여부를 결정하는 단계를 더 포함할 수 있다.In some embodiments, the method includes classifying an age class based on the user's biometric information; Classifying gender classes based on the user's biometric information; and determining whether to perform the interaction request according to the level of the classified age class or the level of the gender class.

사용자로부터 요청받은 인터랙션은, 사용자의 음성 인식에 따라 수행 가능한 음성 인터랙션, 사용자의 비언어적 동작에 따라 수행 가능한 비언어적 인터랙션, 및 사용자의 음성과 함께 비언어적 동작이 요구되는 복합 인터랙션을 포함하여 분류될 수 있다.Interactions requested from the user can be classified into voice interactions that can be performed based on the user's voice recognition, non-verbal interactions that can be performed based on the user's non-verbal actions, and complex interactions that require non-verbal actions along with the user's voice.

사용자로부터 음성에 기초한 인터랙션 요청이 수신되는 경우, 상기 방법은 음성 인터랙션으로 분류된 요청인지 또는 복합 인터랙션으로 분류된 요청인지 판단하는 단계; 및 복합 인터랙션으로 분류된 요청일 경우 소정의 인터벌 동안 사용자의 비언어적 동작 여부를 스캔하는 단계를 더 포함할 수 있다.When a voice-based interaction request is received from a user, the method includes determining whether the request is classified as a voice interaction or a complex interaction; And if the request is classified as a complex interaction, it may further include scanning whether the user's non-verbal behavior is present during a predetermined interval.

상기 비언어적 동작은 눈동자 위치, 고개 방향, 팔의 위치 및 손의 위치 중 적어도 하나를 포함할 수 있다.The non-verbal gesture may include at least one of eye position, head direction, arm position, and hand position.

사용자로부터 인터랙션이 없는 상태에서 사용자의 생체 정보를 스캔하는 단계는, 사용자의 눈 깜빡임의 빈도를 수집하는 것을 포함할 수 있다.The step of scanning the user's biometric information without interaction from the user may include collecting the frequency of the user's eye blinks.

이 때 상기 방법은 사용자의 눈 깜빡임의 빈도에 기초해 로봇 선제적 인터랙션의 빈도를 결정하는 단계를 더 포함할 수 있다.At this time, the method may further include determining the frequency of robot preemptive interaction based on the frequency of the user's eye blinks.

상기 또 다른 과제를 해결하기 위한 본 발명의 일 실시예에 따른 사용자-로봇 인터랙션 시스템은, 전술한 소셜 로봇; 및 하나 이상의 사물 인터넷 기기를 포함한다.A user-robot interaction system according to an embodiment of the present invention for solving the above-mentioned another problem includes the above-described social robot; and one or more Internet of Things devices.

소셜 로봇이 수집하는 생체 정보는 눈동자 위치, 고개 방향, 팔의 위치 및 손의 위치를 포함하는 지시 생체 정보를 포함할 수 있다.The biometric information collected by the social robot may include indicated biometric information including eye position, head direction, arm position, and hand position.

또, 사용자로부터 상기 사물 인터넷 기기와 관련한 지시 생체 정보가 수신되는 경우, 상기 사물 인터넷 기기를 동작시키는 것을 포함할 수 있다.In addition, when indicative biometric information related to the Internet of Things device is received from the user, it may include operating the Internet of Things device.

상기 또 다른 과제를 해결하기 위한 본 발명의 일 실시예에 따른 장치는 하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 인스트럭션을 실행하여 전술한 소셜 로봇의 제어 방법을 수행하는 프로세서를 포함한다.A device according to an embodiment of the present invention for solving the above-described still other problem includes a memory that stores one or more instructions, and a processor that executes the instructions stored in the memory to perform the above-described method of controlling a social robot.

기타 실시예의 구체적인 사항들은 상세한 설명에 포함되어 있다. Specific details of other embodiments are included in the detailed description.

본 발명의 실시예들에 따르면, 사용자의 생체 정보, 예컨대 신체적 특징에 기초하여 인터랙션을 반복할수록 소셜 로봇과 사용자 간의 친밀도 값을 산출할 수 있다. 이를 통해 소셜 로봇과 사용자 간의 친밀도 클래스를 분류하고, 이에 기초해 인터랙션 작업의 우선순위를 결정하거나, 또는 인터랙션 작업의 수행 가능 여부를 결정할 수 있다.According to embodiments of the present invention, the intimacy value between the social robot and the user can be calculated as the interaction is repeated based on the user's biometric information, for example, physical characteristics. Through this, the intimacy class between the social robot and the user can be classified, and based on this, the priority of the interaction task can be determined, or whether the interaction task can be performed.

따라서 소셜 로봇과의 협업 과정에서 자연스레 친밀도 값과 친밀도 클래스가 향상될 수 있고, 사용자로서는 소셜 로봇을 단순히 전자 기기가 아니라 일상 생활을 같이 하는 개체로 느끼고 정서적 교감을 달성할 수 있다.Therefore, in the process of collaborating with social robots, the intimacy value and intimacy class can naturally improve, and users can feel the social robot as an entity they share their daily lives with, rather than simply an electronic device, and achieve emotional communication.

특히 몇몇의 소수 사용자가 주로 소셜 로봇을 이용하는 경우, 친밀도가 충분히 누적되지 않은 타인, 예컨대 방문자 등이 소셜 로봇과 인터랙션하는 것을 막을 수 있다. 또는 몇몇의 소수 사용자 중에서도, 사용자 별로 분류된 클래스에 따라 인터랙션 가능한 작업과 그렇지 않은 작업을 분류하여 적합하지 않은 작업을 분류할 수 있고, 이에 따라 소셜 로봇이 일상 생활 속에 더욱 녹아 들도록 할 수 있다.In particular, when a small number of users mainly use the social robot, it is possible to prevent others with insufficient intimacy, such as visitors, from interacting with the social robot. Alternatively, even among a small number of users, it is possible to classify unsuitable tasks by classifying interactive tasks and non-interactable tasks according to the class classified for each user, thereby allowing social robots to be more integrated into daily life.

본 발명의 실시예들에 따른 효과는 이상에서 예시된 내용에 의해 제한되지 않으며, 더욱 다양한 효과들이 본 명세서 내에 포함되어 있다.Effects according to embodiments of the present invention are not limited to the contents exemplified above, and further various effects are included in the present specification.

도 1은 본 발명의 일 실시예에 따른 사용자-로봇 인터랙션 시스템의 구성도이다.
도 2는 도 1의 인터랙션 시스템의 소셜 로봇의 구성도이다.
도 3 내지 도 20은 본 발명의 일 실시예에 따른 소셜 로봇의 동작을 설명하기 위한 도면들이다.
1 is a configuration diagram of a user-robot interaction system according to an embodiment of the present invention.
FIG. 2 is a configuration diagram of the social robot of the interaction system of FIG. 1.
3 to 20 are diagrams for explaining the operation of a social robot according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 즉, 본 발명이 제시하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The advantages and features of the present invention and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms, and only the embodiments serve to ensure that the disclosure of the present invention is complete, and those skilled in the art It is provided to fully inform the person of the scope of the invention, and the present invention is only defined by the scope of the claims. That is, various changes may be made to the embodiments presented by the present invention. The embodiments described below are not intended to limit the embodiments, but should be understood to include all changes, equivalents, and substitutes therefor.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings that can be commonly understood by those skilled in the art to which the present invention pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

본 명세서에서, '및/또는'은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다. 또, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 본 명세서에서 사용되는 '포함한다(comprises)' 및/또는 '포함하는(comprising)'은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. '내지'를 사용하여 나타낸 수치 범위는 그 앞과 뒤에 기재된 값을 각각 하한과 상한으로서 포함하는 수치 범위를 나타낸다. '약' 또는 '대략'은 그 뒤에 기재된 값 또는 수치 범위의 20% 이내의 값 또는 수치 범위를 의미한다.As used herein, 'and/or' includes each and every combination of one or more of the mentioned items. Additionally, the singular form also includes the plural form unless specifically stated in the phrase. As used herein, 'comprises' and/or 'comprising' do not exclude the presence or addition of one or more other components in addition to the mentioned components. The numerical range expressed using 'to' indicates a numerical range that includes the values written before and after it as the lower limit and upper limit, respectively. ‘About’ or ‘approximately’ means a value or numerical range within 20% of the value or numerical range stated thereafter.

이하 첨부된 도면을 참조하여 본 발명에 대하여 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 사용자-로봇 인터랙션 시스템의 구성도이다.1 is a configuration diagram of a user-robot interaction system according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 따른 인터랙션 시스템(1)은 사용자들(20) 및 사용자들(20)과 언어적 및/또는 비언어적 동작이나 인식에 기초하여 인터랙션하는 소셜 로봇(10)을 포함하고, 소셜 로봇(10)에 의해 직간접적으로 제어되는 사물 인터넷 기기들(30)을 더 포함할 수 있다. 몇몇 실시예에서, 인터랙션 시스템(1)은 소셜 로봇(10)의 제어 내지는 설정을 위한 사용자 단말(40)을 더 포함할 수도 있다.Referring to FIG. 1, the interaction system 1 according to this embodiment includes users 20 and a social robot 10 that interacts with the users 20 based on verbal and/or non-verbal actions or recognition. And, it may further include Internet of Things devices 30 that are directly or indirectly controlled by the social robot 10. In some embodiments, the interaction system 1 may further include a user terminal 40 for controlling or setting the social robot 10.

사용자들(20)은 소셜 로봇(10)에 의해 등록된 등록 사용자를 의미할 수 있다. 사용자들(20)은 적어도 하나를 포함하여 복수의 사용자들로 구성될 수 있다. 몇몇 실시예에서, 인터랙션 시스템(1)은 미등록 사용자를 더 포함할 수 있다. 이에 대해서는 후술한다.Users 20 may refer to registered users registered by the social robot 10. Users 20 may be comprised of a plurality of users, including at least one user. In some embodiments, the interaction system 1 may further include unregistered users. This will be described later.

소셜 로봇(10)은 등록된 사용자들(20)과 인터랙션(interaction) 내지는 상호 작용하여 서비스를 제공하는 구성요소를 의미할 수 있다. 도 1 등은 소셜 로봇(10)이 디스플레이 장치에 의해 구현되는 안면 및 동작 가능한 암(arm) 등을 포함하여 대략 사람의 형상을 모사한 형태의 소셜 로봇을 예시하고 있으나, 본 발명이 이에 제한되는 것은 아니다. 다른 실시예에서 소셜 로봇(10)은 셋탑 박스, 스피커 등 이동하지 않는 전자 기기의 형태로 구현되거나, 로봇 청소기와 같이 이동하는 전자 기기의 형태로 구현되거나, 또는 TV, 냉장고 등 가전 제품 전자 기기가 소셜 로봇으로서의 기능을 겸할 수도 있다. 소셜 로봇(10)의 동작에 대해서는 상세하게 후술한다.The social robot 10 may refer to a component that provides services by interacting with registered users 20. 1 and the like illustrate a social robot 10 in a form that roughly imitates the shape of a human, including a face and operable arms implemented by a display device, but the present invention is not limited thereto. That is not the case. In another embodiment, the social robot 10 is implemented in the form of a non-moving electronic device such as a set-top box or speaker, a moving electronic device such as a robot vacuum cleaner, or a home appliance electronic device such as a TV or refrigerator. It can also function as a social robot. The operation of the social robot 10 will be described in detail later.

몇몇 실시예에서, 소셜 로봇(10)은 사물 인터넷 기기(30)들과 통신하며 사물 인터넷 허브로서 기능할 수 있다. 사물 인터넷 기기(30)는 가정 또는 사무실에 구비된 다양한 전자 기기를 포함할 수 있다. 예를 들어, 사물 인터넷 기기(30)는 TV, 모니터, 냉장고, 세탁기, 출입문 도어락, 보안 시스템, 출입 시스템, 전력 시스템, 가스 시스템, 인덕션, 조명, 에어컨, 난방 설비, 공기 정화 시스템, 공기 청정기, 스프링쿨러, 또는 승강기 등을 포함할 수 있다.In some embodiments, social robot 10 may communicate with Internet of Things devices 30 and function as an Internet of Things hub. The Internet of Things device 30 may include various electronic devices installed in a home or office. For example, the Internet of Things device 30 includes a TV, monitor, refrigerator, washing machine, door lock, security system, access system, power system, gas system, induction, lighting, air conditioner, heating equipment, air purification system, air purifier, It may include sprinklers, elevators, etc.

소셜 로봇(10)은 근거리 무선 통신을 이용해 사물 인터넷 기기(30)와 통신할 수 있다. 상기 근거리 무선 통신의 예로는 와이파이(Wireless-Fidelity, WiFi), WiFi-Direct, 와이브로(Wibro), 와이맥스(Wimax), Zigbee, Zigbee-mesh, 블루투스(Bluetooth), NFC, UWB 등을 들 수 있으나 본 발명이 이에 제한되지 않음은 물론이다.The social robot 10 can communicate with the Internet of Things device 30 using short-range wireless communication. Examples of the short-range wireless communication include Wireless-Fidelity (WiFi), WiFi-Direct, Wibro, Wimax, Zigbee, Zigbee-mesh, Bluetooth, NFC, and UWB, but this Of course, the invention is not limited thereto.

또 소셜 로봇(10)은 사용자 단말(40)과 통신할 수 있다. 사용자 단말(40)은 복수의 사용자들(20) 중 하나, 또는 일부, 또는 전부가 사용하는 사용자 단말(40)일 수 있다. 사용자 단말(40)은 스마트폰, 태블릿 PC, PC, 스마트 워치 등의 전자 기기를 포함할 수 있다. 본 발명에 따른 소셜 로봇(10)은 사용자의 직접적인 조작 없이 사용자와 상호 인터랙션을 수행하나, 소셜 로봇(10)의 직접적인 조작, 설정, 제어 등을 위해 사용자 단말(40)이 제공될 수 있다.Additionally, the social robot 10 can communicate with the user terminal 40. The user terminal 40 may be a user terminal 40 used by one, some, or all of the plurality of users 20 . The user terminal 40 may include electronic devices such as a smartphone, tablet PC, PC, and smart watch. The social robot 10 according to the present invention performs mutual interaction with the user without direct manipulation by the user, but a user terminal 40 may be provided for direct manipulation, settings, and control of the social robot 10.

본 실시예에 따른 인터랙션 시스템(1)에 따르면 사용자들(20)과 소셜 로봇(10)은 언어적 및/또는 비언어적 요청, 지시, 동작에 의해 인터랙션이 가능할 수 있다. 따라서 사용자로서는 종래에 비해 사용자 편의성이 개선되고, 소셜 로봇(10)과 정서적 교감을 달성할 수 있다. 또, 소셜 로봇(10)이 가정 등의 공간에서 사용되는 경우 가정 내 다양한 사물 인터넷 기기(30)의 IoT 허브로서의 기능을 제공할 수 있다.According to the interaction system 1 according to this embodiment, users 20 and the social robot 10 may be able to interact through verbal and/or non-verbal requests, instructions, and actions. Therefore, user convenience is improved compared to the prior art, and emotional communication with the social robot 10 can be achieved. In addition, when the social robot 10 is used in a space such as a home, it can provide a function as an IoT hub for various Internet of Things devices 30 in the home.

이하, 본 실시예에 따른 소셜 로봇(10)의 구성에 대해 보다 상세하게 설명한다.Hereinafter, the configuration of the social robot 10 according to this embodiment will be described in more detail.

도 2는 도 1의 인터랙션 시스템의 소셜 로봇의 구성도이다.FIG. 2 is a configuration diagram of the social robot of the interaction system of FIG. 1.

도 2를 더 참조하면, 본 실시예에 따른 소셜 로봇(10)은 프로세서(100), 메모리(200), 스토리지(300), 통신부(400), 입력부(500) 및 출력부(600)를 포함하고, 센서부(700)를 더 포함할 수 있다. 다만, 이와 같은 구성요소들은 소셜 로봇(10)에 포함된 다양한 구성요소들을 기능적으로 분리하여 예시한 것에 불과하므로, 실제 물리적 환경에서는 이하에서 설명되는 구성요소들이 서로 통합되어 구현될 수 있다. 또, 본 명세서에서 사용되는 용어 '~부'는 프로세서 또는 회로와 같은 하드웨어적 구성 및/또는 하드웨어적 구성에 의해 실행되는 소프트웨어적 구성을 포함하는 의미로 사용될 수 있다.Referring further to FIG. 2, the social robot 10 according to this embodiment includes a processor 100, memory 200, storage 300, communication unit 400, input unit 500, and output unit 600. And may further include a sensor unit 700. However, since these components are merely examples of the various components included in the social robot 10 by separating them functionally, in an actual physical environment, the components described below may be integrated and implemented with each other. Additionally, the term '~ part' used in this specification may be used to include a hardware configuration such as a processor or circuit and/or a software configuration executed by the hardware configuration.

프로세서(100)는 메모리(200)에 상주된 본 발명에 따른 방법이 구현된 소프트웨어(200s)에 따른 명령어를 기초로 본 발명에 따른 방법과 관련된 동작 및/또는 기능을 구현할 수 있다. 프로세서는 공지의 것을 이용할 수 있으나, 예를 들어 ASIC(Application-Specific Integrated Circuit), 또는 다른 칩셋(chipset), 논리 회로 및/또는 데이터 처리 장치를 통해 구현될 수 있다. 또 프로세서(100) 중 적어도 일부는 인공지능을 위한 전용 하드웨어 칩 형태로 제작될 수도 있다.The processor 100 may implement operations and/or functions related to the method according to the present invention based on instructions according to software 200s in which the method according to the present invention is implemented, which resides in the memory 200. The processor may use a known processor, but may be implemented through, for example, an Application-Specific Integrated Circuit (ASIC), or another chipset, logic circuit, and/or data processing device. Additionally, at least some of the processors 100 may be manufactured in the form of dedicated hardware chips for artificial intelligence.

메모리(200)에는 본 발명에 따른 방법이 구현된 소프트웨어(200s)가 상주(loading)될 수 있다. 메모리는 공지의 것을 이용할 수 있으나, 예를 들어 ROM(Read-Only Memory), RAM(Random Access Memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 통해 구현될 수 있다. 메모리(200)는 프로세서(100)의 내부 또는 외부에 있을 수 있고, 공지된 수단으로 프로세서(100)와 연결될 수 있다.Software 200s implementing the method according to the present invention may be loaded in the memory 200. The memory may use any known memory, but may be implemented through, for example, Read-Only Memory (ROM), Random Access Memory (RAM), flash memory, a memory card, a storage medium, and/or other storage devices. The memory 200 may be inside or outside the processor 100 and may be connected to the processor 100 by known means.

스토리지(300)는 본 발명에 따른 방법이 구현된 소프트웨어(300s)의 실행을 위해 필요한 애플리케이션 프로그래밍 인터페이스(API), 라이브러리(library), 리소스 파일(resource file) 등을 저장할 수 있다. 또, 스토리지(300)는 본 발명에 따른 방법이 구현된 소프트웨어(300s)를 저장할 수 있다. 또한 스토리지(300)는 본 발명에 따른 방법을 수행하기 위한 데이터 베이스(310)를 저장할 수 있다. The storage 300 may store application programming interfaces (APIs), libraries, resource files, etc. required for execution of software 300s in which the method according to the present invention is implemented. Additionally, the storage 300 can store software 300s in which the method according to the present invention is implemented. Additionally, the storage 300 may store a database 310 for performing the method according to the present invention.

여기서 데이터 베이스(310)는 사용자 등록 정보, 등록된 사용자의 생체 정보, 분류된 연령 클래스, 분류된 성별 클래스, 친밀도 값 정보, 분류된 친밀도 클래스, 인터랙션의 종류 등을 포함할 수 있으나, 본 발명이 이에 제한되는 것은 아니다.Here, the database 310 may include user registration information, biometric information of the registered user, classified age class, classified gender class, intimacy value information, classified intimacy class, type of interaction, etc., but the present invention It is not limited to this.

다만 본 실시예에 따른 데이터 베이스(310)가 위에 나열된 것에 제한되는 것은 아니며, 소셜 로봇(10)의 동작을 설명하기 위해 후술하는 것으로부터 더욱 상세한 데이터 베이스(310)의 내용이 이해될 수 있을 것이다.However, the database 310 according to this embodiment is not limited to those listed above, and more detailed contents of the database 310 can be understood from the description below to explain the operation of the social robot 10. .

메모리(200)에 상주되거나 스토리지(300)에 저장된 소프트웨어(300s)는 사용자로부터 인터랙션이 없는 상태에서 사용자의 생체 정보를 스캔하여 사용자 정보를 학습하는 단계, 사용자로부터 인터랙션 요청이 있는 경우, 요청한 사용자의 생체 정보를 스캔하여 학습된 생체 정보와 비교하는 단계, 스캔한 생체 정보와 학습된 생체 정보가 일치할 경우 친밀도 값을 부여하는 단계, 및 등록된 다수의 사용자들의 친밀도 값에 따라 다수 사용자들의 친밀도 클래스를 분류하는 단계를 포함하는 본 발명에 따른 방법을 실행시키기 위해 기록 매체에 기록된 컴퓨터 프로그램이 될 수 있다. The software 300s, which resides in the memory 200 or stored in the storage 300, scans the user's biometric information in the absence of user interaction to learn user information. When there is an interaction request from the user, the requested user's A step of scanning biometric information and comparing it with learned biometric information, assigning an intimacy value if the scanned biometric information matches the learned biometric information, and intimacy classes of multiple users according to the intimacy values of multiple registered users. It may be a computer program recorded on a recording medium to execute the method according to the present invention including the step of classifying.

몇몇 실시예에서, 상기 방법은 인터랙션의 종류를 분류하는 단계, 어느 사용자로부터 요청 받은 인터랙션의 종류와 상기 사용자의 친밀도 클래스를 비교하는 단계, 상기 친밀도 클래스 레벨에 기초하여 사용자 별 인터랙션의 우선순위를 결정하는 단계, 사용자의 생체 정보에 기초하여 연령 클래스를 분류하는 단계, 사용자의 생체 정보에 기초하여 성별 클래스를 분류하는 단계, 분류된 연령 클래스의 레벨 또는 성별 클래스의 레벨에 따라 인터랙션 요청의 수행 여부를 결정하는 단계, 사용자로부터 음성에 기초한 인터랙션 요청이 수신되는 경우, 음성 인터랙션으로 분류된 요청인지 또는 복합 인터랙션으로 분류된 요청인지 판단하는 단계, 복합 인터랙션으로 분류된 요청일 경우 소정의 인터벌 동안 사용자의 비언어적 동작 여부를 스캔하는 단계, 및 사용자의 눈 깜빡임의 빈도에 기초해 로봇 선제적 인터랙션의 빈도를 결정하는 단계 등을 더 포함할 수 있다. In some embodiments, the method includes classifying the type of interaction, comparing the type of interaction requested from a user with the intimacy class of the user, and determining the priority of interaction for each user based on the intimacy class level. A step of classifying an age class based on the user's biometric information, a step of classifying a gender class based on the user's biometric information, and determining whether to perform an interaction request according to the level of the classified age class or the level of the gender class. Determining step, when a voice-based interaction request is received from the user, determining whether the request is classified as a voice interaction or a complex interaction. If the request is classified as a complex interaction, the user's non-verbal It may further include scanning for operation and determining the frequency of robot preemptive interaction based on the frequency of the user's eye blinks.

다만 본 실시예에 따른 방법이 위에 나열된 것에 제한되는 것은 아니며, 소셜 로봇(10)의 동작을 설명하기 위해 후술하는 것으로부터 더욱 상세한 방법의 내용이 이해될 수 있을 것이다.However, the method according to this embodiment is not limited to those listed above, and more detailed content of the method can be understood from the following description to explain the operation of the social robot 10.

본 발명에 따른 방법은 하드웨어(hardware), 펌웨어(firmware), 소프트웨어(software) 또는 그것들의 결합에 의해 구현될 수 있다. 예를 들어 하드웨어로 구현되는 경우 프로세서(100)에 의해 구현되는 것으로 이해될 수 있다. 다른 예를 들어 소프트웨어로 구현되는 경우, 전술한 방법은 후술할 기능들을 수행하는 모듈, 예컨대 과정 또는 기능 등으로 구현될 수 있다. 상기 모듈은 메모리(200)에 상주되고 프로세서(100)에 의해 실행될 수 있다. 즉, 하드웨어 장치는 본 발명에 따른 동작을 수행하기 위해 하나 이상의 소프트웨어로서 작동하도록 구성될 수 있고, 그 역도 마찬가지로 이해될 수 있다.The method according to the present invention may be implemented by hardware, firmware, software, or a combination thereof. For example, when implemented as hardware, it may be understood as being implemented by the processor 100. For another example, when implemented as software, the above-described method may be implemented as a module, such as a process or function, that performs functions to be described later. The module resides in memory 200 and can be executed by processor 100. That is, it can be understood that a hardware device can be configured to operate as one or more software to perform operations according to the present invention, and vice versa.

또한 펌웨어나 소프트웨어에 의한 구현의 경우 본 발명에 따른 방법은 후술할 기능 또는 동작들을 수행하는 모듈, 절차, 또는 함수 등의 형태로 구현되어 다양한 컴퓨터 수단을 통해 판독 가능한 기록 매체에 기록될 수 있다. 여기서 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독 또는 조합하여 포함할 수 있다. 기록 매체에 기록되는 프로그램 명령은 본 발명을 위해 특별히 설계되고 구성된 것들이거나, 컴퓨터 소프트웨어 기술분야에 속하는 통상의 기술자에게 공지되어 사용 가능한 것일 수 있다. 프로그램 명령의 예로는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드 뿐 아니라 인터프리터 등을 사용해 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Additionally, in the case of implementation using firmware or software, the method according to the present invention may be implemented in the form of a module, procedure, or function that performs functions or operations described later and recorded on a recording medium readable through various computer means. Here, the recording medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the recording medium may be those specifically designed and configured for the present invention, or may be known and usable by those skilled in the art of computer software technology. Examples of program instructions may include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

한편, 통신부(400)는 소셜 로봇(10)이 다른 장치, 예컨대 사물 인터넷 기기(30), 사용자 단말(40) 및/또는 서버(미도시)와 데이터를 송수신할 수 있다. 통신부(400)는 근거리 통신 유닛(410) 및/또는 이동 통신 유닛(430)을 포함할 수 있다.Meanwhile, the communication unit 400 allows the social robot 10 to transmit and receive data with other devices, such as the Internet of Things device 30, the user terminal 40, and/or a server (not shown). The communication unit 400 may include a short-range communication unit 410 and/or a mobile communication unit 430.

전술한 것과 같이 근거리 통신 유닛(410)은 사물 인터넷 기기(30) 등과 통신하기 위해 제공될 수 있다. 근거리 통신 유닛(410)의 통신 방법에 대해서는 전술한 바 있으므로 중복되는 설명은 생략한다.As described above, the short-range communication unit 410 may be provided to communicate with the Internet of Things device 30, etc. Since the communication method of the short-range communication unit 410 has been described above, redundant description will be omitted.

이동 통신 유닛(430)은 이동 통신망 또는 공용 유선 통신망 중 하나 이상이 조합된 통신망을 이용하여 기지국, 외부 단말 또는 외부 서버 중 적어도 하나와 데이터를 송수신할 수 있다. 이동 통신망의 예로는 코드 분할 다중 접속(CDMA), 와이드 밴드 코드 분할 다중 접속(WCDMA), 고속 패킷 접속(HSPA), 롱텀 에볼루션(LTE) 등을 들 수 있다. 또, 공용 유선 통신망의 예로는 이더넷(Ethernet), 디지털가입자선(xDSL), 광동축 혼합망(HFC), 광가입자망(FTTH) 등을 들 수 있다. 이동 통신망을 이용해 사용자 단말(40)과 통신하거나, 또는 현재 시간, 날씨 정보 등의 데이터를 수집할 수 있다.The mobile communication unit 430 may transmit and receive data with at least one of a base station, an external terminal, or an external server using a communication network that is a combination of one or more of a mobile communication network or a public wired communication network. Examples of mobile communication networks include Code Division Multiple Access (CDMA), Wide Band Code Division Multiple Access (WCDMA), High Speed Packet Access (HSPA), and Long Term Evolution (LTE). In addition, examples of public wired communication networks include Ethernet, digital subscriber line (xDSL), hybrid optical coaxial network (HFC), and optical subscriber network (FTTH). You can communicate with the user terminal 40 using a mobile communication network, or collect data such as current time and weather information.

입력부(500)는 소셜 로봇(10)이 외부 환경을 인식하거나, 또는 사용자(20)로부터 조작 트리거에 관한 신호를 입력받을 수 있다. 입력부(500)는 카메라(510), 마이크로폰(530) 및/또는 터치 패널(550) 등을 포함할 수 있다. The input unit 500 allows the social robot 10 to recognize the external environment or receives a signal regarding a manipulation trigger from the user 20 . The input unit 500 may include a camera 510, a microphone 530, and/or a touch panel 550.

카메라(510)는 영상 인식 유닛을 총칭한다. 소셜 로봇(10)은 카메라(510)를 이용해 사용자의 얼굴, 표정, 체형, 홍채 정보 등 생체 정보 및 주변 환경에 관한 데이터를 수집할 수 있다. 구체적으로, 카메라(510)는 이미지 센서를 이용해 정지 영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 카메라(510)는 소셜 로봇(10)의 안면 부위에 배치된 디스플레이 패널(610)에 인접해 위치할 수 있다.Camera 510 is a general term for an image recognition unit. The social robot 10 can use the camera 510 to collect biometric information such as the user's face, expression, body shape, and iris information and data about the surrounding environment. Specifically, the camera 510 can obtain image frames such as still images or moving images using an image sensor. The camera 510 may be located adjacent to the display panel 610 disposed on the facial area of the social robot 10.

마이크로폰(530)은 음성 인식 유닛을 총칭한다. 소셜 로봇(10)은 마이크로폰(530)을 이용해 사용자의 음성 정보를 수집할 수 있다. 수집된 음성 정보는 전기적인 음성 데이터로 처리될 수 있다. 여기서 사용자의 음성 정보는 사용자의 지시 인터랙션이 포함된 정보 및 사용자의 식별을 위한 목소리의 파형 정보를 포함할 수 있다. 이에 대해서는 후술한다.Microphone 530 is a general term for voice recognition units. The social robot 10 can collect the user's voice information using the microphone 530. The collected voice information can be processed into electrical voice data. Here, the user's voice information may include information including the user's instruction interaction and voice waveform information for user identification. This will be described later.

터치 패널(550)은 사용자(20)의 터치 조작에 의해 입력 정보를 수신하는 유닛을 총칭한다. 터치 패널(550)은 후술할 디스플레이 패널(610)과 결합되거나, 내장되어 구현될 수 있다.The touch panel 550 is a general term for a unit that receives input information through a touch operation by the user 20. The touch panel 550 may be implemented by being combined with or built into the display panel 610, which will be described later.

도면으로 표현하지 않았으나, 입력부(500)는 전술한 유닛들 외에도 마우스, 키보드 등과 연결되기 위한 USB 단자 등을 더 포함할 수도 있다.Although not shown in the drawing, the input unit 500 may further include a USB terminal for connection to a mouse, keyboard, etc. in addition to the units described above.

출력부(600)는 소셜 로봇(10)이 출력하는 데이터 또는 소셜 로봇(10)의 현재 상태, 또는 알람 등을 사람이 인식할 수 있는 형태로 구현할 수 있다. 출력부(600)는 디스플레이 패널(610), 스피커(630) 및/또는 진동 유닛(650) 등을 포함할 수 있다.The output unit 600 may implement data output by the social robot 10, the current state of the social robot 10, or an alarm in a form that can be recognized by humans. The output unit 600 may include a display panel 610, a speaker 630, and/or a vibration unit 650.

디스플레이 패널(610)은 영상 출력 유닛을 총칭한다. 디스플레이 패널(610)은 소셜 로봇(10)이 사용자에게 전달하고자 하는 정보를 시각적인 형태로 표시할 수 있다. 몇몇 실시예에서, 디스플레이 패널(610)은 소셜 로봇(10)의 안면 부위에 배치될 수 있고, 디스플레이 패널(610)을 활용해 소셜 로봇(10)의 가상의 눈(eye) 등과 같이 표정을 디스플레이하여 사용자(20)와 소셜 로봇(10) 간의 정서적 교감을 증진시킬 수 있다.The display panel 610 is a general term for an image output unit. The display panel 610 can display information that the social robot 10 wants to convey to the user in a visual form. In some embodiments, the display panel 610 may be placed on the facial area of the social robot 10, and the display panel 610 may be used to display facial expressions such as virtual eyes of the social robot 10. Thus, emotional communication between the user 20 and the social robot 10 can be improved.

스피커(630)는 음성 출력 유닛을 총칭한다. 스피커(630)는 소셜 로봇(10)이 사용자에게 전달하고자 하는 정보를 청각적인 형태로 표현할 수 있다.Speaker 630 is a general term for an audio output unit. The speaker 630 can express information that the social robot 10 wants to convey to the user in an auditory form.

진동 유닛(650)은 진동 모터 등을 포함하여 구현될 수 있다. 진동 유닛(650)은 소셜 로봇(10)이 사용자에게 알람을 제공하는 등의 경우 청각적 및 촉각적인 정보를 제공할 수 있다.The vibration unit 650 may be implemented including a vibration motor, etc. The vibration unit 650 may provide auditory and tactile information when the social robot 10 provides an alarm to the user.

센서부(700)는 소셜 로봇(10)이 주변의 다양한 환경 자극을 수집할 수 있다. 센서부(700)는 전술한 어느 구성요소, 예컨대 카메라(510), 터치 패널(550) 등과 통합되어 구현될 수도 있으나 본 발명이 이에 제한되는 것은 아니다. 센서부(700)는 온도 센서, 습도 센서, 가스 센서, 생체 센서, 근접 센서, 조도 센서, 자이로 센서 및/또는 제스쳐 센서를 포함할 수 있다. 전술한 센서들은 공지의 것을 이용할 수 있으며, 그 명칭으로부터 센서들의 기능을 직관적으로 추론할 수 있으므로 구체적인 설명은 생략한다.The sensor unit 700 can collect various environmental stimuli around the social robot 10. The sensor unit 700 may be implemented by being integrated with any of the above-described components, such as the camera 510 and the touch panel 550, but the present invention is not limited thereto. The sensor unit 700 may include a temperature sensor, a humidity sensor, a gas sensor, a biometric sensor, a proximity sensor, an illumination sensor, a gyro sensor, and/or a gesture sensor. The above-mentioned sensors can be used as known sensors, and the functions of the sensors can be intuitively inferred from their names, so detailed descriptions are omitted.

예시적인 실시예에서, 생체 센서는 사용자의 생체 정보를 수집하여 처리할 수 있다. 예를 들어, 생체 센서는 카메라(510) 등을 통해 수집된 사용자의 홍채 정보를 처리할 수 있다. 또, 제스쳐 센서는 카메라(510) 등을 통해 수집된 사용자의 동작의 유무 또는 동작의 형태를 처리할 수 있다.In an exemplary embodiment, the biometric sensor may collect and process the user's biometric information. For example, the biometric sensor may process the user's iris information collected through the camera 510, etc. Additionally, the gesture sensor can process the presence or absence of a user's motion or the type of motion collected through the camera 510 or the like.

데이터 버스(800)는 프로세서(100), 메모리(200), 스토리지(300), 통신부(400), 입력부(500), 출력부(600), 센서부(700) 및/또는 기타의 구성요소들과 연결되어 각 구성요소 사이가 서로 데이터를 전달하기 위한 이동 통로의 역할을 수행할 수 있다.The data bus 800 includes a processor 100, memory 200, storage 300, communication unit 400, input unit 500, output unit 600, sensor unit 700, and/or other components. It is connected to and can serve as a moving path to transmit data between each component.

본 실시예에 따른 소셜 로봇(10)은 본 발명에 따른 방법을 구현하기 위한 논리적 구성부를 포함할 수 있다. 상기 논리적 구성부의 예로는 사용자 등록부, 사용자 인식부, 친밀도 값 산술부, 친밀도 클래스 판별부, 성별 클래스 판별부, 연령 클래스 판별부, 통신부(400), 입력부(500), 출력부(600), 센서부(700) 등이 될 수 있으나, 본 발명이 이에 제한되지 않음은 물론이다.The social robot 10 according to this embodiment may include a logical component for implementing the method according to the present invention. Examples of the logical components include a user registration unit, a user recognition unit, an intimacy value arithmetic unit, an intimacy class determination unit, a gender class determination unit, an age class determination unit, a communication unit 400, an input unit 500, an output unit 600, and a sensor. It may be unit 700, etc., but of course, the present invention is not limited thereto.

이하에서 본 발명의 일 실시예에 따른 소셜 로봇(10)의 동작 방법 내지는 제어 방법과 관련된 특징들, 이것을 이용한 소셜 로봇(10)과 사용자 간의 인터랙션, 그리고 이로 인한 사용자 편의적 상승 효과에 대해 구체적으로 설명한다.Hereinafter, features related to the operation method or control method of the social robot 10 according to an embodiment of the present invention, interaction between the social robot 10 and the user using this, and the resulting increased user convenience effect will be described in detail. do.

도 3 내지 도 20은 본 발명의 일 실시예에 따른 소셜 로봇의 동작을 설명하기 위한 도면들이다.3 to 20 are diagrams for explaining the operation of a social robot according to an embodiment of the present invention.

우선 도 3 및 도 4를 참조하면, 소셜 로봇(10)은 주기적 또는 비주기적으로, 지속적으로 사용자들의 생체 정보를 스캔하며(S110) 각 사용자별 생체 정보를 데이터 베이스에 저장하고 누적하여 학습할 수 있다(S210). 본 발명이 이에 제한되는 것은 아니나, 소셜 로봇(10)은 주로 사용자들로부터 요청 사항이나 지시 사항이 없는 경우, 즉 사용자 선제적 인터랙션이 없는 상태에서 사용자들의 생체 정보를 학습할 수 있다.First, referring to FIGS. 3 and 4, the social robot 10 continuously scans the biometric information of users periodically or aperiodically (S110), stores the biometric information for each user in a database, and can learn by accumulating it. There is (S210). Although the present invention is not limited to this, the social robot 10 can learn biometric information of users mainly in the absence of requests or instructions from users, that is, in the absence of user preemptive interaction.

여기서 소셜 로봇(10)이 학습하는 사용자의 생체 정보는 사용자의 눈동자 위치, 고개 방향, 팔의 위치, 손의 위치, 눈 깜빡임의 빈도, 목소리 파형, 홍채 정보, 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치를 포함할 수 있다. Here, the user's biometric information learned by the social robot 10 includes the user's eye position, head direction, arm position, hand position, eye blink frequency, voice waveform, iris information, eye corner position, eyebrow position, and mouth corner position. It can be included.

더 구체적으로, 소셜 로봇(10)이 학습하는 사용자의 생체 정보는 눈 깜빡임의 빈도, 목소리 파형 및 홍채 정보, 상기 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치를 포함할 수 있다. 이와 같은 정보들은 적어도 사용자를 식별하거나, 또는 사용자의 상태를 파악하기 위해 사용될 수 있다. More specifically, the user's biometric information learned by the social robot 10 may include eye blink frequency, voice waveform, iris information, eye corner position, eyebrow position, and mouth corner position. Such information can be used to at least identify the user or determine the user's status.

즉, 소셜 로봇(10)에 의해 수집되는 눈동자 위치, 고개 방향, 팔의 위치, 손의 위치, 눈 깜빡임의 빈도, 목소리 파형, 홍채 정보, 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치 등의 생체 정보는 지시 생체 정보, 식별 생체 정보 및 상태 생체 정보 중 적어도 하나로 분류되어 정의될 수 있다.That is, biometric information such as eye position, head direction, arm position, hand position, eye blink frequency, voice waveform, iris information, eye corner position, eyebrow position, and mouth corner position collected by the social robot 10 is indicated. It may be classified and defined as at least one of biometric information, identification biometric information, and status biometric information.

구체적으로, 상기 눈동자 위치, 고개 방향, 팔의 위치 및 손의 위치는 지시 생체 정보로 정의될 수 있다. 다만 본 발명이 이에 제한되는 것은 아니다. 지시 생체 정보에 대해서는 도 15 등과 함께 후술한다.Specifically, the eye position, head direction, arm position, and hand position may be defined as indicated biometric information. However, the present invention is not limited thereto. The indicated biometric information will be described later along with FIG. 15 and the like.

또, 상기 눈 깜빡임의 빈도, 목소리 파형, 홍채 정보 및 안면 색상은 적어도 사용자 식별 생체 정보로 정의될 수 있다. 사용자 식별 생체 정보는 사용자를 등록하거나, 후술할 친밀도 값을 부여하고, 분류된 클래스에 일치하는지 여부 등을 판단하기 위해 사용되는 정보일 수 있다.Additionally, the eye blink frequency, voice waveform, iris information, and facial color may be defined as at least user identification biometric information. User identification biometric information may be information used to register a user, assign an intimacy value to be described later, and determine whether the user matches a classified class.

또한 상기 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치는 적어도 사용자 상태 생체 정보로 정의될 수 있다. 사용자 상태 생체 정보는 사용자의 현재 상태를 추론하기 위해 사용되는 정보일 수 있다. 전술한 눈 깜빡임의 빈도는 사용자 상태 식별 정보로도 이용될 수 있다.Additionally, the eye corner position, eyebrow position, and mouth corner position may be defined as at least user state biometric information. User status biometric information may be information used to infer the user's current status. The above-mentioned eye blink frequency can also be used as user state identification information.

사람 별로 목소리의 파형과 홍채 정보, 안면 색상, 나아가 눈코입의 위치를 이용한 안면 형상이 상이하여 이들이 사람 별 식별 표지로 이용할 수 있음은 이미 알려져 있다. 또, 이러한 사람별 목소리의 차이, 홍채의 차이, 안면 색상 또는 안면 형상의 차이를 이용해 사용자를 식별하는 기술이 개발된 바 있다. 본 발명은 이에 더하여, 눈 깜빡임의 빈도를 이용해 사용자를 식별하는 것을 제안한다.It is already known that the voice waveform, iris information, facial color, and facial shape using the positions of the eyes, nose, and mouth are different for each person, and that these can be used as identification marks for each person. In addition, technology has been developed to identify users using differences in voice, iris, facial color, or facial shape. In addition, the present invention proposes identifying the user using the frequency of eye blinks.

사용자 식별 기술이 주로 적용되는 스마트폰 등은 사용자가 스마트폰을 대면하는 시간이 그리 길지 않다. 따라서 눈 깜빡임의 빈도를 기초로 사용자를 식별하고자 하는 필요성이 제안된 바 없거나, 적어도 눈 깜빡임의 빈도를 이용해 사용자를 식별하는 것이 곤란하였다. 그러나 본 발명과 같은 가정/사무실에서 사용되는 소셜 로봇(10)은 동일 공간 내에서 사용자의 위치를 추적하며 지속적으로 사용자의 눈 깜빡임을 관찰할 수 있다. 또한 사람 별로 눈을 깜빡이는 빈도수에는 차이가 있기 때문에 이를 이용해 사용자를 식별하거나, 적어도 다른 생체 정보, 예컨대 목소리나 안면 형상에 더해 보조적으로 사용되어 사용자를 식별할 수 있다.For smartphones, where user identification technology is mainly applied, the time the user spends facing the smartphone is not very long. Therefore, the need to identify users based on the frequency of eye blinks has not been proposed, or at least it has been difficult to identify users using the frequency of eye blinks. However, the social robot 10 used in home/office, such as the present invention, can track the user's location within the same space and continuously observe the user's eye blinks. Additionally, since there are differences in the frequency of eye blinks for each person, this can be used to identify the user, or at least can be used as an auxiliary method in addition to other biometric information, such as voice or facial shape, to identify the user.

사용자를 스캔(S110)한 후 데이터 베이스에 일치하는 사용자가 없을 경우, 예컨대 소셜 로봇(10)의 초기 상태, 또는 가족 구성원 외 방문자가 방문하는 등의 경우 수집된 생체 정보를 기초로 신규 사용자로 등록한다(S220). 즉, 소셜 로봇(10)은 어느 사용자를 특정하기에 충분한 정도로 생체 정보가 수집되어 사용자로서 인식된 사용자를 사용자로 등록하고, 등록된 사용자의 수를 파악할 수 있다.If there is no matching user in the database after scanning the user (S110), for example, in the initial state of the social robot 10 or when a visitor other than a family member visits, register as a new user based on the collected biometric information. Do it (S220). In other words, the social robot 10 can register a user recognized as a user by collecting biometric information to a sufficient extent to specify a certain user, and determine the number of registered users.

또 소셜 로봇(10)은 기 사용자로 등록된 사용자, 즉 데이터 베이스 내 생체 정보가 존재하는 사용자에 대한 스캔(S110)이 누적됨에 따라 학습 결과에 누적 반영할 수 있다(S210).In addition, the social robot 10 can cumulatively reflect the scans (S110) of users registered as existing users, that is, users whose biometric information exists in the database, in the learning results (S210).

한편, 소셜 로봇(10)은 수집된 생체 정보들의 데이터 베이스에 기초하여 사용자 별 친밀도 클래스, 성별 클래스 및/또는 연령 클래스를 분류할 수 있다(S300). Meanwhile, the social robot 10 may classify the intimacy class, gender class, and/or age class for each user based on a database of collected biometric information (S300).

예컨대 소셜 로봇(S10)은 수집된 생체 정보들의 데이터 베이스에 기초하여 사용자들의 연령 클래스를 분류할 수 있다. 여기서 연령 클래스는 연령의 많고 적음에 따른 분류일 수 있다. 예를 들어, 영유아는 제1 레벨 연령 클래스, 아동이나 어린이는 제2 레벨 클래스, 청년 등의 성인 이상의 연령은 제3 레벨 클래스로 분류할 수 있다.For example, the social robot S10 may classify users' age classes based on a database of collected biometric information. Here, the age class may be a classification based on age. For example, infants and toddlers can be classified into the first level age class, children or young children can be classified into the second level class, and adults and older adults such as young adults can be classified into the third level class.

연령 클래스의 분류는 사용자의 목소리, 외형, 기타 신체적 특징 등에 따라 소셜 로봇(10)이 학습할 수 있으나, 다른 실시예에서 연령 클래스는 사용자 단말(40) 등을 이용해 사용자가 직접 입력하거나 수정할 수도 있다.Classification of age classes can be learned by the social robot 10 based on the user's voice, appearance, and other physical characteristics. However, in other embodiments, age classes may be directly entered or modified by the user using the user terminal 40, etc. .

또, 소셜 로봇(10)은 수집된 생체 정보들의 데이터 베이스에 기초하여 사용자들의 성별 클래스를 분류할 수 있다. 여기서 성별 클래스는 남자, 또는 여자, 또는 그 이외의 성별로 분류될 수 있다. 마찬가지로 성별 클래스의 분류는 사용자의 목소리, 외형, 기타 신체적 특징 등에 따라 소셜 로봇(10)이 학습할 수 있으나, 다른 실시예에서 성별 클래스는 사용자 단말(40) 등을 이용해 사용자가 직접 입력하거나 수정할 수도 있다.Additionally, the social robot 10 can classify users' gender classes based on a database of collected biometric information. Here, the gender class can be classified as male, female, or other genders. Likewise, the social robot 10 can learn the classification of the gender class based on the user's voice, appearance, and other physical characteristics, but in another embodiment, the gender class may be directly entered or modified by the user using the user terminal 40, etc. there is.

친밀도 클래스에 대해서는 도 5와 함께 설명한다.The intimacy class will be explained with Figure 5.

사용자들로부터 사용자 인터랙션이 없거나, 충분히 인터랙션 요청이 축적되지 않은 경우, 소셜 로봇(10)이 저장한 사용자 별 클래스는 존재하지 않을 수 있다. If there is no user interaction from users or if interaction requests are not sufficiently accumulated, the class for each user stored by the social robot 10 may not exist.

여기서 학습은 신경망(neural network)을 기반으로 하는 인공지능 학습 모델에 의해 이루어질 수 있다. 예컨대 DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network) 등의 모델이 데이터 인식 모델로 사용될 수 있으나, 본 발명이 이에 제한되는 것은 아니다. 상기 인공지능 학습 모델이 전술하거나 후술할 사용자별 특징을 기초로 학습을 수행하는 것임은 자명하다.Here, learning can be accomplished by an artificial intelligence learning model based on a neural network. For example, models such as Deep Neural Network (DNN), Recurrent Neural Network (RNN), and Bidirectional Recurrent Deep Neural Network (BRDNN) may be used as data recognition models, but the present invention is not limited thereto. It is clear that the artificial intelligence learning model performs learning based on user-specific characteristics, which will be described above or later.

이어서 도 5 및 도 6을 더 참조하면, 사용자로부터 인터랙션 내지는 인터랙션 요청이 있는 경우(S120) 소셜 로봇(10)은 요청한 사용자를 식별하고(S130), 요청한 사용자의 생체 정보를 또 한번 스캔하한 후 스캔된 사용자의 생체 정보와 저장 내지는 학습된 사용자의 생체 정보를 비교한다(S205). Next, referring further to FIGS. 5 and 6, when there is an interaction or request for interaction from a user (S120), the social robot 10 identifies the requesting user (S130), scans the requested user's biometric information again, and then scans The biometric information of the user is compared with the biometric information of the stored or learned user (S205).

사용자가 소셜 로봇(10)에게 인터랙션을 시도한 것인지(S120) 파악하기 위해, 사용자는 인터랙션을 위한 트리거를 이용할 수 있다. 예를 들어 소셜 로봇(10)의 이름, 예컨대 단어 '콩콩'을 트리거로 이용할 수 있다.In order to determine whether the user attempted to interact with the social robot 10 (S120), the user may use a trigger for interaction. For example, the name of the social robot 10, for example, the word 'Kongkong', can be used as a trigger.

사용자의 인터랙션은 다른 사물 인터넷 기기(30)의 동작 요청, 또는 지시, 또는 날짜나 날씨를 확인하는 것과 같은 단순한 정보의 질의 뿐 아니라 일상적인 대화나 농담을 포함할 수 있다.The user's interaction may include everyday conversations or jokes as well as requests for operations of other IoT devices 30, instructions, or simple information queries such as checking the date or weather.

소셜 로봇(10)은 인터랙션을 요청한 사용자의 생체 정보를 스캔한 결과와, 해당 사용자의 생체 정보로 학습된 정보를 비교하여 일치 여부를 판단한다(S205). 만일 스캔 결과와 학습된 결과가 일치할 경우 해당 사용자에 대한 친밀도 클래스 분류를 수행할 수 있다(S310).The social robot 10 determines whether there is a match by comparing the results of scanning the biometric information of the user requesting interaction with the information learned from the biometric information of the user (S205). If the scan result and the learned result match, intimacy class classification for the user can be performed (S310).

구체적으로, 우선 소셜 로봇(10)은 스캔 결과와 학습 결과가 일치할 경우 해당 사용자에 대한 친밀도 값을 부여할 수 있다(S311). 반면, 스캔 결과와 학습된 결과가 일치하지 않을 경우, 등록된 다른 사용자들, 예컨대 사용자 1 내지 사용자 5 중에 일치하는 사용자가 있는지 검색하거나(예컨대, 도 4의 S200), 또는 신규 사용자로 등록하고 학습을 진행할 수 있다(S225).Specifically, the social robot 10 may assign an intimacy value to the user when the scan result and the learning result match (S311). On the other hand, if the scan result and the learned result do not match, search for a matching user among other registered users, such as Users 1 to 5 (e.g., S200 in FIG. 4), or register as a new user and learn. You can proceed (S225).

또, 소셜 로봇(10)은 각 사용자 별로 부여된 친밀도 값을 누적하여 친밀도 클래스를 분류하거나 업데이트할 수 있다(S312). 예를 들어, 친밀도 값이 0일 경우 친밀도 클래스가 존재하지 않고, 친밀도 값이 1 내지 10일 경우 제1 레벨 친밀도 클래스로 분류하고, 친밀도 값이 10 내지 50일 경우 제2 레벨 친밀도 클래스로 분류하는 등일 수 있다.Additionally, the social robot 10 can classify or update the intimacy class by accumulating the intimacy value assigned to each user (S312). For example, if the intimacy value is 0, there is no intimacy class, if the intimacy value is 1 to 10, it is classified as a first level intimacy class, and if the intimacy value is 10 to 50, it is classified as a second level intimacy class. It may be, etc.

복수의 사용자들이 위와 같은 과정을 반복함에 따라 소셜 로봇(10)과의 친밀도 값이 누적되고 친밀도 클래스가 점차 상승할 수 있다. 그리고 소정 기준 이상의 친밀도 클래스로 분류된 사용자들을 가족으로 인식할 수 있다.As a plurality of users repeat the above process, the intimacy value with the social robot 10 accumulates and the intimacy class may gradually increase. Additionally, users classified into an intimacy class higher than a predetermined standard can be recognized as family.

도 3 내지 도 6과 함께 설명한 것과 같이, 본 실시예에 따른 소셜 로봇(10)은 사용자 인터랙션의 유무에 따라 단순히 생체 정보의 학습을 반복하거나(도 4의 S200, S210), 또는 친밀도의 부여(도 6의 S205, S311)를 수행할 수 있다. 다시 말해서, 사용자의 선제적인 인터랙션이 없는 상태에서 수행되는 도 4의 사용자 스캔(S110)과 사용자의 인터랙션에 응답하여 수행되는 도 6의 인식된 생체 정보와 학습 결과를 매칭하기 위한 탐색 내지는 스캔(S205)는 서로 구별될 수 있다.As explained with FIGS. 3 to 6, the social robot 10 according to this embodiment simply repeats learning of biometric information (S200, S210 of FIG. 4) or grants intimacy (S210 of FIG. 4) depending on the presence or absence of user interaction. Steps S205 and S311 of FIG. 6 can be performed. In other words, the user scan (S110) of FIG. 4, which is performed without preemptive user interaction, and the search or scan (S205) to match the learning results with the recognized biometric information of FIG. 6, which is performed in response to the user's interaction. ) can be distinguished from each other.

이어서 도 7 및 도 8을 더 참조하면, 기존에 인식되지 않은 새로운 사용자, 예컨대 사용자 6 및 사용자 7이 방문한 경우 소셜 로봇(10)은 사용자들의 생체 정보가 충분히 학습되지 않은 상태이기 때문에 방문자들을 등록된 사용자로 인지하지 못할 수 있다. 다만 소정의 시간 동안 생체 정보를 학습하여 신규 사용자로 등록하고 연령 클래스 및/또는 성별 클래스의 분류를 우선하여 수행할 수는 있다.Next, with further reference to FIGS. 7 and 8, when new users that were not previously recognized, such as User 6 and User 7, visit, the social robot 10 registers the visitors because the biometric information of the users has not been sufficiently learned. You may not be recognized as a user. However, it is possible to learn biometric information for a certain period of time, register as a new user, and perform classification into age class and/or gender class with priority.

초기 상태에서 사용자 6 및 사용자 7은 친밀도 클래스가 존재하지 않을 수 있다. 또, 만일 사용자 6으로부터 사용자 선제적 인터랙션이 있는 경우에도, 소셜 로봇(10)은 사용자 6에 대해 누적된 생체 정보가 존재하지 않기 때문에 친밀도 값이 부여되지 않을 수 있다. 반면 사용자 6이 수차례 방문하는 등 시간의 흐름에 따라 생체 정보가 누적될 경우 실제적인 가족 구성원이 아님에도 친밀도 값이 부여될 수도 있다. In the initial state, affinity classes may not exist for User 6 and User 7. Additionally, even if there is a user preemptive interaction from User 6, an intimacy value may not be assigned to the social robot 10 because there is no accumulated biometric information for User 6. On the other hand, if biometric information accumulates over time, such as when User 6 visits multiple times, an intimacy value may be assigned even though he is not an actual family member.

한편, 사용자의 지시 사항, 즉 사용자 선제적 인터랙션은 그 성격에 따라 몇가지로 분류될 수 있다. 예를 들어, 친밀도 클래스의 레벨에 따라 수행 가능한 인터랙션과 그렇지 않은 인터랙션으로 분류될 수 있다. 가정 내 사물 인터넷 기기(30), 예컨대 TV를 조작하는 동작은 소정 기준 이상의 친밀도 클래스 레벨을 요구할 수 있다. Meanwhile, user instructions, that is, user preemptive interaction, can be classified into several types depending on their nature. For example, depending on the level of the intimacy class, it can be classified into interactions that can be performed and interactions that cannot be performed. The operation of operating the Internet of Things device 30 in the home, for example, a TV, may require an intimacy class level higher than a predetermined standard.

따라서 친밀도 클래스가 존재하지 않거나, 충분치 않은 사용자 6의 요청(S120, S130)에도 불구하고 소셜 로봇(10)은 인터랙션에 반응하지 않거나 요청한 사항을 수행할 수 없다는 피드백을 제공할 수 있다. 반면 친밀도 클래스가 레벨 6에 해당하는 사용자 2가 동일한 인터랙션을 요청할 경우 소셜 로봇(10)은 그 인터랙션에 반응할 수 있다.Accordingly, despite User 6's request (S120, S130) where the intimacy class does not exist or is insufficient, the social robot 10 may provide feedback that it does not respond to the interaction or cannot perform the request. On the other hand, if User 2 whose intimacy class is level 6 requests the same interaction, the social robot 10 can respond to the interaction.

본 발명이 이에 제한되는 것은 아니나, 특정한 작업의 지시 외의 단순한 날씨 질의, 날짜 질의 등의 인터랙션에 대해서는 사용자별 친밀도 클래스와 무관하게 인터랙션을 수행할 수도 있다.The present invention is not limited to this, but interactions other than instructions for specific tasks, such as simple weather queries or date queries, may be performed regardless of the intimacy class for each user.

전술한 것과 같이 소정 기준 이상의 친밀도 클래스 레벨을 요구하는 인터랙션 작업을 제한 인터랙션으로 정의하고, 친밀도 클래스 레벨을 요구하지 않는 인터랙션 작업을 범용 인터랙션으로 정의할 수 있다. 또한 제한 인터랙션에 있어서도, 더 높은 친밀도 클래스 레벨을 요구하거나 상대적으로 낮은 친밀도 클래스 레벨만으로도 가능한 등, 제한 인터랙션의 종류는 더욱 세분화될 수 있다. 또한 상세하게 후술할 바와 같이, 제한 인터랙션은 성별 클래스나 연령 클래스 정보를 추가로 요구할 수도 있다. 이에 대해서는 후술한다.As described above, interaction tasks that require an intimacy class level higher than a predetermined standard can be defined as restricted interactions, and interaction tasks that do not require an intimacy class level can be defined as general-purpose interactions. Also, in restricted interactions, the types of restricted interactions can be further subdivided, such as requiring a higher intimacy class level or being possible only with a relatively low intimacy class level. Additionally, as will be described in detail later, restricted interactions may additionally require gender class or age class information. This will be described later.

이처럼 본 발명에 따른 소셜 로봇(10)은 사용자들의 언어적 또는 비언어적 특징을 인식하여 친밀도 클래스를 분류하고, 친밀도 클래스에 따라 수행 가능한 인터랙션과 그렇지 않은 인터랙션을 구별할 수 있다(S400). 다시 말해서, 친밀도 클래스에 따라 서로 다른 피드백을 제공할 수 있다. 이를 위해 소셜 로봇(10)은 인터랙션 요청이 범용 인터랙션인지 또는 제한 인터랙션인지를 우선하여 판단하고(S400), 제한 인터랙션으로 정의된 성격의 것에 대해서는 사용자의 친밀도 클래스 레벨(S410)을 판단할 수 있다. 따라서 사용자로서는 소셜 로봇(10)을 가족의 구성원으로 인식할 수 있다. 또한 가족 외의 방문자 내지는 외부인의 인터랙션을 선별해낼 수 있고, 사물 인터넷 기기(30) 등의 조작을 방지할 수 있다.In this way, the social robot 10 according to the present invention can recognize the verbal or non-verbal characteristics of users, classify the intimacy class, and distinguish between interactions that can be performed and interactions that cannot be performed according to the intimacy class (S400). In other words, different feedback can be provided depending on the intimacy class. To this end, the social robot 10 may first determine whether the interaction request is a general-purpose interaction or a limited interaction (S400), and determine the user's intimacy class level (S410) for those defined as limited interactions. Therefore, the user can recognize the social robot 10 as a member of the family. Additionally, interactions of visitors or outsiders other than family members can be selected and manipulation of the Internet of Things device 30, etc. can be prevented.

이어서 도 9 및 도 10을 더 참조하면, 소셜 로봇(10)은 사용자 별 친밀도 클래스 레벨에 따라 인터랙션의 우선 순위를 정할 수 있다.Next, with further reference to FIGS. 9 and 10 , the social robot 10 may prioritize interactions according to the intimacy class level for each user.

예를 들어, 사용자 1이 TV 볼륨의 감소를 요청하고(S120a, S130a), 동시에 사용자 2가 TV 볼륨의 증가를 요청할 경우(S120b, S130b), 소셜 로봇(10)은 충분한 친밀도 클래스 레벨을 보유한 사용자들로부터 서로 상충되거나, 모순되거나, 상반되는 지시를 받는 상황에 직면한다. 도면으로 표현하지 않았으나, 소셜 로봇(10)은 두개의 지시가 상충되는 것인지 또는 동시에 수행 가능한 것인지 등을 판단할 수도 있다.For example, when user 1 requests a decrease in the TV volume (S120a, S130a) and at the same time user 2 requests an increase in the TV volume (S120b, S130b), the social robot 10 selects the user with a sufficient affinity class level. Face situations where you receive conflicting, conflicting, or conflicting instructions from others. Although not shown in the drawing, the social robot 10 may determine whether two instructions conflict or whether they can be performed simultaneously.

이 때 소셜 로봇(10)은, 도면으로 표현하지 않았으나, 도 8에 도시된 것과 같이 각 사용자의 요청이 범용 인터랙션인지 또는 제한 인터랙션인지 판단하고, 제한 인터랙션에 속하는 지시의 경우 사용자 1 및 사용자 2의 각 인터랙션이 친밀도 클래스 제한 조건에 부합하는지 판단한다(S500). 만일 사용자 1의 지시 사항과 사용자 1의 친밀도 클래스 레벨을 비교할 때 적합하지 않을 경우 사용자 1의 인터랙션에 응답하지 않을 수 있다. 마찬가지로 사용자 2의 지시 사항과 사용자 2의 친밀도 클래스 레벨을 비교할 때 적합하지 않을 경우 사용자 2의 인터랙션에 응답하지 않을 수 있다.At this time, although not shown in the drawing, the social robot 10 determines whether each user's request is a general-purpose interaction or a limited interaction, as shown in FIG. 8, and in the case of an instruction belonging to a limited interaction, the request of User 1 and User 2 It is determined whether each interaction meets the intimacy class restriction conditions (S500). If it is not appropriate when comparing User 1's instructions and User 1's intimacy class level, it may not respond to User 1's interaction. Similarly, when comparing User 2's instructions with User 2's intimacy class level, if it is not appropriate, it may not respond to User 2's interaction.

또, 사용자 1과 사용자 2가 모두 친밀도 클래스 레벨 조건에 부합할 경우, 사용자 1과 사용자 2의 친밀도 레벨 클래스를 비교할 수 있다(S510). 그리고 보다 친밀도 클래스 레벨이 높은 사용자 1의 인터랙션을 우선해서 수행할 수 있다(S520).Additionally, if both User 1 and User 2 meet the intimacy class level conditions, the intimacy level classes of User 1 and User 2 can be compared (S510). Additionally, the interaction of User 1, which has a higher intimacy class level, can be performed with priority (S520).

또는, 사용자들의 지시가 동시에 수신된 것이 아니라, 사용자 2가 TV 볼륨의 증가를 요청한 후, 소정의 인터벌 내에 사용자 1이 TV 볼륨의 감소를 요청하는 경우에도 소셜 로봇(10)은 사용자 1의 인터랙션을 우선해서 수행할 수 있다.Alternatively, even if the users' instructions are not received simultaneously, but User 2 requests an increase in TV volume and then User 1 requests a decrease in TV volume within a predetermined interval, the social robot 10 responds to User 1's interaction. It can be done first.

다른 예를 들어, 사용자 4와 사용자 5가 각각 서로 상충되지는 않으나 다른 종류의 인터랙션을 동시에 요청하는 경우, 특히 어느 사용자의 요청이 소정의 시간을 필요로 하는 경우, 소셜 로봇(10)은 사용자 4와 사용자 5의 친밀도 클래스 레벨을 비교할 수 있다(S510). 그리고 보다 친밀도 클래스 레벨이 높은 사용자 4의 인터랙션을 우선해서 수행할 수 있다(S520).For another example, when User 4 and User 5 do not conflict with each other but request different types of interactions at the same time, especially when one user's request requires a certain amount of time, the social robot 10 may request user 4 The intimacy class levels of user 5 and user 5 can be compared (S510). Additionally, the interaction of User 4, who has a higher intimacy class level, can be performed with priority (S520).

또는, 사용자 5가 요청한 후, 소정의 인터벌 내에 사용자 4가 요청하는 경우에도 소셜 로봇(10)은 사용자 4의 인터랙션을 우선해서 수행할 수 있다.Alternatively, even if User 4 makes a request within a predetermined interval after User 5 makes a request, the social robot 10 may perform User 4's interaction with priority.

위와 같은 동작을 수행하기 위해, 소셜 로봇(10)은 서로 동일한 친밀도 클래스 레벨 내에서도, 각 사용자별 우선 순위를 결정할 수 있다. 상기 우선 순위는 연령 클래스 정보를 부가적으로 이용하거나, 또는 소정의 친밀도 클래스 레벨에 먼저 도달한 사용자를 우선 순위에 놓을 수 있다. 예를 들어, 친밀도 클래스 레벨이 모두 6인 사용자 2와 사용자 3이 서로 상충되는 요청을 하는 경우에도, 소셜 로봇(10)은 사용자 2와 사용자 3 중 누구의 인터랙션을 먼저 처리할 것인지 저장된 데이터를 기초로 결정할 수 있다.In order to perform the above operation, the social robot 10 can determine the priority for each user even within the same intimacy class level. The priority may additionally use age class information, or users who first reach a predetermined intimacy class level may be prioritized. For example, even if User 2 and User 3, both of whom have affinity class levels of 6, make conflicting requests, the social robot 10 determines whose interaction between User 2 and User 3 will be processed first based on the stored data. can be decided.

이어서 도 11 및 도 12를 더 참조하면, 소셜 로봇(10)은 사용자 별 친밀도 클래스 뿐 아니라 연령 클래스에 따라 사용자 인터랙션의 수행 여부를 정할 수 있다. 여기서 연령 클래스에 의해 제한되는 인터랙션은 제한 인터랙션의 일종으로 이해될 수 있다.Next, with further reference to FIGS. 11 and 12 , the social robot 10 can determine whether to perform user interaction based on not only the intimacy class for each user but also the age class. Here, interaction limited by age class can be understood as a type of restricted interaction.

예를 들어, 현관문 도어락의 개방은 보안에 관련된 것으로 단순히 친밀도 클래스 레벨이 높다고 하여 요청을 수행하는 것은 적당치 않을 수 있다. 따라서 현관문 도어락의 개방 등 특정한 종류로 분류된 인터랙션 요청은, 소정 기준 이상의 친밀도 클래스 뿐 아니라 기준 연령 클래스 이상의 사용자의 요청에 의해서만 수행될 수 있다.For example, opening the front door lock is related to security, and it may not be appropriate to perform the request simply because the intimacy class level is high. Therefore, interaction requests classified into a specific type, such as opening the front door lock, can be performed only by requests from users of an intimacy class higher than a predetermined standard as well as users of a standard age class or higher.

즉, 연령 클래스가 레벨 3(성인)에 해당하는 사용자 2가 현관문 도어락의 개방을 요청할 경우 소셜 로봇(10)은 이에 따를 수 있다. 반면 연령 클래스가 레벨 1(영유아)에 해당하는 사용자 4가 현관문 도어락의 개방을 요청하더라도, 심지어 사용자 2에 비해 사용자 4의 친밀도 클래스가 더 높은 경우에도 소셜 로봇(10)은 상기 요청에 따르지 않을 수 있다.That is, when User 2, whose age class is level 3 (adult), requests to open the front door lock, the social robot 10 can follow the request. On the other hand, even if User 4, whose age class is level 1 (infant), requests to open the front door lock, even if User 4's intimacy class is higher than that of User 2, the social robot 10 will not comply with the request. You can.

상기와 같은 도어락 개방 요청에 관한 인터랙션은, 예컨대 방문자와 같이 연령 클래스가 높다고 하더라도 충분한 친밀도 클래스를 갖지 못하는 사용자 7에 의해 수행되지 않음은 물론이다.Of course, the interaction regarding the door lock opening request as described above is not performed by User 7, who does not have a sufficient intimacy class, even if the age class is high, such as that of the visitor.

이를 위해 소셜 로봇(10)은 사용자의 인터랙션 요청을 확인하고 사용자를 식별한 후(S120, S130) 인터랙션의 종류가 범용 인터랙션인지 또는 제한 인터랙션인지를 판단한다(S400). 만일 제한 인터랙션, 그 중에서도 연령 제한된 인터랙션으로 판단될 경우, 전술한 바와 같이 친밀도 클래스 레벨의 판단(S410)과 연령 클래스 레벨의 판단(S430)을 순차적으로 수행한다.To this end, the social robot 10 checks the user's interaction request, identifies the user (S120, S130), and then determines whether the type of interaction is a general interaction or a restricted interaction (S400). If it is determined to be a restricted interaction, especially an age-restricted interaction, the intimacy class level determination (S410) and the age class level determination (S430) are sequentially performed as described above.

이어서 도 13 및 도 14를 더 참조하면, 소셜 로봇(10)은 사용자 별 친밀도 클래스 뿐 아니라 성별 클래스 및/또는 연령 클래스에 따라 사용자 인터랙션의 수행 여부를 정할 수 있다. 여기서 성별 클래스 및/또는 연령 클래스에 의해 제한되는 인터랙션은 제한 인터랙션의 일종으로 이해될 수 있다.Next, with further reference to FIGS. 13 and 14 , the social robot 10 may determine whether to perform user interaction based on not only the intimacy class for each user but also the gender class and/or age class. Here, interaction limited by gender class and/or age class can be understood as a type of restricted interaction.

예를 들어, 마트에서 식자재를 주문하고 결제하는 것은 가정 내 지정된 특정한 사람이 수행하는 것이 적당할 수 있다. 만일 가족 간의 오해로 인해 식자재의 주문이 중복하여 이루어질 수도 있기 때문이다. 따라서 식자재 주문 등 특정한 종류로 분류된 인터랙션 요청은, 소정 기준 이상의 친밀도 클래스 뿐 아니라, 지정된 성별 클래스 및/또는 기준 연령 클래스 이상의 사용자 요청에 의해서만 수행될 수 있다.For example, it may be appropriate for a specific person in the household to order and pay for food ingredients at a supermarket. This is because food ingredients may be ordered twice due to misunderstandings between family members. Accordingly, interaction requests classified into a specific type, such as ordering food ingredients, can be performed only by requests from users of an intimacy class higher than a predetermined standard, as well as user requests higher than a specified gender class and/or standard age class.

즉, 성별 클래스가 여성이고, 높은 연령 클래스 레벨을 보유한 사용자 1이 식자재의 주문을 요청할 경우 소셜 로봇(10)은 이에 따를 수 있다. 반면 충분한 친밀도 클래스와 연령 클래스를 보유한다 하더라도 성별 클래스가 남성인 사용자 2가 식자재의 주문을 요청하더라도 소셜 로봇(10)은 상기 요청에 따르지 않거나, 사용자 1에 의해 주문 예정인 상태임을 피드백할 수 있다. 또, 충분한 친밀도 클래스와 적합한 성별 클래스에 해당한다 하더라도 연령 클래스가 낮은 사용자 5가 식자재의 주문을 요청하더라도 소셜 로봇(10)은 상기 요청에 따르지 않거나, 사용자 1에 의해 주문 예정인 상태임을 피드백할 수 있다.That is, when user 1, whose gender class is female and who has a high age class level, requests an order for food ingredients, the social robot 10 can comply. On the other hand, even if it has sufficient intimacy class and age class, even if User 2, whose gender class is male, requests an order for food ingredients, the social robot 10 may not comply with the request or may provide feedback that the order is scheduled to be ordered by User 1. In addition, even if it corresponds to a sufficient intimacy class and an appropriate gender class, even if User 5, who is in a lower age class, requests an order for food ingredients, the social robot 10 may not comply with the request or may provide feedback that the order is scheduled to be ordered by User 1. .

상기와 같은 식자재 주문에 관한 인터랙션은, 예컨대 방문자와 같이 연령 클래스가 높고 성별 클래스가 일치하더라도 충분한 친밀도 클래스를 갖지 못하는 사용자 7에 의해 수행되지 않음은 물론이다.It goes without saying that the interaction related to ordering food ingredients as described above, for example, is not performed by User 7, who does not have a sufficient intimacy class even if the age class and gender class match the visitor.

이를 위해 소셜 로봇(10)은 사용자의 인터랙션 요청을 확인하고 사용자를 식별한 후(S120, S130), 인터랙션의 종류가 범용 인터랙션인지 또는 제한 인터랙션인지를 판단한다(S400). 만일 제한 인터랙션, 그 중에서도 성별 제한 또는 성별/연령 제한된 인터랙션으로 판단될 경우, 전술한 바와 같이 우선하여 친밀도 클래스 레벨를 판단(S410)하고, 추가적으로 성별 클래스 레벨의 판단(S420)과 연령 클래스 레벨의 판단(S430)을 수행한다.To this end, the social robot 10 checks the user's interaction request, identifies the user (S120, S130), and then determines whether the type of interaction is a general interaction or a restricted interaction (S400). If it is judged to be a restricted interaction, especially a gender-restricted or gender/age-restricted interaction, the intimacy class level is determined first (S410) as described above, and additionally, the gender class level is determined (S420) and the age class level is determined (S420). S430) is performed.

한편, 주문하고자 하는 식자재의 종류 및 마트, 결제 방법 등은 사용자 단말(40)을 통해 미리 지정된 상태일 수 있으나 본 발명이 이에 제한되는 것은 아니다.Meanwhile, the type of food ingredients, supermarket, payment method, etc. to be ordered may be pre-specified through the user terminal 40, but the present invention is not limited thereto.

이어서 도 15 및 도 16을 더 참조하면, 소셜 로봇(10)은 사용자에 의한 음성 기반 지시 뿐 아니라 비언어적 특징, 예컨대 동작 등에 따라 사용자 인터랙션의 수행 여부를 정할 수 있다. 여기서 상기 비언어적 특징은 전술한 지시 생체 정보를 의미할 수 있다. Next, with further reference to FIGS. 15 and 16 , the social robot 10 may determine whether to perform user interaction based on not only voice-based instructions from the user but also non-verbal characteristics, such as movements. Here, the nonverbal characteristic may refer to the above-described indicated biometric information.

또, 전술한 음성 기반 지시에 관한 인터랙션은, 제한 인터랙션 중에서도 사용자의 음성 인식 만으로 수행 가능한 음성 인터랙션으로 분류되고, 비언어적 특징 만으로 수행 가능한 인터랙션은, 제한 인터랙션 중에서도 사용자의 동작 만으로 수행 가능한 비언어적 인터랙션으로 분류되는 것으로 이해될 수 있다.In addition, the interaction related to the above-mentioned voice-based instructions is classified as a voice interaction that can be performed only by recognizing the user's voice among limited interactions, and the interaction that can be performed only with non-verbal characteristics is classified as a non-verbal interaction that can be performed only by the user's movements among limited interactions. It can be understood that

예를 들어, 사용자 3이 허기를 느낄 경우 소셜 로봇(10)을 대상으로 하는 동작이 아닌 다른 동작을 수행할 수 있다. 만일 사용자 3이 허기를 느끼고서 냉장고를 소정의 시간 이상 응시하거나, 또는 냉장고와 부엌 찬장을 번갈아 응시할 수 있다. For example, when User 3 feels hungry, he or she may perform an action other than the action targeting the social robot 10. If User 3 feels hungry, he or she may stare at the refrigerator for more than a predetermined period of time, or may stare alternately at the refrigerator and the kitchen cabinet.

이 경우 사용자 3이 소셜 로봇(10)에게 지시 인터랙션을 수행하지 않았으나, 소셜 로봇(10)은 사용자 3을 스캔(S110)하여 지시 생체 정보의 일종을 포착하고, 이를 토대로 로봇 선제적 인터랙션을 수행할 수 있다.In this case, although User 3 did not perform an instruction interaction with the social robot 10, the social robot 10 scans User 3 (S110) to capture a type of instruction biometric information and performs a robot preemptive interaction based on this. You can.

구체적으로, 사용자 3으로부터 스캔(S110)된 비언어적 동작이 기 등록된 사용자의 것으로 판단(S200)되면, 사용자 3의 동작 중에 지시 생체 정보로 분류되는 것이 존재하는지 판단하고, 지시 생체 정보가 존재할 경우 그에 상응하는 로봇 선제적 인터랙션이 존재하는지 판단한다(S610). 판단 결과 대응되는 것이 없을 경우 사용자의 스캔(S110)을 지속하고, 대응되는 것이 있을 경우 로봇 선제적인 인터랙션을 제시한다.Specifically, if the non-verbal movement scanned from User 3 (S110) is determined to belong to a pre-registered user (S200), it is determined whether there is anything classified as indicated biometric information among the movements of User 3, and if indicated biometric information exists, Determine whether a corresponding robot preemptive interaction exists (S610). If there is no matching result as a result of the judgment, the user's scan (S110) continues, and if there is a matching one, a robot preemptive interaction is suggested.

이와 같이 본 발명에 따른 소셜 로봇(10) 및 인터랙션 시스템(1)에 따르면 사용자가 음성 인식에 기초하여 소셜 로봇(10)에게 직접적인 명령을 하지 않더라도 소셜 로봇(10)과 사람 간의 비언어적 인터랙션에 기초해 소셜 로봇(10)이 선제적 인터랙션을 수행할 수도 있다. 이를 통해 사람과 소셜 로봇(10) 간의 정서적 교감을 더욱 강화할 수 있다.In this way, according to the social robot 10 and the interaction system 1 according to the present invention, even if the user does not give a direct command to the social robot 10 based on voice recognition, the social robot 10 and the person can use the non-verbal interaction. The social robot 10 may perform preemptive interaction. Through this, emotional communication between people and social robots (10) can be further strengthened.

이어서 도 17 및 도 18을 더 참조하면, 소셜 로봇(10)은 사용자에 의한 음성 기반 지시와 함께 비언어적 특징, 예컨대 동작 등에 따라 사용자 인터랙션의 수행 여부를 정할 수 있다. 여기서 상기 비언어적 특징은 전술한 지시 생체 정보를 의미할 수 있다. Next, with further reference to FIGS. 17 and 18 , the social robot 10 may determine whether to perform user interaction based on non-verbal characteristics, such as movements, along with voice-based instructions from the user. Here, the nonverbal characteristic may refer to the above-described indicated biometric information.

또, 음성 지시와 함께 비언어적 특징이 요구되는 인터랙션은, 제한 인터랙션 중에서도 복합 인터랙션으로 이해될 수 있다.Additionally, interactions that require non-verbal characteristics along with voice instructions can be understood as complex interactions among limited interactions.

예를 들어, 의도하지 않았으나 일상 생활 속에서 사람과 사람이 주고 받는 말 속에 포함된 단어, 즉 소셜 로봇(10)과의 인터랙션을 위한 음성적 명령이 아님에도 불구하고 소셜 로봇(10)이 이를 명령 인터랙션으로 인지할 경우 문제가 발생할 수 있다. 전술한 바와 같이 '콩콩'과 같은 단어를 트리거로 이용할 수 있으나 이것 만으로는 충분치 않아 보조적 제한이 필요할 수 있다.For example, although it is not intended to be a word included in words exchanged between people in everyday life, that is, it is not a vocal command for interaction with the social robot 10, the social robot 10 uses it as a command interaction. If recognized as such, problems may arise. As mentioned above, words such as 'kongkong' can be used as a trigger, but this alone is not sufficient and auxiliary restrictions may be necessary.

즉, 사용자들이 TV를 켜고 싶은 경우에도, 단순히 TV를 켜달라는 명령만으로는 반응하지 않고, 음성 명령을 하는 사용자가 TV를 응시한 상태에서만 소셜 로봇(10)이 이에 응답할 수 있다.In other words, even when users want to turn on the TV, the social robot 10 does not respond simply with a command to turn on the TV, and the social robot 10 can respond only when the user giving the voice command gazes at the TV.

또는 다른 예를 들어, TV를 이용해 유튜브에 접속하는 등의 경우 사용자 4로서는 타인이 자기의 계정에 접속하는 것을 원하지 않을 수 있다. 그러나 이러한 분류는 전술한 친밀도 클래스, 연령 클래스, 성별 클래스 만으로는 충분히 가려내기 어려울 수 있다. 이와 같은 경우 비언어적 동작에 기초한 지시를 마치 단순한 형태의 암호와 같이 활용할 수 있다.Or, for another example, when accessing YouTube using a TV, User 4 may not want others to access his account. However, this classification may be difficult to sufficiently distinguish using only the above-mentioned intimacy class, age class, and gender class. In such cases, instructions based on non-verbal movements can be used like a simple password.

즉, 사용자 2가 음성으로 사용자 4의 계정으로 유튜브에 접속해줄 것을 요청하더라도 미리 정해진 지시 생체 정보가 수집되지 않을 경우 인터랙션을 수행하지 않을 수 있다. 반면 사용자 4가 음성으로 유튜브 접속을 요청함과 동시에 미리 정해진 지시 생체 정보, 예컨대 손으로 V를 그리는 동작을 할 경우 소셜 로봇(10)은 인터랙션 요청/지시를 수행할 수 있다.In other words, even if User 2 requests to access YouTube with User 4's account by voice, the interaction may not be performed if predetermined biometric information is not collected. On the other hand, when User 4 requests access to YouTube by voice and simultaneously uses predetermined biometric information, for example, drawing a V with his hand, the social robot 10 can perform an interaction request/instruction.

이를 위해 소셜 로봇(10)은 음성을 포함하는 사용자 인터랙션이 식별되면(S121, S130), 인터랙션의 종류가 음성 인터랙션에 속하는 것인지, 또는 비언어적 인터랙션이나 복합 인터랙션에 속하는 것인지 판단한다(S600). To this end, when a user interaction including voice is identified (S121, S130), the social robot 10 determines whether the type of interaction belongs to voice interaction, non-verbal interaction, or complex interaction (S600).

여기서 인터랙션의 종류를 판단(S600)하는 것은 인터랙션이 음성 인터랙션인지, 비언어적 인터랙션인지, 또는 복합 인터랙션인지를 판단하는 것인 바, 전술한 도 8 등의 제한 인터랙션인지 범용 인터랙션인지에 관한 인터랙션의 종류를 판단(S400)하는 것과 구별될 수 있다.Here, determining the type of interaction (S600) refers to determining whether the interaction is a voice interaction, a non-verbal interaction, or a complex interaction, and the type of interaction is determined whether it is a limited interaction or a general-purpose interaction as shown in FIG. 8. It can be distinguished from judging (S400).

그리고 사용자를 스캔하여 지시 생체 정보가 획득되는지 여부, 지시 생체 정보가 미리 지정된 것과 일치하는지 여부 등을 판단할 수 있다(S620). 즉, 음성 지시(S121)를 먼저 획득한 후 비언어적 동작의 일치 여부를 판단하는 단계(S620)가 수행될 수 있다.Then, by scanning the user, it is possible to determine whether indicated biometric information is obtained and whether the indicated biometric information matches pre-specified information, etc. (S620). That is, the voice instruction (S121) may be first obtained, and then the step (S620) of determining whether the non-verbal actions match may be performed.

이어서 도 19 및 도 20을 더 참조하면, 소셜 로봇(10)은 사용자로부터 수집되는 상태 생체 정보(S110, S700)에 기초하여 로봇 선제적 인터랙션의 빈도 내지는 수행 여부를 결정할 수 있다(S710).Next, with further reference to FIGS. 19 and 20, the social robot 10 may determine the frequency or whether to perform robot preemptive interaction based on state biometric information (S110, S700) collected from the user (S710).

어느 사용자, 예컨대 사용자 4가 TV를 시청하고 있는 상태에서 소셜 로봇(10)은 로봇 선제적 인터랙션의 수행 빈도 내지는 수행 여부를 결정할 수 있다. 로봇 선제적 인터랙션의 종류는 특별히 제한되지 않으나, 현재 시간을 알려주거나, 사용자에게 필요한 것이 없는지 물어보는 등이 될 수 있다.While a user, for example, user 4, is watching TV, the social robot 10 can determine the frequency or whether to perform robot preemptive interaction. The type of robot preemptive interaction is not particularly limited, but may include informing the user of the current time or asking the user if there is anything he/she needs.

이 때 소셜 로봇(10)은 사용자 4를 스캔하고(S110), 사용자 4로부터 생체 정보, 특히 상태 생체 정보를 수집할 수 있다. 여기서 스캔(S110)은 사용자 선제적 인터랙션이 없을 때 수집되는 것일 수 있다. 만일 사용자 4의 평균 눈 깜빡임의 빈도가 60초에 8~11번으로 저장되어 있는데, 현재 수집되는 사용자 4의 평균 눈 깜빡임의 빈도가 위 평균 보다 낮은 경우 소셜 로봇(10)은 사용자 4가 TV 시청에 집중하고 있는 상태인 것으로 판단(S700)하여 로봇 선제적 인터랙션의 빈도를 줄이거나, 또는 로봇 선제적인 인터랙션을 제공하지 않을 수 있다(S710).At this time, the social robot 10 may scan User 4 (S110) and collect biometric information, particularly state biometric information, from User 4. Here, the scan (S110) may be collected when there is no user preemptive interaction. If the average eye blink frequency of User 4 is stored as 8 to 11 times per 60 seconds, and the currently collected average eye blink frequency of User 4 is lower than the above average, the social robot 10 detects that User 4 is watching TV. It is determined that the robot is in a state of concentration (S700), and the frequency of robot preemptive interaction can be reduced, or the robot preemptive interaction can not be provided (S710).

앞서 설명한 것과 같이 본 발명에 따른 소셜 로봇(10) 및 이를 이용한 인터랙션 시스템(1)은 종래와 같이 단순히 사용자와 로봇 간의 음성적 인터랙션에 그치지 않고, 비언어적 인터랙션을 이용할 수 있다. As described above, the social robot 10 and the interaction system 1 using the same according to the present invention can use non-verbal interaction rather than simply verbal interaction between the user and the robot as in the prior art.

따라서 사용자들로서는 보다 직관적이면서도, 사용자 편의적으로 맞춤형 서비스를 제공받을 수 있으며, 나아가 소셜 로봇(10)과의 정서적 교감을 증진시킬 수 있다.Therefore, users can receive customized services in a more intuitive and user-friendly manner, and furthermore, emotional communication with the social robot 10 can be improved.

첨부된 도면의 구성도 또는 블록도 상의 각 구성요소는 소프트웨어나 FPGA(field-programmable gate array), ASIC(application specific integrated circuit) 등의 하드웨어로 구현될 수 있다. 다만, 구성도 또는 블록도 상의 각 구성요소들은 소프트웨어 및 하드웨어 뿐만 아니라 어드레싱 가능한 저장 매체에서 구현될 수 있고, 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될수 있다.Each component on the configuration diagram or block diagram of the attached drawings may be implemented with software, hardware such as FPGA (field-programmable gate array), or ASIC (application specific integrated circuit). However, each component on the configuration diagram or block diagram may be implemented in an addressable storage medium as well as software and hardware, and may be configured to execute one or more processors.

구성도 또는 블록도 상의 각 구성요소는 특정된 논리 기능을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 의미할 수 있다. 따라서 구성도 또는 블록도 상의 구성요소가 제공하는 기능은 더 세분화된 복수의 구성요소에 의해 구현되거나, 또는 구성도 또는 블록도 상의 복수의 구성요소들은 일체화된 하나의 구성요소에 의하여 구현될 수도 있음은 물론이다.Each component on a configuration diagram or block diagram may mean a module, segment, or part of code that includes one or more executable instructions for executing a specified logical function. Therefore, the functions provided by the components on the configuration diagram or block diagram may be implemented by a plurality of more detailed components, or the multiple components on the configuration diagram or block diagram may be implemented by one integrated component. Of course.

즉, 본 발명의 목적 범위 내에서 각 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수 있다. 또, 모든 구성요소들이 각각 하나의 독립된 하드웨어로 구현될 수 있고, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술분야에 속하는 통상의 기술자에게 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 기록 매체 내지는 저장 매체에 저장되어 컴퓨터에 의해 읽히고 실행됨으로써 본 발명의 실시예를 구현할 수 있다. 상기 기록 매체의 예로는 자기 기록 매체, 광 기록 매체 등을 들 수 있다.That is, within the scope of the purpose of the present invention, each component can be operated by selectively combining one or more of them. In addition, all components may be implemented as independent hardware, and some or all of the components may be selectively combined to have a program module that performs some or all of the combined functions in one or more pieces of hardware. It may also be implemented as a computer program. The codes and code segments that make up the computer program can be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable recording medium or storage medium and can be read and executed by a computer to implement embodiments of the present invention. Examples of the recording medium include magnetic recording media, optical recording media, and the like.

이상에서 본 발명의 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. Although the description has been made above with a focus on embodiments of the present invention, this is merely an example and does not limit the present invention, and those skilled in the art will be able to understand the present invention without departing from the essential characteristics of the embodiments of the present invention. It will be apparent that various modifications and applications not exemplified above are possible.

따라서 본 발명의 범위는 이상에서 예시된 기술 사상의 변경물, 균등물 내지는 대체물을 포함하는 것으로 이해되어야 한다. 예를 들어, 본 발명의 실시예에 구체적으로 나타난 각 구성요소는 변형하여 실시할 수 있다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the scope of the present invention should be understood to include changes, equivalents, or substitutes of the technical ideas exemplified above. For example, each component specifically shown in the embodiments of the present invention can be modified and implemented. And these variations and differences in application should be construed as being included in the scope of the present invention as defined in the appended claims.

1: 사람-로봇 인터랙션 시스템
10: 소셜 로봇
20: 사용자
30: 사물 인터넷 기기
40: 사용자 단말
1: Human-robot interaction system
10: Social robots
20: User
30: Internet of Things devices
40: user terminal

Claims (22)

적어도 하나 이상의 사용자들의 생체 정보를 학습하고, 인터랙션을 요청하는 사용자로부터 수집된 생체 정보와 학습된 생체 정보가 일치할 경우 친밀도 값을 부여하고,
부여된 친밀도 값에 따라 다수 사용자들의 친밀도 클래스를 분류하고, 분류된 친밀도 클래스 레벨에 따라 사용자 별 인터랙션의 우선순위를 정하거나, 또는 분류된 친밀도 클래스 레벨에 따라 수행 가능한 인터랙션의 종류를 정하도록 구성되며,
상기 생체 정보는 적어도 사용자의 눈 깜빡임의 빈도를 포함하고,
상기 눈 깜빡임의 빈도에 기초하여, 로봇 선제적 인터랙션의 빈도를 결정하도록 구성되고,
상기 로봇 선제적 인터랙션은, 현재 시간을 알려주는 것을 포함하는, 소셜 로봇.
Learn the biometric information of at least one user, and assign an intimacy value if the biometric information collected from the user requesting interaction matches the learned biometric information,
It is configured to classify the intimacy classes of multiple users according to the assigned intimacy value, prioritize interactions for each user according to the classified intimacy class level, or determine the type of interaction that can be performed according to the classified intimacy class level. ,
The biometric information includes at least the frequency of the user's eye blinks,
configured to determine the frequency of robot preemptive interaction based on the frequency of eye blinking,
The robot preemptive interaction includes informing the current time, a social robot.
제1항에 있어서,
수집된 생체 정보에 따라 다수 사용자들의 연령 클래스를 더 분류하되, 상기 연령 클래스는 제1 레벨 연령 클래스 및 상기 제1 레벨 연령 클래스 보다 높은 권한을 갖는 제2 레벨 연령 클래스를 포함하고,
어느 인터랙션은, 기준 레벨 이상의 친밀도 클래스의 사용자 중, 제2 레벨 연령 클래스에 속하는 사용자에 의해서만 수행되도록 구성된 소셜 로봇.
According to paragraph 1,
Further classifying the age classes of multiple users according to the collected biometric information, wherein the age classes include a first level age class and a second level age class with higher authority than the first level age class,
A social robot configured such that a certain interaction is performed only by users belonging to a second level age class among users of an intimacy class above the reference level.
제1항에 있어서,
수집된 생체 정보에 따라 다수 사용자들의 성별 클래스를 더 분류하되, 상기 성별 클래스는 제1 성별 클래스 및 제2 성별 클래스를 포함하고,
어느 인터랙션은, 기준 레벨 이상의 친밀도 클래스의 사용자 중, 제2 성별 클래스에 속하는 사용자에 의해서만 수행되도록 구성된 소셜 로봇.
According to paragraph 1,
The gender classes of multiple users are further classified according to the collected biometric information, wherein the gender classes include a first gender class and a second gender class,
A social robot configured such that an interaction is performed only by users belonging to a second gender class among users of an intimacy class equal to or higher than a reference level.
제1항에 있어서,
제1 레벨 친밀도 클래스의 제1 사용자로부터 제1 인터랙션 요청을 수신하고,
소정의 인터벌 내에 제1 레벨 친밀도 클래스 보다 높은 제2 레벨 친밀도 클래스의 제2 사용자로부터 상기 제1 인터랙션과 상이한 제2 인터랙션 요청을 수신하는 경우, 제2 인터랙션을 우선 수행하도록 구성된 소셜 로봇.
According to paragraph 1,
Receive a first interaction request from a first user of a first level affinity class,
A social robot configured to preferentially perform a second interaction when receiving a second interaction request different from the first interaction from a second user of a second level intimacy class higher than the first level intimacy class within a predetermined interval.
제4항에 있어서,
상기 제1 인터랙션 요청과 제2 인터랙션 요청이 상반되는 종류의 것일 때, 제1 인터랙션을 수행하지 않도록 구성된 소셜 로봇.
According to paragraph 4,
A social robot configured not to perform a first interaction when the first interaction request and the second interaction request are of conflicting types.
제1항에 있어서,
상기 인터랙션은 제한된 종류의 제한 인터랙션 및 그렇지 않은 범용 인터랙션을 포함하고,
제1 레벨 친밀도 클래스의 제1 사용자로부터 제한 인터랙션 요청을 수신하는 경우 수행하지 않고, 제1 레벨 친밀도 클래스 보다 높은 제2 레벨 친밀도 클래스의 제2 사용자로부터 상기 제한 인터랙션 요청을 수신하는 경우 수행하도록 구성된 소셜 로봇.
According to paragraph 1,
The interactions include limited types of restricted interactions and non-general-purpose interactions,
Social configured not to perform when receiving a limited interaction request from a first user of a first level affinity class, but to perform when receiving a limited interaction request from a second user of a second level affinity class higher than the first level affinity class. robot.
제1항에 있어서,
상기 인터랙션은 사용자의 음성 인식에 따라 수행 가능한 음성 인터랙션, 사용자의 비언어적 동작에 따라 수행 가능한 비언어적 인터랙션, 및 사용자의 음석 인식과 함께 비언어적 동작이 요구되는 복합 인터랙션을 포함하고,
사용자로부터 복합 인터랙션 요청이 수신되는 경우, 음성 지시 및 비언어적 동작을 순차적으로 판별하여 복합 인터랙션을 수행하도록 구성된 소셜 로봇.
According to paragraph 1,
The interaction includes a voice interaction that can be performed based on the user's voice recognition, a non-verbal interaction that can be performed based on the user's non-verbal actions, and a complex interaction that requires non-verbal actions along with voice recognition of the user,
A social robot configured to perform complex interaction by sequentially determining voice instructions and non-verbal actions when a complex interaction request is received from a user.
제1항에 있어서,
상기 생체 정보는 사용자의 눈동자 위치, 고개 방향, 팔의 위치, 손의 위치, 목소리 파형, 홍채 정보, 안면 색상, 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치를 더 포함하여 수집되는 소셜 로봇.
According to paragraph 1,
The biometric information is collected including the user's eye position, head direction, arm position, hand position, voice waveform, iris information, facial color, eye corner position, eyebrow position, and mouth corner position.
제8항에 있어서,
상기 눈동자 위치, 고개 방향, 팔의 위치 및 손의 위치는 적어도 지시 생체 정보로 정의되고,
상기 눈 깜빡임의 빈도, 목소리 파형, 홍채 정보 및 안면 색상은 적어도 사용자 식별 생체 정보로 정의되고,
상기 눈 깜빡임의 빈도, 상기 눈꼬리 위치, 눈썹 위치 및 입꼬리 위치는 적어도 사용자 상태 생체 정보로 정의되는 소셜 로봇.
According to clause 8,
The eye position, head direction, arm position, and hand position are defined as at least indicated biometric information,
The eye blink frequency, voice waveform, iris information and facial color are defined as at least user identification biometric information,
A social robot wherein the eye blink frequency, the eye corner position, the eyebrow position, and the mouth corner position are defined by at least user state biometric information.
삭제delete 제9항에 있어서,
상기 눈꼬리 위치, 상기 눈썹 위치 및 상기 입꼬리 위치에 더 기초하여 상기 로봇 선제적 인터랙션의 빈도를 결정하도록 구성된 소셜 로봇.
According to clause 9,
A social robot configured to determine the frequency of the robot preemptive interaction further based on the eye corner position, the eyebrow position, and the mouth corner position.
제9항에 있어서,
상기 인터랙션은, 적어도 사용자의 비언어적 동작에 기초한 비언어적 또는 복합 인터랙션을 포함하고,
상기 지시 생체 정보는 비언어적 또는 복합 인터랙션의 수행 여부를 결정함에 사용되도록 구성된 소셜 로봇.
According to clause 9,
The interaction includes at least a non-verbal or complex interaction based on the user's non-verbal actions,
A social robot configured to use the indicated biometric information to determine whether to perform non-verbal or complex interaction.
사용자로부터 인터랙션이 없는 상태에서 사용자의 생체 정보를 스캔하여 사용자 정보를 학습하는 단계로서, 적어도 사용자의 눈 깜빡임의 빈도를 포함하는 생체 정보를 스캔하여 학습하는 단계;
사용자로부터 인터랙션 요청이 있는 경우, 요청한 사용자의 생체 정보를 스캔하여 학습된 생체 정보와 비교하는 단계;
스캔한 생체 정보와 학습된 생체 정보가 일치할 경우 친밀도 값을 부여하는 단계;
등록된 다수의 사용자들의 친밀도 값에 따라 다수 사용자들의 친밀도 클래스를 분류하는 단계; 및
상기 눈 깜빡임의 빈도에 기초해 로봇 선제적 인터랙션의 빈도를 결정하는 단계로서, 적어도 현재 시간을 알려주는 것을 포함하는 로봇 선제적 인터랙션의 빈도를 결정하는 단계를 포함하는 소셜 로봇의 제어 방법.
A step of learning user information by scanning the user's biometric information in a state in which there is no interaction from the user, comprising: scanning and learning biometric information including at least the frequency of the user's eye blinks;
When there is a request for interaction from a user, scanning biometric information of the requesting user and comparing it with learned biometric information;
assigning an intimacy value when the scanned biometric information matches the learned biometric information;
Classifying intimacy classes of multiple users according to the intimacy values of the multiple registered users; and
A method of controlling a social robot, comprising determining a frequency of robot preemptive interaction based on the eye blink frequency, wherein the frequency of robot preemptive interaction includes at least informing the current time.
제13항에 있어서,
인터랙션의 종류를 분류하는 단계; 및
어느 사용자로부터 요청 받은 인터랙션의 종류와 상기 사용자의 친밀도 클래스를 비교하는 단계를 더 포함하는 소셜 로봇의 제어 방법.
According to clause 13,
Classifying the type of interaction; and
A method of controlling a social robot further comprising comparing the type of interaction requested from a user with the intimacy class of the user.
제14항에 있어서,
상기 친밀도 클래스 레벨에 기초하여 사용자 별 인터랙션의 우선순위를 결정하는 단계를 더 포함하는 소셜 로봇의 제어 방법.
According to clause 14,
A method of controlling a social robot further comprising determining the priority of interaction for each user based on the intimacy class level.
제13항에 있어서,
사용자의 생체 정보에 기초하여 연령 클래스를 분류하는 단계;
사용자의 생체 정보에 기초하여 성별 클래스를 분류하는 단계; 및
분류된 연령 클래스의 레벨 또는 성별 클래스의 레벨에 따라 인터랙션 요청의 수행 여부를 결정하는 단계를 더 포함하는 소셜 로봇의 제어 방법.
According to clause 13,
Classifying age classes based on the user's biometric information;
Classifying gender classes based on the user's biometric information; and
A method of controlling a social robot further comprising determining whether to perform an interaction request according to the level of the classified age class or the level of the gender class.
제13항에 있어서,
사용자로부터 요청받은 인터랙션은, 사용자의 음성 인식에 따라 수행 가능한 음성 인터랙션, 사용자의 비언어적 동작에 따라 수행 가능한 비언어적 인터랙션, 및 사용자의 음성과 함께 비언어적 동작이 요구되는 복합 인터랙션을 포함하여 분류되고,
사용자로부터 음성에 기초한 인터랙션 요청이 수신되는 경우,
음성 인터랙션으로 분류된 요청인지 또는 복합 인터랙션으로 분류된 요청인지 판단하는 단계; 및
복합 인터랙션으로 분류된 요청일 경우 소정의 인터벌 동안 사용자의 비언어적 동작 여부를 스캔하는 단계를 더 포함하는 소셜 로봇의 제어 방법.
According to clause 13,
Interactions requested from the user are classified as voice interactions that can be performed based on the user's voice recognition, non-verbal interactions that can be performed based on the user's non-verbal actions, and complex interactions that require non-verbal actions along with the user's voice,
When a voice-based interaction request is received from a user,
Determining whether the request is classified as a voice interaction or a complex interaction; and
A method of controlling a social robot further comprising scanning whether a user's non-verbal behavior is present during a predetermined interval when the request is classified as a complex interaction.
제17항에 있어서,
상기 비언어적 동작은 눈동자 위치, 고개 방향, 팔의 위치 및 손의 위치 중 적어도 하나를 포함하는 소셜 로봇의 제어 방법.
According to clause 17,
The non-verbal action is a method of controlling a social robot including at least one of eye position, head direction, arm position, and hand position.
삭제delete 제1항에 따른 소셜 로봇; 및
하나 이상의 사물 인터넷 기기를 포함하는 사용자-로봇 인터랙션 시스템.
A social robot according to claim 1; and
A user-robot interaction system that includes one or more Internet of Things devices.
제20항에 있어서,
소셜 로봇이 수집하는 생체 정보는 눈동자 위치, 고개 방향, 팔의 위치 및 손의 위치를 포함하는 지시 생체 정보를 더 포함하고,
사용자로부터 상기 사물 인터넷 기기와 관련한 지시 생체 정보가 수신되는 경우, 상기 사물 인터넷 기기를 동작시키는 것을 포함하는 사용자-로봇 인터랙션 시스템.
According to clause 20,
The biometric information collected by the social robot further includes instructional biometric information including eye position, head direction, arm position, and hand position,
A user-robot interaction system comprising operating the Internet of Things device when indicative biometric information related to the Internet of Things device is received from a user.
하나 이상의 인스트럭션을 저장하는 메모리, 및 상기 메모리에 저장된 인스트럭션을 실행하여 제17항의 방법을 수행하는 프로세서를 포함하는 장치.An apparatus comprising a memory for storing one or more instructions, and a processor for performing the method of claim 17 by executing the instructions stored in the memory.
KR1020210163991A 2021-11-25 2021-11-25 Method and system for interaction between social robot and user based on non-verbal recognition KR102636908B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210163991A KR102636908B1 (en) 2021-11-25 2021-11-25 Method and system for interaction between social robot and user based on non-verbal recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210163991A KR102636908B1 (en) 2021-11-25 2021-11-25 Method and system for interaction between social robot and user based on non-verbal recognition

Publications (2)

Publication Number Publication Date
KR20230077097A KR20230077097A (en) 2023-06-01
KR102636908B1 true KR102636908B1 (en) 2024-02-15

Family

ID=86771120

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210163991A KR102636908B1 (en) 2021-11-25 2021-11-25 Method and system for interaction between social robot and user based on non-verbal recognition

Country Status (1)

Country Link
KR (1) KR102636908B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772583B1 (en) * 2012-12-13 2017-08-30 한국전자통신연구원 Operating method of robot providing user interaction services

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160033502A (en) * 2014-09-18 2016-03-28 서강대학교산학협력단 Emotional chair robot and control method thereof
KR20160072621A (en) * 2014-12-15 2016-06-23 엘지전자 주식회사 Artificial intelligence robot service system
WO2020256195A1 (en) * 2019-06-21 2020-12-24 엘지전자 주식회사 Building management robot, and method for providing service using same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772583B1 (en) * 2012-12-13 2017-08-30 한국전자통신연구원 Operating method of robot providing user interaction services

Also Published As

Publication number Publication date
KR20230077097A (en) 2023-06-01

Similar Documents

Publication Publication Date Title
EP3583497B1 (en) Multi-user intelligent assistance
US10367652B2 (en) Smart home automation systems and methods
US11379756B2 (en) Laundry scheduling apparatus and method
KR102639900B1 (en) Air conditioner
CN112051743A (en) Device control method, conflict processing method, corresponding devices and electronic device
US20200302928A1 (en) Electronic device and controlling method thereof
US11126140B2 (en) Electronic device, external device capable of being combined with the electronic device, and a display method thereof
WO2014190886A1 (en) Intelligent interaction system and software system thereof
EP3373525A2 (en) Electronic device and method using machine learning for identifying characteristics of users located within a specific space
EP3523709B1 (en) Electronic device and controlling method thereof
US20210151154A1 (en) Method for personalized social robot interaction
US20200371895A1 (en) Electronic device and method for controlling same
KR102511517B1 (en) Voice input processing method and electronic device supportingthe same
KR102636908B1 (en) Method and system for interaction between social robot and user based on non-verbal recognition
CN113614713A (en) Human-computer interaction method, device, equipment and vehicle
US11461404B2 (en) System and method for adjustment of a device personality profile
KR102643720B1 (en) Artificial intelligence interface system for robot
Vu et al. Hybrid On-Device Cloud Scheme for Re-Identification of Persons Based on Shared Embedding Gallery
Daniels et al. Robotic Game Playing Internet of Things Device
Dhillon et al. Enhancing Privacy of Smart Speakers Using Image Recognition and Motion Sensors
CN115718433A (en) Control method and device of intelligent equipment, intelligent system and storage medium
Von Dehsen Camera Lens with Display Mode
Dhillon et al. Health Analyzing Smart Mirror
Daniels et al. Interactive Device that Performs Output Based On Human Movement and/or Human Emotion Detected via Machine Learning
Tait Smart Floor for In Room Detection

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right