KR20080078324A - Self-regulating feeling representation system of robot - Google Patents

Self-regulating feeling representation system of robot Download PDF

Info

Publication number
KR20080078324A
KR20080078324A KR1020070018266A KR20070018266A KR20080078324A KR 20080078324 A KR20080078324 A KR 20080078324A KR 1020070018266 A KR1020070018266 A KR 1020070018266A KR 20070018266 A KR20070018266 A KR 20070018266A KR 20080078324 A KR20080078324 A KR 20080078324A
Authority
KR
South Korea
Prior art keywords
robot
emotion
mouth
eye
lcd
Prior art date
Application number
KR1020070018266A
Other languages
Korean (ko)
Inventor
한규선
정현철
신경철
박성주
Original Assignee
주식회사 유진로봇
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 유진로봇 filed Critical 주식회사 유진로봇
Priority to KR1020070018266A priority Critical patent/KR20080078324A/en
Publication of KR20080078324A publication Critical patent/KR20080078324A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/0015Face robots, animated artificial faces for imitating human expressions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour

Abstract

A robot system of expressing feeling under self-control is provided to employ a LCD(Liquid Crystal Display) for the eyes and plural LED(Light Emitting Diodes) for the cheek and combining the LCD and the LEDS so that the robot is able to express feeling. A robot system representing feeling includes an input unit(10), a control board(20), an eye LED processing unit(30), a mouth LED processing unit(40), and a cheek LED processing unit(50), a synchronization processing unit(60), and an output unit(70). The control board controls the operation of a robot according to feeling data input through the input unit. The eye, mouth, and cheek LED processing units process the operations of eyes, mouths, and cheeks according to the control of the control board. The synchronization processing unit synchronizes the operations of each unit with the input feeling data. The output unit outputs the synchronized operation of each unit.

Description

자율적 감정표현 로봇 시스템{Self-regulating feeling Representation System of Robot}Self-regulating feeling Representation System of Robot}

도 1은 본 발명에 따른 로봇의 안면 구성도1 is a face configuration of the robot according to the present invention

도 2는 본 발명에 따른 로봇 시스템 구성도2 is a block diagram of a robot system according to the present invention

도 3은 본 발명에 따른 로봇 안면 보드의 구성도3 is a block diagram of a robot face board according to the present invention

도 4는 본 발명에 따른 로봇 눈 LCD의 감정 표현 종류를 나타낸 도면4 is a view showing the emotional expression type of the robot eye LCD according to the present invention.

도 5는 본 발명에 따른 로봇의 감정표현 메카니즘 구성도5 is a block diagram of the emotional expression mechanism of the robot according to the present invention

도 6은 본 발명에 따른 로봇의 감정표현 처리 메카니즘에 대한 소프트웨어적인 처리 과정을 나타낸 순서도6 is a flow chart showing a software process for the emotion expression processing mechanism of the robot according to the present invention.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

로봇 LCD눈(1), 로봇 LED입(2), 로봇 LED볼(3), 입력부(10), 제어보드(20), 눈LCD 처리부(30)와, 입LED 처리부(40), 볼LED 처리부(50), 동기화처리부(60), 출력부(70), 마이크로 콘트롤러(100), 메인보드 코트롤러(200), 입출력포트(I/O Port)(300)Robot LCD eye (1), robot LED mouth (2), robot LED ball (3), input unit 10, control board 20, eye LCD processing unit 30, mouth LED processing unit 40, ball LED processing unit 50, synchronization processing unit 60, output unit 70, microcontroller 100, motherboard coat roller 200, input / output port (I / O port) (300)

본 발명은 로봇의 눈을 LCD로 구성하고, 로봇의 입과 볼을 다수개의 LED로 구성하여, 상기 LCD와 LED를 적절히 조합함으로써 생동적인 감정표현과 의사표현이 가능한 자율적 감정표현 로봇에 관한 것이다.The present invention relates to an autonomous emotion expression robot capable of providing a live emotional expression and a pseudo expression by constructing a robot's eyes with an LCD, a robot's mouth and a ball with a plurality of LEDs, and combining the LCD and the LED appropriately.

대부분의 심리상태나 감정표현은 얼굴 표정을 통해서 이루어진다. 이에 따라 현재까지 개발된 로봇의 감정표현에 대한 대부분의 연구들은, 로봇의 심리상태나 감정표현을 사람의 얼굴을 본 따서 만든 기계적 얼굴로 표현하고자 하였다. 대표적인예로서, 기계적으로 얼굴의 근육을 묘사한 미국 MIT의 Kismet와, 실리콘을 사용하여 사람의 피부와 비슷하게 만든 일본도쿄기술대학의 Roterta와 Saya가 있다.Most psychological states or emotions are expressed through facial expressions. Accordingly, most of the researches on emotional expression of robots developed to date have attempted to express the psychological state or emotional expression of robots with mechanical faces that are modeled after human faces. Typical examples include Kismet from MIT, USA, which mechanically depicts the muscles of the face, and Roterta and Saya from the University of Tokyo, Japan, using silicone to resemble human skin.

로봇의 감정표현에 대한 선행특허를 살펴보면, 국내 특허 등록번호 제0639068호에 로봇이 표현해야 할 감정이 입력되는 수단과; 상기 로봇이 표현해야 할 감정에 해당하는 감정표현행위들 중 사용자의 반응을 고려한 확률적 모델에 따라 하나의 감정표현행위를 선택하는 감정표현행위관리부와; 두 눈과 입과 가상얼굴근육을 포함한 3차원 얼굴모델을 생성하고, 상기 감정표현행위관리부의 제어를 받아 상기 가상얼굴근육의 움직임을 이용하여 상기 감정표현행위관리부에서 선택된 감정표현행위에 해당하는 얼굴표정 그래픽을 생성하는 얼굴표정생성기와; 상기 얼굴표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동부를 포함하는 것을 특징으로 하는 로봇의 감정표현장치가 공지되어 있고,Looking at the prior patent on the emotion expression of the robot, means for inputting the emotion to be expressed by the robot in the domestic patent registration No. 0639068; An emotion expression behavior management unit that selects one emotion expression behavior according to a probabilistic model in consideration of a user's reaction among emotion expression behaviors corresponding to emotions to be expressed by the robot; A three-dimensional face model including two eyes, a mouth, and a virtual facial muscle is generated, and a face corresponding to an emotional expression behavior selected by the emotional expression behavior manager is controlled using the movement of the virtual facial muscle under the control of the emotional expression behavior manager. A facial expression generator for generating facial expression graphics; The emotion expression apparatus of the robot is known, comprising an LCD driving unit for displaying the facial expression graphic on the LCD screen mounted on the robot,

동 특허 등록번호 제0458079호에는 로보트 주변의 밝기 정도를 판별하기 위한 시각 센서부, 외력으로부터의 충격량을 판별하기 위한 촉각 센서부, 주변 물체의 유무를 판별하기 위한 물체 감지부, 바닥으로부터 일정 거리 이격됨을 판단하기 위한 바닥 검출부, 음향 신호의 입력 및 위치를 판별하기 위한 음성 인식부, 및 배터리의 잔여량을 검출하기 위한 배터리 감지부로 이루어진 센서 입력부; 표정 정보를 디스플레이하기 위한 표정 구동부; 선약된 정보에 기초하여 상기 표정 정보를 생성하기 위한 테이블 정보를 보유하며, 상기 표정 정보에 대응한 상기 로보트 이송 형태 정보를 보유하여 상기 센서 입력부의 입력 정보에 따라 설정되는 상기 테이블 정보를 상기 표정 구동부로 제공하고, 상기 로보트 이송 형태 정보에 기초하여 상기 제어 신호를 출력하기 위한 중앙 처리 장치로 이루어진 감정 표현 로봇이 공지되어 있으며, Patent No. 0458079 discloses a visual sensor unit for determining the degree of brightness around the robot, a tactile sensor unit for determining the amount of impact from an external force, an object detector for determining the presence or absence of surrounding objects, and a predetermined distance from the floor. A sensor input unit including a floor detection unit for determining whether a signal is detected, a voice recognition unit for determining an input and a position of an audio signal, and a battery detection unit for detecting a residual amount of a battery; An expression driver for displaying facial expression information; Retains table information for generating the facial expression information based on the predetermined information, holds the robot transfer form information corresponding to the facial expression information, and sets the table information set according to the input information of the sensor input unit. Emotional expression robot that is provided with a, and a central processing unit for outputting the control signal based on the robot transfer form information is known,

국내 특허출원번호 제10-2005-0031624호에는 임베디드 OS 환경에서 음성, 영상, 초음파, 적외선 등 외부의 다양한 센서 등에 반응하여 감정 상태를 결정 한 후 서보모터로 구성된 기구학적인 머리 구조를 제어 혹은 외부 LED 및 LCD 화면에 감정 표현이 가능하며 엔터테인먼트 기능 즉 뮤직 비디오, MP3, 디지털 카메라, 무선 이더넷 통신, 동영상녹화 기능, TV 기능 등을 추가 하였으며 청소 기능을 추가 하였으며 초음파 센서를 이용해 자율 이동을 통한 장애물 회피가 가능하므로 써 사용자 간에 침 밀도 및 사용자의 편의성을 도모 할 수 있으며 가정에서 사용 할 수 있게 무선기기로 로봇을 제어하며 다양한 서비스를 제공 할 수 있는 임베디드 시스템기반의 감정표현 휴먼노이드 로봇이 공지되어 있다.In Korean Patent Application No. 10-2005-0031624, in response to various sensors such as voice, image, ultrasonic, infrared, etc. in the embedded OS environment, the emotional state is determined and then the kinematic head structure composed of servo motor is controlled or external LED is applied. And emotional expression on LCD screen, entertainment functions such as music video, MP3, digital camera, wireless Ethernet communication, video recording function, TV function, etc., cleaning function added and obstacle avoidance through autonomous movement using ultrasonic sensor. It is possible to promote needle density and user convenience between users, and it is known to express humanoid robots based on embedded systems that can control robots with wireless devices and provide various services for home use.

그러나, 지금까지 개발된 로봇의 감정표현 방식은 가정용 퍼스널 로봇에 적용하기에는 연구실 내에서의 실험 단계로 가격이 너무 고가이거나, 또는 안면 전면을 LCD화 한다거나 LED로 표현하여, 안면 구조상에서의 이질감이나 LED의 한계성으 로 로봇 감정을 전달하기에는 다소 부족한 면이 있다.However, the emotion expression method of the robot developed so far is an experimental stage in the laboratory to be applied to a home personal robot, and the price is too expensive, or the front face of the face is made into an LCD, or expressed in LEDs, resulting in heterogeneity in the face structure or LED. Due to its limitations, it is somewhat insufficient to convey robot emotions.

상기한 종래기술의 문제점을 해결하기 위하여 안출된 본 발명의 목적은, 가정용 로봇의 감정 표현에 있어, 얼굴 표정의 50% 이상이 눈 주위에서 형성된다는 사실에 근거하여, 로봇의 눈을 LCD로 구성하고, 로봇의 입과 볼을 다수개의 LED로 구성하여, 상기 LCD와 LED를 적절히 조합함으로써 비교적 저가에, 생동적인 감정표현과 의사표현이 가능한 자율적 감정표현 로봇을 제공하는데 있다. An object of the present invention devised to solve the above problems of the prior art, in the expression of emotions of the home robot, based on the fact that more than 50% of the facial expression is formed around the eyes, the robot's eyes are composed of LCD In addition, the mouth and the ball of the robot are composed of a plurality of LEDs, and the LCD and the LEDs are appropriately combined to provide an autonomous emotion expression robot capable of lively and emotional expression at a relatively low cost.

본 발명은 얼굴 표정의 50% 이상이 눈 주위에서 형성되는 사실에 근거하여, 비교적 저가로 적용한 기술에 해당한다.The present invention corresponds to a technique applied at a relatively low cost, based on the fact that 50% or more of the facial expression is formed around the eyes.

상기한 목적을 달성하기 위한 본 발명은 자율적 감정표현 로봇 시스템에 관한 것으로서, 보다 상세하게는 감정 데이터가 입력되는 입력부(10)와, 상기 입력부(10)를 통해 입력된 감정 데이터에 따라 로봇의 동작을 제어하는 제어보드(20)와, 상기 제어보드(20)에 의해 LCD로봇 눈의 동작을 처리하는 눈LCD 처리부(30)와, 다수의 LED로 구성된 로봇 볼과 입의 동작을 처리하는 입LED 처리부(40) 및 볼LED 처리부(50)와, 입력된 감정 데이터에 각 부분 동작의 동기를 맞추는 동기화처리부(60)와, 상기 동기화처리부(60)를 통해 동기화된 각 부분의 동작을 출력하는 출력부(70)로 구성됨을 특징으로 하는 자율적 감정표현 로봇 시스템에 관한 것이다.The present invention for achieving the above object relates to an autonomous emotion expression robot system, and more particularly, the operation of the robot in accordance with the input unit 10 and the emotion data input through the input unit 10, the emotion data is input; Control board 20 for controlling the control, the eye LCD processing unit 30 for processing the operation of the LCD robot eye by the control board 20, and the mouth LED for processing the operation of the robot ball and mouth composed of a plurality of LEDs An output for outputting an operation of each part synchronized through the processing unit 40 and the ball LED processing unit 50, a synchronization processing unit 60 for synchronizing each partial operation to the input emotion data, and the synchronization processing unit 60 An autonomous emotion-expressing robot system, characterized in that consisting of a section 70.

기존의 감정을 표현하는 방법은 9개의 감정 모델을 3차원 공간에 매핑하여 감정에 따라 얼굴이 변화되는 정도이다. 문제는 상업용 로봇에는 그와 같이 정교한 얼굴 시스템을 도입하기는 무리가 있다. 비교적 저렴한 가격으로 얼굴을 흉내내기 위해서는The existing method of expressing emotions is to map nine emotion models in three-dimensional space, and the degree of face change according to the emotions. The problem is that commercial robots have no way of introducing such sophisticated facial systems. To mimic your face at a relatively low price

1. LCD 전체 평면(모니터)에 얼굴 안면 전체를 표현하는 방법1. How to express your entire face face on the entire LCD (monitor)

2. 얼굴의 특징(눈, 볼, 입) 등을 LED 로 표현하는 방법2. How to express facial features (eyes, cheeks, mouth) with LED

3. 기구적인 구분으로만 얼굴을 표현하는 방법3. How to express face only by mechanical division

4. 항목 2와 3의 조합으로 얼굴을 표현하는 방법4. How to express your face with a combination of items 2 and 3

등이 있을 수 있다.And the like.

가격 대비 가장 효율적인 방법은 본 발명에서 제시한 눈은 핸드폰에서 액정 크기만한 정도의 LCD로 입과 볼은 LED로 표현을 하는 방법이다. 눈은 감정을 표현하는 데 있어 중요한 것으로서, 보이지 않는 심리적인 변화에 대해서도 반응한다.The most efficient method for the price is the eye which is presented in the present invention, the size of the liquid crystal size in the cell phone and the mouth and cheeks are represented by the LED. Eyes are important in expressing emotions, and they react to invisible psychological changes.

예를 들어, 똑같은 사물이지만, 좋아하는 것을 보면 동공이 확대되고, 싫어하는 것을 반대로 오그라드는 것이다. 대문에 눈동자는 순간적으로 공포를 느꼈을 때, 불안해질 때, 기분 나쁜 것을 봤을 때 등은 동공이 수축되지만, 웃을 때는 이완되는 상반된 반응을 보이게 된다.For example, it's the same thing, but when you see something you like, your pupils enlarge and you don't like it. When the pupil feels fear at the moment, when he feels anxious, when he sees something unpleasant, his pupils contract, but when they laugh, they have the opposite reaction.

따라서, 본 발명에서는 이런 점을 로봇의 얼굴 표정 부분에 적용하여, 눈 부분을 핸드폰에서 사용되는 액정 LCD로 표현하였다.Therefore, in the present invention, this point is applied to the facial expression part of the robot, and the eye part is expressed by the liquid crystal LCD used in the mobile phone.

또한, 입은 심리적인 반응에 의해 가장 즉각적이고, 광범위하게 반응하는 곳이다. 입의 표정 중 재미있는 것은 웃을 때 U자를 형성하며, 입이 옆으로 벌어지는 모양과 울 때 그 반대로 U자를 뒤집어 놓은 것 같은 모양, 분노를 느낄 때 오므라들면서 힘이 들어가 있는 모양 등으로 다양하다.Mouth is also the most immediate and widespread response to psychological reactions. Interesting expressions of the mouth form a U-shape when laughing, the shape of the mouth spreading to the side, the appearance of U-turning upside down when crying, and the appearance of power entering and retracting when feeling anger.

이런 점을 표현하기 위해 본 발명에서는 입을 다수개(바람직하게는 21개)의 LED를 사용하여 표현하였다. 위와 같은 다양성을 가장 잘 표현할 요소에 LED를 배치한 것이다.In order to express this point, in the present invention, the mouth is expressed using a plurality of (preferably 21) LEDs. The LED is placed in the element that best expresses such diversity.

또한, 볼은 얼굴 표정과 얼굴의 색깔 정보와 연관이 있다. 얼굴을 붉히거나 공포나 질병에 의해 창백해지거나 할 때 얼굴의 색깔 정보가 변한다. 이런 점을 가장 잘 표현할 수 있는 부분이 얼굴 부분에서 볼이다. 볼은 특히 얼굴을 붉히는 부분을 가장 잘 표현할 수 있어, 부끄러움 등의 특징적인 표정을 부각시키는 데 효율적이다.The ball is also associated with facial expressions and color information of the face. When you blush or become pale by fear or disease, the color information of your face changes. The best part of this is the ball on the face. The ball can best express the red face, which is effective for emphasizing the characteristic expression such as shame.

이하, 도면을 참조하여 본 발명을 보다 상세히 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명에 따른 로봇의 안면 구성도, 도 2는 본 발명에 따른 로봇 시스템 구성도, 도 3은 본 발명에 따른 로봇 안면 보드의 구성도, 도 4는 본 발명에 따른 로봇 눈 LCD의 감정 표현 종류를 나타낸 도면, 도 5는 본 발명에 따른 로봇의 감정표현 메카니즘 구성도, 도 6은 본 발명에 따른 로봇의 감정표현 처리 메카니즘에 대한 소프트웨어적인 처리 과정을 나타낸 순서도를 도시한 것이며, 로봇 LCD눈(1), 로봇 LED입(2), 로봇 LED볼(3), 입력부(10), 제어보드(20), 눈LCD 처리부(30)와, 입LED 처리부(40), 볼LED 처리부(50), 동기화처리부(60), 출력부(70), 마이크로 콘트롤러(100), 메인보드 코트롤러(200), 입출력포트(I/O Port)(300)를 나타낸 것이다.1 is a face configuration diagram of a robot according to the present invention, FIG. 2 is a configuration diagram of a robot system according to the present invention, FIG. 3 is a configuration diagram of a robot face board according to the present invention, and FIG. 5 is a block diagram showing the emotion expression mechanism of the robot according to the present invention, and FIG. 6 is a flowchart showing a software processing process for the emotion expression processing mechanism of the robot according to the present invention. LCD eye (1), robot LED mouth (2), robot LED ball (3), input unit 10, control board 20, eye LCD processing unit 30, mouth LED processing unit 40, ball LED processing unit ( 50, the synchronization processor 60, the output unit 70, the micro-controller 100, the motherboard coat roller 200, and the I / O port (300).

일반적으로 로봇에는 로봇을 구동시키기 위한 구동 프로그램 및 구동과 관련 된 데이터를 저장하고 있는 저장부와, 사용자의 조작에 따라 로봇을 구동시키기 위한 초기 신호 및 각 기능을 선택하기 위한 선택 신호를 입력할 수 있도록 하는 조작부와, 사용자의 조작에 따라 로봇을 구동될 수 있도록 하는 구동부가 구성되어 있다.In general, the robot can input a drive program for driving the robot and a storage unit that stores data related to the drive, an initial signal for driving the robot according to a user's operation, and a selection signal for selecting each function. The operation unit is configured, and the driving unit is configured to drive the robot according to the user's operation.

본 발명은 이러한 로봇에 있어서, 도1에 도시된 바와 같이 응시방향과 감정표현(행복, 놀람, 보통, 실망, 부끄러움의 5가지 감정) 등 풍부한 표현을 가능하게 하기 위해 로봇의 눈(1)을 LCD로 구성하였으며,In the present invention, as shown in Fig. 1, the robot's eye 1 is used to enable abundant expression such as gaze direction and emotion expression (five emotions of happiness, surprise, normal, disappointment, and shame). LCD

말하는 모양과 얼굴의 표정을 표시할 수 있도록 로봇의 입(2)과 볼(3)을 다수개의 LED로 구성하였다. 즉, 입(2)을 LED를 통해 말하는 모양과 얼굴의 표정을 표시하고, 볼에 LED를 통하여 감정을 나타내도록 하였다.The mouth (2) and the ball (3) of the robot are composed of a plurality of LEDs so as to display a talking shape and a facial expression. That is, the shape of the mouth 2 and the expression of the face are displayed through the LED, and the emotion is expressed through the LED on the cheek.

도2는 로봇의 감정표현 동작이 이루어질 수 있도록 구성된 본 발명에 따른 로봇 시스템을 나타낸 것으로서, 도시된 바와 같이, 감정 데이터가 입력되는 입력부(10)와, 상기 입력부(10)를 통해 입력된 감정 데이터에 따라 로봇의 동작을 제어하는 제어보드(20)와, 상기 제어보드(20)에 의해 LCD로봇 눈의 동작을 처리하는 눈LCD 처리부(30)와, 다수의 LED로 구성된 로봇 볼과 입의 동작을 처리하는 입LED 처리부(40) 및 볼LED 처리부(50)와, 입력된 감정 데이터에 각 부분 동작의 동기를 맞추는 동기화처리부(60)와, 상기 동기화처리부(60)를 통해 동기화된 각 부분의 동작을 출력하는 출력부(70)로 구성되어 있음을 특징으로 하고 있다.Figure 2 shows a robot system according to the present invention configured to enable the emotion expression operation of the robot, as shown, the input unit 10, the emotion data is input, and the emotion data input through the input unit 10 In accordance with the control board 20 for controlling the operation of the robot, the eye LCD processing unit 30 for processing the operation of the LCD robot eye by the control board 20, the operation of the robot ball and mouth composed of a plurality of LEDs The LED processing unit 40 and the ball LED processing unit 50 for processing the synchronization, the synchronization processing unit 60 for synchronizing each part operation to the input emotion data, and the synchronization of the respective parts synchronized through the synchronization processing unit 60 And an output unit 70 for outputting an operation.

도 3은 로봇의 입/볼 LED(2,3) 및 눈 LCD(1)로 구성된 안면 보드의 구성을 나타낸 것으로서, 안면의 LCD와 LED를 제어하는 마이크로 콘트롤러(Micro Controller)(100)와 로봇의 메인보드 코트롤러(Main Board Controller)(200)와는 UART로 연결되며, 상기 마이크로 콘트롤러(100)는 패러럴 포트(Parallel Port)를 이용하여 양 눈의 LCD 패널(Panel)(1)을 제어하여, 입출력포트(I/O Port)(300)를 이용하여 입과 볼 LED(2,3)를 제어한다.FIG. 3 shows the configuration of a face board composed of the robot's mouth / ball LEDs (2,3) and an eye LCD (1), and shows a microcontroller (100) and a robot for controlling the LCD and LEDs on the face. The main board controller 200 is connected to the UART, and the microcontroller 100 controls the LCD panel 1 of both eyes by using a parallel port, and inputs and outputs. Port (I / O Port) 300 to control the mouth and ball LED (2, 3).

도 4는 눈 LCD 관련 감정 표현 종류를 나타낸 것으로서, 각 표현 종류를 혼합하여, 현재 상태를 표현하게 된다.FIG. 4 illustrates the types of emotion expressions related to the eye LCD. Each of the expression types is mixed to express the current state.

상기 로봇의 눈에 해당하는 LCD에는, 로봇에 구비된 카메라, 마이크 등과 같은 입력수단을 통해 사용자의 얼굴표정에 대한 영상신호 및 음성신호 또는 외부에서 로봇을 터치하는 등의 행위로 인해 발생되는 감지신호에 의해, 행복, 놀람, 보통, 실망, 부끄러움 등에 대한 이미지 표현과 눈의 응시방향이 결정되어 출력되게 되며,The LCD corresponding to the eye of the robot includes a video signal and an audio signal for the facial expression of the user through input means such as a camera and a microphone provided in the robot, or a detection signal generated by an action such as touching the robot from the outside. By the image expression for the happiness, surprise, normal, disappointment, embarrassment and the eyes gaze direction is determined and output,

상기 로봇의 입과 볼에 감정 상태를 표현하도록 구성된 다수개의 LED 또한, 상기 로봇의 눈 LCD와 같이, 사용자의 표정 및 음성에 대한 신호와 로봇의 감지신호에 의해, 다수개의 LED가 선택적으로 ON/OFF되어 로봇의 감정상태가 표현되게 된다.A plurality of LEDs are configured to express an emotional state in the mouth and cheek of the robot. Also, like the eye LCD of the robot, a plurality of LEDs are selectively turned on / off by signals for a user's expression and voice and a sensing signal of the robot. OFF, the robot's emotional state is expressed.

간단한 처리 메커니즘을 살펴보면, 감정 데이터가 입력되면, 감정 데이터의 무결성을 체크한 후, 감정에 따른 눈과 입의 데이터를 생성하게 되며, 각 동작 관련 처리 루틴으로 분기되어, 눈/입 싱크 튜닝 메커니즘에 따라 원하는 싱크에 맞추어져 눈/입을 표현되어, 눈LCD와 입LED를 이용하여 감정 출력을 하게 된다.In the simple processing mechanism, when the emotion data is input, the integrity of the emotion data is checked, and then the eye and mouth data are generated according to the emotion, branched to each motion related processing routine, and the eye / mouth sink tuning mechanism is applied. According to the desired sync, eyes / mouths are expressed, and the emotions are output using the eye LCD and the mouth LED.

상기 처리 메커니즘을 도 5를 참조하여 보다 상세히 설명하면 아래와 같다.The processing mechanism will be described in more detail with reference to FIG. 5 below.

1. 감정 데이터 무결성 체크1. Emotional data integrity check

원하는 입력데이터가 표현 데이터의 범주안에 있는지 체크한다.Check that the desired input data is within the range of presentation data.

2. 감정에 따른 눈/입 데이터 생성2. Eye / mouth data generation according to emotion

원하는 감정(기쁨 등)에 따라 눈/입/볼 데이터를 추출한다.Eye / mouth / ball data is extracted according to the desired emotion (joy).

3. 관련 처리 루틴으로 분기3. Branch to the relevant processing routine

각각 추출한 데이터를 각 처리 펑션 파라미터로 전달한다.Transfer the extracted data to each processing function parameter.

4. 눈/입 싱크 튜닝 매커니즘4. Eye / mouth Sink Tuning Mechanism

요구한 표정을 표현하기 위해서 눈/입/볼의 표현을 Sleep()등으로 싱크를 맞추어 처리한다.To express the requested facial expression, the expressions of eyes / mouths / balls are synchronized with Sleep ().

5. 원하는 싱크에 맞춰서 눈/입 표현5. Eye / mouth expression according to the desired sink

눈/입/볼의 단위 싱크가 맞추어 졌으면, 전체적으로 그 단위 표정을 적절하게 Sleep를 주어서 적당한 빠르기로 원하는 감정 표현을 반복한다.Once the unit sync of the eye / mouth / ball is set, give the appropriate facial expression to the overall sleep and repeat the desired emotional expression at a moderate pace.

도 6는 처리 메카니즘에 대한 소프트웨어적인 처리 과정을 나타낸 것이다. 각 입력에 대응하여 무한 루프를 돌며 각 LCD/LED를 제어한다.6 shows a software process for the processing mechanism. Each LCD / LED is controlled in an infinite loop corresponding to each input.

또한, 상기 로봇은 표현되는 감정 상태에 따라, 머리, 팔 등이 기 설정된 행위프로세서에 의해 동작하도록 구성할 수 있으며, In addition, the robot may be configured to operate the head, arm, etc. by a predetermined behavior processor according to the emotional state expressed,

또한, 로봇이 긍정/부정의 의사표현 등의 행동을 할 수행하도록 프로그램화 되어 사용자의 얼굴표정 및 음성에 의해 자율적으로 움직이도록 구성할 수 있다.In addition, the robot may be programmed to perform an action such as positive / negative expression and may be configured to move autonomously by facial expression and voice of the user.

상기와 같이 로봇과 사람의 상호작용을 위해 로봇의 감정을 얼굴과 몸체로 표현하도록 하는데 필요한 세부기술은, 예를 들어, 로봇이 표현해야 할 감정이 입력되는 수단, 상기 로봇이 표현해야 할 감정의 표현행위를 선택하는 감정표현행위관리 수단, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 표정의 그래픽을 생성하는 표정생성 수단, 상기 표정 그래픽을 상기 로봇에 장착된 LCD화면에 표시하는 LCD구동 수단, 상기 감정표현행위관리부의 제어를 받아 상기 로봇이 표현해야 할 감정에 해당하는 동작을 생성하는 동작생성 수단, 상기 동작을 상기 로봇의 몸체 및/또는 팔에 적용하는 로봇구동 수단 등은 종래에 널리 알려진 통상의 기술로서 구체적인 내용은 생략하도록 한다. As described above, the detailed technology required to express the emotions of the robot in the face and the body for the interaction between the robot and the person may include, for example, means for inputting emotions to be expressed by the robot, and emotions to be expressed by the robot. Emotion expression behavior management means for selecting an expression behavior, Expression generation means for generating a graphic of the expression corresponding to the emotion to be expressed by the robot under the control of the emotion expression behavior management unit, LCD for mounting the expression graphics on the robot LCD driving means for displaying on the screen, motion generating means for generating a motion corresponding to the emotion to be expressed by the robot under the control of the emotion expression behavior management unit, a robot that applies the motion to the body and / or arm of the robot The driving means and the like are conventional techniques well known in the art, so that specific contents thereof will be omitted.

이상과 같이 본 발명은 로봇의 눈을 LCD로 구성하고, 로봇의 입과 볼을 다수개의 LED로 구성하여, 상기 LCD와 LED의 적절한 조합만으로 로봇의 생동적인 감정표현과 의사표현이 가능하여 인간과 더욱 친화적인 퍼스널 로봇을 구현할 수 있다는 효과가 있다.As described above, the present invention configures the robot's eyes with the LCD, and the robot's mouth and cheeks with a plurality of LEDs. There is an effect that a more friendly personal robot can be implemented.

Claims (5)

자율적 감정표현 로봇 시스템에 있어서, 감정 데이터가 입력되는 입력부와, 상기 입력부를 통해 입력된 감정 데이터에 따라 로봇의 동작을 제어하는 제어보드와, 상기 제어보드에 의해 LCD로봇 눈의 동작을 처리하는 눈LCD 처리부와, 다수의 LED로 구성된 로봇 볼과 입의 동작을 처리하는 입LED 처리부 및 볼LED 처리부와, 입력된 감정 데이터에 각 부분 동작의 동기를 맞추는 동기화처리부와, 상기 동기화처리부를 통해 동기화된 각 부분의 동작을 출력하는 출력부로 구성됨을 특징으로 하는 자율적 감정표현 로봇 시스템An autonomous emotion expression robot system, comprising: an input unit for inputting emotion data, a control board for controlling the operation of the robot according to the emotion data input through the input unit, and an eye for processing the operation of the LCD robot eye by the control board LCD processing unit, mouth LED processing unit and ball LED processing unit for processing the robot ball and mouth movement composed of a plurality of LEDs, a synchronization processing unit for synchronizing each partial operation to the input emotion data, and synchronized through the synchronization processing unit Autonomous emotion expression robot system comprising an output unit for outputting the motion of each part 제1항에 있어서, 상기 로봇 눈은 응시방향과 감정표현 등 풍부한 표현을 가능하게 하기 위해 LCD로 구성됨을 특징으로 하는 자율적 감정표현 로봇 시스템.The autonomous emotion expression robot system of claim 1, wherein the robot eye is configured with an LCD to enable rich expression such as gaze direction and emotion expression. 제1항에 있어서, 상기 로봇 입과 볼은 말하는 모양과 얼굴의 표정을 표시할 수 있도록 다수개의 LED로 구성됨을 특징으로 하는 자율적 감정표현 로봇 시스템.The autonomous emotion-expressing robot system according to claim 1, wherein the robot mouth and ball are composed of a plurality of LEDs to display a speaking shape and a facial expression. 제1항에 있어서, 상기 로봇의 입/볼 LED 및 눈 LCD로 구성된 안면 제어보드는 안면의 LCD와 LED를 제어하는 마이크로 콘트롤러(Micro Controller)와 로봇의 메인보드 콘트롤러(Main Board Controller)와는 UART로 연결되며, 상기 마이크로 콘트롤러는 패러럴 포트(Parallel Port)를 이용하여 양 눈의 LCD 패널(Panel)을 제 어하여, 입출력포트(I/O Port)를 이용하여 입과 볼 LED를 제어하도록 구성됨을 특징으로 하는 자율적 감정표현 로봇 시스템.According to claim 1, wherein the face control board consisting of the eye / ball LED and the eye LCD of the robot is a microcontroller (Micro Controller) for controlling the LCD and the LED of the face and the main board controller (Main Board Controller) of the robot as a UART The microcontroller is configured to control an LCD panel of both eyes using a parallel port and to control mouth and ball LEDs using an I / O port. Autonomous emotion expression robot system. 제1항에 있어서, 상기 입력부를 통해 감정 데이터가 입력되면, 감정 데이터의 무결성을 체크한 후, 감정에 따른 눈과 입의 데이터를 생성하게 되며, 각 동작 관련 처리 루틴으로 분기되어, 눈/입 싱크 튜닝 메커니즘에 따라 원하는 싱크에 맞추어져 눈/입을 표현되어, 눈LCD와 입LED를 이용하여 감정 출력을 하도록 구성됨을 특징으로 하는 자율적 감정표현 로봇 시스템.The method of claim 1, wherein when emotion data is input through the input unit, the integrity of the emotion data is checked, and then data of eyes and mouth according to the emotion are generated, and branched to each motion related processing routine, the eye / mouth An autonomous emotion expression robot system, characterized in that the eye / mouth is expressed according to the desired sync tuning mechanism and configured to output emotion using the eye LCD and the mouth LED.
KR1020070018266A 2007-02-23 2007-02-23 Self-regulating feeling representation system of robot KR20080078324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070018266A KR20080078324A (en) 2007-02-23 2007-02-23 Self-regulating feeling representation system of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070018266A KR20080078324A (en) 2007-02-23 2007-02-23 Self-regulating feeling representation system of robot

Publications (1)

Publication Number Publication Date
KR20080078324A true KR20080078324A (en) 2008-08-27

Family

ID=39880534

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070018266A KR20080078324A (en) 2007-02-23 2007-02-23 Self-regulating feeling representation system of robot

Country Status (1)

Country Link
KR (1) KR20080078324A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103406906A (en) * 2013-08-30 2013-11-27 上海大学 Humanoid robot complexion adjusting device
CN107745386A (en) * 2017-10-12 2018-03-02 北京搜狗科技发展有限公司 A kind of ophthalmic device, robot and display methods
JP2018089730A (en) * 2016-12-01 2018-06-14 株式会社G−グロボット Communication robot
DE102018207492A1 (en) * 2018-05-15 2019-11-21 Audi Ag A method for displaying a face of a communication partner on a display surface of an artificial head of a display device for a motor vehicle and display device and motor vehicle

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103406906A (en) * 2013-08-30 2013-11-27 上海大学 Humanoid robot complexion adjusting device
JP2018089730A (en) * 2016-12-01 2018-06-14 株式会社G−グロボット Communication robot
CN107745386A (en) * 2017-10-12 2018-03-02 北京搜狗科技发展有限公司 A kind of ophthalmic device, robot and display methods
DE102018207492A1 (en) * 2018-05-15 2019-11-21 Audi Ag A method for displaying a face of a communication partner on a display surface of an artificial head of a display device for a motor vehicle and display device and motor vehicle

Similar Documents

Publication Publication Date Title
Breazeal Designing sociable robots
US10444876B2 (en) Human-computer interface device and system
Biocca et al. Immersive virtual reality technology
Van den Hoven et al. Grasping gestures: Gesturing with physical artifacts
US20090319459A1 (en) Physically-animated Visual Display
CN114766038A (en) Individual views in a shared space
Huisman et al. Touching virtual agents: embodiment and mind
KR100897537B1 (en) Toy robot
US20220347860A1 (en) Social Interaction Robot
Lee et al. The design of a semi-autonomous robot avatar for family communication and education
JP7066115B2 (en) Public speaking support device and program
KR20080078324A (en) Self-regulating feeling representation system of robot
Dhanasree et al. Hospital emergency room training using virtual reality and leap motion sensor
Ogata et al. Pygmy: A ring-shaped robotic device that promotes the presence of an agent on human hand
Lee et al. Semi-autonomous robot avatar as a medium for family communication and education
Ladenheim et al. Babyface: Performance and installation art exploring the feminine ideal in gendered machines
Dai et al. A virtual companion empty-nest elderly dining system based on virtual avatars
US20240104870A1 (en) AR Interactions and Experiences
Niu et al. Exploring humanoid factors of robots through transparent and reflective interactions
Teyssier Anthropomorphic devices for affective touch communication
Pan et al. Motion Recognition and Students’ Achievement
Šperka Past and future of Human—Computer Interaction
Eklund et al. Art plunge: experiencing the inner worlds of famous artworks
Hu Soft Robot Skins That Express, Sense, and Grow
Angelini A framework for abstracting, designing and building tangible gesture interactive systems

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application
J201 Request for trial against refusal decision
J501 Disposition of invalidation of trial