KR100813668B1 - Emotional expression equipment and method in android robot - Google Patents

Emotional expression equipment and method in android robot Download PDF

Info

Publication number
KR100813668B1
KR100813668B1 KR1020060130636A KR20060130636A KR100813668B1 KR 100813668 B1 KR100813668 B1 KR 100813668B1 KR 1020060130636 A KR1020060130636 A KR 1020060130636A KR 20060130636 A KR20060130636 A KR 20060130636A KR 100813668 B1 KR100813668 B1 KR 100813668B1
Authority
KR
South Korea
Prior art keywords
unit
robot
processing step
motion
signals
Prior art date
Application number
KR1020060130636A
Other languages
Korean (ko)
Inventor
이태근
이상원
이동욱
김진영
이호길
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020060130636A priority Critical patent/KR100813668B1/en
Application granted granted Critical
Publication of KR100813668B1 publication Critical patent/KR100813668B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Toys (AREA)
  • Manipulator (AREA)

Abstract

An emotional expression method for an android robot is provided to increase requests for new technologies related to the robot and communicate with human friendly by expressing emotion by way of vision, sound, and text. An emotional expression method for an android robot comprises a vision processing step(S1) of extracting the emotional information of human by using an image signal photographed by a camera; an intelligence processing step(S2) of editing the emotional information to adjust to a motor applied to each shaft by using a text signal input through the web, the messenger, or the keyboard, and a sound signal input through a micro phone, and the motion information extracted by the image signal photographed from the camera; and a motion controlling step(S3) of controlling the driving of each motor of the robot by corresponding to the signals output from the vision processing step and the intelligence processing step.

Description

안드로이드 로봇의 감정표현 방법{Emotional expression equipment and method in android robot}Emotional expression equipment and method in android robot}

도 1은 본 발명 방법이 적용된 감정표현장치의 개략 블록 구성도.1 is a schematic block diagram of a emotion expression apparatus to which the present invention is applied.

도 2는 본 발명 방법이 적용된 장치의 상세 블록 구성도.Figure 2 is a detailed block diagram of an apparatus to which the present invention is applied.

도 3은 본 발명 방법을 설명하기 위한 메인 플로우챠트.3 is a main flowchart for explaining the method of the present invention.

도 4는 도 3의 비전 처리단계 중 색깔 인식에 의한 모션 인식단계의 상세 플로우챠트.4 is a detailed flowchart of a motion recognition step by color recognition in the vision processing step of FIG. 3.

도 5는 도 3의 비전 처리단계 중 얼굴 및 물체 추적단계에 대한 상세 플로우챠트.FIG. 5 is a detailed flowchart of a face and object tracking step of the vision processing step of FIG. 3;

도 6은 본 발명 방법 중 지능 처리단계에 따른 일 실시 예의 상세 플로우챠트.6 is a detailed flowchart of one embodiment according to an intelligent processing step of the method of the present invention.

도 7은 본 발명 방법 중 지능 처리단계에 따른 다른 실시 예의 상세 플로우챠트.7 is a detailed flowchart of another embodiment according to an intelligent processing step of the method of the present invention.

도 8은 본 발명 방법 중 모션 제어단계의 상세 플로우챠트.8 is a detailed flowchart of a motion control step of the method of the present invention.

도 9는 본 발명에서 적용한 로봇의 개성 모델을 도시한 블록 구성도.9 is a block diagram showing a personality model of the robot applied in the present invention.

도 10은 본 발명에서 적용한 로봇의 감성 모델을 도시한 2차원 감정 공간도.10 is a two-dimensional emotional space diagram showing the emotion model of the robot applied in the present invention.

도 11은 본 발명에서 적용한 로봇의 얼굴에 나타난 네 가지 감정들의 예시 도.Figure 11 is an illustration of four emotions shown on the face of the robot applied in the present invention.

도 12는 본 발명에서 적용한 로봇이 실행한 제스처들의 예시도.Figure 12 is an illustration of the gestures performed by the robot applied in the present invention.

*도면의 주요부분에 대한 부호 설명** Description of symbols on the main parts of the drawings *

1 : 비전부 2 : 지능부1: Vision Division 2: Intelligence Division

3 : 모션 제어부 4 : 카메라3: motion control unit 4: camera

5 : 마이크 6 : 웹이나 메신저 또는 키보드5: microphone 6: web or messenger or keyboard

7 : 스피커 8 : 얼굴 모터7: speaker 8: face motor

9 : 팔,몸통,손 모터 10 : 눈,목 모터9: Arm, Torso, Hand Motor 10: Eye, Neck Motor

11 : 얼굴 인식부 12 : 물체 인식부11: face recognition unit 12: object recognition unit

13 : 색깔 인식부 14 : 모션 인식부13 color recognition unit 14 motion recognition unit

15 : 얼굴 추적부 16 : 물체 추적부15: face tracking unit 16: object tracking unit

21 : 음성 인식부 22 : 음성신호 방향 검출부21: voice recognition unit 22: voice signal direction detection unit

23 : 대화 엔진부 24 : 개성 모델부23: dialogue engine unit 24: personality model unit

25 : 감정 모델부 26 : 시나리오부25: emotion model unit 26: scenario unit

27 : 음향신호 합성부 28 : 항상성 발생기27: sound signal synthesis unit 28: homeostasis generator

29,37 : 데이터 베이스 31 : 감정적인 행동부29,37 Database 31: Emotional Behavior

32 : 얼굴 표정부 33 : 제스처부32: facial expression unit 33: gesture unit

34 : 생리적인 행동부 35 : 립 싱크부34: Physiological Behaviors 35: Lip Sync

36 : 모터 중재자36: motor arbiter

본 발명은 안드로이드 로봇의 감정표현 방법에 관한 것으로, 더욱 상세하게는 인간과 비슷한 피부와 움직임을 가지는 안드로이드 로봇의 감정을 얼굴 표정과 제스처로 표현할 수 있도록 하여 사람과 더욱 자연스럽고 친근하게 의사소통을 할 수 있도록 발명한 것이다.The present invention relates to a method of expressing emotions of an android robot, and more particularly, to express an emotion of an android robot having a skin and a movement similar to a human with facial expressions and gestures to communicate more naturally and intimately with a person. It is invented to be.

일반적으로 로봇(robot)은 사람의 손발과 같은 동작을 하는 기계로써, 인조인간(人造人間)이라고도 한다.In general, a robot is a machine that operates like human hands and feet, and is also called an artificial human being.

본래 사람의 모습을 한 인형 내부에 기계장치를 조립해 넣고, 손발과 그 밖의 부분을 본래의 사람과 마찬가지로 동작하는 자동인형을 가리켰는데, 로봇이라는 말은 체코어의 "일한다(robota)"는 뜻으로, 1920년 체코슬로바키아의 작가 K.차페크가 희곡 "로섬의 인조인간:Rossum’s Universal Robots"을 발표한 이래 관심을 가지게 되었다.It puts a mechanism inside a doll that was originally a human figure, and refers to an automatic doll that works like the original person with hands and feet and other parts. The term robot means "working" in the Czech language. In 1920, Czechoslovak writer K. Chapec became interested in releasing the play "Rossum's Universal Robots".

차페크는 이 희곡에서 기술의 발달과 인간사회와의 관계에 대하여 아주 비관적인 견해를 상징적으로 표현하였다. 모든 정신노동과 육체노동을 인간과 똑같이 할 수 있으나 인간적 정서나 영혼을 가지지 못하며, 마모되었을 때에는 폐품으로서 신품과 교환할 수 있는 인조인간을 등장시켰는데, 이 로봇은 노동자로서 인간의 지배를 받는 사회를 그렸다.Chapek symbolically expressed a very pessimistic view of the development of technology and its relationship with human society. All mental and physical labor can do the same as humans, but they do not have human emotions or spirits, and when worn out, they have introduced artificial humans that can be exchanged for new ones. Painted.

그리고 이 로봇들은 노동을 통하여 지능 및 반항정신이 발달하여 결국 인간 을 멸망시키는 이야기를 전개시켰는데, 그러한 견해는 현대의 오토메이션이 사회에 미치는 영향에 대한 하나의 전형적인 견해로서 당시 관심을 끌었다. And these robots unfolded a story of the development of intelligence and rebellion through labor and the destruction of human beings, which attracted the attention as a typical view of the impact of modern automation on society.

인조인간을 만들려는 시도는 고대부터 있었으며, 그리스-로마 시대 및 기원전에는 종교의식의 한 도구로 만들어졌으며, 중세 때에는 건물의 문을 열거나 악기를 연주하는 자동인형을 만들었고, 이들 자동인형은 장식용이었거나 또 사람들을 놀라게 하거나 또는 신(神)과 결부시켜 지배자의 권위를 과시하는 데 이용되었다.Attempts to create artificial humans have been made since ancient times, and in the Greco-Roman period and BC, they were made as a tool of religious consciousness, and in the Middle Ages they made automatic dolls that opened the doors of a building or played musical instruments. It was also used to amaze people or to associate with Deity to show off the authority of the ruler.

한편으로는 기계기술자들의 장난이기도 하였나, 이들 자동인형의 제작은 과학기술의 진보에 직접적으로 기여하지는 못하였고, 20세기에 들어와서도 자동인형의 제작은 여러 가지로 시도되었고, 과학이나 기술이 진보되어 전보다는 정교하게 만들 수 있었는데, 그것은 상품 전시용이었거나 박람회의 관객 유치용이었으며 실용적인 것은 아니었다.On the one hand, it was also a joke of machine engineers, but the production of these automatic dolls did not directly contribute to the progress of science and technology, and even in the 20th century, the production of automatic dolls was attempted in various ways, and science and technology were advanced. It could have been made more sophisticated than before, either for merchandise display or for attracting audiences at the fair and not for practical use.

이런 로봇 가운데 유명한 것은 1927년에 미국의 웨스팅하우스전기회사의 기사 R.J.웬즐리가 만든 텔레복스(Televox)나 영국의 리처즈가 만든 에릭(Eric) 등인데, 모두 기계기술이나 전기기술을 응용하였으며 전화의 응답도 할 수 있는 정교한 것이었다. Notable among these robots were Televox by Knight Wensley of the Westinghouse Electric Company in 1927 and Eric by Richards of England, all of whom applied mechanical or electrical technology. It was an elaborate response.

현대에 와서는 전자관(電子管), 광전관(光電管), 전화, 테이프리코더 등을 조합하여 사람들의 질문에 대답하거나, 손발을 교묘히 움직여 걷거나, 무선에 의한 원격조종에 의하여 자유자재로 움직일 수 있는 인조인간이 제작되었다.In modern times, a combination of electronic tubes, photoelectric tubes, telephones, tape recorders, etc. can be used to answer people's questions, artfully move hands and feet, or move freely by remote control by wireless. This was made.

그러나 이렇게 사람과 같은 모습을 가진 것은 그 동작이 아무리 정교하게 만들어졌어도 동작에 한계가 있고 그다지 실용적이지 못하였다.But this human-like appearance, however highly sophisticated in its movement, was limited in movement and not very practical.

그리하여 실용면에서 사람의 모습을 닮지는 않았지만 인간의 동작과 같은 동작을 하는 기계도 로봇이라고 하게 되고, 여러 방면에서 로봇을 응용하려는 경향이 강해졌다.Thus, a machine that does not resemble a human figure in practical terms but acts like a human's movement is called a robot, and the tendency to apply a robot in many aspects has become stronger.

원래 기계는 생산수단으로 산업구조에 배치되었는데, 사회환경의 다극화에 대응하여 로봇을 여러 가지 이상환경(異常環境)에 적응하는 기계로 등장시키게 되었고, 또한 자동제어기술이나 원격조종기술의 진보에 따라 우주나 해저, 고온이나 저온 등의 위험한 환경에서의 작업 또는 아주 단조로운 작업 등은 모두 인간에게는 부적합한 것인데, 현재는 이런 이상환경에서 로봇의 응용분야가 확대되고 있다. Originally, the machine was placed in the industrial structure as a means of production, and in response to the multipolarization of the social environment, the robot appeared as a machine adapting to various abnormal environments, and also with the advance of automatic control technology or remote control technology. Work in dangerous environments such as space, the sea floor, high or low temperatures, or very monotonous work is all unsuitable for humans. Currently, robots are expanding their applications in such abnormal environments.

로봇의 응용분야는 대체로 산업용, 의료용, 우주용, 해저용으로 분류된다.Robot applications are generally classified into industrial, medical, space, and submarine applications.

예를 들면, 자동차 생산과 같은 기계가공 공업에서는 사람의 팔이 하는 작업을 한 번만 가르쳐 주면 몇 시간이든 같은 동작을 반복하는 산업로봇이 이미 많이 가동되고 있고, 의료용 분야에서는 팔이 없는 사람의 의사(意思), 즉 운동신경으로부터 보내 오는 명령을 근전위(筋電位)로 꺼내서 모터를 구동시키는 의수(義手)가 실용화되어 있으며, 우주개발에 있어서도 현재 러시아의 자동월면차(自動月面車) 루노호트(Lunokhod)와 같은 원격조종형 로봇이 개발되어 있다.For example, in the machining industry, such as automobile production, many industrial robots that repeat the same movement for hours are already in operation if only one task is taught by the human arm. The meaning, that is, the prosthetic hand which drives the motor by taking out the command sent from the motor nerve at the near-potential, has been put into practical use. Remotely controlled robots such as Lunokhod have been developed.

최근에는 로봇을 조종형, 자동형 및 자율형으로 크게 나누는데, 조종형은 사람의 손이나 발에 해당하는 기능을 가진 기계를 멀리 떨어진 곳에서 조종하는 방식을 말하며, 텔레오퍼레이터 시스템(teleoperator system)이라고도 한다. 원자로(原子爐) 안에서 사용하고 있는 머니퓰레이터(manipulator:magic hand)가 조종형 로봇이다. Recently, robots are divided into pilot, autonomous, and autonomous, which is a method of manipulating a machine with a function corresponding to a human hand or foot from a distance, also called a teleoperator system. Manipulators (magic hands) used in nuclear reactors are controlled robots.

우주개발과 관련하여 미국에서는 우주왕복선(컬럼비아호 등)에 매니퓰레이터를 설치하여 우주공간에서 기술용역을 시킬 것을 실험하고 있으며, 또 루노호트와 같은 이동차에 매니퓰레이터나 텔레비전 카메라의 눈을 탑재하여 연락선에서 원격조정하는 것 등을 계획하고 있다. 이들 기술을 해양개발에서도 응용하려 하고 있고, 또한 화재의 소화, 불발탄의 제거 등 위험작업에도 응용될 것이다. 의료 분야에도 조종형 로봇은 진단, 치료, 수술 또는 리허빌리테이션(rehabilitation) 등 모든 장면에서 이용되리라 보고 있다.In relation to space development, the United States is experimenting with installing manipulators on space shuttles (Columbia, etc.) for technical services in space. Plans to remotely control the system. These technologies will be applied to marine development, and they will also be applied to hazardous work such as extinguishing fire and removing unexploded coal. In the medical field, the robot is expected to be used in all situations, including diagnosis, treatment, surgery or rehabilitation.

자동형으로는 현재 널리 산업계에서 사용되고 있는 산업 로봇이 있다. 미리 순서를 가르쳐 주면 그것을 기억하고 있어서 반복하는 형의 것이다. 이 형의 로봇은 다음의 자율형에의 과도적 존재이기도 하다. 자율형이란 로봇 스스로가 현재의 자기 자신의 상태와 환경 상태를 알아차리고 명령에 따라서 자율적으로 행동하는 것으로, 이 형이야말로 원래 로봇이라고 할 수 있다.The automatic type is an industrial robot currently widely used in the industry. If you teach the order in advance, it's the type that you remember because you remember it. This type of robot is also a transitional to the next autonomous type. An autonomous type is a robot itself that recognizes its current state and environmental state and acts autonomously according to a command. This type is the original robot.

한편, 인간은 자신의 손과 발의 상태를 눈을 감아도 알 수 있는데, 그것은 피부감각이나 관절감각, 근(筋)이나 건(腱)으로부터의 감각 등이 중추(中樞)로 되돌아가기 때문이며, 또 외계의 상황은 눈이나 귀를 통하여 알 수 있으므로 자율형 로봇에는 이런 것에 필적하는 감각장치가 필요하다.On the other hand, humans can know the condition of their hands and feet by closing their eyes because skin sensations, joint sensations, and senses from muscles and tendons return to the central body, The situation can be seen through eyes or ears, so autonomous robots need a sensory device comparable to this.

최근 제작된 로봇 가운데는 인간형 손발을 가지고 텔레비전 카메라의 눈, 인공의 귀, 입, 촉각, 관절감각 등을 갖추고, 2∼3세 유아 정도의 능력을 가진 것도 있는데, 예를 들면, 방에 있는 물건을 찾으라고 말로 명령하면 실내를 돌아보고 찾아내서 말로 대답하고, 두 발로 걸어가서 손으로 집어 온다.Some recent robots have humanoid limbs, television camera eyes, artificial ears, mouths, tactile sensations, and joint sensations. If you tell them to look for it, they look around the room, find it, answer it in words, walk on both feet and pick it up with their hands.

이렇게 기계가 스스로 판단하여 행동한다는 것은 기계가 지능을 가지게 된다고 할 수 있으므로 이런 로봇을 지능 로봇이라고 하는데, 특히 시각의 기능만을 가진 로봇을 시각로봇이라고 한다.The fact that a machine judges and acts itself is that the machine has intelligence. Such a robot is called an intelligent robot, and a robot having only a visual function is called a visual robot.

산업용으로서는 조립로봇이나 검사 로봇 등의 개발이 추진되고 있는데, 물건을 조립할 경우에 치수나 모양 등이 고르지 않은 수많은 대상물 가운데서 필요한 2개의 물건을 인식, 선택하여 그것을 요구된 형태로 조립한다는 것은 상당히 고급 지능에 속한다.For industrial use, development robots and inspection robots are being developed, and when assembling an object, it is highly advanced to recognize and select two objects from among a large number of objects with uneven dimensions or shapes, and to assemble them into required shapes. Belongs to.

이러한 지능 로봇의 연구를 쌓아간다고 해도 이상적인 로봇의 실현은 아직 미지수이며, 인간의 뇌의 기능이나 구조가 아직 생리학적으로 완전히 해명되어 있지 않고, 사용되고 있는 컴퓨터가 원리상 인간의 뇌와 다르기 때문이다.Even with the accumulation of such intelligent robot research, the ideal robot is not yet realized, the function and structure of the human brain are not yet fully physiologically explained, and the computer used is different from the human brain in principle.

또한, 최근 급속한 산업 발달과 더불어 개발된 산업용 로봇에서 인간과 같이 생활 할 수 있는 가정용 로봇으로 진화하면서 인간이 제공하는 신호들을 인식해야 할 뿐만 아니라, 인간과 비슷한 신호들을 제공해야 하는 필요성이 대두되고 있다.In addition, as the industrial robot developed in recent years has evolved from a rapid development of the industrial robot to a home robot capable of living like a human, there is a need for not only to recognize signals provided by humans but also to provide signals similar to those of humans. .

인지 과학, 뇌 과학, 신경 과학 등에서 먼저 연구가 진행되었고, 점차 로봇 분야에 적용되고 있는데, 기존에는 컴퓨터의 가상공간이나 인간과 관절 구조는 비슷하지만 외형이 틀린 로봇들을 이용하여 인간이 제공하는 신호들은 인식은 할 수 있지만, 제공에 어려움이 있었다.In cognitive science, brain science, neuroscience, etc., research has been conducted first, and gradually applied to robot fields. In the past, signals provided by humans using robots having similar joint structures with different virtual spaces or humans, but with different appearances It could be recognized, but there was a difficulty in providing it.

그런데, 미국에서는 텍사스 대학의 K-bot, NASA의 David Hanson, MIT의 Kismet이 인간과 비슷한 얼굴을 가지고 감정을 표현하고 있고, 일본에서는 오사카 대학과 코코로사가 개발한 Actroid 시리즈가 인간과 유사한 감정과 동작을 표현하 고 있다. However, in the United States, K-bot at the University of Texas, David Hanson at NASA, and Kismet at MIT express their emotions with faces similar to humans.In Japan, the Actroid series developed by Osaka University and Kokorosa Co., Ltd. It is expressing.

이와 같이 인간과 유사한 외형을 갖는 로봇(일명 "안드로이드 로봇"이라 칭함)은 친근감을 제공할 뿐만 아니라 감정 표현을 통하여 인간과의 의사소통을 원활하게 하므로 인간과 더욱 친근한 의사소통을 위해서는 감정을 얼굴 표정과 제스처 등을 통해 보다 정밀하게 표현할 수 필요가 요구되고 있는 실정이다.As such, robots with appearances similar to those of humans (called "Android Robots") not only provide a feeling of familiarity but also facilitate communication with humans through expressions of emotions. The situation is required to be able to express more precisely through and gestures.

본 발명은 이와 같은 종래의 제반 문제점 및 요구사항을 해결하기 위하여 안출된 것으로, 인간과 비슷한 피부와 움직임을 가지는 안드로이드 로봇이 감정 상태를 인간과 유사한 피부와 관절 구조로 표현할 수 있고, 비전과 음성 및 텍스트로 상대방에게 감정을 표현할 수 있도록 하여 인간과 더욱 친근한 의사소통을 할 수 있도록 함과 동시에 이로 인해 로봇과 관련된 새로운 기술들의 수요가 증가될 수 있고, 로봇 시장 촉진에 기여할 수 있는 안드로이드 로봇의 감정표현 방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the above-mentioned conventional problems and requirements, Android robot having a skin and movement similar to humans can express the emotional state with a skin and joint structure similar to humans, vision and voice and Emotional expressions of Android robots that can express emotions to other parties through texts to communicate with humans more closely, thereby increasing the demand for new technologies related to robots and contributing to the robot market. The purpose is to provide a method.

상기한 목적을 달성하기 위한 본 발명 방법이 적용된 감정표현장치는, 카메라를 통해 촬상되는 사람의 얼굴표정, 색깔과 모션, 물체의 인식을 통해 사람의 감정적 정보들은 추출하는 비전부와; 마이크를 통해 입력되는 사람의 음성과 상기 비전부에서 제공된 데이터를 통해 검출된 개성과 감정모델 및 텍스트로부터 감성적 정보를 추출하고, 각 축들에 적용된 모터에 맞게 편집된 얼굴 표정과 제스처가 저장되어 있는 데이터 베이스를 통해 로봇이 표현해야 할 감정을 선택하고 관리하는 지능부와; 상기 비전부와 지능부에서 전송되어서 데이터를 이용하여 감정적 행동들을 실행하고, 각 축의 모터가 시나리오부에서 원하는 동작을 수행하도록 중재하는 모션 제어부;로 구성한 것을 특징으로 한다.Emotion expression apparatus to which the method of the present invention is applied to achieve the above object comprises: a vision unit for extracting human emotional information through facial expression, color and motion of the human being imaged through the camera; Emotional information is extracted from the personality, emotion model, and text detected through the voice of the person input through the microphone and the data provided by the vision unit, and data including facial expressions and gestures edited for the motor applied to each axis is stored. An intelligent unit for selecting and managing emotions to be expressed by the robot through the base; And a motion control unit transmitted from the vision unit and the intelligence unit to execute emotional actions using data, and to arbitrate a motor of each axis to perform a desired operation in the scenario unit.

이때, 상기 비전부는 로봇의 두 안구에 장착되어 있는 카메라를 통해 촬상된 영상에서 얼굴과 색깔 및 물체를 각각 인식하는 얼굴 인식부와 색깔 인식부 및 물체 인식부와; 상기 색깔 인식부의 출력신호를 입력받아 살색인지 여부와 머리 및 손의 움직임을 분석하여 긍정/부정적인 감정신호를 도출해 내는 모션 인식부와; 상기 얼굴 인식부 및 물체 인식부의 출력신호를 각각 입력받아 얼굴 및 물체를 추적하며 눈동자와 목 및 허리의 동작 범위를 각각 추적하여 대화거리를 추출해 내는 얼굴 추적부 및 물체 추적부;로 구성한 것을 특징으로 한다.The vision unit may include a face recognition unit, a color recognition unit, and an object recognition unit for recognizing a face, a color, and an object in an image captured by a camera mounted on two eyes of a robot; A motion recognition unit which receives the output signal of the color recognition unit and derives a positive / negative emotion signal by analyzing whether the skin is colored or the movement of the head and hands; And a face tracker and an object tracker for extracting a conversation distance by tracking the face and the object and tracking the motion range of the eyes, the neck, and the waist, respectively, by receiving the output signals of the face recognition unit and the object recognition unit, respectively. do.

또, 상기 지능부는 마이크를 통해 음성신호가 입력되는지의 여부와 입력된 음성신호의 방향을 검출하는 음성 인식부 및 음성신호 방향 검출부와; 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트신호와 상기 음성 인식부를 통해 입력되는 마이크를 통한 음성신호를 인식하고 긍정/부정적인 감정신호를 추출하는 대화 엔진부와; 상기 비전부의 모션 인식부와 상기 대화 엔진부에서 각각 추출된 감정 정보를 이용하여 상대 값을 변화시켜 활발함/소심함의 두 개성을 추출하는 개성 모델부와; 상기 개성 모델부에서 제공하는 상대 값을 감성 모델 축에 적용하여 개성이 적용된 감정을 추출하는 감정 모델부와; 상기한 각부에서 입력되는 신호들과 데이터 베이스에 기 저장된 시나리오에 정의된 태그들을 이용하여 로봇의 얼굴 표정 및 제스처 제어신호를 모션 제어부에 출력시켜 줌과 동시에 음성 합성신호를 출력시켜 주는 시나리오부와; 상기 시나리오부에서 출력되는 음성 합성신호를 스피커를 통해 출력시켜 주는 음향신호 합성부와; 기 입력된 데이터를 이용하여 생리적인 행동 데이터를 발생시키는 항상성 발생기;로 구성한 것을 특징으로 한다.The intelligent unit may further include: a voice recognition unit and a voice signal direction detection unit for detecting whether a voice signal is input through a microphone and a direction of the input voice signal; A dialogue engine unit for recognizing a text signal input through a web, a messenger or a keyboard, and a voice signal through a microphone input through the voice recognition unit, and extracting positive / negative emotion signals; A personality model unit which extracts two personalities of vigor / timidity by changing relative values by using emotion information extracted from the motion recognition unit of the vision unit and the dialogue engine unit; An emotion model unit which extracts an emotion to which personality is applied by applying a relative value provided by the personality model unit to an emotion model axis; A scenario unit configured to output a facial expression and gesture control signal of the robot to the motion control unit and output a speech synthesis signal by using the signals input from each unit and tags defined in a scenario previously stored in a database; An audio signal synthesizing unit for outputting a speech synthesizing signal output from the scenario unit through a speaker; And a homeostasis generator for generating physiological behavioral data using pre-input data.

또한, 상기 모션 제어부는 상기 지능부의 감정 모델부에서 제공하는 신호에 부응하여 감정 표현에 필요한 구동신호를 발생하는 감정적인 행동부와; 상기 지능부의 시나리오부와 감정 모델부에서 각각 출력되는 신호에 부응하여 얼굴 표정과 제스처 표현에 필요한 구동신호를 발생하는 얼굴 표정부 및 제스처부와; 상기 항상성 발생기에서 출력되는 신호에 부응하여 생리적인 행동 표현에 필요한 구동신호를 발생하는 생리적인 행동부와; 상기 음향신호 합성부의 출력신호에 부응하여 입 모양 변화에 필요한 구동신호를 발생하는 립 싱크부와; 데이터 베이스를 구비하고 상기한 각부에서 출력되는 구동신호에 부응하여 얼굴 모터와 팔,몸통,손 모터 및 눈,목 모터의 구동을 제어하는 모터 중재자;로 구성한 것을 특징으로 한다.The motion controller may further include: an emotional behavior unit configured to generate a driving signal necessary for expressing an emotion in response to a signal provided by the emotion model unit of the intelligent unit; A facial expression unit and a gesture unit generating driving signals necessary for facial expressions and gesture expressions in response to signals output from the scenario unit and the emotion model unit of the intelligent unit; A physiological action unit generating a driving signal necessary for expressing a physiological action in response to the signal output from the homeostasis generator; A lip sync unit configured to generate a driving signal necessary to change a shape of a mouth in response to an output signal of the sound signal synthesis unit; And a motor arbiter having a database and controlling driving of a face motor, an arm, a body, a hand motor, and an eye and neck motor in response to the driving signals output from the above-described parts.

한편, 상기한 목적을 달성하기 위한 본 발명 방법은, 카메라에 의해 촬상된 영상신호를 이용하여 사람의 감정적 정보를 추출하는 비전 처리단계와; 상기 카메라로부터 촬상된 영상신호에 의해 추출된 모션 정보와, 마이크를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트신호를 이용하여 감성적 정보를 추출하고 각 축들에 적용된 모터에 맞게 편집하는 지능 처리단계와; 상기 비전 처리단계와 지능 처리단계에서 추출 및 편집되어 출력되는 신호에 부응하여 로봇의 각부 모터 구동을 제어하는 모션 제어단계;로 이루어진 것을 특징으로 한다.On the other hand, the present invention method for achieving the above object, the vision processing step of extracting the emotional information of the person using the image signal captured by the camera; Emotional information is extracted by using motion information extracted by the image signal captured by the camera, a voice signal input through a microphone, and a text signal input through a web, a messenger or a keyboard, and edited according to a motor applied to each axis. An intelligent processing step; And a motion control step of controlling motor driving of each part of the robot in response to a signal extracted and edited in the vision processing step and the intelligent processing step.

이때, 상기 비전 처리단계는, 카메라로부터 들어오는 영상정보 중에서 색깔을 인식하여 머리와 손을 구별하고, 모션을 인식하는 모션 인식단계와; 카메라로부터 들어오는 영상정보 중에서 얼굴 및 물체를 인식하여 로봇과 인간과의 거리 정보를 분석하고, 상기 로봇이 실행해야 할 추적 동작을 선택하는 얼굴 및 물체 추적단계;를 포함하는 것을 특징으로 한다.In this case, the vision processing step may include a motion recognition step of recognizing a color from the image information coming from the camera to distinguish the head and the hand, and recognize the motion; Recognizing a face and an object from the image information from the camera to analyze the distance information between the robot and the human, and the face and object tracking step for selecting the tracking operation to be performed by the robot;

또한, 상기 지능 처리단계는, 상기 비전 처리단계에서 인식된 모션 정보와 마이크를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트신호를 인식하는 단계와; 상기에서 인식된 신호들을 이용하여 로봇이 표현해야 할 개성과 감정 모델을 추출하는 단계와; 상기에서 추출된 정보들을 이용하여 로봇이 실행해야한 얼굴 표정 및 제스처에 따른 시나리오를 발생시키는 단계와; 음성신호를 포함하여 각종 음향신호를 합성하는 단계;를 포함하는 것을 특징으로 한다.The intelligent processing may include: recognizing the motion information recognized in the vision processing step, a voice signal input through a microphone, and a text signal input through a web, a messenger, or a keyboard; Extracting the personality and emotion model to be expressed by the robot using the recognized signals; Generating scenarios according to facial expressions and gestures to be executed by the robot using the extracted information; And synthesizing various sound signals including the voice signal.

또, 상기 모션 제어단계는, 상기 비전 처리단계와 지능 처리단계로부터 입력된 신호들을 통해 립싱크, 얼굴 표정, 제스처, 감정적 행동에 필요한 제어신호를 생성하는 단계와; 상기에서 생성된 신호에 부응하여 로봇의 모든 모터에 최종적인 위치 값을 출력시켜 그의 구동을 제어하는 모터 중재단계;를 포함하는 것을 특징으로 한다.The motion control may include generating control signals necessary for lip syncing, facial expressions, gestures, and emotional behavior through signals inputted from the vision processing step and the intelligent processing step; And a motor arbitration step of outputting a final position value to all the motors of the robot in response to the signal generated above to control its driving.

한편, 상기 지능 처리단계의 또 다른 실시 예는, 로봇이 감정을 표현하기 위해 마이크를 통해서 입력되는 음성 신호와, 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트 신호 및 카메라에서 감지되는 얼굴 및 움직이는 물체의 신호들을 인 식하는 단계와; 대화 엔진부를 통해 입력되는 감정적 단어 및 카메라를 통해서 들어오는 모션, 얼굴, 물체를 추출하는 단계와; 상기에서 추출된 신호들을 표현해야 할 감정과 제스처가 들어 있는 시나리오부 내의 데이터베이스와 매칭시켜 주는 단계와; 눈 깜빡임, 하품, 졸음, 딸꾹질과 같은 생리적인 행동을 생성하는 단계와; 각 축에 있는 모터에 위치 정보를 분배하는 모션 제어부의 모터 중재자로 전송하는 단계;를 포함하는 것을 특징으로 한다.Meanwhile, another embodiment of the intelligent processing may include a voice signal input through a microphone to express an emotion, a text signal input through a web, a messenger or a keyboard, and a face and a moving object detected by a camera. Recognizing signals; Extracting an emotional word input through the dialogue engine unit and a motion, a face, and an object coming through the camera; Matching the extracted signals with a database in a scenario unit including emotions and gestures to be expressed; Generating physiological behaviors such as blinking eyes, yawning, drowsiness, hiccups; And transmitting the position information to the motor coordinator of the motion control unit for distributing the position information to the motors on each axis.

이하, 본 발명에 따른 하나의 바람직한 실시 예를 첨부된 도면을 참조하여 상세히 설명하면 다음과 같다.Hereinafter, one preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명 방법이 적용된 감정표현장치의 개략 블록 구성도를 나타낸 것이고, 도 2는 본 발명 방법이 적용된 장치의 상세 블록 구성도를 나타낸 것이며, 도 3은 본 발명 방법을 설명하기 위한 메인 플로우챠트를 나타낸 것이다.1 shows a schematic block diagram of an emotion expression apparatus to which the present invention method is applied, FIG. 2 shows a detailed block diagram of a device to which the present invention method is applied, and FIG. 3 is a main flow for explaining the present invention method. The chart is shown.

또, 도 4는 도 3의 비전 처리단계 중 색깔 인식에 의한 모션 인식단계의 상세 플로우챠트를 나타낸 것이고, 도 5는 도 3의 비전 처리단계 중 얼굴 및 물체 추적단계에 대한 상세 플로우챠트를 나타낸 것이며, 도 6은 본 발명 방법 중 지능 처리단계에 따른 일 실시 예의 상세 플로우챠트를 나타낸 것이고, 도 7은 본 발명 방법 중 지능 처리단계에 따른 다른 실시 예의 상세 플로우챠트를 나타낸 것이며, 도 8은 본 발명 방법 중 모션 제어단계의 상세 플로우챠트를 나타낸 것이다.4 is a detailed flowchart of a motion recognition step by color recognition of the vision processing step of FIG. 3, and FIG. 5 is a detailed flowchart of a face and object tracking step of the vision processing step of FIG. 3. 6 illustrates a detailed flowchart of an embodiment according to an intelligent processing step of the present invention method, FIG. 7 illustrates a detailed flowchart of another embodiment according to an intelligent processing step of the present invention method, and FIG. 8 illustrates the present invention. The detailed flowchart of the motion control step of the method is shown.

또한, 도 9는 본 발명에서 적용한 로봇의 개성 모델을 도시한 블록 구성도를 나타낸 것이고, 도 10은 본 발명에서 적용한 로봇의 감성 모델을 도시한 2차원 감정 공간도를 나타낸 것이며, 도 11은 본 발명에서 적용한 로봇의 얼굴에 나타난 네 가지 감정들의 예시도를 나타낸 것이고, 도 12는 본 발명에서 적용한 로봇이 실행한 제스처들의 예시도를 나타낸 것이다.9 is a block diagram showing a personality model of a robot applied in the present invention, FIG. 10 is a two-dimensional emotional space diagram showing an emotional model of the robot applied in the present invention, and FIG. Figure 4 shows an example of the four emotions shown on the face of the robot applied in the invention, Figure 12 shows an illustration of the gestures performed by the robot applied in the present invention.

이에 따르면 본 발명 방법이 적용된 감정표현장치는 도 1에 도시된 바와 같이, 카메라(4)를 통해 촬상되는 사람의 얼굴표정, 색깔과 모션, 물체의 인식을 통해 사람의 감정적 정보들은 추출하는 비전부(1)와;Accordingly, as shown in FIG. 1, the emotion expression apparatus to which the method of the present invention is applied includes a vision unit for extracting human emotional information through facial expression, color, motion, and recognition of an object captured by the camera 4. (1);

마이크(5)를 통해 입력되는 사람의 음성과 상기 비전부(1)에서 제공된 데이터를 통해 검출된 개성과 감정모델 및 텍스트로부터 감성적 정보를 추출하고, 각 축들에 적용된 모터에 맞게 편집된 얼굴 표정과 제스처가 저장되어 있는 데이터 베이스(29)를 통해 로봇이 표현해야 할 감정을 선택하고 관리하는 지능부(2)와;Emotional information is extracted from the personality, the emotion model and the text detected through the voice of the person input through the microphone 5 and the data provided by the vision unit 1, and the facial expression edited for the motors applied to the respective axes and An intelligent unit 2 for selecting and managing emotions to be expressed by the robot through a database 29 in which gestures are stored;

상기 비전부(1)와 지능부(2)에서 전송되어서 데이터를 이용하여 감정적 행동들을 실행하고, 각 축의 모터가 시나리오부(26)에서 원하는 동작을 수행하도록 중재하는 모션 제어부(3);로 구성한 것을 특징으로 한다.A motion control unit (3) transmitted from the vision unit (1) and the intelligence unit (2) to execute emotional actions using data, and to arbitrate a motor of each axis to perform a desired operation in the scenario unit (26). It is characterized by.

이때, 상기 비전부(1)는 도 2에 도시된 바와 같이, 로봇의 두 안구에 장착되어 있는 카메라(4)를 통해 촬상된 영상에서 얼굴과 색깔 및 물체를 각각 인식하는 얼굴 인식부(11)와 색깔 인식부(13) 및 물체 인식부(12)와;In this case, as shown in FIG. 2, the vision unit 1 recognizes a face, a color, and an object in an image captured by a camera 4 mounted on two eyeballs of a robot, respectively. A color recognizer 13 and an object recognizer 12;

상기 색깔 인식부(13)의 출력신호를 입력받아 살색인지 여부와 머리 및 손의 움직임을 분석하여 긍정/부정적인 감정신호를 도출해 내는 모션 인식부(14)와;A motion recognition unit 14 which receives the output signal of the color recognition unit 13 and derives positive / negative emotion signals by analyzing whether it is flesh color and movements of the head and hands;

상기 얼굴 인식부(11) 및 물체 인식부(12)의 출력신호를 각각 입력받아 얼굴 및 물체를 추적하며 눈동자와 목 및 허리의 동작 범위를 각각 추적하여 대화거리를 추출해 내는 얼굴 추적부(15) 및 물체 추적부(16);로 구성한 것을 특징으로 한다.The face tracking unit 15 which receives the output signals of the face recognition unit 11 and the object recognition unit 12, respectively, tracks the face and the object, and extracts the conversation distance by tracking the motion range of the eyes, the neck, and the waist, respectively. And an object tracker 16.

또, 상기 지능부(2)도 도 2에 도시된 바와 같이, 마이크를 통해 음성신호가 입력되는지의 여부와 입력된 음성신호의 방향을 검출하는 음성 인식부(21) 및 음성신호 방향 검출부(22)와;Also, as shown in FIG. 2, the intelligent unit 2 also includes a voice recognition unit 21 and a voice signal direction detection unit 22 for detecting whether a voice signal is input through a microphone and a direction of the input voice signal. )Wow;

웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트신호와 상기 음성 인식부(21)를 통해 입력되는 마이크(5)를 통한 음성신호를 인식하고 긍정/부정적인 감정신호를 추출하는 대화 엔진부(23)와;The dialogue engine unit 23 which recognizes a text signal input through the web or a messenger or the keyboard 6 and a voice signal through the microphone 5 input through the voice recognition unit 21 and extracts positive / negative emotion signals. )Wow;

상기 비전부(1)의 모션 인식부(14)와 상기 대화 엔진부(23)에서 각각 추출된 감정 정보를 이용하여 상대 값을 변화시켜 활발함/소심함의 두 개성을 추출하는 개성 모델부(24)와;The personality model unit 24 which extracts two personalities of liveness and timidity by changing relative values using emotion information extracted from the motion recognition unit 14 and the dialogue engine unit 23 of the vision unit 1, respectively. )Wow;

상기 개성 모델부(24)에서 제공하는 상대 값을 감성 모델 축에 적용하여 개성이 적용된 감정을 추출하는 감정 모델부(25)와;An emotion model unit 25 for extracting an emotion to which personality is applied by applying a relative value provided by the personality model unit 24 to an emotion model axis;

상기한 각부에서 입력되는 신호들과 데이터 베이스(29)에 기 저장된 시나리오에 정의된 태그들을 이용하여 로봇의 얼굴 표정 및 제스처 제어신호를 모션 제어부(3)에 출력시켜 줌과 동시에 음성 합성신호를 출력시켜 주는 시나리오부(26)와;Outputs the facial expression and gesture control signal of the robot to the motion controller 3 by using the signals input from each unit and the tags defined in the scenarios previously stored in the database 29, and simultaneously outputs a speech synthesis signal. A scenario unit 26 for making it;

상기 시나리오부(26)에서 출력되는 음성 합성신호를 스프커(7)를 통해 출력시켜 주는 음향신호 합성부(27)와;An audio signal synthesizing unit 27 for outputting a speech synthesizing signal output from the scenario unit 26 through a spur 7;

기 입력된 데이터를 이용하여 생리적인 행동 데이터를 발생시키는 항상성 발생기(28);로 구성한 것을 특징으로 한다.It is characterized in that it comprises a; homeostasis generator 28 for generating physiological behavioral data using the input data.

또한, 상기 모션 제어부(3) 역시 도 2에 도시된 바와 같이, 상기 지능부(2)의 감정 모델부(25)에서 제공하는 신호에 부응하여 감정 표현에 필요한 구동신호를 발생하는 감정적인 행동부(31)와;In addition, as shown in FIG. 2, the motion controller 3 also includes an emotional behavior unit that generates a driving signal necessary for expressing an emotion in response to a signal provided by the emotion model unit 25 of the intelligent unit 2. (31);

상기 지능부(2)의 시나리오부(26)와 감정 모델부(25)에서 각각 출력되는 신호에 부응하여 얼굴 표정과 제스처 표현에 필요한 구동신호를 발생하는 얼굴 표정부(32) 및 제스처부(33)와;In response to the signals output from the scenario unit 26 and the emotion model unit 25 of the intelligence unit 2, the facial expression unit 32 and the gesture unit 33 generating driving signals necessary for facial expression and gesture expression. )Wow;

상기 항상성 발생기(28)에서 출력되는 신호에 부응하여 생리적인 행동 표현에 필요한 구동신호를 발생하는 생리적인 행동부(34)와;A physiological behavior part 34 generating a driving signal necessary for expressing physiological behavior in response to the signal output from the homeostasis generator 28;

상기 음향신호 합성부(27)의 출력신호에 부응하여 입 모양 변화에 필요한 구동신호를 발생하는 립 싱크부(35)와;A lip sink unit 35 generating a driving signal necessary for changing a mouth shape in response to an output signal of the sound signal synthesizing unit 27;

데이터 베이스(37)를 구비하고 상기한 각부에서 출력되는 구동신호에 부응하여 얼굴 모터(8)와 팔,몸통,손 모터(9) 및 눈,목 모터(10)의 구동을 제어하는 모터 중재자(36);로 구성한 것을 특징으로 한다.A motor arbiter having a database 37 and controlling driving of the face motor 8, the arm, the body, the hand motor 9, and the eye and neck motor 10 in response to the drive signals output from the above-described parts ( 36); characterized by consisting of.

한편, 상기한 목적을 달성하기 위한 본 발명 방법은 도 3에 도시된 바와 같이, 카메라(4)에 의해 촬상된 영상신호를 이용하여 사람의 감정적 정보를 추출하는 비전 처리단계(S1)와;On the other hand, the present invention method for achieving the above object is, as shown in Figure 3, the vision processing step (S1) for extracting the emotional information of the person using the image signal captured by the camera (4);

상기 카메라(4)로부터 촬상된 영상신호에 의해 추출된 모션 정보와, 마이크(5)를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트신호를 이용하여 감성적 정보를 추출하고 각 축들에 적용된 모터에 맞게 편집하는 지능 처리단계(S2)와;Emotional information is extracted by using the motion information extracted by the image signal captured by the camera 4 and the audio signal input through the microphone 5 and the text signal input through the web, messenger, or keyboard 6. And intelligent processing step (S2) for editing according to the motor applied to each axis;

상기 비전 처리단계(S1)와 지능 처리단계(S2)에서 추출 및 편집되어 출력되는 신호에 부응하여 로봇의 각부 모터 구동을 제어하는 모션 제어단계(S3);로 이루어진 것을 특징으로 한다.And a motion control step (S3) of controlling motor driving of each part of the robot in response to the signals extracted and edited in the vision processing step (S1) and the intelligent processing step (S2).

이때, 상기 비전 처리단계(S1)는 도 4 및 도 5에 도시된 바와 같이, 카메라(4)로부터 들어오는 영상정보 중에서 색깔을 인식하여 머리와 손을 구별하고, 모션을 인식하는 모션 인식단계(S11)와;At this time, the vision processing step (S1) is a motion recognition step (S11) to distinguish the head and hands by recognizing the color from the image information coming from the camera 4, as shown in Figures 4 and 5 (S11) )Wow;

카메라(4)로부터 들어오는 영상정보 중에서 얼굴 및 물체를 인식하여 로봇과 인간과의 거리 정보를 분석하고, 상기 로봇이 실행해야 할 추적 동작을 선택하는 얼굴 및 물체 추적단계(S12);를 포함하는 것을 특징으로 한다.A face and object tracking step (S12) of recognizing a face and an object from image information received from the camera 4 to analyze distance information between the robot and a human, and selecting a tracking operation to be performed by the robot. It features.

또한, 상기 지능 처리단계(S2)의 일 실시 예는 도 6에 도시된 바와 같이, 상기 비전 처리단계(S1)에서 인식된 모션 정보와 마이크(5)를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트신호를 인식하는 단계(S21)와;In addition, as shown in FIG. 6, the intelligent processing step S2 may include a motion signal recognized in the vision processing step S1 and a voice signal input through the microphone 5, a web or a messenger, or the like. Recognizing a text signal input through the keyboard 6 (S21);

상기에서 인식된 신호들을 이용하여 로봇이 표현해야 할 개성과 감정 모델을 추출하는 단계(S22)와;Extracting the personality and emotion model to be expressed by the robot using the recognized signals (S22);

상기에서 추출된 정보들을 이용하여 로봇이 실행해야한 얼굴 표정 및 제스처에 따른 시나리오를 발생시키는 단계(S23)와;Generating scenarios according to facial expressions and gestures to be executed by the robot by using the extracted information (S23);

음성신호를 포함하여 각종 음향신호를 합성하는 단계(24);를 포함하는 것을 특징으로 한다.And synthesizing the various sound signals including the voice signal (24).

또, 상기 모션 제어단계(S3)는 도 8에 도시된 바와 같이, 상기 비전 처리단 계(S1)와 지능 처리단계(S2)로부터 입력된 신호들을 통해 립싱크, 얼굴 표정, 제스처, 감정적 행동에 필요한 제어신호를 생성하는 단계(S31)와;In addition, as shown in FIG. 8, the motion control step S3 is required for lip synch, facial expressions, gestures, and emotional actions through signals input from the vision processing step S1 and the intelligent processing step S2. Generating a control signal (S31);

상기에서 생성된 신호에 부응하여 로봇의 모든 모터에 최종적인 위치 값을 출력시켜 그의 구동을 제어하는 모터 중재단계(S32);를 포함하는 것을 특징으로 한다.And a motor mediation step (S32) for outputting a final position value to all the motors of the robot in response to the generated signal to control its driving.

한편, 상기 지능 처리단계(S2)의 또 다른 실시 예는 도 7에 도시된 바와 같이, 로봇이 감정을 표현하기 위해 마이크(5)를 통해서 입력되는 음성 신호와, 웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트 신호 및 카메라(4)에서 감지되는 얼굴 및 움직이는 물체의 신호들을 인식하는 단계(S25)와;On the other hand, another embodiment of the intelligent processing step (S2) is a voice signal input through the microphone 5 to express the emotion by the robot, as shown in Figure 7, the web, messenger or keyboard 6 Recognizing text signals input through the camera and signals of a face and a moving object detected by the camera 4 (S25);

대화 엔진부(23)를 통해 입력되는 감정적 단어 및 카메라(4)를 통해서 들어오는 모션과 얼굴 및 물체를 추출하는 단계(S26)와;Extracting an emotional word input through the dialogue engine unit 23 and a motion and a face and an object coming through the camera 4 (S26);

상기에서 추출된 신호들을 표현해야 할 감정과 제스처가 들어 있는 시나리오부(26) 내의 데이터 베이스(29)와 매칭시켜 주는 단계(S27)와;Matching the extracted signals with a database (29) in the scenario unit (26) containing emotions and gestures to be expressed (S27);

눈 깜빡임, 하품, 졸음, 딸꾹질과 같은 생리적인 행동을 생성하는 단계(S28)와; Generating physiological behaviors such as blinking eyes, yawning, drowsiness, and hiccups (S28);

각 축에 있는 모터에 위치 정보를 분배하는 모션 제어부(3)의 모터 중재자(36)로 전송하는 단계(S29);를 포함하는 것을 특징으로 한다.And transmitting (S29) the motor arbiter 36 of the motion control unit 3 to distribute the position information to the motors on each axis.

이와 같은 구성 및 단계로 이루어진 본 발명의 작용효과를 설명하면 다음과 같다.Referring to the operation and effect of the present invention made of such a configuration and steps as follows.

먼저, 본 발명 방법이 적용된 안드로이드 로봇의 감정표현장치는 크게 비전부(1)와 지능부(2) 및 모션 제어부(3)로 구성된 것을 주요 기술 구성요소로 한다.First, the emotion expression apparatus of the android robot to which the present invention is applied is mainly composed of the vision unit 1, the intelligence unit 2, and the motion control unit 3 as main technical components.

이때, 상기 비전부(1)는 얼굴 인식부(11)와 색깔 인식부(13), 물체 인식부(12), 모션 인식부(14), 얼굴 추적부(15) 및 물체 추적부(16)를 구비하고 카메라(4)를 통해 촬상되는 사람의 얼굴표정, 색깔과 모션, 물체의 인식을 통해 사람의 감정적 정보들은 추출하는 기능을 수행한다.In this case, the vision unit 1 includes a face recognition unit 11, a color recognition unit 13, an object recognition unit 12, a motion recognition unit 14, a face tracking unit 15, and an object tracking unit 16. And a person's emotional information is extracted through facial expression, color and motion, and recognition of an object captured by the camera 4.

상기 비전부(1)에 있어서 얼굴 인식부(11)와 색깔 인식부(13) 및 물체 인식부(12)는 로봇의 두 안구에 장착되어 있는 카메라(4)를 통해 촬상된 영상에서 얼굴과 색깔 및 물체를 각각 인식하게 되고, 상기 모션 인식부(14)에서는 색깔 인식부(13)의 출력신호를 입력받아 살색인지 여부와 머리 및 손의 움직임을 분석하여 긍정/부정적인 감정신호를 도출해 내게 된다.
이때, 상기 색깔 인식부(13)에서 인식하게 되는 색깔은 사람의 얼굴과 손의 색깔을 통해 감정적 정보를 추출하는 것을 의미하고, 모션 인식부(14)에서 인식하는 모션은 부정적 의미로 고개를 절레절레 흔들거나, 긍정적 의미로 고개를 끄덕 끄덕하거나, 반가움을 표시하기 위해 손을 흔들거나, 긍정의 의미로 팔로 "O" 모양이나 "X" 모양을 만드는 것을 의미하며, 손의 색깔은 모션을 인식하는데 있어 손의 위치를 알려주는 정보로 활용함에 따라 얼굴 색깔뿐만 아니라 손의 색깔 또한 감정적 정보를 추출하는데 사용한다.
In the vision unit 1, the face recognizing unit 11, the color recognizing unit 13, and the object recognizing unit 12 are face and color in an image captured by a camera 4 mounted on two eyes of a robot. And objects are respectively recognized, and the motion recognition unit 14 receives the output signal of the color recognition unit 13 to derive a positive / negative emotion signal by analyzing whether the skin is colored or the movement of the head and hands.
In this case, the color recognized by the color recognizer 13 means extracting emotional information through the color of a face and a hand of a person, and the motion recognized by the motion recognizer 14 cuts off the head with a negative meaning. Shaking in unison, nodding in a positive sense, shaking hands to show welcome, or making an "O" or "X" shape with your arms in a positive sense, the color of the hand perceives motion As the information is used to inform the position of the hand, the color of the hand as well as the face is used to extract emotional information.

또, 상기 얼굴 추적부(15) 및 물체 추적부(16)에서는 상기 얼굴 인식부(11) 및 물체 인식부(12)의 출력신호를 각각 입력받아 얼굴 및 물체를 추적하며 눈동자와 목 및 허리의 동작 범위를 각각 추적하여 대화거리를 추출해 내게 된다.
이때, 물체의 인식이라 함은 단순히 물체의 인식만을 가지고 감정적 정보를 추출하는 것을 의미하지 않고, 상기 물체 인식부(12)는 물체 추적부(16)에 필요한 정보를 제공하게 되며, 특정 물체에 대해 계속적인 트래킹을 하게 되면 그 물체에 대한 호기심이 증가하는 감정적 정보를 추출할 수 있고, 관심을 특정 물체에 집중하여 그 물체에 대한 이야기를 이끌어 나갈 수 있는 원인을 제공할 수 있으며, 물체의 인식을 통한 감정적 정보추출은 호기심이란 감정을 추출하는데 사용된다.
In addition, the face tracking unit 15 and the object tracking unit 16 receive the output signals of the face recognition unit 11 and the object recognition unit 12 to track the face and the object, respectively, Each range of motion is tracked to extract the conversation distance.
In this case, the recognition of the object does not mean extracting the emotional information only by the recognition of the object, and the object recognition unit 12 provides the necessary information to the object tracking unit 16, and for a specific object. Ongoing tracking can extract emotional information that increases curiosity about the object, provide a cause to focus attention on a specific object, and lead to a story about the object. Emotional information extraction through the curiosity is used to extract the emotion.

또한, 상기 지능부(2)는 음성 인식부(21) 및 음성신호 방향 검출부(22), 대화 엔진부(23), 개성 모델부(24), 감정 모델부(25), 시나리오부(26), 음향신호 합성부(27) 및 항상성 발생기(28)를 구비하고 마이크(5)를 통해 입력되는 사람의 음성과 상기 비전부(1)에서 제공된 데이터를 통해 검출된 개성과 감정모델 및 텍스트로부터 감성적 정보를 추출하고, 각 축들에 적용된 모터에 맞게 편집된 얼굴 표정과 제스처가 저장되어 있는 데이터 베이스(29)를 통해 로봇이 표현해야 할 감정을 선택하고 관리하는 기능을 수행하게 된다.In addition, the intelligent unit 2 includes a voice recognition unit 21 and a voice signal direction detection unit 22, a dialogue engine unit 23, a personality model unit 24, an emotion model unit 25, and a scenario unit 26. Emotional from the personality and emotion model and text detected by the human voice input through the microphone 5 and the data provided by the vision unit 1 and the sound signal synthesis unit 27 and homeostasis generator 28 It extracts information and selects and manages emotions to be expressed by the robot through a database 29 in which facial expressions and gestures edited for the motors applied to the axes are stored.

이때, 상기 음성 인식부(21) 및 음성신호 방향 검출부(22)는 마이크(5)를 통해 음성신호가 입력되는지의 여부와 입력된 음성신호의 방향을 검출하게 되고, 상기 대화 엔진부(23)는 웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트신호와 상기 음성 인식부(21)를 통해 입력되는 마이크(5)를 통한 음성신호를 인식하고 긍정/부정적인 감정신호를 추출하게 된다.In this case, the voice recognition unit 21 and the voice signal direction detection unit 22 detect whether the voice signal is input through the microphone 5 and the direction of the input voice signal, and the dialogue engine unit 23 Recognizes a text signal input through the web, a messenger or the keyboard 6 and a voice signal through the microphone 5 input through the voice recognition unit 21 and extracts a positive / negative emotion signal.

또, 상기 개성 모델부(24)에서는 비전부(1)의 모션 인식부(14)와 상기 대화 엔진부(23)에서 각각 추출된 감정 정보를 이용하여 상대 값을 변화시켜 활발함/소심함의 두 개성을 추출하게 되고, 상기 감정 모델부(25)에서는 개성 모델부(24)에서 제공하는 상대 값을 감성 모델 축에 적용하여 개성이 적용된 감정을 추출하게 된다.In addition, the personality model unit 24 changes the relative value by using the emotion information extracted from the motion recognition unit 14 and the dialogue engine unit 23 of the vision unit 1, respectively, so that both the lively and timid The personality is extracted, and the emotion model unit 25 applies a relative value provided by the personality model unit 24 to the emotion model axis to extract the emotion to which the personality is applied.

그리고, 상기 시나리오부(26)에서는 상기한 각부에서 입력되는 신호들과 데이터 베이스(29)에 기 저장되어 있는 시나리오에 정의된 태그들을 이용하여 로봇의 얼굴 표정 및 제스처 제어신호를 모션 제어부(3)에 출력시켜 줌과 동시에 음성 합성신호를 출력시켜 주게 되고, 상기 음향신호 합성부(27)에서는 시나리오부(26)에서 출력되는 음성 합성신호를 스프커(7)를 통해 출력시켜 주며, 상기 항상성 발생기(28)에서는 기 입력된 데이터를 이용하여 생리적인 행동 데이터(즉, 눈 깜빡임, 하품, 졸음, 딸꾹질과 같은 데이터)를 발생시키게 된다.In addition, the scenario controller 26 uses the signals input from the respective units and the tags defined in the scenarios previously stored in the database 29 to control the facial expression and gesture control signals of the robot. The sound synthesizer 27 outputs the voice synthesized signal, and outputs the synthesized voice signal output from the scenario unit 26 through the sputter 7 at the same time. In (28), physiological behavioral data (ie, data such as blinking eyes, yawning, drowsiness, and hiccups) are generated using previously input data.

한편, 상기 모션 제어부(3)는 감정적인 행동부(31)와 얼굴 표정부(32) 및 제스처부(33), 생리적인 행동부(34), 립 싱크부(35) 및 모터 중재자(36)를 구비하고, 상기 비전부(1)와 지능부(2)에서 전송되어서 데이터를 이용하여 감정적 행동들을 실행함은 물론 각 축의 모터가 시나리오부(26)에서 원하는 동작을 수행하도록 중재하는 기능을 한다.On the other hand, the motion control unit 3 is the emotional behavior unit 31, the facial expression unit 32 and the gesture unit 33, the physiological behavior unit 34, the lip sink unit 35 and the motor moderator 36 And transmits from the vision unit 1 and the intelligence unit 2 to execute emotional actions using data, and to mediate the motor of each axis to perform a desired operation in the scenario unit 26. .

이때, 상기 감정적인 행동부(31)는 지능부(2)의 감정 모델부(25)에서 제공하는 신호에 부응하여 감정 표현에 필요한 구동신호를 발생하게 되고, 상기 얼굴 표정부(32) 및 제스처부(33)는 상기 지능부(2)의 시나리오부(26)와 감정 모델부(25)에서 각각 출력되는 신호에 부응하여 얼굴 표정과 제스처 표현에 필요한 구동신호를 발생하게 된다.In this case, the emotional behavior unit 31 generates a driving signal necessary for expressing emotion in response to the signal provided by the emotion model unit 25 of the intelligent unit 2, and the facial expression unit 32 and the gesture. The unit 33 generates driving signals required for facial expressions and gestures in response to signals output from the scenario unit 26 and the emotion model unit 25 of the intelligent unit 2, respectively.

또, 상기 생리적인 행동부(34)는 항상성 발생기(28)에서 출력되는 신호에 부응하여 생리적인 행동(즉, 눈 깜빡임, 하품, 졸음, 딸꾹질과 같은 행동) 표현에 필요한 구동신호를 발생하게 되고, 상기 립 싱크부(35)는 음향신호 합성부(27)의 출력신호에 부응하여 입 모양 변화에 필요한 구동신호를 발생하게 되며, 상기 모터 중재자(36)는 데이터 베이스(37)를 구비하고 상기한 각부에서 출력되는 구동신호에 부응하여 얼굴 모터(8)와 팔,몸통,손 모터(9) 및 눈,목 모터(10)의 구동을 직접적으로 제어하여 안드로이드 로봇이 인간과 같이 감정 표현을 할 수 있도록 하게 된다.In addition, the physiological behavior part 34 generates driving signals necessary for expressing physiological behaviors (ie, blinking, yawning, drowsiness, hiccups, etc.) in response to the signals output from the homeostasis generator 28. The lip sync unit 35 generates a driving signal necessary for changing the shape of the mouth in response to the output signal of the sound signal synthesizing unit 27, and the motor arbiter 36 includes a database 37. In response to the driving signal output from each part, the direct control of the driving of the face motor 8, the arm, the body, the hand motor 9, and the eye and neck motor 10 allows the Android robot to express emotions like humans. To make it possible.

한편, 본 발명 방법은 크게 비전 처리단계(S1)와 지능 처리단계(S2) 및 모션 제어단계(S3)로 이루어진 것을 주요 기술 구성요소로 한다.On the other hand, the method of the present invention mainly consists of the vision processing step (S1), the intelligent processing step (S2) and the motion control step (S3) as the main technical components.

이때, 상기 비전 처리단계(S1)는 카메라(4)에 의해 촬상된 영상신호를 이용하여 사람의 감정적 정보를 추출하는 단계로서, 카메라(4)로부터 들어오는 영상정보 중에서 색깔을 인식하여 머리와 손을 구별하고, 모션을 인식하는 단계(S11)와, 카메라(4)로부터 들어오는 영상정보 중에서 얼굴 및 물체를 인식하여 로봇과 인간과의 거리 정보를 분석하고, 상기 로봇이 실행해야 할 추적 동작을 선택하는 단계(S12)로 이루어지게 된다.At this time, the vision processing step (S1) is a step of extracting the emotional information of the person by using the image signal captured by the camera (4), by recognizing the color from the image information coming from the camera (4) to the head and hands Distinguishing and recognizing a motion (S11), recognizing a face and an object from image information received from the camera 4, analyzing distance information between the robot and a human, and selecting a tracking operation to be performed by the robot. Step S12 is made.

또, 상기 지능 처리단계(S2)는 기본적으로 카메라(4)로부터 촬상된 영상신호에 의해 추출된 모션 정보와, 마이크(5)를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트신호를 이용하여 감성적 정보를 추출하고 각 축들에 적용된 모터에 맞게 편집하는 단계로서, 그 일실시 예서는 상기 비전 처리단계(S1)에서 인식된 모션 정보와 마이크(5)를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트신호를 인식하는 단계(S21)를 실시한 다음, 상기에서 인식된 신호들을 이용하여 로봇이 표현해야 할 개성과 감정 모델을 추출하는 단계(S22)를 실시하고, 이어서 상기에서 추출된 정보들을 이용하여 로봇이 실행해야한 얼굴 표정 및 제스처에 따른 시나리오를 발생시키는 단계(S23)를 실시한 후 음성신호를 포함하여 각종 음향신호를 합성하는 단계(S24)를 실시하는 형태를 갖는다.In addition, the intelligent processing step (S2) is basically through the motion information extracted by the video signal captured from the camera 4, the audio signal input through the microphone 5 and the web, messenger or keyboard 6 Extracting the emotional information by using the input text signal and editing according to the motor applied to each axis, the embodiment is input through the motion information and the microphone 5 recognized in the vision processing step (S1) Recognizing the voice signal and the text signal input through the web or the messenger or the keyboard 6 (S21), and then extracting the personality and emotion model to be expressed by the robot using the recognized signals ( S22), and then generating a scenario according to a facial expression and gesture that the robot should execute using the extracted information (S23) and then generating a voice signal. And a step (S24) of synthesizing various sound signals.

또한, 상기 지능 처리단계(S2)의 다른 실시 예에서는, 로봇이 감정을 표현하기 위해 마이크(5)를 통해서 입력되는 음성 신호와, 웹이나 메신저 또는 키보드(6)를 통해 입력되는 텍스트 신호 및 카메라(4)에서 감지되는 얼굴 및 움직이는 물체의 신호들을 인식하는 단계(S25)를 실시한 다음, 대화 엔진부(23)를 통해 입력되는 감정적 단어 및 카메라(4)를 통해서 들어오는 모션과 얼굴 및 물체를 추출하는 단계(S26)를 실시하고, 상기에서 추출된 신호들을 표현해야 할 감정과 제스처가 들어 있는 시나리오부(26) 내의 데이터 베이스(29)와 매칭시켜 주는 단계(S27)를 실시한 후 눈 깜빡임, 하품, 졸음, 딸꾹질과 같은 생리적인 행동을 생성하는 단계(S28)를 실시하고, 이어서 각 축에 있는 모터에 위치 정보를 분배하는 모션 제어부(3)의 모터 중재자(36)로 전송하는 단계(S29)를 실시하는 형태를 갖는다.Further, in another embodiment of the intelligent processing step (S2), the voice signal input through the microphone 5, the text signal input via the web, messenger or keyboard 6 and the camera to express the emotion by the robot Recognizing the signals of the face and the moving object detected in (4) (S25), and then the emotional words input through the dialogue engine 23 and the motion and the face and the object coming through the camera 4 are extracted. After performing step S26 and matching the database 29 in the scenario unit 26 containing emotions and gestures to express the extracted signals (S27), blinking and yawning are performed. Generating a physiological behavior such as drowsiness and hiccups (S28), and then transmitting to the motor arbiter 36 of the motion control unit 3 which distributes the position information to the motors on each axis (S2). 9) is carried out.

그리고, 상기 모션 제어단계(S3)는 비전 처리단계(S1)와 지능 처리단계(S2)에서 추출 및 편집되어 출력되는 신호에 부응하여 로봇의 각부 모터 구동을 제어하는 단계로서, 상기 비전 처리단계(S1)와 지능 처리단계(S2)로부터 입력된 신호들을 통해 립싱크, 얼굴 표정, 제스처, 감정적 행동에 필요한 제어신호를 생성하는 단계(S31)를 실시한 다음 상기에서 생성된 신호에 부응하여 로봇의 모든 모터에 최종적인 위치 값을 출력시켜 그의 구동을 제어하는 모터 중재단계(S32)로 이루어진다.In addition, the motion control step (S3) is a step of controlling the driving of each motor of the robot in response to a signal extracted and edited in the vision processing step (S1) and the intelligent processing step (S2). After generating the control signals necessary for lip synch, facial expressions, gestures, and emotional behaviors through the signals input from S1) and the intelligent processing step S2, all motors of the robot in response to the signals generated above are generated. And a motor arbitration step S32 for outputting a final position value to control its driving.

다시 말해서 본 발명에 따른 로봇의 감정 표현 방법은, 세 단계인 비전 처리단계(S1)와 지능 처리단계(S2) 및 모션 제어단계(S3)를 포함하고 있고, 세부적으로는 입력된 신호 인식단계, 개성 및 감정이나 모션, 얼굴, 물체를 추출하는 단계, 행동을 생성하는 단계를 포함한다.In other words, the emotion expression method of the robot according to the present invention includes a three-step vision processing step (S1), an intelligent processing step (S2) and a motion control step (S3), in detail the input signal recognition step, Extracting personality and emotions or motions, faces, objects, and generating actions.

이때, 비전부(1)의 카메라(4)는 로봇의 안구에 장착되어 있어 사람과 유사한 시야와 위치를 제공하게 되는데, 인식 단계에서는 얼굴, 물체, 색깔의 정보를 인식하고, 상기의 신호들은 모션, 얼굴, 물체를 추적하는 단계에 제공된다.At this time, the camera 4 of the vision unit 1 is mounted on the eyeball of the robot to provide a visual field and position similar to that of a human. In the recognition step, information of a face, an object, and color is recognized, and the signals are motion. , To track the face, objects are provided.

이와 같은 단계를 거쳐 추출된 신호들은 미리 등록된 얼굴 표정, 제스처 데이터들이 저장된 지능부(2)의 시나리오부(26) 내 데이터 베이스(29) 내용과 비교 및 평가되어 모터 중재자(36)와 시나리오에 제공한다.The signals extracted through the above steps are compared and evaluated with the contents of the database 29 in the scenario unit 26 of the intelligence unit 2 in which the registered facial expression and gesture data are stored. to provide.

또한 상기 모션 제어부(3)의 모터 중재자(36)에서 수행하는 모션 제어단계(S3)는 감정 표현 방법의 최하위 단계로써 본 발명의 한 실시 예에 따른 로봇을 구성하고 있는 모터들에 서로 간섭하지 않고, 움직임이 자연스럽도록 위치 값을 제공한다. In addition, the motion control step S3 performed by the motor arbiter 36 of the motion control unit 3 is the lowest step of the emotion expression method, without interfering with the motors constituting the robot according to an embodiment of the present invention. In addition, the position value is provided so that the movement is natural.

또, 지능 처리단계(S2)는 최상위 단계로써 특정 작업을 수행하기 위해 입력된 신호들은 조합하여 하위 단계로 신호를 제공하게 되는데, 본 발명에서 사용할 수 있는 입력된 신호들을 태그로 정의할 뿐만 아니라 시나리오 구성상 필요한 기능들도 태그로 제공한다.In addition, the intelligent processing step (S2) is the highest level, the signal input to perform a specific task is combined to provide a signal in a lower step, as well as defining the input signals that can be used in the present invention as a tag as a scenario It also provides the necessary functions by tags.

입력된 신호 태그들에는 립싱크, 텍스트, 음성 파일, 음성 톤 및 스피드, 얼굴 표정, 제스처 등을 제공하고, 필요에 의해 만들어진 태그들에는 주석, 종료, 멈춤, 시작 등을 제공한다.Input signal tags provide lip sync, text, voice files, voice tone and speed, facial expressions, gestures, etc., and tags created as needed provide annotation, end, stop, start, and the like.

한편, 비전부(1)에서는 카메라(4)를 통해서 제공된 신호들 중에서 살색을 인식한다. 비전부(1)을 통해 인간의 모션으로부터 감정적 신호들을 추출하기 위해서 감정적 신호들과 연관성이 많은 머리와 손의 움직임으로부터 신호를 얻을 수 있다.On the other hand, the vision unit 1 recognizes the flesh color from the signals provided through the camera (4). In order to extract the emotional signals from the human motion through the vision unit 1, a signal can be obtained from the movement of the head and hands which are related to the emotional signals.

세부적인 신호들을 얻기 위해서는 많은 양의 데이터 처리 과정이 필요하기 때문에 본 발명에 사용한 로봇은 비교적 적은 양의 데이터 처리 과정이 필요한 머리와 손의 움직임으로부터 긍정/부정적 두 가지의 신호들을 추출하게 되는데, 이와 같은 머리와 손의 구분은 일반적인 인간의 구조적 데이터를 통해 얻을 수 있다.Since a large amount of data processing is required to obtain detailed signals, the robot used in the present invention extracts two positive / negative signals from head and hand movements requiring a relatively small amount of data processing. The same head and hand separation can be obtained from the general human structural data.

머리와 손은 면적, 동작 범위, 위치가 다르지만 같은 색깔을 가지고 있기 때문에 색깔 인식을 통해서 구분할 수 있고, 추출된 머리와 손으로부터 움직임을 분 석하여 긍정/부정적 두 가지의 신호들을 개성 모델에 제공하며, 개성 모델에서 계산된 상태 값이 감정 모델에 적용되어, 시나리오부(26)에서 실행되는 얼굴 표정과 제스처에 감정적 신호들을 제공한다.Head and hand can be distinguished by color recognition because they have the same color but are different in area, range of motion, and location, and analyze the movements from the extracted head and hand to provide the positive and negative signals to the personality model. The state values calculated in the personality model are applied to the emotion model to provide emotional signals to the facial expressions and gestures executed in the scenario unit 26.

통상 인간은 상대방과 대화를 하면서 항상 일정 거리를 유지하게 되는데, 이는 문화적 차이에 따라 다를 수 있다.Normally, humans keep a certain distance from each other while talking to each other, which can vary according to cultural differences.

카메라(4)를 통해서 얼굴 및 물체를 인식함으로써 대화 거리를 파악할 수 있으며, 대화 거리 안으로 들어온다면 거부감을 보일 것이고, 너무 멀면 대화 거리를 줄이려고 노력할 것이다.By recognizing the face and the object through the camera 4, the conversation distance can be determined, and if it enters into the conversation distance, it will show rejection, and if it is too far, it will try to reduce the conversation distance.

또한, 상대방과 대화하기 위해서는 상대편의 얼굴을 쳐다봄으로써 말할 순서나 상대방의 감정을 파악함에 따라 얼굴 및 물체를 추적하는 기능이 필요하다.In addition, in order to communicate with the other party, a function of tracking a face and an object by looking at the other's face and grasping the emotions of the other party is required.

대화 거리 안으로 들어오면 모터 중재자(36)에 신호를 제공하여 대화 거리를 유지하고, 얼굴 및 물체를 추적하기 위해서는 먼저 눈동자의 동작 범위에서 추적할 수 있는지를 파악하고, 범위에서 벗어나면 목, 허리 순으로 얼굴 및 물체를 추적한다.As you enter the conversation distance, you provide a signal to the motor moderator 36 to maintain the conversation distance.To track your face and objects, first determine if you can track within your pupil's range of motion. Tracks faces and objects.

한편, 지능부(2)에서는 마이크(5)를 통해 들어온 음성 신호와 웹이나 메신저 또는 키보드(6)에서 입력되는 텍스트 신호를 인식하고, 인식된 신호들은 대화 엔진부(23)를 통해서 감정적 신호들이 추출된다.Meanwhile, the intelligent unit 2 recognizes a voice signal input through the microphone 5 and a text signal input from the web, a messenger, or the keyboard 6, and the recognized signals are sent to the emotional engine through the dialogue engine 23. Extracted.

이때, 대화 엔진부(23)의 대화 엔진은 10,000개의 텍스트 정보와 100개의 제스처가 저장되어 있고, 추출된 신호들이 감정적 신호들이 아니라면 대화 엔진부(23)에 등록된 텍스트와 제스처가 실행된다.At this time, the dialogue engine of the dialogue engine unit 23 stores 10,000 text information and 100 gestures. If the extracted signals are not emotional signals, the text and gestures registered in the dialogue engine unit 23 are executed.

감정적 신호들이 추출되었다면 개성 모델부(24)에 긍정/부정적 신호를 제공하여 내부 상태 값을 변화시키게 되고, 상기에서 변화된 상태 값은 감정 모델부(25)에 제공된다.If emotional signals have been extracted, a positive / negative signal is provided to the personality model unit 24 to change an internal state value, and the changed state value is provided to the emotion model unit 25.

또, 상기 개성 모델부(24)의 상태 값은 감정 모델의 축을 변화시켜 감정 모델이 미소, 슬픔, 놀람, 화남의 네 가지 검정을 가지게 하게 되는데, 도 9는 이와 같은 로봇의 개성 모델을 도시한 블록 구성도이다.In addition, the state value of the personality model unit 24 changes the axis of the emotion model so that the emotion model has four tests of smile, sadness, surprise, and anger. FIG. 9 shows the personality model of such a robot. It is a block diagram.

상기와 같이 음성이나 비전 및 텍스트로 입력된 신호들은 개성 모델부(24)의 내부 상태 값과 현재 상태 값을 변화시키게 되는데, 이때 개성 모델은 활발함(Vigorous)/소심함(Timid)의 두 가지 개성을 갖는다.As described above, the signals input by voice, vision, and text change the internal state value and the current state value of the personality model unit 24. In this case, the personality model has two personalities: vigorous and timid. Has

초기 내부 상태 값은 0.5이고, 최소 0, 최대 1의 값을 갖는다. 활발한 개성은 감정 모델의 미소 축과 놀람 축에 영향을 미치고, 소심한 개성은 감정 모델의 슬픔 축과 화남 축에 영향을 미치며, 현재 상태 값은 입력된 신호가 긍정/부정에 따라 상대적으로 가 더해지거나 소거된다.The initial internal state value is 0.5 and has a minimum of 0 and a maximum of 1. Active personality affects the smile and surprise axes of the emotion model, timid personality affects the sadness and anger axes of the emotion model, and the current state value is either added or added as the input signal is positive or negative. Erased.

이는 계단 함수

Figure 112006094332887-pat00001
에 입력된다. 수식으로 나타내면,Which is a step function
Figure 112006094332887-pat00001
Is entered. In terms of a formula,

Figure 112006094332887-pat00002
Figure 112006094332887-pat00002

Figure 112006094332887-pat00003
Figure 112006094332887-pat00003

와 같다.Same as

한편, 긍정적인 신호들이 계속 제공된다면 본 발명이 적용된 로봇의 개성은 활발함의 상태 값이 증가하고, 소심함의 상태 값은 감소하며, 개성 모델의 현재 상 태 값은 감정 모델의 축에 영향을 주어 감정 모델이 개성을 가지게 한다.On the other hand, if positive signals continue to be provided, the personality of the robot to which the present invention is applied increases the state value of vigor, the state value of timidity decreases, and the current state value of the personality model affects the axis of the emotion model and thus Make your model personal.

도 10은 본 발명에서 적용한 로봇의 감성 모델을 예시한 2차원 감정 공간도이다.10 is a two-dimensional emotional space diagram illustrating the emotion model of the robot applied in the present invention.

감정을 연속적인 차원의 공간상에 표현한 방법으로 MIT, Breazeal의 Kismet의 감정 공간 방법과 Nagoya 대학의 Miwa의 WE-3의 방법이 있다.The expression of emotions in a continuous dimension of space is MIT, Kismet's emotion space method in Breazeal and Miwa's WE-3 method in Nagoya University.

Breazeal은 Arousal, Valence, Stance의 3개의 축으로 이루어진 감정 공간 9개의 감정을 표현했고, Miwa는 Pleasantness, Activation, Certainty 3개의 축으로 구성된 감정 공간에 7개의 감정을 표현했다. 일반적으로 행복, 슬픔, 화남, 놀람, 공포, 혐오를 6대 감정으로 분류한다.Breazeal expressed nine emotions in three emotion axes, Arousal, Valence, and Stance. Miwa expressed seven emotions in three emotion axes: Pleasantness, Activation, and Certainty. Generally, happiness, sadness, anger, surprise, fear, and disgust are classified into six emotions.

본 발명이 적용된 로봇에서는 감정의 빈도 수가 적은 공포와 혐오를 제외한 행복(미소), 슬픔, 화남, 놀람의 4개의 감정을 2차원 상의 원점을 기준으로 하나의 축(E0-E3)으로 할당한다.In the robot to which the present invention is applied, the four emotions of happiness (smile), sadness, anger, and surprise, except for fear and disgust, which have a low frequency of emotions, are assigned to one axis (E 0 -E 3 ) based on the two-dimensional origin. do.

한 시점에서 감정 모델의 입력은 4가지 감정값의 쌍으로 나타나게 되는데, 이때 각 감정값은 0에서 1 사이의 값으로 표현되고, 인덱스 0은 행복, 1은 화남, 2는 슬픔, 3은 놀람을 나타낸다.At one point in time, the inputs of the emotion model appear as a pair of four emotion values, with each emotion value represented as a value between 0 and 1, with index 0 being happy, 1 being angry, 2 being sad, and 3 being surprised. Indicates.

예를 들면, 도 11에서 나타낸 감정의 입력은 [e0 e1 e2 e3] = [0.8 0.3 0.4 0.4]이다. S0~S4는 각 감정 축을 이등분한 선에 의해 생성되는 영역의 면적으로서 감정의 출력을 계산하는데 사용된다. 이때 감정의 출력(Wi)은,For example, the input of emotion shown in FIG. 11 is [e0 e1 e2 e3] = [0.8 0.3 0.4 0.4]. S 0 to S 4 are the areas of the area created by the line bisecting each emotion axis and are used to calculate the output of the emotion. At this time, the output of the emotion (Wi),

Figure 112006094332887-pat00004
Figure 112006094332887-pat00004

와 같이 정의한다.It is defined as

감정의 축이 변하면 동일한 입력에 대한 감정의 출력 값이 변하여 다른 감정의 반응 특성이 나타난다.When the axis of emotion changes, the output value of the emotion for the same input changes, resulting in the response characteristics of different emotions.

이에 따라 각 개체는 자신의 경험에 따라 다양한 반응의 패턴, 즉 개성을 갖는다. 감정의 축은 발생 빈도가 높을수록 길어지고 감정의 동시 발생확률이 높을 수록 가까워진다.Accordingly, each individual has a variety of reaction patterns, i.e. personality, according to his or her own experience. The axis of emotion becomes longer as the frequency of occurrence occurs and gets closer as the probability of simultaneous occurrence of emotion increases.

도 12는 행복(미소)의 발생빈도가 높아져 E0축이 길어지고 슬픔과 놀람 그리고 슬픔과 화남의 감정의 동시 발생확률이 높아 E2와 E1 및 E3의 축이 가까워진 결과를 나타내는 것으로, 이것은 자주 발생하는 감정에 대한 반응도를 높이고 동시에 발생하는 감정의 반응도를 비슷하게 만든다.FIG. 12 shows the result of increasing the frequency of happiness (smile), increasing the E 0 axis, increasing the probability of simultaneous sadness and surprise, and feelings of sadness and anger, resulting in closer axes of E 2 , E 1, and E 3 . This increases the responsiveness to the emotions that occur frequently and makes similar responses to the emotions that occur at the same time.

도 11은 본 발명에서 적용한 로봇의 얼굴에 나타난 네 가지 감정들의 예시도이다.11 is an illustration of four emotions shown on the face of the robot applied in the present invention.

도 12는 본 발명에서 적용한 로봇이 실행한 제스처들의 예시도이다.12 is an exemplary view of gestures performed by the robot applied in the present invention.

본 발명은 그 정신 또는 주요한 특징으로부터 일탈하는 일없이, 다른 여러 가지 형태로 실시할 수 있다. 그 때문에, 전술한 실시예는 모든 점에서 단순한 예시에 지나지 않으며, 한정적으로 해석해서는 안된다.This invention can be implemented in other various forms, without deviating from the mind or main characteristic. For this reason, the above-described embodiments are merely examples in all respects and should not be interpreted limitedly.

본 발명의 범위는 특허청구의 범위에 의해서 나타내는 것으로서, 명세서 본 문에 의해서는 아무런 구속도 되지 않으며, 또한 특허청구범위의 균등 범위에 속하는 변형이나 변경은, 모두 본 발명의 범위 내의 것이다.The scope of the present invention is shown by the scope of the claims, which are not limited by the specification text, and all modifications and changes belonging to the equivalent scope of the claims are within the scope of the present invention.

이상에서 설명한 바와 같이 본 발명에 의하면, 안드로이드 로봇이 감정 상태를 인간과 유사한 피부와 관절 구조로 표현할 수 있고, 비전, 음성, 텍스트로 상대방에게 감정을 표현할 수 있기 때문에 인간과 더욱 친근한 의사소통을 할 수 있을 뿐만 아니라, 이로 인해 로봇과 관련된 새로운 기술들의 수요를 증가시킬 수 있고 결국 로봇 시장 촉진에 기여할 수 있는 등 매우 유용한 발명인 것이다.As described above, according to the present invention, since the Android robot can express the emotional state with the skin and joint structure similar to the human, and can express the emotion to the other party through vision, voice, and text, it can communicate more friendly with the human. In addition to this, it is a very useful invention that can increase the demand for new technologies related to robots and contribute to the promotion of the robot market.

Claims (9)

삭제delete 삭제delete 삭제delete 삭제delete 카메라에 의해 촬상된 영상신호를 이용하여 사람의 감정적 정보를 추출하는 비전 처리단계와;A vision processing step of extracting emotional information of a person using an image signal captured by a camera; 상기 카메라로부터 촬상된 영상신호에 의해 추출된 모션 정보와, 마이크를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트신호를 이용하여 감성적 정보를 추출하고 각 축들에 적용된 모터에 맞게 편집하는 지능 처리단계와;Emotional information is extracted by using motion information extracted by the image signal captured by the camera, a voice signal input through a microphone, and a text signal input through a web, a messenger or a keyboard, and edited according to a motor applied to each axis. An intelligent processing step; 상기 비전 처리단계와 지능 처리단계에서 추출 및 편집되어 출력되는 신호에 부응하여 로봇의 각부 모터 구동을 제어하는 모션 제어단계;로 이루어지되,Motion control step of controlling the motor drive of each part of the robot in response to the signal extracted and edited in the vision processing step and the intelligent processing step; 상기 비전 처리단계는, 카메라로부터 들어오는 영상정보 중에서 색깔을 인식하여 머리와 손을 구별하고, 모션을 인식하는 모션 인식단계와; 카메라로부터 들어오는 영상정보 중에서 얼굴 및 물체를 인식하여 로봇과 인간과의 거리 정보를 분석하고, 상기 로봇이 실행해야 할 추적 동작을 선택하는 얼굴 및 물체 추적단계;를 포함하고,The vision processing step may include: a motion recognition step of recognizing color among image information received from a camera to distinguish a head and a hand, and recognizing a motion; A face and object tracking step of recognizing a face and an object from image information received from a camera, analyzing distance information between a robot and a human, and selecting a tracking operation to be performed by the robot; 상기 지능 처리단계는, 비전 처리단계에서 인식된 모션 정보와 마이크를 통해 입력되는 음성신호 및 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트신호를 인식하는 단계와; 상기에서 인식된 신호들을 이용하여 로봇이 표현해야 할 개성과 감정 모델을 추출하는 단계와; 상기에서 추출된 정보들을 이용하여 로봇이 실행해야한 얼굴 표정 및 제스처에 따른 시나리오를 발생시키는 단계와; 음성신호를 포함하여 각종 음향신호를 합성하는 단계;를 포함하며,The intelligent processing step may include: recognizing motion information recognized in the vision processing step, a voice signal input through a microphone, and a text signal input through a web, a messenger, or a keyboard; Extracting the personality and emotion model to be expressed by the robot using the recognized signals; Generating scenarios according to facial expressions and gestures to be executed by the robot using the extracted information; Synthesizing various sound signals including a voice signal; 상기 지능 처리단계는, 로봇이 감정을 표현하기 위해 마이크를 통해서 입력되는 음성 신호와, 웹이나 메신저 또는 키보드를 통해 입력되는 텍스트 신호 및 카메라에서 감지되는 얼굴 및 움직이는 물체의 신호들을 인식하는 단계와; 대화 엔진부를 통해 입력되는 감정적 단어 및 카메라를 통해서 들어오는 모션과 얼굴 및 물체를 추출하는 단계와; 상기에서 추출된 신호들을 표현해야 할 감정과 제스처가 들어 있는 시나리오부 내의 데이터 베이스와 매칭시켜 주는 단계와; 눈 깜빡임, 하품, 졸음, 딸꾹질과 같은 생리적인 행동을 생성하는 단계와; 각 축에 있는 모터에 위치 정보를 분배하는 모션 제어부의 모터 중재자로 전송하는 단계;를 포함하고,The intelligent processing may include: recognizing a voice signal input through a microphone to express emotions, a text signal input through a web, a messenger or a keyboard, and signals of a face and a moving object detected by a camera; Extracting an emotional word input through the dialogue engine unit and a motion and a face and an object coming through the camera; Matching the extracted signals with a database in a scenario unit including emotions and gestures to be expressed; Generating physiological behaviors such as blinking eyes, yawning, drowsiness, hiccups; And transmitting the position information to the motor arbiter of the motion control unit for distributing the position information to the motors on each axis. 상기 모션 제어단계는, 비전 처리단계와 지능 처리단계로부터 입력된 신호들을 통해 립싱크, 얼굴 표정, 제스처, 감정적 행동에 필요한 제어신호를 생성하는 단계와; 상기에서 생성된 신호에 부응하여 로봇의 모든 모터에 최종적인 위치 값을 출력시켜 그의 구동을 제어하는 모터 중재단계;를 포함하는 것을 특징으로 하는 안드로이드 로봇의 감정표현방법.The motion control step may include generating control signals necessary for lip syncing, facial expressions, gestures, and emotional behavior through signals input from the vision processing step and the intelligent processing step; And a motor mediation step of controlling a driving thereof by outputting a final position value to all motors of the robot in response to the generated signal. 삭제delete 삭제delete 삭제delete 삭제delete
KR1020060130636A 2006-12-20 2006-12-20 Emotional expression equipment and method in android robot KR100813668B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060130636A KR100813668B1 (en) 2006-12-20 2006-12-20 Emotional expression equipment and method in android robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060130636A KR100813668B1 (en) 2006-12-20 2006-12-20 Emotional expression equipment and method in android robot

Publications (1)

Publication Number Publication Date
KR100813668B1 true KR100813668B1 (en) 2008-03-14

Family

ID=39398818

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060130636A KR100813668B1 (en) 2006-12-20 2006-12-20 Emotional expression equipment and method in android robot

Country Status (1)

Country Link
KR (1) KR100813668B1 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101155424B1 (en) 2009-12-29 2012-06-14 한국생산기술연구원 Apparatus and method of android robot for expressing emotion using skin color change and computer readable medium recording program for performing the methdo
KR101234289B1 (en) 2011-02-28 2013-02-18 동명대학교산학협력단 Congitive system realizing contextual human robot interaction for service robot and method thereof
KR101303789B1 (en) * 2012-03-09 2013-09-04 한국생산기술연구원 A facial muscle control device for android robot
KR101334646B1 (en) * 2012-03-09 2013-11-29 한국생산기술연구원 A eyeball for robot based on image and sound showing emotion
KR101399601B1 (en) * 2011-10-27 2014-05-27 허헌 Emotion expresion robot using user data
KR101445700B1 (en) * 2013-03-19 2014-10-01 한국과학기술원 Robot Gesture Generation Apparatus and Method thereof
CN109256149A (en) * 2018-08-09 2019-01-22 上海常仁信息科技有限公司 A kind of emotion communication system and method for robot
CN110053054A (en) * 2019-04-09 2019-07-26 浙江工业大学 Mechanical arm teaching method based on Android phone IMU
US10777198B2 (en) 2017-11-24 2020-09-15 Electronics And Telecommunications Research Institute Apparatus for determining speech properties and motion properties of interactive robot and method thereof
KR20200135431A (en) * 2018-03-22 2020-12-02 재팬 사이언스 앤드 테크놀로지 에이전시 Processing unit, processing method, data processing unit, data processing system, data processing method and program
WO2021261688A1 (en) * 2020-06-24 2021-12-30 영남대학교 산학협력단 Learning apparatus and method for creating emotion expression video and apparatus and method for emotion expression video creation
CN114571443A (en) * 2022-04-28 2022-06-03 北京深度奇点科技有限公司 System and method for teaching robot motion through mobile terminal wireless control low code

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060021946A (en) * 2004-09-06 2006-03-09 한국과학기술원 Apparatus and method of emotional expression for a robot
KR20060079832A (en) * 2005-04-15 2006-07-06 정재영 Humanoid robot using emotion expression based on the embedded system
KR20060080317A (en) * 2005-01-05 2006-07-10 현대자동차주식회사 An emotion-based software robot for automobile

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060021946A (en) * 2004-09-06 2006-03-09 한국과학기술원 Apparatus and method of emotional expression for a robot
KR20060080317A (en) * 2005-01-05 2006-07-10 현대자동차주식회사 An emotion-based software robot for automobile
KR20060079832A (en) * 2005-04-15 2006-07-06 정재영 Humanoid robot using emotion expression based on the embedded system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101155424B1 (en) 2009-12-29 2012-06-14 한국생산기술연구원 Apparatus and method of android robot for expressing emotion using skin color change and computer readable medium recording program for performing the methdo
KR101234289B1 (en) 2011-02-28 2013-02-18 동명대학교산학협력단 Congitive system realizing contextual human robot interaction for service robot and method thereof
KR101399601B1 (en) * 2011-10-27 2014-05-27 허헌 Emotion expresion robot using user data
KR101303789B1 (en) * 2012-03-09 2013-09-04 한국생산기술연구원 A facial muscle control device for android robot
KR101334646B1 (en) * 2012-03-09 2013-11-29 한국생산기술연구원 A eyeball for robot based on image and sound showing emotion
KR101445700B1 (en) * 2013-03-19 2014-10-01 한국과학기술원 Robot Gesture Generation Apparatus and Method thereof
US10777198B2 (en) 2017-11-24 2020-09-15 Electronics And Telecommunications Research Institute Apparatus for determining speech properties and motion properties of interactive robot and method thereof
KR20200135431A (en) * 2018-03-22 2020-12-02 재팬 사이언스 앤드 테크놀로지 에이전시 Processing unit, processing method, data processing unit, data processing system, data processing method and program
KR102516751B1 (en) * 2018-03-22 2023-03-31 재팬 사이언스 앤드 테크놀로지 에이전시 Processing device, processing method, data processing device, data processing system, data processing method and program
US11983309B2 (en) 2018-03-22 2024-05-14 Japan Science And Technology Agency Device and method to acquire timing of blink motion performed by a dialogue device
CN109256149A (en) * 2018-08-09 2019-01-22 上海常仁信息科技有限公司 A kind of emotion communication system and method for robot
CN110053054A (en) * 2019-04-09 2019-07-26 浙江工业大学 Mechanical arm teaching method based on Android phone IMU
WO2021261688A1 (en) * 2020-06-24 2021-12-30 영남대학교 산학협력단 Learning apparatus and method for creating emotion expression video and apparatus and method for emotion expression video creation
CN114571443A (en) * 2022-04-28 2022-06-03 北京深度奇点科技有限公司 System and method for teaching robot motion through mobile terminal wireless control low code

Similar Documents

Publication Publication Date Title
KR100813668B1 (en) Emotional expression equipment and method in android robot
Glas et al. Erica: The erato intelligent conversational android
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
Wang et al. Handshake: Realistic human-robot interaction in haptic enhanced virtual reality
Spexard et al. Human-oriented interaction with an anthropomorphic robot
JP7400923B2 (en) Information processing device and information processing method
Hirth et al. Towards social robots: Designing an emotion-based architecture
CN101820399A (en) Touch communication doll capable of vividly expressing emotional information
Salem et al. Towards an integrated model of speech and gesture production for multi-modal robot behavior
KR20060079832A (en) Humanoid robot using emotion expression based on the embedded system
US20200269421A1 (en) Information processing device, information processing method, and program
Vannucci et al. A robot with style: Can robotic attitudes influence human actions?
JP7363809B2 (en) Information processing device, information processing method, and program
Lim et al. Converting emotional voice to motion for robot telepresence
Silva et al. Mirroring emotion system-on-line synthesizing facial expressions on a robot face
Inthiam et al. Mood perception model for social robot based on facial and bodily expression using a hidden Markov model
Fukuda et al. Human-robot mutual communication system
US12011828B2 (en) Method for controlling a plurality of robot effectors
Takimoto et al. A simple bi-layered architecture to enhance the liveness of a robot
Beck et al. Motion control for social behaviors
JP7156300B2 (en) Information processing device, information processing method, and program
Oh et al. Automatic emotional expression of a face robot by using a reactive behavior decision model
JP3848076B2 (en) Virtual biological system and pattern learning method in virtual biological system
Bono et al. Challenges for Robots Acting on 37
Kocoń Facial expressions modeling for interactive virtual environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Publication of correction
FPAY Annual fee payment

Payment date: 20130403

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140121

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150713

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170120

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180102

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20191223

Year of fee payment: 13