KR100446725B1 - Behavior learning method of robot - Google Patents
Behavior learning method of robot Download PDFInfo
- Publication number
- KR100446725B1 KR100446725B1 KR10-2001-0068204A KR20010068204A KR100446725B1 KR 100446725 B1 KR100446725 B1 KR 100446725B1 KR 20010068204 A KR20010068204 A KR 20010068204A KR 100446725 B1 KR100446725 B1 KR 100446725B1
- Authority
- KR
- South Korea
- Prior art keywords
- robot
- frame
- behavior
- changed
- voice
- Prior art date
Links
- 230000006399 behavior Effects 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39254—Behaviour controller, robot have feelings, learns behaviour
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
Abstract
본 발명은 로봇의 행동 학습방법에 관한 것으로, 로봇의 정지자세를 로봇이 가지고 있는 모든 관절의 현재 지시값을 프레임 정보로 정의한후,그 프레임 정보와 음성명령을 연결시켜 학습시키도록 한 것이다. 이를 위하여 본 발명은 입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과; 로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과; 사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과; 상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행한다.The present invention relates to a method for learning behavior of a robot, and defines a current position of all joints of a robot as frame information, and then connects the frame information and a voice command to learn. To this end, the present invention comprises the steps of switching the operation mode of the robot to the behavior learning mode, depending on the presence or absence of motion information corresponding to the input voice; Stopping the operation of the robot, and then storing, as an initial frame, indication values of the rotational joint and the linear joint of the stopped robot; When the posture of the robot is changed by the user, the rotational and linear joints of the changed robot are stored as a terminal frame, and then the motion information of the time series is generated by interpolating the terminal frame and the initial frame. Process; The operation information of the time series is connected to an input voice, the input voice is registered in the word DB, and the process is returned to the autonomous mode.
Description
본 발명은 로봇의 행동 학습방법에 관한 것으로, 특히 사용자가 로봇의 행동을 임의적으로 행동시키도록 한 로봇의 행동 학습방법에 관한 것이다.The present invention relates to a behavioral learning method of a robot, and more particularly, to a behavioral learning method of a robot to allow a user to arbitrarily behave.
일반적으로, 음성인식 기능이 구현된 서비스 로봇 및 애완로봇은 사용자의 음성명령을 지각하여 특정 행동(Behavior)을 수행한다.In general, service robots and pet robots implemented with voice recognition function perform a specific behavior by recognizing a user's voice command.
상기 음성인식은, '화자독립 고립단어인식'(정해진 특정 단어들을 화자에 관계없이 인식)이나, '화자독립 핵심어인식'(특정 단어들을 문장내에서 인식)을 채용한다.The speech recognition employs 'speaker independent isolated word recognition' (recognizes predetermined words regardless of the speaker) or 'speaker independent key word recognition' (recognizes specific words in a sentence).
따라서, 상기 음성인식 기능이 구현된 로봇들은, 사용자가 말한 특정단어를 인식하여, 이 특정단어와 연결된 행동(Behavior)을 수행함으로써, 사용자에게 로봇의 지능(Intelligence)을 느끼게 하는데, 상기 특정 단어와 특정 행동간의 연결은 로봇의 인공지능을 프로그래밍할때 부여된다.Accordingly, the robots implementing the voice recognition function recognize a specific word spoken by a user and perform a behavior associated with the specific word, thereby making the user feel the intelligence of the robot. Links between specific behaviors are given when programming the robot's artificial intelligence.
종래에는,로봇에 새롭게 단어-행동 연결을 정의하기 위하여, 기작성된 프로그램에서 새로운 단어-행동 연결을 부가하고,행동을 정의하는 데이터를 새롭게 생성해야 하는데, 상기 데이터는 로봇을 동작시키도록 하는 각 관절의 각도를 시계열 (Time Series)로 서술한 동작정보(Motion Data)를 나타낸다.Conventionally, in order to newly define a word-behavior connection to a robot, a new word-behavior connection must be added in a pre-written program, and new data defining behavior is generated, and the data is used for each joint for operating the robot. The motion data represents the angle of in a time series.
상기와 같이, 프로그램 및 데이터 차원에서 로봇을 훈련시키거나 학습시키는 방법은 자연스럽지 못한 행동특성을 나타내는 문제점이 있다.As described above, the method of training or learning the robot in the program and data dimensions has a problem of exhibiting unnatural behavior.
또한, 로봇을 훈련/학습시키기 위하여 화상인식을 통하여 사용자의 몸짓 (Gesture)등을 인식시키는 방법은, 고가의 장비를 이용해야함과 아울러 화상처리 시간이 오래 걸리는 문제점이 있다.In addition, a method of recognizing a gesture of a user through image recognition in order to train / learn a robot has a problem of using expensive equipment and taking a long time for image processing.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 사용자에 의해 입력된 음성에 대응된 움직임이 등록되어 있지 않으면, 행동학습모드로 전환한 다음, 사용자에 의해 자세가 변경된 로봇의 모든 관절의 지시값을 프레임 정보로 정의하여,그 프레임 정보를, 입력된 음성에 해당되는 동작정보로 생성하여, 음성에 대응되는 로봇의 행동을 학습시키도록 한 로봇의 행동 학습방법을 제공함에 그 목적이 있다.The present invention has been made to solve the above problems, and if the movement corresponding to the voice input by the user is not registered, after switching to the behavior learning mode, all the joints of the robot whose posture is changed by the user It is an object of the present invention to provide a robot behavior learning method in which an instruction value is defined as frame information, the frame information is generated as motion information corresponding to an input voice, and the robot behavior corresponding to the voice is learned. .
도1은 본 발명 로봇의 행동 학습방법에 대한 동작흐름도.1 is a flow chart for the behavior learning method of the present invention robot.
도2는 본 발명 로봇의 행동학습방벙에 대한 실시예를 보인 개략도.Figure 2 is a schematic diagram showing an embodiment of the behavior learning method of the present invention robot.
상기와 같은 목적을 달성하기 위한 본 발명은, 입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과; 로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과; 사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과; 상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행함을 특징으로 한다.The present invention for achieving the above object, the process of switching the operation mode of the robot to the behavior learning mode, depending on the presence or absence of motion information corresponding to the input voice; Stopping the operation of the robot, and then storing, as an initial frame, indication values of the rotational joint and the linear joint of the stopped robot; When the posture of the robot is changed by the user, the rotational and linear joints of the changed robot are stored as a terminal frame, and then the motion information of the time series is generated by interpolating the terminal frame and the initial frame. Process; The operation information of the time series (Time Series) is connected to an input voice, and the input voice is registered in the word DB.
이하, 본 발명에 의한 로봇의 행동 학습방법에 대한 작용 및 효과를 첨부한도면을 참조하여 상세히 설명한다.Hereinafter, with reference to the accompanying drawings, the action and effect on the behavior learning method of the robot according to the present invention will be described in detail.
도1은 본 발명 로봇의 행동 학습방법에 대한 동작흐름도로서, 이에 도시한 바와같이 음성DB중 행동과 연관되지 않는 단어가 음성으로 인식되면 행동학습 모드로 전환하는 제1 과정(SP1,SP2)과; 사용자에 의해 변화된 자세를 상기 단어에 해당되는 동작정보로 생성하여 학습시킨후(SP3~SP6), 자율 모드로 복귀하는 제2 과정으로 이루어진다.1 is a flow chart of the behavior learning method of the robot of the present invention. As shown in FIG. 1, when the words not related to the behavior of the voice DB are recognized as the voices, the first process (SP1, SP2) and ; After generating and learning the posture changed by the user as the motion information corresponding to the word (SP3 to SP6), the second process returns to the autonomous mode.
상기 제1 과정은, 행동과 연관되지 않는 단어가 음성으로 인식되면, 현재 동작을 정지하는 제1 단계와; 상기 동작이 정지된 자세를 초기 프레임으로 기록하는 제2 단계를 포함한다.The first step may include: a first step of stopping a current operation when a word not related to an action is recognized as a voice; And a second step of recording, in the initial frame, the posture from which the operation is stopped.
상기 제2 과정은, 일정시간 이내에 사용자가 로봇에 변화를 주었는지를 판단하는 제1 단계와; 상기 제1 단계의 판단결과, 사용자가 로봇에 변화를 주면 그 변화된 자세를 말기 프레임으로 기록한후, 자율모드로 복귀하는 제2 단계로 이루어지며, 이와 같은 본 발명의 동작을 설명한다.The second process includes a first step of determining whether the user has changed the robot within a predetermined time; As a result of the determination of the first step, when the user makes a change to the robot, the changed posture is recorded as a terminal frame, and then the second step of returning to the autonomous mode is described.
음성인식 기능을 가진 로봇은, 필수적으로 단어DB를 가지고 있는데, 이 단어DB는 특정의 행동과 연결되어 사용자의 음성중 단어 DB에 등록되어 있는 단어를 인식하면 그 단어와 연결된 행동을 수행한다.A robot with speech recognition function essentially has a word DB, which is connected to a specific action and recognizes a word registered in the word DB of the user's voice and performs the action associated with that word.
본 발명의 행동학습방법을 구현하기 위해, 로봇은 자율모드로 동작하다가, 음성DB중 행동과 연관되지 않는 단어가 음성으로 인식되면, 즉 사용자에 의해 입력된 음성이, 음성DB에 등록되어 있으나 단어DB에는 등록되어 있지 않으면 행동학습 모드로 전환하는데(SP1,SP2), 즉 행동과 연관되지 않는 단어가 음성으로 인식되면 현재 동작을 정지한후, 그 정지된 자세를 초기 프레임으로 기록한다.In order to implement the behavior learning method of the present invention, when the robot operates in an autonomous mode and a word that is not related to the behavior in the voice DB is recognized as a voice, that is, a voice input by the user is registered in the voice DB, but the word is If it is not registered in the DB, it switches to the behavior learning mode (SP1, SP2). That is, if a word that is not related to the behavior is recognized as a voice, the current motion is stopped and the stopped posture is recorded as an initial frame.
상기 프레임은, 로봇의 정지자세를 나타낼 수 있는 모든 관절의 현재 지시값으로 이루어지는데, 회전관절의 경우는 각도를 지시값으로 이용하고, 직동관절의 경우는 변위를 지시값으로 이용한다.The frame consists of the current indication values of all the joints that can represent the robot's stationary position. In the case of the rotary joint, the angle is used as the indication value, and in the case of the linear joint, the displacement is used as the indication value.
상기 행동학습모드로 전환된 다음, 일정시간 이내에, 사용자에 의해 로봇의 자세에 변화를 주지 않으면 자율모드로 복귀하고(SP3,SP4), 일정시간 이내에 사용자에 의해 로봇의 자세가 변화되어 일정 시간 이상 유지되면 그 변화된 자세를 말기 프레임으로 기록한다(SP3~SP6).After switching to the behavior learning mode, if the posture of the robot is not changed by the user within a predetermined time, the robot returns to the autonomous mode (SP3, SP4), and the posture of the robot is changed by the user within a predetermined time, and then over a predetermined time. If maintained, the changed posture is recorded in the terminal frame (SP3 to SP6).
즉, 일정시간 이내에서 사용자로부터 아무런 입력이 없으면 로봇은 자율모드로 복귀하고, 사용자가 새로운 동작을 로봇에게 학습시키기 위하여 로봇의 관절각도나 변위의 변화를 가한후, 그 변화된 자세로 일정시간 유지되면 말기프레임으로 기록한다.That is, if there is no input from the user within a certain time, the robot will return to autonomous mode, if the user changes the joint angle or displacement of the robot to learn the new motion to the robot, and then maintains the changed posture for a certain time. Record in the last frame.
그 다음, 동작정보를 상기 초기 프레임과 말기 프레임을 보간하여 시계열 (Time Series)로 생성한후, 자율모드로 복귀한다.Then, the operation information is generated in a time series by interpolating the initial frame and the last frame, and then returned to the autonomous mode.
이때, 상기 행동과 연관되지 않는 단어를 상기 동작정보와 연결시켜 단어DB에 저장하고, 음성DB는, 로봇의 행동 학습 수행을 위해, 소정부분이 의도적으로 행동과 연결되지 않도록 이루어진다.In this case, a word not related to the action is connected to the action information and stored in the word DB, and the voice DB is configured such that a predetermined part is not intentionally connected to the action in order to perform the action learning of the robot.
보다 상세하게, 도2의 실시예를 참조하여 설명하면, 이 실시예는 로봇의 음성DB중 행동과 연결되어 있지 않은 '애플'이라는 명령어를 인식했을 때, 손을 들어 올리는 동작을 수행하도록 한 것이다.More specifically, with reference to the embodiment of Figure 2, this embodiment is to perform the operation of raising the hand, when it recognizes the command 'Apple' which is not connected to the behavior in the voice DB of the robot .
우선, 자율모드로 있던 로봇에, 사용자가 '애플'이라는 음성으로 명령할 경우, 로봇은 상기 '애플'이라는 음성이 음성DB에 있으나 행동으로 연결되어 있지 않으면 자율모드에서 행동학습모드로 전환하고, 현재 자세를 초기 프레임으로 기록한다.First, when the user commands the voice of 'Apple' to the robot in autonomous mode, the robot switches from the autonomous mode to the behavior learning mode if the voice of 'Apple' is in the voice DB but is not connected to the action. Record the current position as the initial frame.
이후,사용자가, 도2에서와 같이 로봇의 왼팔을 들어 올려준후, 그 왼팔이 올려진 상태로 일정시간(T) 이상 관절각에 변화가 없으면, 더 이상 사용자의 입력이 없을 것으로 판단하여, 현재 자세를 말기 프레임으로 기록하고, 상기 초기 프레임과 말기프레임을 시계열로 작성하여 동작정보를 작성한후, 그 동작정보를 단어와 연결시켜 저장한다.Then, after the user lifts the left arm of the robot as shown in Figure 2, if there is no change in the joint angle for a predetermined time (T) with the left arm raised, it is determined that there is no user input anymore, The posture is recorded as a terminal frame, the initial frame and the terminal frame are created in time series, and motion information is generated, and the motion information is connected with a word and stored.
이에 따라, 로봇은 자율모드에서 '애플'이라는 단어를 인식하면 손을 드는 동작을 수행하게 된다.Accordingly, when the robot recognizes the word 'apple' in the autonomous mode, the robot performs a lifting operation.
상기 발명의 상세한 설명에서 행해진 구체적인 실시 양태 또는 실시예는 어디까지나 본 발명의 기술 내용을 명확하게 하기 위한 것으로 이러한 구체적 실시예에 한정해서 협의로 해석해서는 안되며, 본 발명의 정신과 다음에 기재된 특허 청구의 범위내에서 여러가지 변경 실시가 가능한 것이다.Specific embodiments or examples made in the detailed description of the invention are intended to clarify the technical details of the present invention to the extent that they should not be construed as limited to these specific embodiments and should not be construed as consultations. Various changes can be made within the scope.
이상에서 상세히 설명한 바와같이 본 발명은, 사용자에 의해 입력된 음성에 대응되는 움직임이 등록되어 있지 않으면, 행동학습모드로 전환한 다음, 사용자에 의해 자세가 변경된 로봇의 모든 관절의 지시값을 프레임 정보로 정의하여,그 프레임 정보를, 입력된 음성에 해당되는 동작정보로 생성함으로서, 음성에 대응되는 로봇의 자연스러운 움직임을 구현하도록 로봇을 학습시키는 효과가 있다.As described in detail above, in the present invention, when the motion corresponding to the voice input by the user is not registered, the present invention switches to the behavior learning mode, and then indicates frame information of all joints of the robot whose posture is changed by the user. In this case, by generating the frame information as motion information corresponding to the input voice, there is an effect of learning the robot to implement the natural movement of the robot corresponding to the voice.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2001-0068204A KR100446725B1 (en) | 2001-11-02 | 2001-11-02 | Behavior learning method of robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2001-0068204A KR100446725B1 (en) | 2001-11-02 | 2001-11-02 | Behavior learning method of robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20030037103A KR20030037103A (en) | 2003-05-12 |
KR100446725B1 true KR100446725B1 (en) | 2004-09-01 |
Family
ID=29567755
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2001-0068204A KR100446725B1 (en) | 2001-11-02 | 2001-11-02 | Behavior learning method of robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100446725B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100451159B1 (en) * | 2001-12-18 | 2004-10-02 | 엘지전자 주식회사 | Action edit apparatus and method for robot |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175132A (en) * | 1997-12-15 | 1999-07-02 | Omron Corp | Robot, robot system, learning method for robot, learning method for robot system, and recording medium |
KR20000012347A (en) * | 1999-11-29 | 2000-03-06 | 이우열 | Toy system for recognizing of voice with a learning function and method for controlling thereof |
JP2000158367A (en) * | 1998-11-30 | 2000-06-13 | Sony Corp | Robot device and its control method |
JP2001157976A (en) * | 1999-11-30 | 2001-06-12 | Sony Corp | Robot control device, robot control method, and recording medium |
KR200228170Y1 (en) * | 2001-02-07 | 2001-06-15 | 제너시스정보통신주식회사 | Apparatus for control robot with voiced recognition function |
JP2001188555A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for information processing and recording medium |
WO2001072478A1 (en) * | 2000-03-31 | 2001-10-04 | Sony Corporation | Robot device, robot device action control method, external force detecting device and external force detecting method |
-
2001
- 2001-11-02 KR KR10-2001-0068204A patent/KR100446725B1/en not_active IP Right Cessation
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175132A (en) * | 1997-12-15 | 1999-07-02 | Omron Corp | Robot, robot system, learning method for robot, learning method for robot system, and recording medium |
JP2000158367A (en) * | 1998-11-30 | 2000-06-13 | Sony Corp | Robot device and its control method |
KR20000012347A (en) * | 1999-11-29 | 2000-03-06 | 이우열 | Toy system for recognizing of voice with a learning function and method for controlling thereof |
JP2001157976A (en) * | 1999-11-30 | 2001-06-12 | Sony Corp | Robot control device, robot control method, and recording medium |
JP2001188555A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for information processing and recording medium |
WO2001072478A1 (en) * | 2000-03-31 | 2001-10-04 | Sony Corporation | Robot device, robot device action control method, external force detecting device and external force detecting method |
KR200228170Y1 (en) * | 2001-02-07 | 2001-06-15 | 제너시스정보통신주식회사 | Apparatus for control robot with voiced recognition function |
Also Published As
Publication number | Publication date |
---|---|
KR20030037103A (en) | 2003-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11548147B2 (en) | Method and device for robot interactions | |
US5577164A (en) | Incorrect voice command recognition prevention and recovery processing method and apparatus | |
JP4366617B2 (en) | Robot device | |
US6980956B1 (en) | Machine apparatus and its driving method, and recorded medium | |
KR101119030B1 (en) | Method of for editing scenario of intelligent robot and computer readable medium thereof, intelligent robot device and service method of intelligent robot | |
KR20140000189A (en) | Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program | |
JP5141876B2 (en) | Orbit search device | |
EP1906386A1 (en) | Using child directed speech to bootstrap a model based speech segmentation and recognition system | |
JP7490145B2 (en) | SYSTEM AND METHOD FOR GENERATING METADATA FOR AN AUDIO SIGNAL - Patent application | |
Kibria | Speech recognition for robotic control | |
US7974938B2 (en) | Reluctant episodic memory (REM) to store experiences of everyday interaction with objects | |
US20030110040A1 (en) | System and method for dynamically changing software programs by voice commands | |
Bischoff et al. | Natural communication and interaction with humanoid robots | |
Koenig et al. | Behavior-based segmentation of demonstrated tasks | |
KR100446725B1 (en) | Behavior learning method of robot | |
Lison et al. | Salience-driven contextual priming of speech recognition for human-robot interaction | |
KR100836739B1 (en) | Apparatus and method for mapping logical-physical connection of robot device | |
Fernández et al. | Speech interface for controlling an hi-fi audio system based on a bayesian belief networks approach for dialog modeling | |
WO2005041010A2 (en) | Interactive system and method for controlling an interactive system | |
CN107015780A (en) | A kind of configurable acoustic control operation software and voice feedback method and system | |
KR100429975B1 (en) | Behavior learning heighten method of robot | |
Lucas-Cuesta et al. | Dialogue-based management of user feedback in an autonomous preference learning system | |
KR100434065B1 (en) | Voice recognition method of robot | |
EP2138958A1 (en) | Sensor signal processing with feature classifier cooperation | |
KR100429976B1 (en) | Behavior learning heighten method of robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
N231 | Notification of change of applicant | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |