KR100446725B1 - Behavior learning method of robot - Google Patents

Behavior learning method of robot Download PDF

Info

Publication number
KR100446725B1
KR100446725B1 KR10-2001-0068204A KR20010068204A KR100446725B1 KR 100446725 B1 KR100446725 B1 KR 100446725B1 KR 20010068204 A KR20010068204 A KR 20010068204A KR 100446725 B1 KR100446725 B1 KR 100446725B1
Authority
KR
South Korea
Prior art keywords
robot
frame
behavior
changed
voice
Prior art date
Application number
KR10-2001-0068204A
Other languages
Korean (ko)
Other versions
KR20030037103A (en
Inventor
김남웅
장성준
임종락
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR10-2001-0068204A priority Critical patent/KR100446725B1/en
Publication of KR20030037103A publication Critical patent/KR20030037103A/en
Application granted granted Critical
Publication of KR100446725B1 publication Critical patent/KR100446725B1/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39254Behaviour controller, robot have feelings, learns behaviour

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 로봇의 행동 학습방법에 관한 것으로, 로봇의 정지자세를 로봇이 가지고 있는 모든 관절의 현재 지시값을 프레임 정보로 정의한후,그 프레임 정보와 음성명령을 연결시켜 학습시키도록 한 것이다. 이를 위하여 본 발명은 입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과; 로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과; 사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과; 상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행한다.The present invention relates to a method for learning behavior of a robot, and defines a current position of all joints of a robot as frame information, and then connects the frame information and a voice command to learn. To this end, the present invention comprises the steps of switching the operation mode of the robot to the behavior learning mode, depending on the presence or absence of motion information corresponding to the input voice; Stopping the operation of the robot, and then storing, as an initial frame, indication values of the rotational joint and the linear joint of the stopped robot; When the posture of the robot is changed by the user, the rotational and linear joints of the changed robot are stored as a terminal frame, and then the motion information of the time series is generated by interpolating the terminal frame and the initial frame. Process; The operation information of the time series is connected to an input voice, the input voice is registered in the word DB, and the process is returned to the autonomous mode.

Description

로봇의 행동 학습방법{BEHAVIOR LEARNING METHOD OF ROBOT}BEHAVIOR LEARNING METHOD OF ROBOT}

본 발명은 로봇의 행동 학습방법에 관한 것으로, 특히 사용자가 로봇의 행동을 임의적으로 행동시키도록 한 로봇의 행동 학습방법에 관한 것이다.The present invention relates to a behavioral learning method of a robot, and more particularly, to a behavioral learning method of a robot to allow a user to arbitrarily behave.

일반적으로, 음성인식 기능이 구현된 서비스 로봇 및 애완로봇은 사용자의 음성명령을 지각하여 특정 행동(Behavior)을 수행한다.In general, service robots and pet robots implemented with voice recognition function perform a specific behavior by recognizing a user's voice command.

상기 음성인식은, '화자독립 고립단어인식'(정해진 특정 단어들을 화자에 관계없이 인식)이나, '화자독립 핵심어인식'(특정 단어들을 문장내에서 인식)을 채용한다.The speech recognition employs 'speaker independent isolated word recognition' (recognizes predetermined words regardless of the speaker) or 'speaker independent key word recognition' (recognizes specific words in a sentence).

따라서, 상기 음성인식 기능이 구현된 로봇들은, 사용자가 말한 특정단어를 인식하여, 이 특정단어와 연결된 행동(Behavior)을 수행함으로써, 사용자에게 로봇의 지능(Intelligence)을 느끼게 하는데, 상기 특정 단어와 특정 행동간의 연결은 로봇의 인공지능을 프로그래밍할때 부여된다.Accordingly, the robots implementing the voice recognition function recognize a specific word spoken by a user and perform a behavior associated with the specific word, thereby making the user feel the intelligence of the robot. Links between specific behaviors are given when programming the robot's artificial intelligence.

종래에는,로봇에 새롭게 단어-행동 연결을 정의하기 위하여, 기작성된 프로그램에서 새로운 단어-행동 연결을 부가하고,행동을 정의하는 데이터를 새롭게 생성해야 하는데, 상기 데이터는 로봇을 동작시키도록 하는 각 관절의 각도를 시계열 (Time Series)로 서술한 동작정보(Motion Data)를 나타낸다.Conventionally, in order to newly define a word-behavior connection to a robot, a new word-behavior connection must be added in a pre-written program, and new data defining behavior is generated, and the data is used for each joint for operating the robot. The motion data represents the angle of in a time series.

상기와 같이, 프로그램 및 데이터 차원에서 로봇을 훈련시키거나 학습시키는 방법은 자연스럽지 못한 행동특성을 나타내는 문제점이 있다.As described above, the method of training or learning the robot in the program and data dimensions has a problem of exhibiting unnatural behavior.

또한, 로봇을 훈련/학습시키기 위하여 화상인식을 통하여 사용자의 몸짓 (Gesture)등을 인식시키는 방법은, 고가의 장비를 이용해야함과 아울러 화상처리 시간이 오래 걸리는 문제점이 있다.In addition, a method of recognizing a gesture of a user through image recognition in order to train / learn a robot has a problem of using expensive equipment and taking a long time for image processing.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로, 사용자에 의해 입력된 음성에 대응된 움직임이 등록되어 있지 않으면, 행동학습모드로 전환한 다음, 사용자에 의해 자세가 변경된 로봇의 모든 관절의 지시값을 프레임 정보로 정의하여,그 프레임 정보를, 입력된 음성에 해당되는 동작정보로 생성하여, 음성에 대응되는 로봇의 행동을 학습시키도록 한 로봇의 행동 학습방법을 제공함에 그 목적이 있다.The present invention has been made to solve the above problems, and if the movement corresponding to the voice input by the user is not registered, after switching to the behavior learning mode, all the joints of the robot whose posture is changed by the user It is an object of the present invention to provide a robot behavior learning method in which an instruction value is defined as frame information, the frame information is generated as motion information corresponding to an input voice, and the robot behavior corresponding to the voice is learned. .

도1은 본 발명 로봇의 행동 학습방법에 대한 동작흐름도.1 is a flow chart for the behavior learning method of the present invention robot.

도2는 본 발명 로봇의 행동학습방벙에 대한 실시예를 보인 개략도.Figure 2 is a schematic diagram showing an embodiment of the behavior learning method of the present invention robot.

상기와 같은 목적을 달성하기 위한 본 발명은, 입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과; 로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과; 사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과; 상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행함을 특징으로 한다.The present invention for achieving the above object, the process of switching the operation mode of the robot to the behavior learning mode, depending on the presence or absence of motion information corresponding to the input voice; Stopping the operation of the robot, and then storing, as an initial frame, indication values of the rotational joint and the linear joint of the stopped robot; When the posture of the robot is changed by the user, the rotational and linear joints of the changed robot are stored as a terminal frame, and then the motion information of the time series is generated by interpolating the terminal frame and the initial frame. Process; The operation information of the time series (Time Series) is connected to an input voice, and the input voice is registered in the word DB.

이하, 본 발명에 의한 로봇의 행동 학습방법에 대한 작용 및 효과를 첨부한도면을 참조하여 상세히 설명한다.Hereinafter, with reference to the accompanying drawings, the action and effect on the behavior learning method of the robot according to the present invention will be described in detail.

도1은 본 발명 로봇의 행동 학습방법에 대한 동작흐름도로서, 이에 도시한 바와같이 음성DB중 행동과 연관되지 않는 단어가 음성으로 인식되면 행동학습 모드로 전환하는 제1 과정(SP1,SP2)과; 사용자에 의해 변화된 자세를 상기 단어에 해당되는 동작정보로 생성하여 학습시킨후(SP3~SP6), 자율 모드로 복귀하는 제2 과정으로 이루어진다.1 is a flow chart of the behavior learning method of the robot of the present invention. As shown in FIG. 1, when the words not related to the behavior of the voice DB are recognized as the voices, the first process (SP1, SP2) and ; After generating and learning the posture changed by the user as the motion information corresponding to the word (SP3 to SP6), the second process returns to the autonomous mode.

상기 제1 과정은, 행동과 연관되지 않는 단어가 음성으로 인식되면, 현재 동작을 정지하는 제1 단계와; 상기 동작이 정지된 자세를 초기 프레임으로 기록하는 제2 단계를 포함한다.The first step may include: a first step of stopping a current operation when a word not related to an action is recognized as a voice; And a second step of recording, in the initial frame, the posture from which the operation is stopped.

상기 제2 과정은, 일정시간 이내에 사용자가 로봇에 변화를 주었는지를 판단하는 제1 단계와; 상기 제1 단계의 판단결과, 사용자가 로봇에 변화를 주면 그 변화된 자세를 말기 프레임으로 기록한후, 자율모드로 복귀하는 제2 단계로 이루어지며, 이와 같은 본 발명의 동작을 설명한다.The second process includes a first step of determining whether the user has changed the robot within a predetermined time; As a result of the determination of the first step, when the user makes a change to the robot, the changed posture is recorded as a terminal frame, and then the second step of returning to the autonomous mode is described.

음성인식 기능을 가진 로봇은, 필수적으로 단어DB를 가지고 있는데, 이 단어DB는 특정의 행동과 연결되어 사용자의 음성중 단어 DB에 등록되어 있는 단어를 인식하면 그 단어와 연결된 행동을 수행한다.A robot with speech recognition function essentially has a word DB, which is connected to a specific action and recognizes a word registered in the word DB of the user's voice and performs the action associated with that word.

본 발명의 행동학습방법을 구현하기 위해, 로봇은 자율모드로 동작하다가, 음성DB중 행동과 연관되지 않는 단어가 음성으로 인식되면, 즉 사용자에 의해 입력된 음성이, 음성DB에 등록되어 있으나 단어DB에는 등록되어 있지 않으면 행동학습 모드로 전환하는데(SP1,SP2), 즉 행동과 연관되지 않는 단어가 음성으로 인식되면 현재 동작을 정지한후, 그 정지된 자세를 초기 프레임으로 기록한다.In order to implement the behavior learning method of the present invention, when the robot operates in an autonomous mode and a word that is not related to the behavior in the voice DB is recognized as a voice, that is, a voice input by the user is registered in the voice DB, but the word is If it is not registered in the DB, it switches to the behavior learning mode (SP1, SP2). That is, if a word that is not related to the behavior is recognized as a voice, the current motion is stopped and the stopped posture is recorded as an initial frame.

상기 프레임은, 로봇의 정지자세를 나타낼 수 있는 모든 관절의 현재 지시값으로 이루어지는데, 회전관절의 경우는 각도를 지시값으로 이용하고, 직동관절의 경우는 변위를 지시값으로 이용한다.The frame consists of the current indication values of all the joints that can represent the robot's stationary position. In the case of the rotary joint, the angle is used as the indication value, and in the case of the linear joint, the displacement is used as the indication value.

상기 행동학습모드로 전환된 다음, 일정시간 이내에, 사용자에 의해 로봇의 자세에 변화를 주지 않으면 자율모드로 복귀하고(SP3,SP4), 일정시간 이내에 사용자에 의해 로봇의 자세가 변화되어 일정 시간 이상 유지되면 그 변화된 자세를 말기 프레임으로 기록한다(SP3~SP6).After switching to the behavior learning mode, if the posture of the robot is not changed by the user within a predetermined time, the robot returns to the autonomous mode (SP3, SP4), and the posture of the robot is changed by the user within a predetermined time, and then over a predetermined time. If maintained, the changed posture is recorded in the terminal frame (SP3 to SP6).

즉, 일정시간 이내에서 사용자로부터 아무런 입력이 없으면 로봇은 자율모드로 복귀하고, 사용자가 새로운 동작을 로봇에게 학습시키기 위하여 로봇의 관절각도나 변위의 변화를 가한후, 그 변화된 자세로 일정시간 유지되면 말기프레임으로 기록한다.That is, if there is no input from the user within a certain time, the robot will return to autonomous mode, if the user changes the joint angle or displacement of the robot to learn the new motion to the robot, and then maintains the changed posture for a certain time. Record in the last frame.

그 다음, 동작정보를 상기 초기 프레임과 말기 프레임을 보간하여 시계열 (Time Series)로 생성한후, 자율모드로 복귀한다.Then, the operation information is generated in a time series by interpolating the initial frame and the last frame, and then returned to the autonomous mode.

이때, 상기 행동과 연관되지 않는 단어를 상기 동작정보와 연결시켜 단어DB에 저장하고, 음성DB는, 로봇의 행동 학습 수행을 위해, 소정부분이 의도적으로 행동과 연결되지 않도록 이루어진다.In this case, a word not related to the action is connected to the action information and stored in the word DB, and the voice DB is configured such that a predetermined part is not intentionally connected to the action in order to perform the action learning of the robot.

보다 상세하게, 도2의 실시예를 참조하여 설명하면, 이 실시예는 로봇의 음성DB중 행동과 연결되어 있지 않은 '애플'이라는 명령어를 인식했을 때, 손을 들어 올리는 동작을 수행하도록 한 것이다.More specifically, with reference to the embodiment of Figure 2, this embodiment is to perform the operation of raising the hand, when it recognizes the command 'Apple' which is not connected to the behavior in the voice DB of the robot .

우선, 자율모드로 있던 로봇에, 사용자가 '애플'이라는 음성으로 명령할 경우, 로봇은 상기 '애플'이라는 음성이 음성DB에 있으나 행동으로 연결되어 있지 않으면 자율모드에서 행동학습모드로 전환하고, 현재 자세를 초기 프레임으로 기록한다.First, when the user commands the voice of 'Apple' to the robot in autonomous mode, the robot switches from the autonomous mode to the behavior learning mode if the voice of 'Apple' is in the voice DB but is not connected to the action. Record the current position as the initial frame.

이후,사용자가, 도2에서와 같이 로봇의 왼팔을 들어 올려준후, 그 왼팔이 올려진 상태로 일정시간(T) 이상 관절각에 변화가 없으면, 더 이상 사용자의 입력이 없을 것으로 판단하여, 현재 자세를 말기 프레임으로 기록하고, 상기 초기 프레임과 말기프레임을 시계열로 작성하여 동작정보를 작성한후, 그 동작정보를 단어와 연결시켜 저장한다.Then, after the user lifts the left arm of the robot as shown in Figure 2, if there is no change in the joint angle for a predetermined time (T) with the left arm raised, it is determined that there is no user input anymore, The posture is recorded as a terminal frame, the initial frame and the terminal frame are created in time series, and motion information is generated, and the motion information is connected with a word and stored.

이에 따라, 로봇은 자율모드에서 '애플'이라는 단어를 인식하면 손을 드는 동작을 수행하게 된다.Accordingly, when the robot recognizes the word 'apple' in the autonomous mode, the robot performs a lifting operation.

상기 발명의 상세한 설명에서 행해진 구체적인 실시 양태 또는 실시예는 어디까지나 본 발명의 기술 내용을 명확하게 하기 위한 것으로 이러한 구체적 실시예에 한정해서 협의로 해석해서는 안되며, 본 발명의 정신과 다음에 기재된 특허 청구의 범위내에서 여러가지 변경 실시가 가능한 것이다.Specific embodiments or examples made in the detailed description of the invention are intended to clarify the technical details of the present invention to the extent that they should not be construed as limited to these specific embodiments and should not be construed as consultations. Various changes can be made within the scope.

이상에서 상세히 설명한 바와같이 본 발명은, 사용자에 의해 입력된 음성에 대응되는 움직임이 등록되어 있지 않으면, 행동학습모드로 전환한 다음, 사용자에 의해 자세가 변경된 로봇의 모든 관절의 지시값을 프레임 정보로 정의하여,그 프레임 정보를, 입력된 음성에 해당되는 동작정보로 생성함으로서, 음성에 대응되는 로봇의 자연스러운 움직임을 구현하도록 로봇을 학습시키는 효과가 있다.As described in detail above, in the present invention, when the motion corresponding to the voice input by the user is not registered, the present invention switches to the behavior learning mode, and then indicates frame information of all joints of the robot whose posture is changed by the user. In this case, by generating the frame information as motion information corresponding to the input voice, there is an effect of learning the robot to implement the natural movement of the robot corresponding to the voice.

Claims (10)

입력음성에 대응되는 동작정보의 유무에 따라, 로봇의 운전모드를 행동학습모드로 전환하는 과정과;Switching the operation mode of the robot into a behavior learning mode according to the presence or absence of motion information corresponding to the input voice; 로봇의 동작을 정지시킨 다음, 그 정지된 로봇의 회전 관절과 직동관절의 지시값을 초기 프레임으로 저장하는 과정과;Stopping the operation of the robot, and then storing, as an initial frame, indication values of the rotational joint and the linear joint of the stopped robot; 사용자에 의해 로봇의 자세가 변경되면, 그 변경된 로봇의 회전관절과 직동관절의 지시값을 말기 프레임으로 저장한 다음, 그 말기 프레임과 초기 프레임을 보간하여 시계열(Time Series)의 동작정보를 생성하는 과정과;When the posture of the robot is changed by the user, the rotational and linear joints of the changed robot are stored as a terminal frame, and then the motion information of the time series is generated by interpolating the terminal frame and the initial frame. Process; 상기 시계열(Time Series)의 동작정보를, 입력음성과 연결시키고, 그 입력음성을 단어DB에 등록한 다음, 자율모드로 복귀하는 과정으로 수행함을 특징으로 하는 로롯의 행동학습방법.And connecting the operation information of the time series with an input voice, registering the input voice in the word DB, and then returning to the autonomous mode. 삭제delete 삭제delete 제1 항에 있어서, 회전관절의 지시값은, 각도인 것을 특징으로 하는 로봇의 행동 학습방법.The method according to claim 1, wherein the indication value of the rotational joint is an angle. 제1 항에 있어서, 직동관절의 지시값은, 변위인 것을 특징으로 하는 로봇의 행동 학습방법.The method for learning behavior of a robot according to claim 1, wherein the indication value of the linear joint is displacement. 삭제delete 제1 항에 있어서, 말기 프레임은,The terminal frame of claim 1, 사용자가 로봇의 자세에 변화를 준후 일정 시간동안 그 변화된 자세를 유지하면 자동적으로 인식하는 것을 특징으로 하는 로봇의 행동 학습방법.A method of learning behavior of a robot, wherein the robot recognizes automatically when the user changes the posture of the robot and maintains the changed posture for a predetermined time. 삭제delete 삭제delete 삭제delete
KR10-2001-0068204A 2001-11-02 2001-11-02 Behavior learning method of robot KR100446725B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0068204A KR100446725B1 (en) 2001-11-02 2001-11-02 Behavior learning method of robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0068204A KR100446725B1 (en) 2001-11-02 2001-11-02 Behavior learning method of robot

Publications (2)

Publication Number Publication Date
KR20030037103A KR20030037103A (en) 2003-05-12
KR100446725B1 true KR100446725B1 (en) 2004-09-01

Family

ID=29567755

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0068204A KR100446725B1 (en) 2001-11-02 2001-11-02 Behavior learning method of robot

Country Status (1)

Country Link
KR (1) KR100446725B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100451159B1 (en) * 2001-12-18 2004-10-02 엘지전자 주식회사 Action edit apparatus and method for robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175132A (en) * 1997-12-15 1999-07-02 Omron Corp Robot, robot system, learning method for robot, learning method for robot system, and recording medium
KR20000012347A (en) * 1999-11-29 2000-03-06 이우열 Toy system for recognizing of voice with a learning function and method for controlling thereof
JP2000158367A (en) * 1998-11-30 2000-06-13 Sony Corp Robot device and its control method
JP2001157976A (en) * 1999-11-30 2001-06-12 Sony Corp Robot control device, robot control method, and recording medium
KR200228170Y1 (en) * 2001-02-07 2001-06-15 제너시스정보통신주식회사 Apparatus for control robot with voiced recognition function
JP2001188555A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for information processing and recording medium
WO2001072478A1 (en) * 2000-03-31 2001-10-04 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11175132A (en) * 1997-12-15 1999-07-02 Omron Corp Robot, robot system, learning method for robot, learning method for robot system, and recording medium
JP2000158367A (en) * 1998-11-30 2000-06-13 Sony Corp Robot device and its control method
KR20000012347A (en) * 1999-11-29 2000-03-06 이우열 Toy system for recognizing of voice with a learning function and method for controlling thereof
JP2001157976A (en) * 1999-11-30 2001-06-12 Sony Corp Robot control device, robot control method, and recording medium
JP2001188555A (en) * 1999-12-28 2001-07-10 Sony Corp Device and method for information processing and recording medium
WO2001072478A1 (en) * 2000-03-31 2001-10-04 Sony Corporation Robot device, robot device action control method, external force detecting device and external force detecting method
KR200228170Y1 (en) * 2001-02-07 2001-06-15 제너시스정보통신주식회사 Apparatus for control robot with voiced recognition function

Also Published As

Publication number Publication date
KR20030037103A (en) 2003-05-12

Similar Documents

Publication Publication Date Title
US11548147B2 (en) Method and device for robot interactions
US5577164A (en) Incorrect voice command recognition prevention and recovery processing method and apparatus
JP4366617B2 (en) Robot device
US6980956B1 (en) Machine apparatus and its driving method, and recorded medium
KR101119030B1 (en) Method of for editing scenario of intelligent robot and computer readable medium thereof, intelligent robot device and service method of intelligent robot
KR20140000189A (en) Humanoid robot equipped with a natural dialogue interface, method for controlling the robot and corresponding program
JP5141876B2 (en) Orbit search device
EP1906386A1 (en) Using child directed speech to bootstrap a model based speech segmentation and recognition system
JP7490145B2 (en) SYSTEM AND METHOD FOR GENERATING METADATA FOR AN AUDIO SIGNAL - Patent application
Kibria Speech recognition for robotic control
US7974938B2 (en) Reluctant episodic memory (REM) to store experiences of everyday interaction with objects
US20030110040A1 (en) System and method for dynamically changing software programs by voice commands
Bischoff et al. Natural communication and interaction with humanoid robots
Koenig et al. Behavior-based segmentation of demonstrated tasks
KR100446725B1 (en) Behavior learning method of robot
Lison et al. Salience-driven contextual priming of speech recognition for human-robot interaction
KR100836739B1 (en) Apparatus and method for mapping logical-physical connection of robot device
Fernández et al. Speech interface for controlling an hi-fi audio system based on a bayesian belief networks approach for dialog modeling
WO2005041010A2 (en) Interactive system and method for controlling an interactive system
CN107015780A (en) A kind of configurable acoustic control operation software and voice feedback method and system
KR100429975B1 (en) Behavior learning heighten method of robot
Lucas-Cuesta et al. Dialogue-based management of user feedback in an autonomous preference learning system
KR100434065B1 (en) Voice recognition method of robot
EP2138958A1 (en) Sensor signal processing with feature classifier cooperation
KR100429976B1 (en) Behavior learning heighten method of robot

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee