KR101159133B1 - Android robot and method for using the android robot - Google Patents
Android robot and method for using the android robot Download PDFInfo
- Publication number
- KR101159133B1 KR101159133B1 KR1020090133126A KR20090133126A KR101159133B1 KR 101159133 B1 KR101159133 B1 KR 101159133B1 KR 1020090133126 A KR1020090133126 A KR 1020090133126A KR 20090133126 A KR20090133126 A KR 20090133126A KR 101159133 B1 KR101159133 B1 KR 101159133B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- robot
- voice signal
- sound source
- signal
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/026—Acoustical sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Abstract
본 발명은 안드로이드 로봇에 관한 것으로서, 복수의 마이크로폰과, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터와, 상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱과, 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서와, 상기 변환된 음성 신호를 분석하고 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서와, 상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부를 포함한다. 이러한 본 발명에 의해, 안드로이드 로봇은 상대방의 음성 인식시 단순히 음성만을 인식하지 않고 음성을 내는 상대방의 위치를 파악하여, 상대방의 음성 및 위치에 대응하는 적절한 반응을 할 수 있다.The present invention relates to an Android robot, comprising: a plurality of microphones, a band pass filter for extracting a voice signal of the other party from a signal collected through the plurality of microphones, and a codec for converting the extracted voice signal into a digital signal, respectively And a sound source processor for tracking the location of the other party using a phase difference and magnitude difference between the voice signals converted into the digital signals, and gesture data corresponding to the analyzed voice signal after analyzing the converted voice signal. And a host processor to control the robot driver based on the inquired gesture data and the tracked position, and a robot driver driven under the control of the host processor. According to the present invention, when the Android robot recognizes the other party's voice, the Android robot can grasp the location of the other party who makes the voice and respond appropriately to the other party's voice and location.
안드로이드 로봇, 음원 프로세서, 음원 추적 Android robot, sound processor, sound source tracking
Description
본 발명은 안드로이드 로봇에 관한 것이다. 특히 상대방의 음성 및 상대방의 위치를 파악하여 상대방의 음성 및 위치에 적절하게 반응하는 안드로이드 로봇에 관한 것이다. The present invention relates to an android robot. In particular, it relates to an Android robot that grasps the other party's voice and the other party's location and responds appropriately to the other party's voice and location.
안드로이드 로봇에 있어서, 음성을 인식하는 것은 매우 중요한 요소이다. 그러나 종래 안드로이드 로봇은 유선 마이크 한 개를 이용하여 음성을 인식하고 있으며 이로 인하여 말하는 객체에 대한 방향성을 가지지 못하고 어디서 소리가 나는지 확인할 수 없는 문제가 있었다. For Android robots, speech recognition is a very important factor. However, the conventional Android robot recognizes the voice by using one wired microphone, which does not have a direction to the talking object and there is a problem in which the sound cannot be confirmed.
이러한 문제점을 해결하기 위해 음원의 방향을 추적하는 안드로이드 로봇가 개발되었으나, 종래의 안드로이드 로봇은 아날로그 처리부분과 직접 연결된 음원보드에서 음원을 추출하도록 구성되어 있어 음성신호에 노이즈 성분이 많았으며, 노이즈 성분이 많은 음성신호를 증폭하면 노이즈 성분도 같이 증폭되는 결과가 되어 음성신호를 구분하기가 어려웠고 그 결과 추적된 음원의 방향값이 일정하지 않은 문제가 있었다. 따라서, 노이즈를 최소화하여 보다 정확한 음원의 방향값을 도출할 수 있는 기술이 요청되었다. In order to solve this problem, an android robot for tracking the direction of a sound source has been developed, but the conventional android robot is configured to extract a sound source from a sound source board directly connected to an analog processing part, and thus a lot of noise components are included in a voice signal. When amplifying many voice signals, noise components are amplified as well, and thus it is difficult to distinguish the voice signals. Accordingly, a technique for minimizing noise to derive a more accurate direction value of a sound source has been requested.
또한, 종래의 안드로이드 로봇은, 마이크 입력부터 호스트 프로세서까지 아날로그 라인으로 연결되어 있어서 음성 열화 현상이 심하다는 문제가 있었고, 로봇의 음성, 모션 등의 모든 제어를 호스트 프로세서가 처리하도록 하여 호스트 프로세서에서 로봇 모션과 음성을 동시에 처리하면 많은 부하로 인하여 모션 및 음성에 출력품질이 저하되는 문제가 있어, 이러한 문제점을 해결하는 기술이 요청되었다. In addition, the conventional Android robot has a problem that the voice degradation is severe because the analog line is connected from the microphone input to the host processor, and the host processor handles all control such as voice and motion of the robot so that the host processor can handle the robot. When processing the motion and voice at the same time, there is a problem that the output quality is degraded in the motion and the voice due to a lot of load, a technology that solves this problem has been requested.
본 발명은 상기 문제점을 해결하기 위해 창출된 것으로, 본 발명의 목적은, 상대방의 음성 및 상대방의 위치를 추적하여 반응하는 안드로이드 로봇을 제공하는 것이다.The present invention was created to solve the above problems, and an object of the present invention is to provide an android robot that reacts by tracking the voice of the other party and the location of the other party.
본 발명의 다른 목적은 본 발명의 목적은, 상대방의 음성 및 상대방의 위치를 추적하여 반응하는 안드로이드 로봇의 이용방법을 제공하는 것이다.Another object of the present invention is to provide a method of using an android robot that tracks and responds to the voice of the other party and the location of the other party.
본 발명의 또 다른 목적은 상대방의 음성 및 상대방의 위치를 추적하여 반응하는 안드로이드 로봇의 이용 방법을 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체를 제공하는 것이다.It is still another object of the present invention to provide a computer readable medium recording a program for performing a method of using an android robot that tracks and reacts with a voice of a counterpart and a counterpart's location.
상기의 목적을 달성하기 위한 본 발명에 의한 안드로이드 로봇은 복수의 마이크로폰과, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터와, 상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱과, 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서와, 상기 음성 신호를 분석하여 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서와, 상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부를 포함하는 것을 특징으로 한다. 여기서, 상기 음원 프로세서는, 상기 호스트 프로세 서로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 음성 DB에서 조회하고, 상기 조회된 로봇 음성 데이터를 스피커를 통해 출력하도록 제어한다. 또한, 상기 대역 통과 필터는, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다. 또한, 상기 음원 프로세서는, 상기 음성 신호를 CAN(controller area network)을 통해 상기 호스트 프로세서로 전송할 수 있다. 또한, 상기 마이크로폰은, 상기 상대방의 3차원 위치를 추적하기 위해 적어도 3개가 구비되며, 상기 머리의 좌우 양단과 정수리에 구비될 수 있다. 또한, 상기 코덱 및 상기 음원 프로세서는, 상기 머리의 내부에 구비될 수 있다.Android robot according to the present invention for achieving the above object is a plurality of microphones, a band pass filter for extracting the voice signal of the other party from the signals collected through the plurality of microphones, respectively, and the extracted voice signal digital signal A sound source processor for tracking the location of the other party using a codec for converting each signal to a digital signal, a phase difference and a magnitude difference between the voice signal converted into the digital signal, and analyzing the voice signal to gesture gesture data corresponding to the voice signal. And a host processor for inquiring from a DB, controlling the robot driver based on the inquired gesture data and the tracked position, and a robot driver driven under the control of the host processor. Here, the sound source processor receives the inquired gesture data from the host processor and inquires about the robot voice data mapped to the gesture data in a voice DB, and controls to output the inquired robot voice data through a speaker. do. The band pass filter extracts a signal of a predetermined frequency band centered on a frequency of 1 kHz from a signal collected through the plurality of microphones, and has a maximum gain at the frequency of 1 kHz. The sound source processor may transmit the voice signal to the host processor through a controller area network (CAN). In addition, the microphone, at least three are provided to track the three-dimensional position of the other party, may be provided on both the left and right ends of the head and the crown. In addition, the codec and the sound source processor may be provided inside the head.
상기 다른 목적을 달성하기 위한 본 발명에 따른 안드로이드의 이용방법은 복수의 마이크로폰이 집음하는 단계; 대역 통과 필터가 상기 복수의 마이크로폰을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계; 코덱이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계; 음원 프로세서가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 단계; 음원 프로세서가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서로 송신하는 단계; 상기 호스트 프로세서가 상기 음성 신호 및 상기 위치 정보를 수신하는 단계; 상기 호스트 프로세서가 상기 수신된 음성 신호를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하는 단계; 상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상 기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서가 상기 조회된 제스처 데이터에 매핑된 로봇 음성데이터를 출력하는 단계를 포함하는 것을 특징으로 한다. According to another aspect of the present invention, there is provided a method of using Android, wherein a plurality of microphones are collected; Extracting, by a band pass filter, a voice signal of the other party from the signals collected through the plurality of microphones; Converting each of the extracted voice signals into a digital signal by a codec; Tracking, by a sound source processor, the position of the counterpart using a phase difference and a magnitude difference between the voice signals converted into the digital signals; A sound source processor transmitting the converted voice signal and the tracked position information to a host processor; Receiving, by the host processor, the voice signal and the location information; Analyzing, by the host processor, the received voice signal and querying gesture data corresponding to the analyzed voice signal in a gesture DB; And the host processor driving the robot using the inquired gesture data and the received position information, and outputting the robot voice data mapped to the inquired gesture data by the sound source processor. .
상기 또 다른 목적을 달성하기 위한 본 발명에 따른 안드로이드 로봇의 이용 방법을 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체는, 복수의 마이크로폰이 집음하는 단계; 대역 통과 필터가 상기 복수의 마이크로폰을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계; 코덱이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계; 음원 프로세서가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 방향 및 위치를 추적하는 단계; 음원 프로세서가 상기 변환된 음성 신호와 상기 추적된 방향 및 위치에 대한 정보를 호스트 프로세서로 송신하는 단계; 상기 호스트 프로세서가 상기 음성 신호 및 상기 방향 및 위치에 대한 정보를 수신하는 단계; 상기 호스트 프로세서가 상기 수신된 음성 신호를 분석하고, 분석된 음성신호와 대응하는 제스처 데이터를 제스처 DB에서 조회하는 단계; 상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서가 상기 조회된 제스처 데이터와 대응하는 로봇 음성데이터를 출력하는 단계를 실행시키기 위한 프로그램을 기록될 수 있다. A computer-readable medium having recorded thereon a program for executing a method of using an android robot according to the present invention for achieving the another object comprises the steps of: collecting a plurality of microphones; Extracting, by a band pass filter, a voice signal of the other party from the signals collected through the plurality of microphones; Converting each of the extracted voice signals into a digital signal by a codec; Tracking, by a sound source processor, the direction and position of the counterpart using a phase difference and a magnitude difference between the voice signals converted into the digital signals, respectively; A sound source processor transmitting the converted voice signal and information about the tracked direction and position to a host processor; Receiving, by the host processor, the voice signal and information about the direction and location; Analyzing, by the host processor, the received voice signal, and querying gesture data corresponding to the analyzed voice signal in a gesture DB; A program for the host processor to drive the robot using the inquired gesture data and the received position information, and the sound source processor to output a robot voice data corresponding to the inquired gesture data to be recorded. Can be.
본 발명에 따른 안드로이드 로봇에 의하면, 상대방의 음성 인식시 단순히 음성만을 인식하지 않고 음성을 내는 상대방의 위치를 파악하여, 상대방의 음성 및 위치에 대응하는 적절한 반응을 할 수 있다. 그 결과 안드로이드 로봇은 인간과 보다 자연스러운 의사소통을 할 수 있게 된다. According to the Android robot according to the present invention, when recognizing the voice of the other party, it is possible to grasp the location of the other party who makes a voice instead of simply recognizing the voice and to perform an appropriate response corresponding to the voice and the location of the other party. As a result, Android robots can communicate more naturally with humans.
또한, 본 발명에 따른 안드로이드 로봇에 의하면, 마이크로폰, 코덱, 음원프로세서를 모두 로봇의 머리에 내장시킴으로써 아날로그 라인을 최소화하였고, 그 결과 마이크로폰으로부터 집음된 아날로그 신호에서 노이즈 부분을 최소화할 수 있다. In addition, according to the Android robot according to the present invention, the microphone, the codec, and the sound processor are all embedded in the head of the robot, thereby minimizing the analog line, and as a result, it is possible to minimize the noise portion in the analog signal collected from the microphone.
또한, 본 발명에 따른 안드로이드 로봇에 의하면, 마이크로폰으로부터 집음된 음성신호를 디지털신호로 변환하여 음원 프로세서로 전송함으로써 아날로그 통신 거리를 축소하여 종래기술에 비해 음성 열화 현상을 개선할 수 있다. In addition, according to the Android robot according to the present invention, by converting the voice signal collected from the microphone into a digital signal to be transmitted to the sound source processor, it is possible to reduce the analog communication distance by improving the voice degradation phenomenon compared to the prior art.
또한, 본 발명에 따른 안드로이드 로봇에 의하면, 상대방의 음성에 대응하는 모션, 제스쳐는 호스트 프로세서에서 제어하고, 상대방의 음성에 대응하는 로봇 음성은 음원 프로세서에서 제어하도록 분리함으로써, 호스트 프로세서에서 모두 제어하였던 종래기술에 비해 로봇의 모션 및 음성의 품질을 향상시킬 수 있다.In addition, according to the Android robot according to the present invention, the motion and gesture corresponding to the other party's voice is controlled by the host processor, and the robot voice corresponding to the other party's voice is separated to be controlled by the sound source processor, thereby controlling all the host processors. Compared with the prior art, it is possible to improve the motion and voice quality of the robot.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있으므로, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 동일한 참조부호를 동일한 구성요소에 대해 사용하였다.Since the present invention can be variously modified and can have various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the drawings, the same reference numerals are used for the same components.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있 지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소도 제1구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재 항목들의 조합 또는 복수의 관련된 기재 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term “and / or” includes any combination of a plurality of related description items or any of a plurality of related description items.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms, such as those defined in the commonly used dictionaries, should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. .
이하 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 안드로이드 로봇의 구성을 나타내는 블럭도이다. 1 is a block diagram showing the configuration of an Android robot according to the present invention.
도 2는 본 발명에 따른 안드로이드 로봇의 머리 내부를 나타내는 도면이다.2 is a view showing the inside of the head of the Android robot according to the present invention.
도 3 내지 도 5는 본 발명에 따른 안드로이드 로봇에 설치되어 있는 복수의 마이크로폰의 위치를 나타내는 도면이다. 3 to 5 are views showing the positions of a plurality of microphones installed in the android robot according to the present invention.
도 1을 참조하면, 본 발명에 따른 안드로이드 로봇은 복수의 마이크로폰(101a, 101b, 101c)과, 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음되는 신호에서 상대방의 음성 신호를 각각 추출하는 대역 통과 필터(102)와, 상기 추출된 음성 신호를 디지털 신호로 각각 변환하는 코덱(103)과, 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 음원 프로세서(104)와, 상기 음성 신호를 분석하여 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어하는 호스트 프로세서(105)와, 상기 호스트 프로세서의 제어에 따라 구동되는 로봇 구동부(106)를 포함한다.Referring to FIG. 1, an android robot according to the present invention extracts a voice signal of a counterpart from a plurality of
또한, 여기서, 상기 음원 프로세서(104)는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 스피커(107)를 통해 출력하도록 제어할 수 있다. In addition, the
여기서 상기 대역 통과 필터(103)는, 상기 복수의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다.Here, the
또한, 여기서 상기 음원 프로세서(104)는, 상기 변환된 음성 신호 및 상기 추적된 위치 정보를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 전송할 수 있다.Also, the
여기서, 상기 마이크로폰(101a, 101b, 101c), 상기 상대방의 3차원 위치를 추적하기 위해 적어도 3개가 구비되며, 도 5에 나타난 바와 같이, 머리의 좌우 양단과 정수리에 구비될 수 있다.Here, at least three
또한, 상기 코덱 및 상기 음원 프로세서는, 상기 머리의 내부에 구비되어, 아날로그 통신 거리를 최소화할 수 있다.The codec and the sound source processor may be provided inside the head to minimize an analog communication distance.
도 1 내지 도 5를 참조하여 본 발명에 따른 안드로이드 로봇의 각 구성요소를 상세히 살펴본다.1 to 5, each component of the Android robot according to the present invention will be described in detail.
상기 복수의 마이크로폰(101a, 101b, 101c)은 임의의 방향의 음원(상대방)으로부터 신호(소리)를 수집한다. 여기서, 상기 마이크로폰은, 상대방의 3차원 위치를 추적하기 위해 적어도 3개가 구비되어야 한다. 이는 마이크로폰이 놓여있는 기하학적 형상을 이용하여 음원 도달 지연시간을 측정함으로써 음원의 위치를 추정하는 경우, 3차원의 위치를 추적하기 위해 즉 front-back 혼동현상을 방지하기 위해서 최소 3개 이상의 마이크로폰을 이용하는 것이 바람직하기 때문이다. 또한, 3개의 마이크로폰이 구비된 경우, 상기 마이크로폰은, 도 4에 나타난 바와 같이, 안드로이드 로봇의 머리의 좌우 양단과 정수리에 구비될 수 있다. 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)과 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)이 떨어진 거리(d1), 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)과 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)이 떨어진 거리(d2), 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)과 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)이 떨어진 거리(d3)는 서로 다를 수 있지만, 각각의 거리(d1, d2, d3)가 같아지도록 마이크로폰을 설치하는 것이 바람직하다. The plurality of
상기 대역 통과 필터(102)는, 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다. 상기 복수의 마이크로폰(101a, 101b, 101c)에서 수집된 신호는 상대방의 음성 뿐 아니라 여러 잡음이 포함되어 있으므로, 잡음 성분을 최소화하기 위해서 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호는 각각 상기 대역 통과 필터(102)에 의해 필터링된다. 또한, 1 kHz는 사람의 목소리에 가장 가까운 주파수 대역이기 때문에, 상기 대역 통과 필터(102)는 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 하고, 나머지 주파수에서는 이득을 최소화하여 최적으로 상대방의 음성을 인식하도록 하였다.The
상기 코덱(103)은, 상기 대역 통과 필터(102)에 의해 추출된 복수의 음성신호(3개 이상)를 각각 디지털신호로 변환한다. 또한 상기 코덱(103)은 변환된 음성신호를 음원프로세서(104)로 송신한다. 상기 코덱(103)이 마이크로폰으로부터 집음된 음성신호를 디지털신호로 변환하여 음원 프로세서로 송신함으로써, 종래기술에 비해 아날로그 통신 거리가 축소되어 음성 열화 현상이 개선된다. The
상기 음원 프로세서(104)는 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적한다. 구체적으로 상기 디지털로 변환된 음성 신호를 주파수 영역으로 변환하고, 상기 주파수 영역으로 변환된 음성신호 간 지연시간을 구한다. 구체적으로 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)의 음성신호(1번 마이크의 음성신호)와 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)의 음성신호(2번 마이크의 음성신호) 간, 상기 안드로이드 로봇의 머리 정수리에 설치된 마이크로폰(101a)의 음성신호(1번 마이크의 음성신호)와 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)의 음성신호(3번 마이크의 음성신호) 간, 상기 안드로이드 로봇의 머리 좌측 끝에 설치된 마이크로폰(101b)의 음성신호(2번 마이크의 음성신호)와 상기 안드로이드 로봇의 머리 우측 끝에 설치된 마이크로폰(101c)의 음성신호(3번 마이크의 음성신호)간, 일반화된 상호 상관관계 함수를 이용하여 피크점을 찾아 지연시간 값을 구한다. 이 때 지연시간 값이 양수인 경우에는 기준 마이크보다 먼저 신호가 도달한 것이고, 음수인 경우에는 기준 마이크가 먼저 신호가 도달함을 의미한다. 이어 지연시간 계산부(420)로부터 계산된 상기 마이크 간 지연시간 값들을 이용하여 기존의 경험적인 구간선택 방법 없이 직접적으로 기하학적인 방법에 근거하여 후보되는 여러 개의 추적각도를 얻어낸 후 이들 후보 추적 각도들 중 상대방의 방향에 가장 근사한 것으로 계산되는 2개의 추적각도를 구하고 이들의 평균을 취함으로써 결과적인 추적 각도를 추정하여 상대방의 위치를 최종적으로 추정한다.The
또한, 상기 음원 프로세서(104)는, 상기 변환된 음성 신호와 상기 추적된 위치 정보를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 전송한다. 여기서, CAN(controller area network)이란 실시간 제어 응용시스템 내에 있는 센서나 기동장치 등과 같은 주변장치들을 서로 연결해 주는 마이크로 제어기용 직렬 버스 네트워크를 가리킨다. CAN에서는 이더넷 등에서 사용되는 것과 같은 주소 지정 개념은 사용되지 않으며, 메시지는 해당 네트워크에서의 고유한 식별자를 사용하여 네트워크 내에 있는 모든 노드들에게 동시에 뿌려진다. 개개의 노드들은 이 식별자에 기반하여 해당 메시지를 처리할 것인지의 여부를 결정하며. 버스 접근 순서 역시 경쟁원리에 따라 메시지 우선순위를 정한다. 충돌이 감지되었을 때 이더넷에서는 전송이 중단되는 것과는 달리, CAN과 같은 방식을 사용하면 중단 없는 데이터 전송이 가능하다는 장점이 있다. In addition, the
상기 호스트 프로세서(105)는 상기 음원프로세서(104)로부터 상기 변환된 음성 신호 및 상기 추적된 위치 정보를 수신하며, 상기 음성신호를 분석하여 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회하고, 상기 조회된 제스처 데이터 및 상기 추적된 위치에 기초하여 로봇 구동부를 제어한다. 구체적으로 상기 호스트 프로세서(105)는 다수개의 상대방의 예상가능한 음성데이터를 저장하고 있는 예상 음성 DB(미도시)와 상기 다수개의 예상가능한 음성데이터와 매핑되어 있는 제스처 데이터를 저장하고 있는 제스처 DB(미도시)가 내장하고 있고, 상기 호스트 프로세서(105)는 상기 음원프로세서(104)로부터 수신한 음성신호를 어절별로 분석하여 키워드를 추출하고, 음성신호에 포함되어 있는 키워드를 가장 많이 포함 하고 있는 상대방의 예상가능한 음성데이터를 예상 음성 DB(미도시)에서 검색하여, 검색된 예상가능한 음성데이터와 매핑된 제스처 데이터를 제스처 DB(미도시)에서 검색하여 출력해낸다. The
상기 로봇 구동부(106)는, 상기 호스트 프로세서(105)의 제어에 따라 구동된다. 구체적으로, 상기 로봇 구동부(106)는 상기 호스트 프로세서(105)의 제어에 따라 상기 조회된 제스처 데이터에 대응하는 동작을 취하며, 상기 추적된 상대방의 위치를 향하여 회전하는 등의 구동을 한다.The
또한, 본 발명에 따른 안드로이드 로봇은 상대방의 음성에 응답하여 로봇의 음성을 출력하기 위해, 상기 음원 프로세서(104)(구체적으로 상기 음원 프로세서(104)의 로봇음성 처리부(320))는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 스피커를 통해 출력하도록 제어한다. 구체적으로 상기 음원 프로세서(104)는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 전달받아 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 코덱(103)으로 송신한다. 상기 코덱(103)은 상기 조회된 로봇 음성 데이터를 수신하여, 수신된 상기 로봇 음성데이터를 아날로그 신호로 변환한다. 아날로그 신호로 변환된 로봇의 음성데이터는 스피커(107)를 통해 출력된다. 여기서, 상기 조회된 제스처 데이터는 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로부터 상기 음원 프로세서(104)로 전송된다.In addition, the Android robot according to the present invention in order to output the voice of the robot in response to the voice of the other party, the sound source processor 104 (specifically, the robot voice processing unit 320 of the sound source processor 104), the host The
도 2에 나타난 바와 같이, 상기 코덱(103) 및 상기 음원 프로세서(104)는 상기 머리의 내부에 구비되는 것이 바람직하다. 이는 로봇의 머리에 설치된 마이크로폰(101a, 101b, 101c) 및 스피커(107)와의 거리를 최소화하여 노이즈를 최소화하기 위함이다.As shown in FIG. 2, the
도 6은 본 발명에 따른 안드로이드 로봇의 이용방법을 보여주는 흐름도이다. 6 is a flowchart illustrating a method of using an android robot according to the present invention.
도 6을 참조하면, 본 발명에 따른 안드로이드 로봇의 이용방법은 먼저 복수의 마이크로폰(101a, 101b, 101c)이 집음한다(S601). 여기서 상기 복수의 마이크로폰(101a, 101b, 101c)은 안드로이드 로봇에 내장되어 있으며, 상대방의 3차원 위치를 추적하기 위해 적어도 3개의 마이크로폰에서 집음하는 것이 바람직하다. 3개의 마이크로폰에서 집음하는 경우, 머리의 좌우 양단과 정수리에 구비된 마이크로폰을 통해 집음할 수 있다. Referring to FIG. 6, in the method of using an android robot according to the present invention, first, a plurality of
다음으로 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출한다(S602). 구체적으로 상기 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다.Next, the
다음으로 코덱(103)이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환한다(S603).Next, the
다음으로, 음원 프로세서(104)가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적한다(S604). 구체적 으로 상기 음원프로세서(104)는 상기 디지털로 변환된 음성 신호를 주파수 영역으로 변환하고, 각 마이크에서 수신된 주파수 영역으로 변환된 음성신호 간의 지연시간 값을 계산하여 계산된 지연시간 값들을 이용하여 기존의 경험적인 구간선택 방법 없이 직접적으로 기하학적인 방법에 근거하여 후보되는 여러 개의 추적각도를 얻어낸 후 이들 후보 추적 각도들 중 상대방의 방향에 가장 근사한 것으로 계산되는 2개의 추적각도를 구하고 이들의 평균을 취함으로써 결과적인 추적 각도를 추정하여 상대방의 위치를 최종적으로 추정한다.Next, the
다음으로 음원 프로세서(104)가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서(105)로 송신한다(S605). 구체적으로 상기 음원 프로세서(104)가 상기 변환된 음성 신호를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 송신한다. Next, the
다음으로 상기 호스트 프로세서(105)가 상기 음성 신호 및 상기 위치 정보를 수신한다(S606). Next, the
다음으로, 상기 호스트 프로세서(105)가 상기 수신된 음성 신호를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회한다(S607). 구체적으로 다수개의 상대방의 예상가능한 음성데이터를 저장하고 있는 예상 음성 DB(미도시)와 상기 다수개의 예상가능한 음성데이터와 매핑되어 있는 제스처 데이터를 저장하고 있는 제스처 DB(미도시)가 내장하고 있는 상기 호스트 프로세서(105)는, 상기 음원프로세서(104)로부터 수신한 음성신호를 어절별로 분석하여 키워드를 추출하고, 음성신호에 포함되어 있는 키워드를 가장 많이 포함하고 있 는 상대방의 예상가능한 음성데이터를 예상 음성 DB(미도시)에서 검색하여, 검색된 예상가능한 음성데이터와 매핑된 제스처 데이터를 제스처 DB(미도시)에서 검색하여 출력해낸다. Next, the
다음으로, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원프로세서(104)가 상기 조회된 제스처 데이터와 대응하는 로봇 음성데이터를 출력한다(S608). Next, the
단계 S608은 세부적으로, 상기 안드로이드 로봇이 상대방의 음성에 대응하는 제스처 및 상대방의 위치에 적절하게 동작하도록 하기 위해, 상기 호스트 프로세서가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇 구동부를 제어하는 단계와, 상기 로봇 구동부가 상기 호스트 프로세서의 제어에 따라 구동되는 단계를 포함한다. In operation S608, in detail, the host processor uses the inquired gesture data and the received position information to enable the Android robot to properly operate the gesture corresponding to the voice of the other party and the location of the other party. And controlling the robot driver to be driven under the control of the host processor.
또한 단계 S608은, 상기 안드로이드 로봇이 상대방 음성에 대응하는 음성을 출력하도록 하기 위해, 상기 호스트 프로세서가 상기 조회된 제스처 데이터를 상기 음원 프로세서로 송신하는 단계와, 상기 음원 프로세서가 상기 제스처 데이터를 수신하고, 수신된 제스처 데이터에 매핑된 로봇 음성 데이터를 음성 DB(미도시)에서 조회하는 단계와, 상기 음원 프로세서가 상기 조회된 로봇 음성 데이터를 스피커를 통해 출력하는 단계를 포함한다. 구체적으로 상기 호스트 프로세서가 상기 조회된 제스처 데이터를 CAN(controller area network)을 통해 상기 음원 프로세서로 송신하며, 상기 음원 프로세서(104)는, 상기 호스트 프로세서(105)로부터 상기 조회된 제스처 데이터를 수신하여 상기 제스처 데이터에 매핑된 로봇 음성 데이터를 로봇 음성 DB(미도시)에서 조회하고, 상기 조회된 로봇 음성 데이터를 코덱(103)으로 송신한다. 상기 코덱(103)은 상기 조회된 로봇 음성 데이터를 수신하여, 수신된 상기 로봇 음성데이터를 아날로그 신호로 변환하고, 아날로그 신호로 변환된 로봇의 음성데이터는 스피커(107)를 통해 출력된다.In operation S608, the host processor transmits the inquired gesture data to the sound source processor so that the android robot outputs a voice corresponding to the other party's voice, and the sound source processor receives the gesture data. And querying the robot voice data mapped to the received gesture data in a voice DB (not shown), and outputting the retrieved robot voice data through a speaker. Specifically, the host processor transmits the inquired gesture data to the sound source processor through a controller area network (CAN), and the
본 발명에 따른 안드로이드 로봇의 이용 방법을 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 매체는, 복수의 마이크로폰(101a, 101b, 101c)이 집음하는 단계(S601)와, 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계(S602)와, 코덱(103)이 상기 각각 추출된 음성 신호를 디지털 신호로 각각 변환하는 단계(S603)와, 음원 프로세서(104)가 상기 디지털 신호로 각각 변환된 음성 신호 간의 위상차 및 크기차를 이용하여 상기 상대방의 위치를 추적하는 단계(S604)와, 음원 프로세서(104)가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서(105)로 송신하는 단계(S605)와, 상기 호스트 프로세서(105)가 상기 음성 신호 및 상기 위치 정보를 수신하는 단계(S606)와, 상기 호스트 프로세서(105)가 상기 수신된 음성 신호의 의미를 분석하고, 분석된 음성 신호와 대응하는 제스처 데이터를 제스처 DB(미도시)에서 조회하는 단계(S607)와, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서(104)가 상기 조회된 제스처 데이터에 대응하는 로봇 음성데이터를 출력하는 단계(S608)를 실행시키기 위한 프로그램이 기록된다.The computer-readable medium which records the program which performs the method of using the Android robot which concerns on this invention is the step (S601) which the
여기서, 복수의 마이크로폰(101a, 101b, 101c)이 집음하는 단계(S601)는, 상 기 상대방의 3차원 위치를 추적하기 위해 적어도 3개의 마이크로폰에서 집음하며, 3개의 마이크로폰에서 집음되는 경우, 머리의 좌우 양단과 정수리에 구비된 마이크로폰을 통해 집음할 수 있다. Here, the step (S601) of the plurality of microphones (101a, 101b, 101c) is collected by the at least three microphones to track the three-dimensional position of the other party, when the three microphones are collected, It can be picked up through the microphone provided at both ends and the crown.
여기서, 상기 대역 통과 필터(102)가 상기 복수의 마이크로폰(101a, 101b, 101c)을 통해 집음된 신호에서 상대방의 음성 신호를 각각 추출하는 단계는, 상기 대역 통과 필터(102)가 상기 복수의 마이크로폰을 통해 집음되는 신호에서 1 kHz의 주파수를 중심으로 한 소정 주파수 대역의 신호를 추출하되, 상기 1 kHz의 주파수에서 최대 이득을 갖도록 한다.Here, the step of extracting the voice signal of the other party from the signal collected by the plurality of
여기서, 상기 음원 프로세서(104)가 상기 변환된 음성 신호와 상기 추적된 위치 정보를 호스트 프로세서(105)로 송신하는 단계는, 상기 음원 프로세서(104)가 상기 변환된 음성 신호를 CAN(controller area network)을 통해 상기 호스트 프로세서(105)로 송신한다. The transmitting of the converted voice signal and the tracked position information to the
여기서, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서(105)가 상기 조회된 제스처 데이터에 대응하는 로봇 음성데이터를 출력하는 단계(S608)는, 상기 안드로이드 로봇이 상대방의 음성에 대응하는 제스처 및 상대방의 위치에 적절하게 동작하도록 하기 위해, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇 구동부(106)를 제어하는 단계와, 상기 로봇 구동부(106)가 상기 호스트 프로세서(105)의 제어에 따라 구동되는 단계를 포함한다. Here, the
또한, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터 및 상기 수신된 위치 정보를 이용하여 로봇을 구동시키고, 상기 음원 프로세서(104)가 상기 조회된 제스처 데이터에 대응하는 로봇 음성데이터를 출력하는 단계(S608)는, 상기 안드로이드 로봇이 상대방 음성에 대응하는 음성을 출력하도록 하기 위해, 상기 호스트 프로세서(105)가 상기 조회된 제스처 데이터를 상기 음원 프로세서(104)로 송신하는 단계와, 상기 음원 프로세서(104)가 상기 제스처 데이터를 수신하고, 수신된 제스처 데이터와 대응하는 로봇 음성 데이터를 음성 DB(미도시)에서 조회하는 단계와, 상기 음원 프로세서(104)가 상기 조회된 로봇 음성 데이터를 스피커(107)를 통해 출력하는 단계를 포함한다. In addition, the
상술한 바와 같이, 본 발명에 의하면, 상대방의 음성 인식시 단순히 음성만을 인식하지 않고 음성을 내는 상대방의 위치를 파악하여, 상대방의 음성 및 위치에 대응하는 적절한 반응을 할 수 있다. 그 결과 안드로이드 로봇은 인간과 보다 자연스러운 의사소통을 할 수 있게 된다. As described above, according to the present invention, when recognizing the other party's voice, it is possible to grasp the location of the other party making the voice and not to simply recognize the voice, and to respond appropriately to the other party's voice and the location. As a result, Android robots can communicate more naturally with humans.
또한, 상술한 바와 같이 본 발명에 따른 안드로이드 로봇에 의하면, 마이크로폰, 코덱, 음원프로세서를 모두 로봇의 머리에 내장시킴으로써 아날로그 라인을 최소화하였고, 그 결과 마이크로폰으로부터 집음된 아날로그 신호에서 노이즈 부분을 최소화할 수 있다. In addition, according to the Android robot according to the present invention as described above, by minimizing the analog line by embedding the microphone, codec, and sound processor in the head of the robot, the noise portion in the analog signal collected from the microphone can be minimized as a result. have.
또한, 상술한 바와 같이 본 발명에 의하면, 마이크로폰으로부터 집음된 음성신호를 디지털신호로 변환하여 음원 프로세서로 전송함으로써 아날로그 통신 거리를 축소하여 종래기술에 비해 음성 열화 현상을 개선할 수 있다. In addition, according to the present invention as described above, by reducing the analog communication distance by converting the voice signal collected from the microphone into a digital signal to the sound source processor it is possible to improve the voice degradation phenomenon compared to the prior art.
또한, 상술한 바와 같이 본 발명에 의하면, 상대방의 음성에 대응하는 모션, 제스쳐는 호스트 프로세서에서 제어하고, 상대방의 음성에 대응하는 로봇 음성은 음원 프로세서에서 제어하도록 분리함으로써, 호스트 프로세서에서 모두 제어하였던 종래기술에 비해 로봇의 모션 및 음성의 품질을 향상시킬 수 있다.In addition, as described above, according to the present invention, the motion and gesture corresponding to the other party's voice are controlled by the host processor, and the robot voice corresponding to the other party's voice is separated to be controlled by the sound source processor. Compared with the prior art, it is possible to improve the motion and voice quality of the robot.
도 1은 본 발명에 따른 안드로이드 로봇의 구성을 나타내는 블럭도이다. 1 is a block diagram showing the configuration of an Android robot according to the present invention.
도 2는 본 발명에 따른 안드로이드 로봇의 머리 내부를 나타내는 도면이다.2 is a view showing the inside of the head of the Android robot according to the present invention.
도 3 내지 도 5는 본 발명에 따른 안드로이드 로봇에 설치되어 있는 복수의 마이크로폰의 위치를 나타내는 도면으로서, 도 3은 본 발명에 따른 안드로이드 로봇의 정면을 나타내는 도면이며, 도 4는 본 발명에 따른 안드로이드 로봇의 우(右)면을 나타내는 도면이고, 도 5는 본 발명에 따른 안드로이드 로봇의 상(上)면을 나타내는 도면이다. 3 to 5 are views showing the position of a plurality of microphones installed in the android robot according to the present invention, Figure 3 is a view showing the front of the android robot according to the invention, Figure 4 is an android according to the present invention It is a figure which shows the right side of a robot, and FIG. 5 is a figure which shows the upper side of the android robot concerning this invention.
도 6은 본 발명에 따른 안드로이드 로봇의 이용방법을 보여주는 흐름도이다.6 is a flowchart illustrating a method of using an android robot according to the present invention.
[도면 부호에 대한 설명] [Description of Drawing Symbol]
101a, 101b, 101c 마이크 102 대역통과필터 103 코덱101a, 101b,
104 음원 프로세서 105 호스트 프로세서 106 로봇 구동부104
107 스피커107 speakers
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090133126A KR101159133B1 (en) | 2009-12-29 | 2009-12-29 | Android robot and method for using the android robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090133126A KR101159133B1 (en) | 2009-12-29 | 2009-12-29 | Android robot and method for using the android robot |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110076424A KR20110076424A (en) | 2011-07-06 |
KR101159133B1 true KR101159133B1 (en) | 2012-06-25 |
Family
ID=44916325
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090133126A KR101159133B1 (en) | 2009-12-29 | 2009-12-29 | Android robot and method for using the android robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101159133B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002120177A (en) * | 2000-10-11 | 2002-04-23 | Sony Corp | Robot control device, robot control method and recording medium |
KR100906676B1 (en) * | 2002-03-13 | 2009-07-08 | 주식회사 엘지이아이 | Voice recognition apparatus of intelligence robot and method thereof |
-
2009
- 2009-12-29 KR KR1020090133126A patent/KR101159133B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002120177A (en) * | 2000-10-11 | 2002-04-23 | Sony Corp | Robot control device, robot control method and recording medium |
KR100906676B1 (en) * | 2002-03-13 | 2009-07-08 | 주식회사 엘지이아이 | Voice recognition apparatus of intelligence robot and method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20110076424A (en) | 2011-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6520878B2 (en) | Voice acquisition system and voice acquisition method | |
JP4109414B2 (en) | Device control method using speech recognition, device control system using speech recognition, and recording medium recording device control program using speech recognition | |
JP6450139B2 (en) | Speech recognition apparatus, speech recognition method, and speech recognition program | |
EP2428951B1 (en) | Method and apparatus for performing microphone beamforming | |
JP4624577B2 (en) | Human interface system with multiple sensors | |
Sturim et al. | Tracking multiple talkers using microphone-array measurements | |
US20060143017A1 (en) | Interactive robot, speech recognition method and computer program product | |
JP2003223188A (en) | Voice input system, voice input method, and voice input program | |
KR102374054B1 (en) | Method for recognizing voice and apparatus used therefor | |
CN204929164U (en) | Sound sensor with directionality | |
JP3838029B2 (en) | Device control method using speech recognition and device control system using speech recognition | |
WO2007138503A1 (en) | Method of driving a speech recognition system | |
CN103886861A (en) | Method for controlling electronic equipment and electronic equipment | |
JP2006227634A (en) | Equipment control method using voice recognition, equipment control system using voice recognition and recording medium which records equipment control program using voice recognition | |
KR100822880B1 (en) | User identification system through sound localization based audio-visual under robot environments and method thereof | |
TW202008352A (en) | Method, device, audio interaction system, and storage medium for azimuth estimation | |
JP3632099B2 (en) | Robot audio-visual system | |
Saffari et al. | Ava (a social robot): Design and performance of a robotic hearing apparatus | |
CN108733059A (en) | A kind of guide method and robot | |
CN112925235A (en) | Sound source localization method, apparatus and computer-readable storage medium at the time of interaction | |
JP2009131914A (en) | Robot control system | |
CN108665907A (en) | Voice recognition device, sound identification method, recording medium and robot | |
KR101159133B1 (en) | Android robot and method for using the android robot | |
JP2010010857A (en) | Voice input robot, remote conference support system, and remote conference support method | |
CN114299951A (en) | Control method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20160328 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20170327 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20180406 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190402 Year of fee payment: 8 |