KR20010071805A - 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체 - Google Patents

제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체 Download PDF

Info

Publication number
KR20010071805A
KR20010071805A KR1020017000340A KR20017000340A KR20010071805A KR 20010071805 A KR20010071805 A KR 20010071805A KR 1020017000340 A KR1020017000340 A KR 1020017000340A KR 20017000340 A KR20017000340 A KR 20017000340A KR 20010071805 A KR20010071805 A KR 20010071805A
Authority
KR
South Korea
Prior art keywords
voice
combination
input
pitch
control
Prior art date
Application number
KR1020017000340A
Other languages
English (en)
Inventor
하세가와리카
Original Assignee
이데이 노부유끼
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이데이 노부유끼, 소니 가부시끼 가이샤 filed Critical 이데이 노부유끼
Publication of KR20010071805A publication Critical patent/KR20010071805A/ko

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/903Control
    • Y10S706/909Communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

복수의 로봇이 간단하고 확실하게 개개로 구분되어 제어될 수 있다. 구체적으로는, 한쪽의 로봇 장치를 제어할 때 슬라이드 버튼(52)은 모듈 A 측으로 전환되고, 다른쪽의 로봇 장치를 제어할 때 문자 B 측으로 전환된다. 음명에 대응하는 버튼(51)이 조작되었을 때, 그 음명에 대응하는 음성이 슬라이드 버튼(52)의 전환 위치에 대응하는 음고로 출력되어, 그 음성에 의해 로봇이 제어된다. 각 로봇은 자기 자신에게 대응하는 음고의 음성 신호만을 받아들인다.

Description

제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체{Control device and method therefor, information processing device and method therefor, and medium}
본 출원인은, 예컨대, 일본 특개평 8-335091호 공보로서, C, D, A··와 같은 음명 중 소정 음명의 음을 복수 조합하고, 그 조합(화음)을 1개의 단어 또는 문장으로 하여 예컨대 로봇 장치 등을 제어하는 것을 제안하고 있다.
앞서의 제안에서는, 로봇 장치를 음성에 의해 제어하는 것이 가능하지만, 복수의 로봇 장치가 존재하는 경우에, 이러한 앞서의 제안을 포함해서, 그것들을 개개로 제어하는 것에 관한 기술은 아직 제공되어 있지 않다.
본 발명은 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체에 관한 것으로, 특히 복수의 로봇 장치를, 간단하고 확실하게 제어할 수 있도록 한 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체에 관한 것이다.
도 1은 본 발명을 적용한 로봇 시스템의 구성예를 도시한 블록도이다.
도 2는 도 1의 로봇 장치(2A)의 외관의 구성예를 도시한 도면이다.
도 3은 도 1의 로봇 제어 장치(1)의 내부의 구성예를 도시한 블록도이다.
도 4(a) 및 도 4(b)는 도 3의 입력부(31)의 구성예를 도시한 도면이다.
도 5는 로봇 장치(2A)와 로봇 장치(2B)의 제어를 위한 음계를 설명하는 도면이다.
도 6은 도 1의 로봇 장치(2A)의 내부 구성예를 도시한 블록도이다.
도 7은 도 3의 로봇 제어 장치(1)의 동작을 설명하는 흐름도이다.
도 8은 로봇 장치의 동작과 음명의 조합을 설명하는 도면이다.
도 9는 도 6의 로봇 장치(2A)의 동작을 설명하는 흐름도이다.
도 10은 td.cfg 파일의 예를 도시한 도면이다.
도 11은 sdata.cfg 파일의 예를 도시한 도면이다.
도 12(a) 및 도 12(b)는 상대 음계로서 본 경우에 동일의 것으로 되는 조합의 음명을 도시한 도면이다.
도 13(a) 내지 도 13(c)는 상대 음계로서 본 경우에 동일의 것으로 되는 조합의 음명의 다른 예를 도시한 도면이다.
도 14는 상대 음계 데이터와 각 커맨드에 대응되는 번호와의 테이블 또는 데이터 베이스를 설명하기 위해 사용한 도면이다.
도 15(a) 내지 도 15(c)는 로봇 제어 장치의 구체적인 예를 설명하는 정면도, 측면도 및 배면도이다.
도 16(a) 및 도 16(b)은 로봇 제어 장치의 각 버튼과 대응되는 내용을 도시한 도면이다.
도 17은 로봇 시스템의 구체적인 예를 설명하는 도면이다.
도 18은 로봇 제어 장치의 처리 내용의 구체적인 예를 설명하는 도면이다.
도 19(a) 및 도 19(b)는 로봇 제어 장치의 구체적인 회로 구성 및 구성 각부의 처리 내용을 도시한 도면이다.
도 20(a) 및 도 20(b)은 CPU의 특성 등을 도시한 도면이다.
도 21(a) 및 도 21(b)은 로봇 제어 장치의 각 모드 및 그 처리 내용을 도시한 도면이다.
도 22(a) 내지 도 22(c)는 매체를 설명하는 도면이다.
본 발명은, 이러한 상황을 감안하여 이루어진 것으로, 간단하고 확실하게 복수의 로봇 장치를 제어할 수 있도록 한 것이다.
구체적으로는, 본 발명에 따른 제어 장치는, 복수의 제어 대상 중에서 소정의 제어 대상을 선택하는 선택 수단과, 제어 대상을 제어하기 위한, 주파수가 상이한 복수의 음성 조합을 입력하는 입력 수단과, 복수의 제어 대상에 대응하는 음고(音高) 정보를 기억하는 기억 수단과, 선택 수단에 의해 선택된 제어 대상에 대응하는 음고의, 입력 수단에 의해 입력된 조합의 음성을 발생하는 발생 수단을 구비한다. 제어 대상은 로봇 장치로 할 수 있다. 또한, 음성의 조합은 1 옥타브내의 소정 음명의 음의 조합으로 할 수 있다.
또한, 본 발명에 따른 제어 방법은, 복수의 제어 대상 중에서 소정의 제어 대상을 선택하는 선택 단계와, 제어 대상을 제어하기 위한, 주파수가 상이한 복수의 음성 조합을 입력하는 입력 단계와, 복수의 제어 대상에 대응하는 음고 정보를 기억하는 기억 단계와, 선택 단계의 처리에 의해 선택된 제어 대상에 대응하는 음고의, 입력 단계의 처리에 의해 입력된 조합의 음성을 발생하는 발생 단계를 갖는다.
또한, 본 발명에 따른 매체는, 복수의 제어 대상 중에서 소정의 제어 대상을 선택하는 선택 단계와, 제어 대상을 제어하기 위한, 주파수가 상이한 복수의 음성 조합을 입력하는 입력 단계와, 복수의 제어 대상에 대응하는 음고 정보를 기억하는 기억 단계와, 선택 단계의 처리에 의해 선택된 제어 대상에 대응하는 음고의, 입력 단계의 처리에 의해 입력된 조합의 음성을 발생하는 발생 단계를 가진 프로그램이기록되어 있다.
상술의 제어 장치, 제어 방법, 및 매체에서는, 선택된 제어 대상에 대응하는 음고의 입력된 조합의 음이 발생된다.
또한, 본 발명에 따른 정보 처리 장치는, 음성을 검출하는 음성 검출 수단과, 음성 검출 수단에 의해 검출된 음성의 음고를 검출하는 음고 검출 수단과, 음성 검출 수단에 의해 검출된 음성 중 주파수가 상이한 복수의 음성 조합을 검출하는 조합 검출 수단과, 음고 검출 수단과 조합 검출 수단의 검출 결과에 대응하는 커맨드를 결정하는 결정 수단과, 결정 수단에 의해 결정된 커맨드에 대응하는 처리를 실행하는 실행 수단을 구비한다. 정보 처리 장치는 로봇 장치로 할 수 있다. 또한, 음성 조합은 1 옥타브내의 소정 음명의 음의 조합으로 할 수 있다.
또한, 본 발명에 따른 정보 처리 방법은, 음성을 검출하는 음성 검출 단계와 음성 검출 단계의 처리에 의해 검출된 음성의 음고를 검출하는 음고 검출 단계와, 음성 검출 단계의 처리에 의해 검출된 음성 중 주파수가 상이한 복수의 음성 조합을 검출하는 조합 검출 단계와, 음고 검출 단계 및 조합 검출 단계에서의 검출 결과에 대응하는 커맨드를 결정하는 결정 단계와, 결정 단계의 처리에 의해 결정된 커맨드에 대응하는 처리를 실행하는 실행 단계를 갖는다.
또한, 본 발명에 따른 매체는, 음성을 검출하는 음성 검출 단계와, 음성 검출 단계의 처리에 의해 검출된 음성의 음고를 검출하는 음고 검출 단계와, 음성 검출 단계의 처리에 의해 검출된 음성 중 주파수가 상이한 복수의 음성 조합을 검출하는 조합 검출 단계와, 음고 검출 단계와 조합 검출 단계에서의 검출 결과에 대응하는 커맨드를 결정하는 결정 단계와, 결정 단계의 처리에 의해 결정된 커맨드에 대응하는 처리를 실행하는 실행 단계를 가진 프로그램이 기록되어 있다.
상술의 정보 처리 장치, 정보 처리 방법, 및 매체에서는, 검출된 음고와 음성의 조합에 대응하는 커맨드가 결정되고, 결정된 커맨드에 대응하는 처리가 실행된다.
또한, 본 발명에 따른 제어 장치는, 조합 음성에 기초하여 제어되는 제어 대상을 제어하는 제어 장치로서, 신호가 입력되는 입력 수단과, 입력 수단에 입력된 입력 신호를 대응되는 조합 음성으로 변환하는 변환 수단과, 변환 수단이 변환한 조합 음성을 출력하는 음성 출력 수단을 구비한다. 제어 대상은 로봇 장치로 할 수 있다.
이 제어 장치는, 입력 수단에 의해 휴대 전화 등으로부터의 신호를 검출하여, 검출한 신호를 대응되는 조합 음성으로 변환하고, 음성 출력 수단에 의해, 조합 음성에 의해 제어 가능하게 되는 로봇 장치에 출력한다.
이하, 본 발명의 최선의 실시예에 대하여 도면을 참조하여 설명한다.
도 1은, 본 발명이 적응된 로봇 시스템의 구성예를 도시하고 있다. 상기 구성예에서는 로봇 제어 장치(1)가 복수(이 예의 경우 2대)의 로봇 장치(2A, 2B)를 음성에 의해 제어하도록 구성되어 있다.
도 2는 로봇 장치(2A)의 외관의 형상을 도시하고 있다. 상기 도면에 도시된 바와 같이, 로봇 장치(2A)는, 전방의 좌우의 다리부(11-1, 11-2)와, 후방의 좌우의 다리부(12-1, 12-2)에 의해 소정의 방향으로 이동할 수 있도록 이루어져 있다. 또한, 꼬리(13)를 흔드는 것으로 감정을 표현할 수 있도록 구성되어 있다. 표시부(14)에는 내부에 LED 등이 내장되어 있고, 로봇 장치(2A)의 내부의 상태를 표시할 수 있도록 이루어져 있다.
또한, 도시는 생략되어 있지만 로봇 장치(2B)도 로봇 장치(2A)와 같이 구성되어 있다.
로봇 제어 장치(1)는 예컨대 도 3에 도시한 바와 같이 구성되어 있다. 로봇제어 장치(1)는 음 출력에 의해 로봇 장치(2A) 또는 로봇 장치(2B)를 원격 조작하는 리모트 컨트롤러이다. 예컨대, 로봇 제어 장치(1)는 사운드 커맨드라고 할 수도 있다.
입력부(31)는 각종 버튼이나 키를 가진 리모트 컨트롤러로 구성되고, 로봇 장치(2A, 2B)를 제어할 때 사용자에 의해 조작된다. 입력 인터페이스(32)는, 입력부(31)로부터의 입력을 인터페이스하고, CPU(35)에 출력함과 동시에, DSP(Digital Signal Processor)(38)로부터 입력된 음성 데이터를 입력하고, D/A 변환기(33)에 출력하는 처리를 행하고, D/A 변환기(33)로부터 출력된 음성 신호는 스피커(34)로부터 출력된다.
CPU(35)는, ROM(Read 0nly Memory)(36)에 기억되어 있는 프로그램에 따라 각종 처리를 실행한다. RAM(Random Access Memory)(37)는, CPU(35)가 각종의 처리를 실행함에 있어서 필요한 프로그램이나 데이터를 적절히 기억한다. DSP(38)는 사용자로부터의 입력에 대응하는 음성 데이터를 발생하여 입출력 I/F(32)에 출력한다.
입력부(31)는, 예컨대, 도 4에 도시한 바와 같이 구성된다. 상기 예에서, A, A#, B, F#, G, G#, D#, E, F, C, C#, D의 합계 12 종류의 음명에 대응하는 버튼(51)을 가지고 있다. 또한, 입력부(31)의 측면에는, 슬라이드 버튼(52)이 설치되어 있다. 상기 슬라이드 버튼(52)은, 로봇 장치(2A)를 제어할 때, 도면 중 좌측(문자(A) 측)으로 전환(위치)되고, 로봇 장치(2B)를 제어할 때, 우측(문자(B) 측)으로 전환(위치)된다.
DSP(38)는 슬라이드 버튼(52)이 문자(A) 측으로 전환되어 있을 때, 버튼(51)의 조작에 대응하여, 도 5의 좌측에 도시한, 낮은 음고의 C 내지 B의 12종류의 각 음명에 대응하는 음성 데이터를 발생한다. 또한, 슬라이드 버튼(52)이 문자(B) 측으로 전환되어 있을 때, DSP(38)는 도 5의 우측에 도시한, 보다 높은 음고의 C 내지 B의 12종류의 음명의 음성 데이터를 발생한다.
도 6은 로봇 장치(2A)의 내부의 구성예를 도시하고 있다. 마이크로폰(61)은 로봇 제어 장치(1)의 스피커(34)가 출력한 음성을 받아들여 A/D 변환기(62)에 출력한다. A/D 변환기(62)는 입력된 음성 신호를 아날로그 신호로부터 디지털 신호로 변환하고 입력 인터페이스(63)에 출력한다. 입력 인터페이스(63)는 A/D 변환기(62)로부터 입력된 음성 데이터를 DSP(68)에 출력한다. 또한, 입력 인터페이스(63)는 CPU(65)로부터의 제어 신호에 대응하여 모터(64)를 구동하여 로봇 장치(2A)의 다리부(11-1 내지 12-2), 꼬리(13) 등을 구동한다. 또한, 입력 인터페이스(63)는 CPU(65)로부터의 제어에 대응하여 표시부(14)에 소정의 표시를 행하게 한다.
CPU(65)는 ROM(66)에 기억되어 있는 프로그램에 따라 각종의 처리를 실행한다. RAM(67)에는 CPU(65)가 각종의 처리를 실행함에 있어서 필요한 프로그램이나 데이터가 적절히 기억된다. DSP(68)는, 마이크로폰(61)에 의해 입력된 음성 데이터의 음고와 음명을 분석하고, 분석한 결과에 대응하는 커맨드를 생성하여, CPU(65)에 전송한다. CPU(65)는 상기 커맨드를 해석하고 그 해석한 결과에 대응하여, 상술한 바와 같이 입력 인터페이스(63)를 통해 모터(64) 또는 표시부(14)를 제어한다.
또한, 도시되지는 않았지만, 로봇 장치(2B)의 내부의 구성도 로봇 장치(2A)의 경우와 마찬가지로 구성되어 있다.
다음에 도 7의 흐름도를 참조하여, 로봇 제어 장치(1)의 동작에 대해 설명한다. 스텝(S1)에서 사용자는, 제어하는 로봇 장치를 선택하는 조작을 행한다. 즉, 로봇 장치(2A)를 제어할 때, 사용자는 입력부(31)의 슬라이드 버튼(52A)을 문자(A) 측으로 전환하는 로봇 장치(2B)를 제어할 때 문자(B) 측으로 전환한다. 다음에 스텝(S2)에서 사용자는 로봇 장치(2A, 2B)에 실행시키고 싶은 커맨드에 대응하는 음명의 음의 조합을 입력부(31)의 버튼(51)을 조작하여 입력한다.
예컨대, 도 8에 도시한 바와 같이, 로봇 장치(2A, 2B)를 전진시킬 때 사용자는 버튼(51) 중 음명(D, E, G#)의 각 버튼을 조작한다. 또한, 로봇 장치(2A, 2B)를 정지시킬 때 음명(A, B, C)의 버튼(51)이 조작된다. 또한 , 로봇 장치(2A, 2B)를 후퇴시킬 때 음명(D, A, F)의 버튼(51)이 조작된다.
입력부(31)가 조작되면 그 조작에 대응하는 신호가 CPU(35)에 입력된다. CPU(35)는 상기 조작에 대응하는 신호의 입력을 받았을 때, 스텝(S3)에서 그 조작에 대응하는 신호를 DSP(38)에 출력한다. DSP(38)는 스텝(S4)에서 CPU(35)로부터의 신호에 기초하여, 지금 사용자가 제어 대상으로 하고 있는 것이 로봇 장치(2A)인 것인지의 여부를 판정한다. 제어 대상으로 되어 있는 것이 로봇 장치(2A)인 경우에는 스텝(S5)으로 진행하고, DSP(38)는 CPU(35)로부터의 지령에 대응하여, 로봇 장치(2A)에 대응하는 음고를 설정하며, 또한 스텝(S7)에서, 그 설정된 음고의, CPU(35)로부터 입력된 음명의 음의 조합의 음성 데이터를 발생한다. 상기 음성 데이터는 입력 인터페이스(32)에 공급되어 D/A 변환기(33)에서 디지털 신호로부터 아날로그 신호로 변환되어 스피커(34)로부터 출력된다.
한편, 스텝(S4)에서 제어 대상이 로봇 장치(A)가 아닌 것으로 판정된 경우(로봇 장치(B)인 것으로 판정된 경우), 스텝(S6)으로 진행하고 DSP(38)는 로봇 장치(B)에 대응하는 음고를 설정한다. 그리고 스텝(S7)에서, 설정된 음고로 입력된 음명의 음의 조합의 음성 데이터가 발생된다. 상기 음성 데이터도 상술한 경우와 같이 입력 인터페이스(32)로부터 D/A 변환기(32)를 통해 스피커(34)로부터 출력된다.
이상과 같이 하여, 로봇 장치(2A)를 제어하는 경우에는 도 5의 좌측에 도시한 1 옥타브내의 12종류의 음명 중의 임의의 음명의 조합으로 이루어지는 음이 스피커(34)로부터 출력된다. 이에 대하여, 로봇 장치(2B)가 제어 대상으로서 선택되어 있는 경우에는, 도 5에서 우측에 도시한 1 옥타브내의 임의의 음명의 조합의 음성 데이터가 스피커(34)로부터 출력된다.
이와 같이, 로봇 제어 장치(1)로부터 음성이 출력된 경우의 각 로봇 장치의 처리에 대해 도 9의 흐름도를 참조하여 설명한다.
예컨대, 로봇 장치(2A)는 스텝(S21)에서 음성 신호를 수신하였는지의 여부를 판정하여, 수신하지 않고 있으면 스텝(S21)으로 되돌아가 음성 신호를 수신할 때까지 대기한다. 즉, 마이크로폰(61)은 음성 신호를 받으면 A/D 변환기(62)에 출력한다. A/D 변환기(62)는 마이크로폰(61)으로부터 입력된 음성 신호를 디지털 신호로 변환하여 입력 인터페이스(63)를 통해 CPU(65)로 출력한다. CPU(65)는 음성 데이터가 입력되면 이것을 DSP(68)에 전송한다.
음성 데이터가 입력되면, DSP(68)는 스텝(S22)에서 보정 처리를 행한다. 즉, 입력된 음성 신호의 음고에 흔들림이 있는 경우에는 이것을 보정하는 처리가 실행된다. 그리고 스텝(S23)에서, DSP(68)는 수신한 음성의 음고를 검출한다. 또한 스텝(S24)에서 DSP(68)는 받아들인 음성의 음명 조합을 검출한다.
스텝(S25)에서 DSP(68)는 스텝(S23)에서 검출된 음고의, 스텝(S24)에서 검출된 음명이 조합에 대응하는 번호가 ROM(66)에 미리 기억되어 있는 td.cfg 파일로부터 검색한다. 상기 td.cfg 파일에는 도 10에 도시한 바와 같이 각 음고의 각 음명의 조합이 기억되어 있다. 번호(1 내지 3)로 나타내는 음고의 음명의 조합은 로봇 장치(2A)에 대한 것이며, 번호(4 내지 6)로 나타내는 음고의 음명의 조합은 로봇 장치(2B)에 대한 것이다. 여기서, 로봇 장치(A)와 로봇 장치(B)에서는 그 대응되는 것의 음명의 음고가 다른 것으로 되어 있다.
상기 예에서는, 도 8에 도시된 바와 같이, 음명의 조합은 전진, 정지 또는 후퇴의 각 조작에 대응되어 있고, 음명이 조합 자체는 로봇 장치(2A)와 로봇 장치(2B)에서 동일이다. 로봇 장치(2A) 또는 로봇 장치(2B) 중 어느 것에 대한 지령일까는 그 음고에 따라 식별된다.
로봇 장치(2A)의 CPU(65)는 도 10의 번호(1 내지 3)로 나타내는 음고의 데이터만을 입력하고, 로봇 장치(2B)의 CPU(65)는 번호(4 내지 6)로 나타내는 음고의 데이터만을 받아들인다. 그 결과, 스텝(S23)에서 검출된 음고가 로봇 장치(2A)의 음고이고, 스텝(S24)에서 검출된 음명의 조합이 커맨드에 대응한 음명의 조합인 경우에는, 로봇 장치(2A)의 DSP(68)는 td.cfg 파일로부터 번호(1 내지 3) 중 어느 1개의 번호를 검출하게 된다. 이에 반해, 수신된 음성 신호가 로봇 장치(2B)를 제어하거나 단순한 노이즈인 경우에는 DPS(68)는 td.cfg 파일로부터 번호(1 내지 3)를 검출하는 것은 불가능하다. 이 경우에는 스텝(S21)으로 되돌아가 그 이후의 처리가 되풀이하여 실행된다.
한편, 로봇 장치(2B)의 CPU(65)는 도 10의 번호(4 내지 6)로 나타내는 음고의 데이터만을 받아들인다. 따라서, 로봇 장치(2B)의 DSP(68)는 스텝(S23)에서 검출된 음고가 로봇 장치(2B)를 위한 음고이고, 또한 스텝(S24)에서 검출된 음명의 조합이 td.cfg 파일에 기억되어 있는 음명의 조합인 경우에, 번호(4 내지 6) 중 어느 1개의 번호를 검출할 수 있다.
이에 반해, 로봇 장치(2B)가 검출한 음성 신호가 단순한 노이즈이었거나, 로봇 장치(2A)를 제어하기 위한 음성 신호이었던 경우에는, DSP(68)는 번호(4 내지 6) 중 어느 하나의 번호도 검출할 수 없다. 이 경우에는, 스텝(S21)으로 되돌아가고, 그 이후의 처리가 되풀이하여 실행된다.
스텝(S26)에서, td.cfg 파일로부터 번호가 검출되었다고 판정된 경우, 스텝(S27)으로 진행하고, DSP(68)는 스텝(S25)에서 검출된 번호에 대응하는 커맨드를 ROM(66)에 기억되어 있는 sdata.cfg 파일로부터 검색한다. 상기 sdata.cfg 파일에는, 도 11에 도시한 바와 같이, td.cfg 파일로부터 검색된 번호에 대응하는 커맨드가 기억되어 있다. 번호(1) 또는 번호(4)에 대응하는 커맨드는 로봇 장치를 전진시키는 커맨드 SCMD-F0RWARD로 되어 있고, 번호(2) 또는 번호(5)에 대응하는커맨드는 로봇 장치를 정지시키는 커맨드 SCMD-ST0P로 되어 있으며, 번호(3) 또는 번호(6)에 대응하는 커맨드는 로봇 장치를 후진시키는 커맨드 SCMD_BACKWARD로 되어 있다.
DSP(68)는, 스텝(S28)에서 sdata.cfg 파일로부터 검색한 커맨드를 CPU(65)에 출력한다. CPU(65)는 DSP(68)로부터 기억된 커맨드를 해석하고, 스텝(S29)에서 그 해석 결과에 대응하는 내부 상태를 설정한다.
예컨대, CPU(65)는 커맨드 SCMD_F0RWARD의 입력을 받았을 때 입력 인터페이스(63)를 통해 모터(64)를 제어하고 로봇 장치(2A)를 전진시킨다. 커맨드 SCMD-BACKWARD가 입력되었을 때, CPU(65)는 로봇 장치(2A)를 후진시킨다. 또한, 커맨드 SCMD_ST0P가 입력되었을 때, CPU(65)는 로봇 장치(2A)를 정지시킨다. CPU(65)는 또한, 예컨대, 전진의 커맨드 SCMD-F0RWARD가 입력된 경우에는, 기쁨을 나타내기 위해 꼬리(13)를 진동시키도록 모터(64)를 제어한다. 반대로, 후퇴의 커맨드 SCMD-BACKWARD가 입력된 경우에는 CPU(65)는 낙담의 기분을 표현하기 위해 꼬리(13)를 아래쪽으로 내리게 하도록 모터(64)를 제어한다.
스텝(S30)에서, DSP(68)는 처리의 종료가 지령되었는지의 여부를 판정하여, 종료가 지령되어 있지 않으면 스텝(S21)으로 되돌아가고, 그 이후의 처리를 되풀이하여 실행한다. 스텝(S30)에서 종료가 지령되었다고 판정된 경우 로봇 장치의 처리는 종료된다.
이상에서는, 음의 조합을 음악의 기초음으로서의 음명의 조합으로 하였지만, 다른 주파수의 조합이면 소정의 음명에 대응하는 음 이외의 주파수의 음의 조합으로 할 수 있다.
또한, 음명의 조합으로 하는 경우에도, 복수의 음명을 동시에 발생시키는 것에 의한 음, 소위 음악적인 화음, 또는 그와 같은 화음의 조합으로 할 수 있음은 물론이지만, 화음을 구성하지 않은 음의 조합으로 하는 것도 가능하다. 예컨대, 로봇 장치(2A)의 제어는 흑 키에 대응하는 음명의 조합으로 하고, 로봇 장치(2B)의 제어는 백 키에 대응하는 음명의 조합으로 하도록 해도 된다.
음명을 조합하는 경우, 절대 음계를 기준으로 할 수 있지만, 상대 음계를 기준으로 할 수도 있다. 절대 음계를 사용하는 경우, 예컨대, C, D, E의 음명의 조합은 C#, D, F의 조합과 다른 음명의 조합으로 되지만, 상대 음계를 사용하는 경우에는, 이들은 동일의 음명의 조합으로 된다.
예컨대, 상대 음계로 본 경우, 도 10에 도시된 번호(1, 4)의 D, E, G#와 같은 음명의 조합은 도 12(a)에 도시한 바와 같이, D#, F, A나 E, F, A#등과 같은 음명의 조합과 동일의 것으로서 취급할 수 있다. 또한, 상대 음계로 본 경우, 도 10에 도시된 번호(3, 6)의 D, A, F와 같은 음명의 조합은, 도 12(b)에 도시한 바와 같이 D, F, A#나 E, G, B 등과 같은 음명의 조합과 동일의 것으로 취급할 수 있다.
이와 같이, 조합의 각 음명을 절대 음계로서 본 경우에 다른 것이어도, 조합음명을 상대 음계로 보는 것으로 동일의 것으로 파악할 수 있다.
또한, 커맨드를 규정하는 음명의 조합은, 상술한 예에 한정되는 것이 아니기때문에, 다른 음명의 조합의 예로 본 경우 상대 음계가 동일로 되는 것은 도 13에도시된다.
이러한 상대 음계를 사용하면, 절대 음계를 사용하는 경우에 비해 커맨드를 인간이 발생하는 것이 용이해진다. 즉, 예컨대, 휘파람을 사용하여 인간이 커맨드를 발생하도록 하는 경우, 절대 음계의 음명을 발생하는 것은, 그와 같은 음악적인 훈련을 받은 사람만이 할수 있게 된다. 이에 반해, 상대 음계를 사용하는 경우에는, 소위 음치가 아니면, 일반의 사용자도 화음을 발생할 수 있기 때문에, 로봇을 제어하는 것이 가능해진다. 즉, 소망의 조합 음명을 내어 로봇 장치를 제어하고 싶은 경우에, 해당 각 음명으로부터 다소 어긋나 있는 경우일지라도, 각 음명에서 어긋나 있고, 또한 그것이 전체로서 어긋나 있으면, 상대 음계로서 보면, 실제로 발음된 음과 소망의 조합 음계를 동일의 것으로서 처리할 수 있다.
음명 이외의 다른 주파수 음의 조합으로 하는 경우, 각 음의 주파수 구분을 음명으로 구성시키는 경우보다 더욱 미세하게 구분할 수 있다.
예컨대, 다음과 같이, 상대 음계에 의해 커맨드를 특정할 수 있다.
먼저, 입력된 음성의 조합으로부터 상대 음계를 검출한다. 그리고, 검출한 상대 음계에 대응하는 커맨드를 특정한다. 예컨대, 도 14에 도시한 바와 같이, 상대 음계 데이터(1 내지 6)와 커맨드에 대응되는 번호(1 내지 6)가 세트된 테이블, 데이터 베이스 또는 파일에 의해, 검출된 상대 음계로부터 각 커맨드에 대응되는 번호를 선택한다.
로봇 장치(A)를 제어하는 경우이면 상대 음계 데이터에 기초하여 번호(1 내지 3) 중 어느 하나가 선택되고, 로봇 장치(B)를 제어하는 경우이면 상대 음계 데이터에 기초하여 번호(4 내지 6) 중 어느 하나가 선택된다.
그리고, 선택된 번호로부터 도 10을 참조하여 설명한 바와 같이 커맨드를 검색하여 특정한다.
이로써, 소망의 음명으로부터 어긋나 있는 경우라도, 로봇 장치는 조합 음명을 파악할 수 있어 소망의 제어가 이루어지게 된다.
도 15 내지 도 22는 이들 로봇 시스템의 보다 구체적인 예를 도시하고 있다.
도 15는, 로봇 제어 장치(1)의 구체적인 예를 도시하고 있다. 로봇 제어 장치(1)는, 도 15(a) 및 (b)에 도시한 바와 같이, 정면에 음명이나 동작 커맨드 등이 대응되는 각 버튼(51)이 설치되고, 측면에 슬라이드 버튼(52)이 설치되어 있다. 예컨대, 로봇 제어 장치(1)는 도 15(a)에 도시한 바와 같이, 버튼의 조작 내용에 의해 발광하는 발광부(53)를 설치하고 있다. 발광부(53)는 예컨대, 복수의 LED로 구성되어 있다. 또한, 로봇 제어 장치(1)는 그 배면에 스피커(34)를 설치하고 있다.
그리고, 도 16(a)는, 이러한 로봇 제어 장치(1)의 각 버튼(51)에 대응되는 기능을 도시하고 있다. 예컨대, 각 버튼「1」, 「2」등은, A, A#등의 음명이 대응 부가되고, 각 버튼 「1」,「2」 등은 대전 모드에서의 「좌측 다리 킥(kick Left)」, 「전진(Move Forwrard)」등의 동작 명령이 대응 부가되어 있다. 또한, 도 16(b)는, 로봇 제어 장치(1)의 측면부에 설치된 슬라이드 버튼(52)에 대응되는 기능을 도시하고 있다.
또한, 도 17은 로봇 시스템의 동작 개요를 도시하고 있다. 커맨드 시퀀스 발생 장치의 내용과 그 장점은 상기 도 17에 도시된다.
또한, 도 18은 로봇 제어 장치의 처리 내용의 구체적인 예를 도시하고 있다. 도면에서, 우측에는 처리 공정의 내용을 도시하고, 좌측에 그 처리 공정에 대응한 발광부의 발광 상태를 도시하고 있다.
또한, 도 19(a)는 로봇 제어 장치(1)의 구체적인 회로 구성을 도시하고 있고, 도 19(b)는 각 구성 부분의 처리 내용을 도시하고 있다. 또한, 도 20은 CPU의 특성 등을 도시한 도면이다.
또한, 로봇 제어 장치(1)는 로봇 장치의 각 모드를 실행 가능하게 하도록 구성되어 있지만, 도 21(a)에는 각 모드에의 천이를 도시하고 있다. 도 21(b)는 각 모드 등에 대해 구체적으로 설명하고 있다.
또한, 로봇 장치(2A, 2B)를 제어하기 위한 로봇 제어 장치는 상술한 예에 한정되는 것이 아니다.
예컨대, 신호가 입력되는 입력 수단과, 입력 수단에 입력된 입력 신호를 대응되는 상기 조합 음성으로 변환하는 변환 수단과, 변환 수단이 변환한 조합 음성을 출력하는 음성 출력 수단으로 구성하는 것도 가능하다.
입력 수단은 유선 또는 무선에 의해 신호가 입력되는 부분이다. 예컨대, 휴대 전화로부터의 신호가 입력되고, 이것을 검출한다.
변환 수단은 그와 같이 유선 또는 무선에 의해 입력 수단에 입력된 입력 신호를 대응되는 조합 음명으로 변환한다. 예컨대, 테이블을 사용하여, 입력 신호를대응되는 조합 음성으로 변환한다.
음성 출력 수단은 예컨대 스피커이고 변환 수단에 의해 변환된 조합 음명을 출력한다.
예컨대, 이러한 로봇 제어 장치의 구성은 소위 핸드폰에 상술한 변환 수단을 구비하는 것으로 실현할 수 있다.
로봇 제어 장치를 이와 같이 구성함으로써, 예컨대, 로봇 장치의 옆에 있지 않아도, 휴대 전화로부터의 신호에 의해 로봇 장치를 원격 조작할 수 있게 되어, 보다 오락성을 높여 로봇 장치(2A, 2B)를 제어할 수 있게 된다.
또한, 상술한 일련의 처리는, 하드웨어에 의해 실행시키는 것도 가능하지만, 소프트웨어에 의해 실행시킬 수도 있다. 일련의 처리를 소프트웨어에 의해 실행시키는 경우에는, 그 소프트웨어를 구성하는 프로그램이 전용의 하드웨어로서의 로봇 제어 장치 또는 로봇 장치에 조립되어 있는 컴퓨터, 또는 각종의 프로그램을 인스톨함으로써 각종 기능을 실행하는 것이 가능한, 예컨대 범용의 퍼스널 컴퓨터 등에 인스톨된다.
다음에, 도 22를 참조하여, 상술한 일련의 처리를 실행하는 프로그램을 컴퓨터에 인스톨하고, 컴퓨터에 의해 실행 가능한 상태로 하기 위해서 사용되는 매체에 대하여 컴퓨터가 범용의 퍼스널 컴퓨터인 경우를 예로서 설명한다.
프로그램은 도 22(a)에 도시한 바와 같이, 컴퓨터(301)에 내장되어 있는 기록 매체로서의 하드디스크(302)나 반도체 메모리(303)에 미리 인스톨한 상태로 유저에게 제공할 수 있다.
또는, 프로그램은 도 22(b)에 도시한 바와 같이, 플로피 디스크(311), CD-R0M(Compact Disk-Read 0nly Memory)(312), MO(Magneto-0ptical) 디스크(313), DVD(Digita1 Versatile Disk)(314), 자기 디스크(315), 반도체 메모리(316) 등의 기록 매체에 일시적 또는 영속적으로 격납하여 패키지 소프트웨어로서 제공할 수 있다.
또한, 프로그램은 도 21에 도시한 바와 같이, 다운로드 사이트(321)로부터 디지털 위성 방송용 인공 위성(322)을 통해, 컴퓨터(323)에 무선으로 전송하거나, 로컬 에어리어 네트워크, 인터넷과 같은 네트워크(331)를 통해 컴퓨터(323)에 유선으로 전송하고, 컴퓨터(323)에서 내장 하드 디스크 등에 격납할 수 있다.
본 명세서에서 매체란 이들 모든 매체를 포함하는 광의의 개념을의미한다.
또한, 본 명세서에서, 매체에 의해 제공되는 프로그램을 기술하는 스텝은, 기재된 순서에 따라 시계열적으로 행해지는 처리는 물론, 반드시 시계열적으로 처리되지 않더라도 병렬적 또는 개별적으로 실행되는 처리도 포함한다.
또한, 본 명세서에서 시스템이란 복수의 장치에 의해 구성되는 장치 전체를 나타낸다.

Claims (16)

  1. 복수의 제어 대상을 제어하는 제어 장치에 있어서,
    복수의 상기 제어 대상 중에서 소정의 제어 대상을 선택하는 선택 수단과,
    상기 제어 대상을 제어하기 위해, 주파수가 상이한 복수의 음성 조합을 입력하는 입력 수단과,
    복수의 상기 제어 대상에 대응하는 음고(音高) 정보를 기억하는 기억 수단과,
    상기 선택 수단에 의해 선택된 상기 제어 대상에 대응하는 음고의, 상기 입력 수단에 의해 입력된 조합의 음성을 발생하는 발생 수단을 구비한 것을 특징으로 하는 제어 장치.
  2. 제 1 항에 있어서,
    상기 제어 대상은 로봇 장치인 것을 특징으로 하는 제어 장치.
  3. 제 1 항에 있어서,
    상기 음성의 조합은 1 옥타브 내의 소정의 음명의 음의 조합인 것을 특징으로 제어 장치.
  4. 제 1 항에 있어서,
    상기 발생 수단은 시계열로서 조합의 음성을 발생시키는 것을 특징으로 하는 제어 장치.
  5. 제 1 항에 있어서,
    상기 발생 수단은 동시에 조합의 음성을 발생하여 화음을 발생시키는 것을 특징으로 하는 제어 장치.
  6. 제 5 항에 있어서,
    상기 발생 수단은, 시계열 조합의 상기 화음을 발생시키는 것을 특징으로 하는 제어 장치.
  7. 복수의 제어 대상을 제어하는 제어 장치의 제어 방법에 있어서,
    복수의 상기 제어 대상 중에서 소정의 제어 대상을 선택하는 선택 단계와,
    상기 제어 대상을 제어하기 위한, 주파수가 상이한 복수의 음성 조합을 입력하는 입력 단계와,
    복수의 상기 제어 대상에 대응하는 음고 정보를 기억하는 기억 단계와,
    상기 선택 단계의 처리에 의해 선택된 상기 제어 대상에 대응하는 음고의, 상기 입력 단계의 처리에 의해 입력된 조합의 음성을 발생하는 발생 단계를 가진 것을 특징으로 하는 제어 방법.
  8. 복수의 제어 대상을 제어하는 프로그램으로서,
    복수의 상기 제어 대상 중에서 소정의 제어 대상을 선택하는 선택 단계와,
    상기 제어 대상을 제어하기 위한, 주파수가 상이한 복수의 음성 조합을 입력하는 입력 단계와,
    복수의 상기 제어 대상에 대응하는 음고 정보를 기억하는 기억 단계와,
    상기 선택 단계의 처리에 의해 선택된 상기 제어 대상에 대응하는 음고의, 상기 입력 단계의 처리에 의해 입력된 조합의 음성을 발생하는 발생 단계를 가진 것을 특징으로 하는 프로그램을 컴퓨터로 실행시키는 매체.
  9. 음성을 검출하는 음성 검출 수단과,
    상기 음성 검출 수단에 의해 검출된 상기 음성의 음고를 검출하는 음고 검출 수단과,
    상기 음성 검출 수단에 의해 검출된 상기 음성 중 주파수가 상이한 복수의 음성 조합을 검출하는 조합 검출 수단과,
    상기 음고 검출 수단 및 상기 조합 검출 수단의 검출 결과에 대응하는 커맨드를 결정하는 결정 수단과,
    상기 결정 수단에 의해 결정된 상기 커맨드에 대응하는 처리를 실행하는 실행 수단을 구비한 것을 특징으로 하는 정보 처리 장치.
  10. 제 9 항에 있어서,
    상기 정보 처리 장치는 로봇 장치인 것을 특징으로 하는 정보 처리 장치.
  11. 제 9 항에 있어서,
    상기 음성의 조합은 1 옥타브 내의 소정의 음명의 음의 조합인 것을 특징으로 하는 정보 처리 장치.
  12. 제 9 항에 있어서,
    상기 조합 검출 수단은 주파수가 상이한 복수의 음성의 상대 음계를 검출하고,
    상기 결정 수단은 상기 음고 검출 수단의 검출 결과와 상기 조합 검출 수단의 검출 결과인 상기 상대 음계를 참조하여, 대응하는 커맨드를 결정하는 것을 특징으로 하는 정보 처리 장치.
  13. 음성을 검출하는 음성 검출 단계와,
    상기 음성 검출 단계의 처리에 의해 검출된 상기 음성의 음고를 검출하는 음고 검출 단계와,
    상기 음성 검출 단계의 처리에 의해 검출된 상기 음성 중 주파수가 상이한 복수의 음성 조합을 검출하는 조합 검출 단계와,
    상기 음고 검출 단계 및 상기 조합 검출 단계에서의 검출 결과에 대응하는 커맨드를 결정하는 결정 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 커맨드에 대응하는 처리를 실행하는 실행 단계를 가진 것을 특징으로 하는 정보 처리 방법.
  14. 음성을 검출하는 음성 검출 단계와,
    상기 음성 검출 단계의 처리에 의해 검출된 상기 음성의 음고를 검출하는 음고 검출 단계와,
    상기 음성 검출 단계의 처리에 의해 검출된 상기 음성 중 주파수가 상이한 복수의 음성 조합을 검출하는 조합 검출 단계와,
    상기 음고 검출 단계 및 상기 조합 검출 단계에서의 검출 결과에 대응하는 커맨드를 결정하는 결정 단계와,
    상기 결정 단계의 처리에 의해 결정된 상기 커맨드에 대응하는 처리를 실행하는 실행 단계를 가진 것을 특징으로 하는 프로그램을 컴퓨터로 실행시키는 매체.
  15. 조합 음성에 기초하여 제어되는 제어 대상을 제어하는 제어 장치로서,
    신호가 입력되는 입력 수단과,
    입력 수단에 입력된 입력 신호를 대응되는 상기 조합 음성으로 변환하는 변환 수단과,
    상기 변환 수단이 변환한 조합 음성을 출력하는 음성 출력 수단을 구비한 것을 특징으로 하는 제어 장치.
  16. 제 15 항에 있어서,
    상기 제어 대상은 로봇 장치인 것을 특징으로 하는 제어 장치.
KR1020017000340A 1999-05-10 2000-05-10 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체 KR20010071805A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP99-128457 1999-05-10
JP12845799 1999-05-10
PCT/JP2000/002982 WO2000068932A1 (fr) 1999-05-10 2000-05-10 Procede et dispositif de commande, procede et dispositif de traitement d'informations et support

Publications (1)

Publication Number Publication Date
KR20010071805A true KR20010071805A (ko) 2001-07-31

Family

ID=14985190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020017000340A KR20010071805A (ko) 1999-05-10 2000-05-10 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체

Country Status (5)

Country Link
US (1) US6490503B1 (ko)
EP (1) EP1098296A1 (ko)
KR (1) KR20010071805A (ko)
CN (1) CN1304525A (ko)
WO (1) WO2000068932A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
KR20020067696A (ko) * 2000-10-11 2002-08-23 소니 가부시끼 가이샤 로봇 장치와 정보 표시 시스템 및 정보 표시 방법
JP5965835B2 (ja) * 2009-04-17 2016-08-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. アンビエント通信システム、当該システム用の動作デバイス、作動方法、及び計算機で読み取り可能な媒体
CN102681543A (zh) * 2012-04-18 2012-09-19 艾利和电子科技(中国)有限公司 智能机器人的远程控制系统
JP6992957B2 (ja) * 2015-10-21 2022-01-13 国立大学法人大阪大学 エージェント対話システム
JP7226928B2 (ja) * 2018-05-31 2023-02-21 株式会社トプコン 測量装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN85107539B (zh) 1984-10-18 1988-12-14 何颉勋 电脑通讯系统
US5163001A (en) * 1989-02-17 1992-11-10 Luke Jr Walter Interactive display for use on an automatic guided vehicle
US5285380A (en) * 1991-08-07 1994-02-08 Hughes Aircraft Company System and method for processing commands from a plurality of control sources
JPH0797277A (ja) 1993-08-02 1995-04-11 Kyocera Corp 酸化物超電導体の接合方法
USRE37654E1 (en) * 1996-01-22 2002-04-16 Nicholas Longo Gesture synthesizer for electronic sound device
IL120857A (en) * 1997-05-19 2003-03-12 Creator Ltd Programmable assembly toy
IL121642A0 (en) * 1997-08-27 1998-02-08 Creator Ltd Interactive talking toy

Also Published As

Publication number Publication date
EP1098296A1 (en) 2001-05-09
WO2000068932A1 (fr) 2000-11-16
US6490503B1 (en) 2002-12-03
CN1304525A (zh) 2001-07-18

Similar Documents

Publication Publication Date Title
JP4247626B2 (ja) 再生装置および再生方法
US7750223B2 (en) Musical interaction assisting apparatus
KR100906136B1 (ko) 정보 처리용 로봇
TWI470473B (zh) 電子娛樂系統中之相關姿勢反饋
US7241947B2 (en) Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus
US20060184369A1 (en) Voice activated instruction manual
JP2004287099A (ja) 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置
JP2003271173A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
US20140249673A1 (en) Robot for generating body motion corresponding to sound signal
US7173178B2 (en) Singing voice synthesizing method and apparatus, program, recording medium and robot apparatus
US20220238089A1 (en) Performance analysis method and performance analysis device
CN114067768A (zh) 播放控制方法及播放控制系统
KR20010071805A (ko) 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체
WO1999032203A1 (en) A standalone interactive toy
US10592204B2 (en) User interface device and method, and sound-enabled operation system
JPH04311222A (ja) 電子ドキュメントを音声処理するポータブル・コンピュータ装置
JP2003271172A (ja) 音声合成方法、音声合成装置、プログラム及び記録媒体、並びにロボット装置
JP2008125741A (ja) ロボット装置制御システム、ロボット装置及びロボット装置制御方法
KR101715381B1 (ko) 전자장치 및 그 제어방법
KR20010039090A (ko) 인터렉티브 토이
JP2001043126A (ja) ロボットシステム
Bhutada Universal Event and Motion Editor for Robots' Theatre
Doherty et al. A control centred approach to designing interaction with novel devices.
JP2004341293A (ja) 音声を文字データに変換する装置と方法とそのためのプログラムと対話装置
JP2006268332A (ja) 対話情報処理装置及び対話情報処理方法

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid