WO2000068932A1 - Procede et dispositif de commande, procede et dispositif de traitement d'informations et support - Google Patents

Procede et dispositif de commande, procede et dispositif de traitement d'informations et support Download PDF

Info

Publication number
WO2000068932A1
WO2000068932A1 PCT/JP2000/002982 JP0002982W WO0068932A1 WO 2000068932 A1 WO2000068932 A1 WO 2000068932A1 JP 0002982 W JP0002982 W JP 0002982W WO 0068932 A1 WO0068932 A1 WO 0068932A1
Authority
WO
WIPO (PCT)
Prior art keywords
combination
voice
pitch
input
detecting
Prior art date
Application number
PCT/JP2000/002982
Other languages
English (en)
French (fr)
Inventor
Rika Hasegawa
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to KR1020017000340A priority Critical patent/KR20010071805A/ko
Priority to EP00925593A priority patent/EP1098296A1/en
Priority to US09/743,368 priority patent/US6490503B1/en
Publication of WO2000068932A1 publication Critical patent/WO2000068932A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/003Controls for manipulators by means of an audio-responsive input
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S706/00Data processing: artificial intelligence
    • Y10S706/902Application using ai with detail of the ai system
    • Y10S706/903Control
    • Y10S706/909Communication

Definitions

  • the present invention has been made in view of such a situation, and it is an object of the present invention to be able to control a plurality of robot devices simply and reliably.
  • the control device includes: Selection means for selecting a predetermined control target; input means for inputting a combination of a plurality of voices having different frequencies for controlling the control target; and storage means for storing pitch information corresponding to a plurality of control targets. And generating means for generating a voice of a combination corresponding to the pitch selected by the selecting means and inputted by the input means.
  • the control target can be a robot device.
  • the combination of voices can be a combination of sounds having a predetermined note name within one octave.
  • control method includes a selecting step of selecting a predetermined control target from a plurality of control targets, and an input step of inputting a combination of a plurality of voices having different frequencies for controlling the control target. And a storage step of storing pitch information corresponding to a plurality of control targets, and a voice of a combination of pitches corresponding to the control targets selected by the selection step processing input by the input step processing. And the occurrence steps that occur.
  • the medium according to the present invention includes a selection step of selecting a predetermined control target from a plurality of control targets, and an input for inputting a combination of a plurality of sounds having different frequencies for controlling the control target.
  • a step a storage step of storing pitch information corresponding to a plurality of control targets, and a voice of a combination of pitches corresponding to the control target selected by the selection step input by the input step processing.
  • the information processing apparatus comprises a voice detection means for detecting voice, and a pitch detection means for detecting a pitch of the voice detected by the voice detection means.
  • Output means combination detection means for detecting a combination of a plurality of sounds having different frequencies from among the sounds detected by the sound detection means, and a command corresponding to the detection result of the combination detection means such as the pitch detection means.
  • Determining means for executing a command corresponding to the command determined by the determining means.
  • the information processing device can be a robot device.
  • the combination of voices can be a combination of sounds of a predetermined pitch name within one word.
  • the information processing method includes a voice detection step for detecting voice, a pitch detection step for detecting a pitch of voice detected by the voice detection step, and a voice detection step for detecting voice by the voice detection step.
  • an execution step for executing a process corresponding to the command determined by the process of the step.
  • the medium according to the present invention includes a voice detection step of detecting voice, a pitch detection step of detecting a pitch of voice detected by the voice detection step, and a voice detected by the voice detection step.
  • a combination detection step of detecting a combination of a plurality of voices having different frequencies, a determination step of determining a command corresponding to a detection result in the pitch detection step and the combination detection step, and a processing of the YA fixed step And an execution step of executing a process corresponding to the command determined by the program.
  • the control device is a control device that controls a control target that is controlled based on a combination sound, and the input device that receives a signal and the input signal that is input to the input device correspond to each other. Conversion means for converting the combined sound into a combined sound, and sound output means for outputting the combined sound converted by the conversion means.
  • the control target can be a robot device.
  • This control device detects a signal from a mobile phone or the like by an input means, converts the detected signal into a corresponding combined voice, and outputs the corresponding signal to a robot device which can be controlled by the combined voice by a voice output means. Output.
  • FIG. 1 is a block diagram showing a configuration example of a robot system to which the present invention is applied.
  • c Figure 3 is a diagram showing an example of the external configuration of the robot apparatus 2 A of FIG. 1 is a plot click diagram showing an internal configuration example of a robot control device 1 of FIG. 1.
  • FIG. 4A and 4B are diagrams showing a configuration example of the input unit 31 in FIG. 3 c
  • FIG. 5 illustrates a scale for controlling the robot device 2A and the robot device 2B FIG.
  • FIG. 6 is a block diagram showing an example of the internal configuration of the robot device 2A in FIG.
  • FIG. 7 is a flowchart illustrating the operation of the robot control device 1 in FIG.
  • FIG. 8 is a diagram illustrating the operation of the robot device and combinations of pitch names.
  • FIG. 9 is a flowchart illustrating the operation of the robot apparatus 2A of FIG.
  • FIG. 10 is a diagram showing an example of a td.cfg file.
  • FIG. 11 is a diagram showing an example of the sdata.cfg file.
  • FIG. 12A and FIG. 12B are diagrams showing pitch names of the same combination when viewed as relative scales.
  • FIGS. 13A to 13C are diagrams showing other examples of note names of a combination considered to be the same when viewed as a relative scale.
  • FIGS. 15A to 15C are a front view, a side view, and a rear view illustrating a specific example of the robot control device.
  • FIG. 16A and FIG. 16B are diagrams showing contents corresponding to each button of the robot control device.
  • FIG. 17 is a diagram illustrating a specific example of a robot system.
  • FIG. 18 is a diagram illustrating a specific example of the processing content of the robot control device.
  • FIG. 2OA and FIG. 20B are diagrams showing characteristics and the like of CPU.
  • FIG. 1 shows a configuration example of a robot system to which the present invention is applied.
  • the robot control device 1 is configured to control a plurality of (two in this example) robot devices 2A and 2B by voice.
  • FIG. 2 shows the external shape of the robot device 2A.
  • the robot device 2A is fixed by a front left and right leg 11-1, 11-2 and a rear left and right leg 12-1-1, 12-2. It can be moved in the direction of. In addition, it is configured so that emotion can be expressed by waving the tail 13.
  • the display unit 14 has a built-in LED or the like therein so that the internal state of the robot device 2A can be displayed.
  • the robot device 2B has the same configuration as the robot device 2A.
  • the robot control device 1 is configured, for example, as shown in FIG.
  • the robot control device 1 is a remote controller that remotely controls the robot device 2A or the robot device 2B by sound output.
  • the robot control device 1 can be called a sound commander.
  • the input unit 31 is configured by a remote controller having various buttons and keys, and is operated by a user when controlling the robot devices 2A and 2B.
  • the input interface 32 interfaces with the input from the input unit 31 and outputs it to the CPU 35, DSP (Digital Signal Processor) Takes in audio data input from 38 and performs processing to output it to D / A converter 33.Audio signal output from D / A converter 33 is output from speaker 34. Is done.
  • DSP Digital Signal Processor
  • the input unit 31 is configured, for example, as shown in FIGS. 4A and 4B.
  • buttons 51 corresponding to a total of 1 to 2 types of note names: A, AB, F # , G, G, ⁇ *, E, F, C, C *, and D.
  • a slide button 52 is provided on a side surface of the input unit 31. The slide button 52 is switched (positioned) to the left (character A side) in the figure when controlling the robot device 2A, and to the right (character B side) when controlling the robot device 2B. Can be switched (positioned).
  • the DSP 38 When the slide button 52 is switched to the character A side, the DSP 38 responds to the operation of the button 51 by selecting one of two types of low pitches C and B shown on the left side of FIG. Generates audio data corresponding to each note name. Also, when the slide button 52 is switched to the letter B side, the DSP 38 outputs the sound data of the 12 pitch names C to B of higher pitches shown on the right side of FIG. appear.
  • FIG. 6 shows an example of the internal configuration of the robot device 2A.
  • Microphone Mouthphone 6 1 is the sound output from speaker 34 of robot controller 1. And output it to the A / D converter 62.
  • the A / D converter 62 converts the input audio signal from an analog signal to a digital signal and outputs it to the input interface 63.
  • the input / output interface 63 outputs the audio data input from the A / D converter 62 to the DSP 68.
  • the input interface 63 drives the motor 64 in response to a control signal from the CPU 65, and drives the legs 11-1 to 12-2 and the tail 13 of the robot device 2A. I do.
  • the input interface —the face 63 causes the display unit 14 to perform a predetermined display in response to the control from the CPU 65.
  • the CPU 65 executes various processes according to a program stored in the ROM 66.
  • the RAM 67 appropriately stores programs and data required for the CPU 65 to execute various processes.
  • the DSP 68 analyzes the pitch and pitch of the audio data captured by the microphone 61, generates a command corresponding to the analysis result, and transfers the command to the CPU 65.
  • the CPU 65 interprets this command, and controls the monitor 64 or the display unit 14 via the input input / output interface 63, as described above, in accordance with the result of the interpretation. I do.
  • the internal configuration of the robot device 2B is configured in the same manner as the robot device 2A.
  • step S1 the user performs an operation of selecting a mouth-bot device to be controlled. That is, when controlling the robot device 2A, the user switches the slide button 52A of the input unit 31 to the character A side, and when controlling the robot device 2B, switches to the character B side.
  • step S2 the user 2 Input the combination of notes with the note names corresponding to the commands to be executed by A and 2B by operating the buttons 51 of the input unit 31.
  • buttons 51, D, E and G # when moving the robot devices 2A and 2B forward, the user operates each of the buttons 51, D, E and G # .
  • the buttons 51 of the pitch names A, B and C are operated.
  • the buttons 51 of the note names D, A and F are operated.
  • the input unit 31 When the input unit 31 is operated, a signal corresponding to the operation is input to the CPU 35.
  • the CPU 35 When receiving a signal corresponding to this operation, the CPU 35 outputs a signal corresponding to the operation to the DSP 38 in step S3.
  • the DSP 38 determines whether or not the user is currently controlling the robot device 2A based on the signal from the CPU 35.
  • step S5 If the control target is the robot device 2A, the process proceeds to step S5, and the DSP 38 responds to the command from the CPU 35 and responds to the robot device 2A.
  • a pitch is set, and in step S7, voice data of a combination of a pitch name input from the CPU 35 and the set pitch is generated.
  • This audio data is supplied to an input interface 32, where it is converted from a digital signal into an analog signal by a 1 / converter 33 and output from a speaker 34.
  • step S4 determines whether the control target is the robot device A (if it is determined that the mouth port device B)
  • the process proceeds to step S6, in which the DSP 38 controls the robot device.
  • step S7 voice data of a combination of sounds of the input pitch name is generated at the set pitch.
  • the audio data is also output from the speaker 34 via the D / A converter 32 from the input interface 32 as in the case described above.
  • the robot apparatus 2A is controlled, the sound composed of an arbitrary combination of the two note names in one octave shown on the left side of FIG.
  • the robot device 2B is selected as a control target
  • audio data of an arbitrary combination of note names within one octave shown on the right side in FIG. 5 is output from the speaker 34. .
  • step S21 the robot device 2A determines whether a voice signal has been received, and if not, returns to step S21 and waits until a voice signal is received. That is, when the microphone 61 captures the audio signal, it outputs it to the A7D converter 62.
  • the A / D converter 62 converts the audio signal input from the microphone 61 into a digital signal, and outputs the digital signal to the CPU 65 via the input interface 63.
  • the CPU 65 receives the audio data, it transfers this to the DSP 68.
  • the DSP 68 When the audio data is input, the DSP 68 performs a correction process in step S22. That is, if there is a fluctuation in the pitch of the input audio signal, a process of correcting this is executed. Then, in step S23, the DSP 68 detects the pitch of the received voice. Further, in step S24, the DSP 68 detects a combination of pitch names of the received voice. In step S25, the DSP 68 stores in advance in the ROM 66 the number of the pitch detected in step S23, which corresponds to the combination of the pitch names detected in step S24. Search from the td.cfg file. As shown in FIG. 10, the td.cfg file stores combinations of pitches and pitch names.
  • the combinations of pitch names indicated by numbers 1 to 3 are for the robot device 2A, and the combinations of pitch names indicated by numbers 4 to 6 are for the robot device 2B. It is. Here, the pitches of the corresponding pitch names of the robot device A and the robot device B are different.
  • the CPU 65 of the robot device 2A fetches only the pitch data indicated by the numbers 1 to 3 in FIG. 10, and the CPU 65 of the robot device 2B receives the pitch data indicated by the numbers 4 to 6. Import only the data of As a result, the pitch detected in step S23 is the pitch of robot device 2A, and the combination of pitch names detected in step S24 is the combination of pitch names corresponding to the command.
  • the DSP 68 of the robot device 2A will detect any one of the numbers 1 to 3 from the td.cfg file. On the other hand, if the received audio signal is for controlling the robotic device 2B or is just noise, the DPS 68 will use the number 1 from the td.cfg file. No. 3 cannot be detected. In this case, the process returns to step S21, and the subsequent processes are repeatedly executed.
  • the CPU 65 of the robot device 2B takes in only the pitch data indicated by the numbers 4 to 6 in FIG. Therefore, the DSP 68 of the robot device 2B determines that the pitch detected in step S23 is the pitch for the robot device 2B and the pitch detected in step S24. If the name combination is a combination of note names stored in the td.cfg file, any one of the numbers 4 to 6 can be detected.
  • the DSP 68 is numbered 4 to Neither of the numbers 6 can be detected. In this case, the process returns to step S21, and the subsequent processes are repeatedly executed.
  • the command corresponding to the number 6 is the command SCMD-B ACKWARD for moving the robot backward.
  • the DSP 68 outputs the command retrieved from the sdata.cfg file to the CPU 65.
  • the CPU 65 interprets the command stored from the DSP 68 and sets an internal state corresponding to the interpreted result in step S29.
  • the CPU 65 controls the motor 64 via the input interface 63 to move the robot device 2A forward.
  • the CPU 65 moves the robot device 2A backward.
  • the CPU 65 stops the robot device 2A.
  • the CPU 65 controls the motor 64 so as to vibrate the tail 13 to indicate joy.
  • the CPU 65 controls the motor 64 so that the tail 13 hangs down in order to express discouragement.
  • step S30 the DSP 68 determines whether or not the end of the process has been instructed. If the end has not been instructed, the process returns to step S21, and the subsequent processes are repeatedly executed. If it is determined in step S30 that termination has been instructed, the processing of the robot device is terminated.
  • the combination of sounds is a combination of note names as basic sounds of music. it can.
  • note names multiple note names
  • the control of the robot device 2A may be controlled by a combination of note names corresponding to black keys
  • the control of the robot device 2B may be controlled by a combination of note names corresponding to white keys. Good.
  • the absolute scale can be used as a reference, or the relative scale can be used as a reference.
  • the combination of note names of C, D, and E is a combination of note names different from the combination of C *, D # , and F.
  • the relative scale are combinations of the same note names.
  • combinations of note names such as D, E, and G * of No. 1 and No. 4 shown in FIG. 10 are D * 3 F, A and E as shown in FIG. 12A.
  • F, A *, etc. can be treated as the same combination of note names.
  • combinations of note names such as D, A, and F of numbers 3 and 6 shown in FIG. 10 are represented by D *, F # , A * as shown in FIG. 12B. It can be treated as the same as the combination of pitch names such as E, G, B, etc.
  • each note name of the combination is different when viewed as an absolute scale, it can be grasped as the same by viewing the combined note name as a relative scale.
  • the frequency division of each sound can be further finely divided as compared to the case where the note name is composed of note names.
  • the command can be specified by relative scale as follows.
  • a relative scale is detected from a combination of inputted voices. Then, the command corresponding to the detected relative scale is specified. For example, as shown in FIG. 14, the relative scale data 1 to relative scale data 6 and the numbers 1 to 6 corresponding to the command are detected by a table, database, or file in which the numbers 1 to 6 are set. Select the number corresponding to each command from the relative scale.
  • one of the numbers 1 to 3 is selected based on the relative scale data, and the robot B is controlled. If so, one of the numbers 4 to 6 is selected based on the relative scale data.
  • the command is searched for and specified from the selected number.
  • the robot device can recognize the combined pitch, and the desired control can be performed.
  • FIG. 15 to FIG. 22 show more specific examples of these robot systems.
  • FIG. 15 shows a specific example of the robot control device 1.
  • the robot control device 1 is provided with a button 51 corresponding to a pitch name, an operation command, and the like on a front face, and a slide board 52 on a side face. Is provided.
  • the robot control device 1 is provided with a light emitting section 53 that emits light in response to a button operation.
  • the light emitting section 53 is composed of, for example, a plurality of LEDs.
  • the robot control device 1 is provided with a speed 34 on the back thereof.
  • the robot control device 1 is configured to be able to execute each mode of the robot device.
  • FIG. 21A shows a transition to each mode.
  • FIG. 21B specifically describes each mode and the like.
  • robot control device for controlling the robot devices 2A and 2B is not limited to the above-described example.
  • input means for inputting a signal
  • conversion means for converting the input signal input to the input means into the corresponding combined sound
  • sound output means for outputting the combined sound converted by the conversion means. It can also be configured.
  • the input means is a portion to which a signal is input by wire or wirelessly. For example, a signal from a mobile phone is input and detected.
  • the audio output means is, for example, a speaker, and is converted by the conversion means. Output the combined note name.
  • the program may include a floppy disk 3 11, a CD-ROM (Compact Disk-Read Only Disk) 3 12 Temporarily or permanently stored on recording media such as MO (Magneto-Optical) disk 3 13, DVD (Digital Versatile Disk) 3 14, magnetic disk 3 15, semiconductor memory 3 16 It can be provided as packaged software.
  • a floppy disk 3 11 a CD-ROM (Compact Disk-Read Only Disk) 3 12 Temporarily or permanently stored on recording media such as MO (Magneto-Optical) disk 3 13, DVD (Digital Versatile Disk) 3 14, magnetic disk 3 15, semiconductor memory 3 16 It can be provided as packaged software.
  • the program can be wirelessly transferred from the download site 321, via digital satellite broadcasting satellites 322 to the convenience store 323,
  • the data is transferred to the computer 323 via a wired network such as a local area network or the Internet, and stored in a built-in hard disk at the computer 323. Can be done.
  • the medium in the present specification means a broad concept including all these media.
  • steps for describing a program provided by a medium are not only performed in a chronological order in the order described, but are not necessarily performed in a chronological order. Alternatively, it also includes processing executed individually.
  • system refers to an entire device including a plurality of devices.

Description

明細書 制御装置及びその方法、 情報処理装置及びその方法、 並びに媒体 技術分野
本発明は、 制御装置及びその方法、 情報処理装置及びその方法、 並びに媒体に関し、 特に複数のロボッ ト装置を、 簡単かつ確実に制 御することができるようにした、 制御装置及びその方法、 情報処理 装置及びその方法、 並びに媒体に関するものである。 背景技術
本出願人は、 例えば、 特開平 8— 3 3 5 0 9 1号公報として、 C : D , A . . . といった音名のうちの所定の音名の音を複数組み合わ せ、 その組み合わせ (和音) を 1つの単語、 或いはセンテンスとし て、 例えば、 ロボッ ト装置などを制御することを提案している。 先の提案においては、 ロボッ ト装置を音声により制御することが 可能であるが、 複数のロボッ ト装置が存在するような場合において、 このような先の提案を含めて、 それらを個々に制御することについ ての技術は未だ提供されていない。 発明の開示
本発明は、 このような状況に鑑みてなされたものであり、 簡単か つ確実に、 複数のロボッ ト装置を制御することができるようにする ものである。
具体的には、 本発明に係る制御装置は、 複数の制御対象の中から、 所定の制御対象を選択する選択手段と、 制御対象を制御するための、 周波数の異なる複数の音声の組み合わせを入力する入力手段と、 複 数の制御対象に対応する音高情報を記憶する記憶手段と、 選択手段 により選択された制御対象に対応する音高の、 入力手段により入力 された組み合わせの音声を発生する発生手段とを備える。 制御対象 は、 ロボッ ト装置とすることができる。 また、 音声の組み合わせは、 1オクターブ内の所定の音名の音の組み合わせとすることができる。 また、 本発明に係る制御方法は、 複数の制御対象の中から、 所定 の制御対象を選択する選択ステップと、 制御対象を制御するための、 周波数の異なる複数の音声の組み合わせを入力する入力ステップと、 複数の制御対象に対応する音高情報を記憶する記憶ステップと、 選 択ステップの処理により選択された制御対象に対応する音高の、 入 力ステップの処理により入力された組み合わせの音声を発生する発 生ステツプとを有する。
また、 本発明に係る媒体は、 複数の制御対象の中から、 所定の制 御対象を選択する選択ステップと、 制御対象を制御するための、 周 波数の異なる複数の音声の組み合わせを入力する入カステツプと、 複数の制御対象に対応する音高情報を記憶する記憶ステップと、 選 択ステップの処理により選択された制御対象に対応する音高の、 入 力ステップの処理により入力された組み合わせの音声を発生する発 生ステップとを有するプログラムが記録されている。
上述の制御装置、 制御方法、 及び媒体においては、 選択された制 御対象に対応する音高の、 入力された組み合わせの音が発生される。
また、 本発明に係る情報処理装置は、 音声を検出する音声検出手 段と、 音声検出手段により検出された音声の音高を検出する音高検 出手段と、 音声検出手段により検出された音声のうちの、 周波数の 異なる複数の音声の組み合わせを検出する組み合わせ検出手段と、 音高検出手段ど組み合わせ検出手段の検出結果に対応するコマンド- を決定する決定手段と、 決定手段により決定されたコマンドに対応 する処理を実行する実行手段とを備える。 情報処理装置は、 ロボッ ト装置とすることができる。 また、 音声の組み合わせは、 1ォク夕 —ブ内の所定の音名の音の組み合わせとすることができる。
また、 本発明に係る情報処理方法は、 音声を検出する音声検出ス テッブと、 音声検出ステツプの処理により検出された音声の音高を 検出する音高検出ステツプと、 音声検出ステツプの処理により検出 された音声のうちの、 周波数の異なる複数の音声の組み合わせを検 出する組み合わせ検出ステップと、 音高検出ステップと組み合わせ 検出ステツプでの検出結果に対応するコマンドを決定する決定ステ ップと、 決定ステツプの処理により決定されたコマンドに対応する 処理を実行する実行ステツプとを有する。
また、 本発明に係る媒体は、 音声を検出する音声検出ステップと、 音声検出ステツプの処理により検出された音声の音高を検出する音 高検出ステツブと、 音声検出ステツブの処理により検出された音声 のうちの、 周波数の異なる複数の音声の組み合わせを検出する組み 合わせ検出ステップと、 音高検出ステップと組み合わせ検出ステツ プでの検出結果に対応するコマンドを決定する決定ステップと、 泱 定ステツプの処理により決定されたコマンドに対応する処理を実行 する実行ステップとを有するプログラムが記録されている。
上述の情報処理装置、 情報処理方法、 及び媒体においては、 検出 された音高と音声の組み合わせに対応するコマンドが決定され、 決 定されたコマンドに対応する処理が実行される。
また、 本発明に係る制御装置は、 組み合わせ音声に基づいて制御 される制御対象を制御する制御装置であって、 信号が入力される入 力手段と、 入力手段に入力された入力信号を、 対応される組み合わ せ音声に変換する変換手段と、 変換手段が変換した組み合わせ音声 を出力する音声出力手段とを備える。 制御対象は、 ロボッ ト装置と することができる。
この制御装置は、 入力手段により携帯電話等からの信号を検出し て、 検出した信号を、 対応される組み合わせ音声に変換して、 音声 出力手段により、 組み合わせ音声により制御可能とされるロボット 装置に出力する。 図面の簡単な説明
図 1は、 本発明を適用したロボッ トシステムの構成例を示すプロ ック図である。
図 2は、 図 1のロボッ ト装置 2 Aの外観の構成例を示す図である c 図 3は、 図 1のロボッ ト制御装置 1の内部の構成例を示すプロッ ク図である。
図 4 A及び図 4 Bは、 図 3の入力部 3 1の構成例を示す図である c 図 5は、 ロボッ ト装置 2 Aとロボッ ト装置 2 Bの制御のための音 階を説明する図である。
図 6は、 図 1のロボッ ト装置 2 Aの内部の構成例を示すプロック 図である。
図 7は、 図 3のロボッ ト制御装置 1の動作を説明するフローチヤ ートである。 図 8は、 ロボッ ト装置の動作と、 音名の組み合わせを説明する図 である。
図 9は、 図 6のロボッ ト装置 2 Aの動作を説明するフローチヤ一 トである。
図 1 0は、 td. cfgファイルの例を示す図である。
図 1 1は、 sdata. cfgファイルの例を示す図である。
図 1 2 A及び図 1 2 Bは、 相対音階としてみた場合に、 同一のも のとされる組み合わせの音名を示す図である。
図 1 3 A乃至図 1 3 Cは、 相対音階としてみた場合に、 同一のも のとされる組み合わせの音名の他の例を示す図である。
図 1 4は、 相対音階データと各コマンドに対応される番号とのテ
—ブル或いはデ一夕ペースを説明するために使用した図である。 図 1 5 A乃至図 1 5 Cは、 ロボッ ト制御装置の具体例を説明する 正面図、 側面図及び背面図である。
図 1 6 A及び図 1 6 Bは、 ロボット制御装置の各ボタンと対応さ れる内容を示す図である。
図 1 7は、 ロボッ トシステムの具体例を説明する図である。 図 1 8は、 ロボヅ ト制御装置の処理内容の具体例を説明する図で ある。
図 1 9 A及び図 1 9 Bは、 ロボッ ト制御装置の具体的回路構成及 び構成各部の処理内容を示す図である。
図 2 O A及び図 2 0 Bは、 C P Uの特性等を示す図である。
図 2 1 A及び図 2 1 Bは、 ロボッ 卜制御装置の各モ一ド及びその 処理内容を示す図である。
図 2 2 A乃至図 2 2 Cは、 媒体を説明する図である。 発明を実施するための最良の形態
以下、 本発明の実施の最良の実施の形態について図面を用いて説 明する。
図 1は、 本発明を適応したロボヅ トシステムの構成例を表してい る。 この構成例においては、 ロボッ ト制御装置 1が、 複数 (この例 の場合 2台) のロボッ ト装置 2 A, 2 Bを音声により制御するよう に構成されている。
図 2はロボヅ ト装置 2 Aの外観の形状を表している。 この図に示 すように、 ロボッ ト装置 2 Aは、 前方の左右の脚部 1 1一 1, 1 1 一 2と、 後方の左右の脚部 1 2— 1 , 1 2— 2により、 所定の方向 に移動することができるようになされている。 また、 尻尾 1 3を振 ることで、 感情を表現することができるように構成されている。 表 示部 1 4には、 内部に L E Dなどが内蔵されており、 ロボッ ト装置 2 Aの内部の状態を表示することができるようになされている。 なお図示は省略するが、 ロボッ ト装置 2 Bも、 ロボッ ト装置 2 A と同様に構成されている。
ロボッ ト制御装置 1は、 例えば図 3に示すように構成されている。 ロボッ ト制御装置 1は、 音出力によりロボッ ト装置 2 A或いはロボ ッ ト装置 2 Bを遠隔操作するリモートコン トローラである。 例えば、 ロボッ ト制御装置 1は、 サウンドコマンダと呼ぶこともできる。 入力部 3 1は、 各種のボタンゃキ一を有するリモートコン トロー ラにより構成され、 ロボッ ト装置 2 A , 2 Bを制御するとき、 使用 者により操作される。 入力インターフヱ一ス 3 2は、 入力部 3 1か らの入力をィン夕一フェースして、 C P U 3 5に出力するとともに、 D S P (Digital Signal Processor) 3 8から入力された音声デー 夕を取り込み、 D/A変換器 3 3に出力する処理を行い、 D/A変 換器 33より出力された音声信号はスピーカ 34から出力される。
CPU 35は、 ROM (Read Only Memory) 36に記憶されてい るプログラムにしたがって、 各種の処理を実行する。 RAM (Rand om Access Memory) 3 7は、 C P U 3 5が各種の処理を実行する上 において必要なプログラムゃデ一夕を適宜記憶する。 D S P 3 8は、 使用者からの入力に対応する音声データを発生し、 入出力 I/F 3 2に出力する。
入力部 3 1は、 例えば、 図 4 A及び図 4 Bに示すように構成され る。 この例においては、 A, A B, F#, G, G , Ό*, E, F, C, C*, Dの合計 1 2種類の音名に対応するボタン 5 1を有してい る。 また、 入力部 3 1の側面には、 スライ ドボタン 52が設けられ ている。 このスライ ドボタン 5 2は、 ロボッ ト装置 2 Aを制御する とき、 図中左側 (文字 A側) に切り替えられ (位置され) 、 ロボッ ト装置 2 Bを制御するとき、 右側 (文字 B側) に切り替えられる (位置される) 。
D SP 38は、 スライ ドボタン 52が、 文字 A側に切り替えられ ているとき、 ポタン 5 1の操作に対応して、 図 5の左側に示す、 低 い音高の C乃至 Bの 1 2種類の各音名に対応する音声デ一夕を発生 する。 また、 スライ ドボ夕ン 5 2が、 文字 B側に切り替えられてい るとき、 D S P 38は、 図 5の右側に示す、 より高い音高の C乃至 Bの 1 2種類の音名の音声データを発生する。
図 6は、 ロボッ ト装置 2 Aの内部の構成例を表している。 マイク 口ホン 6 1は、 ロボッ 卜制御装置 1のスビーカ 34が出力した音声 を取り込み、 A/D変換器 6 2に出力する。 A/D変換器 6 2は入 力された音声信号を、 アナログ信号からデジタル信号に変換し、 入 力インターフェース 63に出力する。 入力イン夕一フェース 63は、 A/D変換器 6 2より入力された音声デ一夕を D S P 68に出力す る。 また、 入力インターフェース 63は CPU 65からの制御信号 に対応して、 モー夕 64を駆動し、 ロボッ ト装置 2 Aの脚部 1 1― 1乃至脚部 1 2— 2、 尻尾 1 3などを駆動する。 さらに入力イン夕 —フェース 63は、 CPU 6 5からの制御に対応して、 表示部 14 に所定の表示を行わせる。
CPU 6 5は、 ROM 66に記憶されているプログラムに従って、 各種の処理を実行する。 RAM 67には、 CPU 6 5が各種の処理 を実行する上において必要なプログラムゃデ一夕が適宜記憶される。 D S P 68は、 マイクロホン 6 1により取り込まれた音声デ一夕の 音高と音名を分析し、 分析した結果に対応するコマン ドを生成し、 CPU 6 5に転送する。 CPU 6 5は、 このコマン ドを解釈し、 そ の解釈した結果に対応して、 上述したように、 入力イン夕一フエ一 ス 6 3を介して、 モ一夕 64又は表示部 14を制御する。
なお、 図示は省略するが、 ロボッ ト装置 2 Bの内部の構成もロボ ッ ト装置 2 Aの場合と同様に構成されている。
次に図 7のフローチャートを参照して、 ロボッ ト制御装置 1の動 作について説明する。 ステップ S 1において使用者は、 制御する口 ボッ ト装置を選択する操作を行う。 すなわち、 ロボッ ト装置 2 Aを 制御するとき、 使用者は、 入力部 3 1のスライ ドボタン 5 2 Aを文 字 A側に切り替える、 ロボッ ト装置 2 Bを制御するとき、 文字 B側 に切り替える。 次にステップ S 2において、 使用者は、 ロボッ ト装 置 2 A, 2 Bに実行させたいコマンドに対応する音名の音の組み合 わせを、 入力部 3 1のボタン 5 1を操作して入力する。
例えば、 図 8に示すように、 ロボッ ト装置 2 A, 2 Bを前進させ るとき、 使用者はボタン 5 1のうち、 音名 D, E, G#の各ボタンを 操作する。 また、 ロボッ ト装置 2A, 2 Bを停止させるとき、 音名 A, B, Cのボタン 5 1が操作される。 さらに、 ロボッ ト装置 2 A, 2 Bを後退させるとき、 音名 D, A, Fのボタン 5 1が操作される。 入力部 3 1が操作されると、 その操作に対応する信号が C PU 3 5に入力される。 CPU 35は、 この操作に対応する信号の入力を 受けたとき、 ステップ S 3において、 その操作に対応する信号を D S P 38に出力する。 D S P 3 8は、 ステップ S 4において、 CP U 3 5からの信号に基づいて、 いま使用者が制御対象としているの が、 ロボッ ト装置 2 Aであるのか否かを判定する。 制御対象とされ ているのが、 ロボッ ト装置 2 Aである場合には、 ステップ S 5に進 み、 D S P 3 8は C PU 35からの指令に対応して、 ロボッ ト装置 2 Aに対応する音高を設定し、 さらにステップ S 7において、 その 設定された音高の、 CPU 3 5から入力された音名の音の組み合わ せの音声データを発生する。 この音声デ一夕は、 入力インタ一フエ —ス 32に供給され、 1 / 変換器33で、 デジタル信号からアナ ログ信号に変換され、 スピーカ 34から出力される。
一方、 ステップ S 4において、 制御対象がロボッ ト装置 Aではな いと判定された場合 (口ポッ ト装置 Bであると判定された場合) 、 ステップ S 6に進み、 D S P 3 8は、 ロボッ ト装置 Bに対応する音 高を設定する。 そしてステップ S 7において、 設定された音高で、 入力された音名の音の組み合わせの音声データが発生される。 この 音声デ一夕も、 上述した場合と同様に、 入力イン夕一フヱ一ス 3 2 から D /A変換器 3 2を介して、 スピーカ 3 4より出力される。 以上のようにして、 ロボッ ト装置 2 Aを制御する場合には図 5の 左側に示す 1オクターブ内の 1 2種類の音名のうちの任意の音名の 組み合わせからなる音が、 スピーカ 3 4から出力される。 これに対 して、 ロボッ ド装置 2 Bが制御対象として選択されている場合には、 図 5において右側に示す 1オクターブ内の任意の音名の組み合わせ の音声データがスピーカ 3 4から出力される。
このように、 ロボッ ト制御装置 1から音声が出力された場合の各 ロボッ ト装置の処理について、 図 9のフローチャートを参照して説 明する。
例えば、 ロボッ ト装置 2 Aは、 ステップ S 2 1において、 音声信 号を受信したか否かを判定し、 受信していなければステップ S 2 1 に戻り、 音声信号を受信するまで待機する。 すなわち、 マイクロホ ン 6 1は、 音声信号を取り込むと、 A7 D変換器 6 2に出力する。 A/ D変換器 6 2は、 マイクロホン 6 1より入力された音声信号を デジタル信号に変換し、 入力インターフェース 6 3を介して C P U 6 5へ出力する。 C P U 6 5は、 音声データが入力されると、 これ を D S P 6 8に転送する。
音声デ一夕が入力されると、 D S P 6 8は、 ステップ S 2 2にお いて、 補正処理を行う。 すなわち入力された音声信号の音高にぶれ があるような場合には、 これを補正する処理が実行される。 そして ステップ S 2 3において、 D S P 6 8は、 受信した音声の音高を検 出する。 さらにステップ S 2 4において、 D S P 6 8は、 受信した 音声の音名の組み合わせを検出する。 ステップ S 2 5において、 D S P 6 8は、 ステップ S 2 3で検出 された音高の、 ステップ S 2 4で検出された音名の組み合わせに対 応する番号が、 R O M 6 6に予め記憶されている、 td. cfgファイル から検索する。 この td. cfgファイルには、 図 1 0に示すように、 各 音高の、 各音名の組み合わせが記憶されている。 番号 1乃至番号 3 で示す音高の音名の組み合わせは、 ロボッ ト装置 2 Aに対するもの であり、 番号 4乃至番号 6で示す音高の音名の組み合わせは、 ロボ ヅ ト装置 2 Bに対するものである。 ここで、 ロボヅ ト装置 Aとロボ ッ ト装置 Bとでは、 その対応されるの音名の音高が異なるものとな つている。
この例においては、 図 8に示したように、 音名の組み合わせは、 前進、 停止又は後退の各動作に対応されており、 音名の組み合わせ 自体は、 ロボッ ト装置 2 Aと口ポッ ト装置 2 Bにおいて同一である。 ロボッ ト装置 2 A又はロボッ ト装置 2 Bのいずれに対する指令であ るかは、 その音高によって識別される。
ロボッ ト装置 2 Aの C P U 6 5は、 図 1 0の番号 1乃至番号 3で 示す音高のデータだけを取り込み、 ロボッ ト装置 2 Bの C P U 6 5 は、 番号 4乃至番号 6で示す音高のデータだけを取り込む。 その結 果、 ステップ S 2 3で検出された音高が、 ロボット装置 2 Aの音高 であり、 ステップ S 2 4で検出された音名の組み合わせが、 コマン ドに対応した音名の組み合わせである場合には、 ロボッ ト装置 2 A の D S P 6 8は td. cfgファイルから、 番号 1乃至番号 3の内のいず れか 1つの番号を検出することになる。 これに対して、 受信された 音声信号がロボッ ト装置 2 Bを制御するものであるか、 又は単なる ノイズである場合には、 D P S 6 8は、 td. cfgファイルから番号 1 乃至番号 3を検出することはできない。 この場合にはステップ S 2 1に戻り、 それ以降の処理が繰り返し実行される。
一方、 ロボッ ト装置 2 Bの C P U 6 5は、 図 1 0の番号 4乃至番 号 6で示す音高のデータだけを取り込む。 したがって、 ロボッ ト装 置 2 Bの D S P 6 8は、 ステップ S 2 3で検出された音高が、 ロボ ヅ ト装置 2 Bのための音高であり、 かつステップ S 2 4で検出され た音名の組み合わせが、 td. cfgファイルに記憶されている音名の組 み合わせである場合に、 番号 4乃至番号 6の内のいずれか 1つの番 号を検出することができる。
これに対して、 ロボッ ト装置 2 Bが検出した音声信号が、 単なる ノイズであったり、 或いはロボッ ト装置 2 Aを制御するための音声 信号であった場合には、 D S P 6 8は番号 4乃至番号 6のいずれの 番号をも検出することができない。 この場合には、 ステップ S 2 1に戻り、 それ以降の処理が繰り返し実行される。
ステップ S 2 6において、 td. cfgファイルから番号が検出された と判定された場合、 ステップ S 2 7に進み、 D S P 6 8は、 ステツ プ S 2 5で検出された番号に対応するコマンドを、 R O M 6 6に記 憶されている sdata. cfgフアイルから検索する。 この sdata. cfgファ ィルには、 図 1 1に示すように、 td. cfgファイルから検索された番 号に対応するコマンドが記憶されている。 番号 1又は番号 4に対応 するコマンドは、 ロボッ ト装置を前進させるコマンド SCMD_FORWARD とされており、 番号 2又は番号 5に対応するコマンドは、 ロボッ ト 装置を停止させるコマンド SCMD_ST0Pとされており、 番号 3又は番号 6に対応するコマンドはロボッ ト装置を後進させるコマンド SCMD一 B ACKWARDとされている。 D S P 6 8は、 ステップ S 28において、 sdata.cfgファイルから 検索したコマン ドを、 CPU 6 5に出力する。 CP U 6 5は、 D S P 6 8から記憶されたコマンドを解釈し、 ステップ S 29において、 その解釈した結果に対応する内部の状態を設定する。
例えば、 C PU 6 5は、 コマン ド SCMDJORWARDの入力を受けたと き、 入力インタ一フェース 6 3介してモー夕 64を制御し、 ロボヅ ト装置 2 Aを前進させる。 コマンド SCMD_BACKWARDが入力されたとき、 CP U 6 5はロボッ 卜装置 2 Aを後進させる。 さらに、 コマン ド SC MD_ST0Pが入力されたとき、 C PU 6 5は、 ロボッ ト装置 2 Aを停止 させる。 CPU 6 5はまた、 例えば、 前進のコマンド SCMD_F0RWARD が入力された場合には、 喜びを表すために、 尻尾 1 3を振動させる ように、 モー夕 6 4を制御する。 逆に、 後退のコマンド SCMD_BACKW ARDが入力された場合には、 C PU 6 5は、 落胆の気持ちを表現する ために、 尻尾 1 3を下方に垂れ下げさせるようにモータ 64を制御 する。
ステップ S 3 0において、 D S P 6 8は、 処理の終了が指令され たか否かを判定し、 終了が指令されていなければ、 ステップ S 2 1 に戻り、 それ以降の処理を繰り返し実行する。 ステップ S 30にお いて、 終了が指令されたと判定された場合、 ロボッ ト装置の処理は 終了される。
以上においては、 音の組み合わせを、 音楽の基礎音としての音名 の組み合わせとしたが、 異なる周波数の組み合わせであれば、 所定 の音名に対応する音以外の周波数の音の組み合わせとすることもで きる。
また、 音名の組み合わせとする場合においても、 複数の音名を同 時に発生させることによる音、 いわゆる音楽的な和音、 或いはその ような和音の組み合わせとすることができることはもちろんである が、 和音を構成しない音の組み合わせとすることも可能である。 例 えば、 ロボッ ト装置 2 Aの制御は、 黒鍵に対応する音名の組み合わ せとし、 ロボッ ト装置 2 Bの制御は、 白鍵に対応する音名の組み合 わせとするようにしてもよい。
音名を組み合わせる場合、 絶対音階を基準とすることもできるが、 相対音階を基準とすることもできる。 絶対音階を用いる場合、 例え ば、 C , D, Eの音名の組み合わせは、 C *, D #, Fの組み合わせ と異なる音名の組み合わせということになるが、 相対音階を用いる 場合には、 これらは同一の音名の組み合わせということになる。
例えば、 相対音階でみた場合、 図 1 0に示した番号 1及び番号 4 の D, E, G *といった音名の組み合わせは、 図 1 2 Aに示すように、 D * 3 F, Aや E, F, A *等といった音名の組み合わせと同一のも のとして取り扱うことができる。 また、 相対音階でみた場合、 図 1 0に示した番号 3及び番号 6の D , A, Fといった音名の組み合わ せは、 図 1 2 Bに示すように、 D *, F #, A *や E , G, B等といつ た音名の組み合わせと同一のものとして取り扱うことができる。
このように、 組み合わせの各音名を絶対音階としてみた場合に異 なるものであっても、 組み合わせ音名を相対音階としてみることで、 同一のものとして把握することができる。
なお、 コマンドを規定する音名の組み合わせは、 上述した例に限 定されるものではないので、 他の音名の組み合わせの例でみた場合、 相対音階が同一とされるものは、 図 1 3 A乃至図 1 3 Cに示すよう になる。 このような相対音階を用いると、 絶対音階を用いる場合に比べて コマンドを人間が発生するのが容易となる。 すなわち例えば、 口笛 を用いて、 人間がコマンドを発生するような場合、 絶対音階の音名 を発生するのは、 そのような音楽的な訓練を受けた者だけができる ことになる。 これに対して相対音階を用いる場合には、 いわゆる音 痴でなければ、 一般の使用者も和音を発生することができるので、 ロボッ トを制御することが可能となる。 すなわち、 所望の組み合わ せの音名を出してロボッ ト装置を制御したい場合に、 当該各音名か ら多少ずれている場合であっても、 各音名でずれており、 さらにそ れが全体としてずれていれば、 相対音階としてみれば、 実際に発音 された音と所望の組み合わせの音階とを同一のものとして処理する ことができる。
音名以外の異なる周波数の音の組み合わせとする場合、 各音の周 波数の区分を、 音名で構成させる場合より、 さらに細かく区分する ことができる。
例えば、 次のように、 相対音階によりコマンドを特定することが できる。
先ず、 入力された音声の組み合わせから相対音階を検出する。 そ して、 検出した相対音階に対応するコマンドを特定する。 例えば、 図 1 4に示すように、 相対音階デ一夕 1乃至相対音階データ 6とコ マンドに対応される番号 1乃至番号 6とがセッ トとされたテーブル、 データベース或いはファイルにより、 検出された相対音階から各コ マンドに対応される番号を選択する。
ロボッ ト装置 Aを制御する場合であれば、 相対音階デ一夕に基づ いて番号 1乃至番号 3のいずれかが選択され、 ロボッ ト装置 Bを制 御する場合であれば、 相対音階データに基づいて番号 4乃至番号 6 のいずれかが選択される。
そして、 選択された番号から、 図 1 0を用いて説明したように、 コマン ドを検索して特定する。
これにより、 所望の音名からずれていた場合でも、 ロボッ ト装置 は、 組み合わせ音名を把握することができ、 所望の制御がなされる ようになる。
図 1 5乃至図 2 2は、 これらロボッ トシステムのより具体的な例 を表している。
図 1 5は、 ロボッ ト制御装置 1の具体的な例を示している。 ロボ ヅ ト制御装置 1は、 図 1 5 A及び図 1 5 Bに示すように、 正面に音 名や動作コマンド等が対応される各ポタン 5 1が設けられ、 側面に スライ ドボ夕ン 5 2が設けられている。 例えば、 ロボッ ト制御装置 1は、 図 1 5 Aに示すように、 ボタンの操作内容により発光する発 光部 5 3を設けている。 発光部 5 3は、 例えば、 複数の L E Dによ つて構成されている。 また、 ロボッ ト制御装置 1は、 その背面にス ピ一力 3 4を設けている。
そして、 図 1 6 Aは、 このようなロボッ ト制御装置 1の各ボタン 5 1に対応される機能を示している。 例えば、 各ボタン 「 1」 、 「2」 等は、 A、 等の音名が対応づけされ、 各ボタン 「 1」 、 「2」 等は、 対戦モードにおける 「左脚キック (kick Left) 」 、 「前進 (Move Forward) 」 等の動作命令が対応づけされている。 ま た、 図 1 6 Bは、 ロボッ ト制御装置 1の側面部に設けられたスライ ドボタン 5 2に対応される機能を示している。
また、 図 1 7は、 ロボッ トシステムにおける動作概要を示してい る。 コマンドシーケンス発生装置の内容とそのメリッ トとは、 この 図 1 7に示すようになる。
また、 図 1 8は、 ロボッ ト制御装置の処理内容の具体例を示して いる。 図中において、 右側には、 処理工程の内容を示し、 左側に、 その処理工程に対応した発光部の発光状態を示している。
また、 図 1 9 Aは、 ロボッ ト制御装置 1の具体的な回路構成を示 しており、 図 1 9 Bは、 各構成部分の処理内容を示している。 また、 図 2 O A及び図 2 0 Bは、 C P Uの特性等を示す図である。
また、 ロボッ ト制御装置 1は、 ロボッ ト装置の各モードを実行可 能とするように構成されているが、 図 2 1 Aには、 各モードへの遷 移を示している。 図 2 1 Bは、 各モード等について具体的に説明し ている。
また、 ロボッ ト装置 2 A , 2 Bを制御するためのロボッ ト制御装 置は、 上述した例に限定されるものではない。
例えば、 信号が入力される入力手段と、 入力手段に入力された入 力信号を、 対応される上記組み合わせ音声に変換する変換手段と、 変換手段が変換した組み合わせ音声を出力する音声出力手段とから 構成することもできる。
入力手段は、 有線或いは無線により信号が入力される部分である。 例えば、 携帯電話からの信号が入力され、 これを検出する。
変換手段は、 そのように有線或いは無線により入力手段に入力さ れた入力信号を、 対応される組み合わせ音名に変換する。 例えば、 テーブルを使用して、 入力信号を、 対応される組み合わせ音声に変 換する。
音声出力手段は、 例えば、 スピーカであり、 変換手段により変換 された組み合わせ音名を出力する。
例えば、 このような口ボッ ト制御装置の構成は、 いわゆるヘッ ド ホンに上述した変換手段を備えることで実現することができる。 ロボッ ト制御装置をこのように構成することにより、 例えば、 口 ボッ ト装置のそばにいなくても、 携帯電話からの信号によりロボッ ト装置を遠隔操作することができるようになり、 より娯楽性を高め てロボッ ト装置 2 A , 2 Bを制御することができるようになる。 また、 上述した一連の処理は、 ハードウェアにより実行させるこ ともできるが、 ソフ トウェアにより実行させることもできる。 一連 の処理をソフ トウエアにより実行させる場合には、 そのソフ トウ工 ァを構成するプログラムが、 専用のハ一ドウエアとしてのロボヅ ト 制御装置又はロボッ ト装置に組み込まれているコンビユー夕、 又は、 各種のプログラムをインス トールすることで、 各種の機能を実行す ることが可能な、 例えば汎用のパーソナルコンビュ一夕などにィン ス ト一ルされる。
次に、 図 2 2を参照して、 上述した一連の処理を実行するプログ ラムをコンビユー夕にインス トールし、 コンビュ一夕によって実行 可能な状態とするために用いられる媒体について、 そのコンビユー 夕が汎用のパーソナルコンビュ一夕である場合を例として説明する。 プログラムは、 図 2 2 Aに示すように、 コンピュータ 3 0 1に内 蔵されている記録媒体としてのハードディスク 3 0 2や半導体メモ リ 3 0 3に予めインス トールした状態でユーザに提供することがで きる。
或いはまた、 プログラムは、 図 2 2 Bに示すように、 フロッピ一 ディスク 3 1 1 、 C D -R O M ( Compact Disk-Read Only Disk) 3 1 2、 M O (Magneto- Optical) ディスク 3 1 3、 D V D (Digita l Versati le Disk) 3 1 4、 磁気ディスク 3 1 5、 半導体メモリ 3 1 6などの記録媒体に、 一時的或いは永続的に格納し、 パッケージソ フ トウェアとして提供することができる。
さらに、 プログラムは、 図 2 1 Cに示すように、 ダウンロードサ イ ト 3 2 1から、 デジタル衛星放送用の人工衛星 3 2 2を介して、 コンビュ一夕 3 2 3に無線で転送したり、 口一カルエリアネッ トヮ ーク、 インターネッ トといったネッ トワーク 3 3 1を介して、 コン ピュー夕 3 2 3に有線で転送し、 コンビュ一夕 3 2 3において、 内 蔵するハ一ドディスクなどに格納させることができる。
本明細書における媒体とは、 これら全ての媒体を含む広義の概念 を意味するものである。
また、 本明細書において、 媒体により提供されるプログラムを記 述するステツプは、 記載された順序に沿って時系列的に行われる処 理はもちろん、 必ずしも時系列的に処理されなく とも、 並列的或い は個別に実行される処理をも含むものである。
なお、 本明細書において、 システムとは、 複数の装置により構成 される装置全体を表すものである。

Claims

請求の範囲
1 . 複数の制御対象を制御する制御装置において、
複数の上記制御対象の中から、 所定の制御対象を選択する選択手 段と、
上記制御対象を制御するための、 周波数の異なる複数の音声の組 み合わせを入力する入力手段と、
複数の上記制御対象に対応する音高情報を記憶する記憶手段と、 上記選択手段により選択された上記制御対象に対応する音高の、 上記入力手段により入力された組み合わせの音声を発生する発生手 段と
を備えたことを特徴とする制御装置。
2 . 上記制御対象は、 ロボッ ト装置であること
を特徴とする請求の範囲第 1項記載の制御装置。
3 . 上記音声の組み合わせは、 1オクターブ内の所定の音名の音の 組み合わせであること
を特徴とする請求の範囲第 1項記載の制御装置。
4 . 上記発生手段は、 時系列として組み合わせの音声を発生させる こと
を特徴とする請求の範囲第 1項記載の制御装置。
5 . 上記発生手段は、 同時に組み合わせの音声を発生して、 和音を 発生させること
を特徴とする請求の範囲第 1項記載の制御装置。
6 . 上記発生手段は、 時系列の組み合わせの上記和音を発生させる こと を特徴とする請求の範囲第 5項記載の制御装置。
7 . 複数の制御対象を制御する制御装置の制御方法において、 複数の上記制御対象の中から、 所定の制御対象を選択する選択ス テツプと、
上記制御対象を制御するための、 周波数の異なる複数の音声の組 み合わせを入力する入カステツプと、
複数の上記制御対象に対応する音高情報を記憶する記憶ステップ と、
上記選択ステップの処理により選択された上記制御対象に対応す る音高の、 上記入力ステップの処理により入力された組み合わせの 音声を発生する発生ステップと
を有することを特徴とする制御方法。
8 . 複数の制御対象を制御するプログラムであって、
複数の上記制御対象の中から、 所定の制御対象を選択する選択ス テヅプと、
上記制御対象を制御するための、 周波数の異なる複数の音声の組 み合わせを入力する入カステツプと、
複数の上記制御対象に対応する音高情報を記憶する記憶ステップ と、
上記選択ステップの処理により選択された上記制御対象に対応す る音高の、 上記入力ステップの処理により入力された組み合わせの 音声を発生する発生ステップと
を有することを特徴とするプログラムをコンピュータに実行させ る媒体。
9 . 音声を検出する音声検出手段と、 上記音声検出手段により検出された上記音声の音高を検出する音 高検出手段と、 上記音声検出手段により検出された上記音声のう ちの、 周波数の異なる複数の音声の組み合わせを検出する組み合わ せ検出手段と、
上記音高検出手段と上記組み合わせ検出手段の検出結果に対応す るコマンドを決定する決定手段と、
上記決定手段により決定された上記コマンドに対応する処理を実 行する実行手段と
を備えたことを特徴とする情報処理装置。
1 0 . 上記情報処理装置は、 ロボッ ト装置であること
を特徴とする請求の範囲第 9項記載の情報処理装置。
1 1 . 上記音声の組み合わせは、 1オクターブ内の所定の音名の音 の組み合わせであること
を特徴とする請求の範囲第 9項記載の情報処理装置。
1 2 . 上記組み合わせ検出手段は、 周波数の異なる複数の音声の相 対音階を検出し、
上記決定手段は、 上記音高検出手段の検出結果と上記組み合わせ 検出手段の検出結果である上記相対音階とを参照して、 対応するコ マンドを決定すること
を特徴とする請求の範囲第 9項記載の情報処理装置。
1 3 . 音声を検出する音声検出ステップと、
上記音声検出ステツブの処理により検出された上記音声の音高を 検出する音高検出ステツブと、
上記音声検出ステツプの処理により検出された上記音声のうちの、 周波数の異なる複数の音声の組み合わせを検出する組み合わせ検出 ステップと、
上記音高検出ステツプと上記組み合わせ検出ステツプでの検出結 果に対応するコマン ドを決定する決定ステップと、
上記決定ステップの処理により決定された上記コマンドに対応す る処理を実行する実行ステツプと
を有することを特徴とする情報処理方法。
1 4 , 音声を検出する音声検出ステップと、
上記音声検出ステツプの処理により検出された上記音声の音高を 検出する音高検出ステップと、
上記音声検出ステップの処理により検出された上記音声のうちの、 周波数の異なる複数の音声の組み合わせを検出する組み合わせ検出 ステップと、
上記音高検出ステツプと上記組み合わせ検出ステツプでの検出結 果に対応するコマンドを決定する決定ステツプと、
上記決定ステップの処理により決定された上記コマンドに対応す る処理を実行する実行ステップと
を有することを特徴とするプログラムをコンピュータに実行させ る媒体。
1 5, 組み合わせ音声に基づいて制御される制御対象を制御する制 御装置であって、
信号が入力される入力手段と、
入力手段に入力された入力信号を、 対応される上記組み合わせ音 声に変換する変換手段と、
上記変換手段が変換した組み合わせ音声を出力する音声出力手段 と を備えたことを特徴とする制御装置。
6 . 上記制御対象は、 ロボッ ト装置であること を特徴とする請求の範囲第 1 5項記載の制御装置 <
PCT/JP2000/002982 1999-05-10 2000-05-10 Procede et dispositif de commande, procede et dispositif de traitement d'informations et support WO2000068932A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020017000340A KR20010071805A (ko) 1999-05-10 2000-05-10 제어 장치 및 그 방법, 정보 처리 장치 및 그 방법, 및 매체
EP00925593A EP1098296A1 (en) 1999-05-10 2000-05-10 Control device and method therefor, information processing device and method therefor, and medium
US09/743,368 US6490503B1 (en) 1999-05-10 2000-05-10 Control device and method therefor, information processing device and method therefor, and medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11/128457 1999-05-10
JP12845799 1999-05-10

Publications (1)

Publication Number Publication Date
WO2000068932A1 true WO2000068932A1 (fr) 2000-11-16

Family

ID=14985190

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002982 WO2000068932A1 (fr) 1999-05-10 2000-05-10 Procede et dispositif de commande, procede et dispositif de traitement d'informations et support

Country Status (5)

Country Link
US (1) US6490503B1 (ja)
EP (1) EP1098296A1 (ja)
KR (1) KR20010071805A (ja)
CN (1) CN1304525A (ja)
WO (1) WO2000068932A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681543A (zh) * 2012-04-18 2012-09-19 艾利和电子科技(中国)有限公司 智能机器人的远程控制系统

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020059386A1 (en) * 2000-08-18 2002-05-16 Lg Electronics Inc. Apparatus and method for operating toys through computer communication
KR20020067696A (ko) * 2000-10-11 2002-08-23 소니 가부시끼 가이샤 로봇 장치와 정보 표시 시스템 및 정보 표시 방법
US8787543B2 (en) * 2009-04-17 2014-07-22 Koninklijke Philips N.V. Ambient telephone communication system, a movement member, method, and computer readable medium therefor
JP6992957B2 (ja) * 2015-10-21 2022-01-13 国立大学法人大阪大学 エージェント対話システム
JP7226928B2 (ja) * 2018-05-31 2023-02-21 株式会社トプコン 測量装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2165974A (en) * 1984-10-18 1986-04-23 Kit Fun Ho A system for communication with a machine

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5163001A (en) * 1989-02-17 1992-11-10 Luke Jr Walter Interactive display for use on an automatic guided vehicle
US5285380A (en) * 1991-08-07 1994-02-08 Hughes Aircraft Company System and method for processing commands from a plurality of control sources
JPH0797277A (ja) 1993-08-02 1995-04-11 Kyocera Corp 酸化物超電導体の接合方法
USRE37654E1 (en) * 1996-01-22 2002-04-16 Nicholas Longo Gesture synthesizer for electronic sound device
IL120857A (en) * 1997-05-19 2003-03-12 Creator Ltd Programmable assembly toy
IL121642A0 (en) * 1997-08-27 1998-02-08 Creator Ltd Interactive talking toy

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2165974A (en) * 1984-10-18 1986-04-23 Kit Fun Ho A system for communication with a machine

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A. KOBAYASHI ET AL.: "Study on a method of understanding human intention by using the sound", vol. B, 7 June 1997 (1997-06-07), pages 975 - 976, XP002929117 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681543A (zh) * 2012-04-18 2012-09-19 艾利和电子科技(中国)有限公司 智能机器人的远程控制系统

Also Published As

Publication number Publication date
CN1304525A (zh) 2001-07-18
EP1098296A1 (en) 2001-05-09
KR20010071805A (ko) 2001-07-31
US6490503B1 (en) 2002-12-03

Similar Documents

Publication Publication Date Title
US7750223B2 (en) Musical interaction assisting apparatus
JP4430368B2 (ja) 自由空間に作られるジェスチャを解析する方法及び装置
JP4247626B2 (ja) 再生装置および再生方法
KR100906136B1 (ko) 정보 처리용 로봇
JP2002177656A (ja) 電子玩具
Weinberg et al. Robotic musicianship: embodied artificial creativity and mechatronic musical expression
JP2005196134A (ja) 音声対話システム及び方法並びに音声対話プログラム
KR20220165666A (ko) 자연어로 표현된 스타일 태그를 이용한 합성 음성 생성 방법 및 시스템
WO2000068932A1 (fr) Procede et dispositif de commande, procede et dispositif de traitement d&#39;informations et support
JP2001071289A (ja) 情報処理装置および方法、並びにプログラム格納媒体
WO1999032203A1 (en) A standalone interactive toy
Martin et al. Deep predictive models in interactive music
WO2010112677A1 (en) Method for controlling an apparatus
US10592204B2 (en) User interface device and method, and sound-enabled operation system
US20100076597A1 (en) Storytelling robot associated with actions and method therefor
JPH04311222A (ja) 電子ドキュメントを音声処理するポータブル・コンピュータ装置
Hunt et al. MidiGrid: past, present and future.
Berndt et al. Hand gestures in music production
JP4016316B2 (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP2008125741A (ja) ロボット装置制御システム、ロボット装置及びロボット装置制御方法
KR20010039090A (ko) 인터렉티브 토이
JP5979293B2 (ja) 歌唱合成制御装置および歌唱合成装置
JPH10326175A (ja) 音声指示装置および音声指示情報記憶媒体
Wang et al. Application-specific music transcription for tutoring
Hawkins et al. TOM: The Assistant Robotic Tutor of Musicianship with Sound Peak Beat Detection

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 00800793.4

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 09743368

Country of ref document: US

Ref document number: 1020017000340

Country of ref document: KR

Ref document number: 2000925593

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2000925593

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020017000340

Country of ref document: KR

WWW Wipo information: withdrawn in national office

Ref document number: 2000925593

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 1020017000340

Country of ref document: KR