JPH07140997A - Personal robot and its control method - Google Patents

Personal robot and its control method

Info

Publication number
JPH07140997A
JPH07140997A JP5286400A JP28640093A JPH07140997A JP H07140997 A JPH07140997 A JP H07140997A JP 5286400 A JP5286400 A JP 5286400A JP 28640093 A JP28640093 A JP 28640093A JP H07140997 A JPH07140997 A JP H07140997A
Authority
JP
Japan
Prior art keywords
voice
robot apparatus
program
robot
personal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP5286400A
Other languages
Japanese (ja)
Inventor
Shinichi Nonaka
進一 野中
Hiroshi Akai
寛 赤井
Takuya Imaide
宅哉 今出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP5286400A priority Critical patent/JPH07140997A/en
Publication of JPH07140997A publication Critical patent/JPH07140997A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a robot device in which operations are controlled by using a voice synthesizing means and a voice detection means with a smaller scale circuit constitution. CONSTITUTION:The personal robot device is provided with a voice output block which is controlled by a microcomputer 114 in accordance with the program stored in a memory means 116 and performs voice synthesis by the waveform information stored in the memory and a voice input block 111 which judges the loudness of an external voice. The robot recognizes the user's voice only from the loudness of the voice. Since the communication between the user and the robot is conducted by voice communication, the robot device is controlled by a simple device constitution and the user controls the robot without using his hands.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、民生用のパーソナルロ
ボット装置に係り、特に、撮像画像から被写体を認識す
ることと音声合成を用いることにより学習しながら行動
する知的なパーソナルロボット装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a consumer-use personal robot apparatus, and more particularly, to an intelligent personal robot apparatus which recognizes a subject from a picked-up image and uses voice synthesis while learning.

【0002】[0002]

【従来の技術】画像認識のための被写体抽出に関する従
来の技術としては、例えば、1993年テレビジョン学
会年次大会予行集、第91頁、「逐次成長による画像抽
出処理の一検討」に記載されているように、光から電気
信号に変換された撮像信号を輝度信号と色差信号に変換
した後に、目標物体の色と輝度による抽出条件を用いて
撮像信号中から対象物体を抽出する技術が知られてい
る。また、パーソナルロボットにおいては、特開昭61
−82777号公報「ホビー用走行ロボット」に見られ
るように、パーソナルコンピュータを介してプログラミ
ングし、そのプログラムによって走行するロボットが知
られている。
2. Description of the Related Art A conventional technique relating to subject extraction for image recognition is described, for example, in 1993 Television Society Annual Conference Proceedings, page 91, "A Study of Image Extraction Processing by Sequential Growth". As described above, there is known a technology of extracting a target object from the image pickup signal by using the extraction condition based on the color and the luminance of the target object after the image pickup signal converted from light to an electric signal is converted into a luminance signal and a color difference signal. Has been. Further, in a personal robot, Japanese Patent Laid-Open No.
A robot that is programmed by a personal computer and travels according to the program is known, as is seen in Japanese Patent Publication No. 82777/1987, “Hobby Robot for Hobby”.

【0003】[0003]

【発明が解決しようとする課題】これらの技術を用いて
知的なパーソナルロボットを作成するにあたり、以下の
課題を解決することが望まれる。
In making an intelligent personal robot using these techniques, it is desired to solve the following problems.

【0004】(1)ユーザインターフェースにおいて、
ユーザが手を使わずに肉声によりロボットを制御する構
成をできるだけ簡単な構成で実現すること。
(1) In the user interface,
To realize a configuration in which the user can control the robot with his / her own voice without using hands with the simplest possible configuration.

【0005】(2)ユーザがロボットを制御する回数を
できるだけ減らすため、ロボットがユーザの要望に沿っ
て行動させること。しかし、ユーザの要望を、ロボット
の作成段階で特定することは困難であるし、ロボットが
使用される環境も特定できない。
(2) In order to reduce the number of times the user controls the robot as much as possible, let the robot act according to the user's request. However, it is difficult to specify the user's request at the stage of creating the robot, and the environment in which the robot is used cannot be specified.

【0006】(3)コンピュータやAV機器などの電子
機器は日進月歩であり、技術の進歩が大変速ので購入し
た機器が直ぐに古くなり、買い替えると地球環境に悪
い。
(3) Electronic equipments such as computers and AV equipments are advancing day by day, and technological advances are so large that the equipments purchased will soon become old and if replaced by new ones, it is bad for the global environment.

【0007】(4)マルチタスク性である。高度なロボ
ットでは見たり聞いたり動いたりといった行動を取る
が、これらを順番に行なうのではなく同時に行うマルチ
タスク性を備えること。
(4) It is multitasking. Advanced robots take actions such as seeing, listening, and moving, but have the multitasking ability to perform them simultaneously rather than sequentially.

【0008】(5)一般にロボットはバッテリーを電力
源にしており、少しでも電力の消費量を減らしてバッテ
リー交換の頻度を下げること。
(5) Generally, the robot uses a battery as a power source, and the power consumption is reduced as much as possible to reduce the frequency of battery replacement.

【0009】[0009]

【課題を解決するための手段】前記課題(1)を解決す
るため、本発明のパーソナルロボット装置は、該ロボッ
トの置かれた状況に応じてユーザに行動の指示を仰ぐ音
声信号を生成する音声合成手段、該音声合成手段により
生成された音声信号を出力する音声出力手段、外部の音
声を入力する音声入力手段、該音声出力手段による音声
の出力の後、該音声入力手段により入力された音声の音
量を検出する音量検出手段、及び、該音量検出手段の検
出結果に従って該ロボットの行動を決定する手段を有す
る。
In order to solve the above-mentioned problem (1), the personal robot apparatus of the present invention generates a voice signal for asking the user for an action according to the situation where the robot is placed. Synthesizer, voice output means for outputting a voice signal generated by the voice synthesizer, voice input means for inputting an external voice, voice output by the voice output means, and then voice input by the voice input means And a means for determining the action of the robot according to the detection result of the volume detecting means.

【0010】前記課題(2)を解決するため、本発明の
パーソナルロボット装置は、ロボットがユーザの要望や
使用される環境に応じて徐々にかしこくなるようにする
ため、電気的に書き換え可能な不揮発性メモリ手段を更
に設け、前記決定された行動音量検出手段の検出結果に
従って該不揮発性メモリ手段に記憶されたデータを逐次
更新することにより、ロボットがユーザの要望や使用さ
れる環境に応じて徐々にかしこくなる学習型にした。
In order to solve the above-mentioned problem (2), the personal robot apparatus of the present invention is an electrically rewritable non-volatile memory so that the robot gradually becomes smart according to the user's request and the environment in which it is used. Memory means is further provided and the data stored in the non-volatile memory means is sequentially updated in accordance with the determined detection result of the action sound volume detection means, whereby the robot gradually operates according to the user's request and the environment in which the robot is used. It was a learning type that makes you smart.

【0011】前記課題(3)を解決するため、本発明の
パーソナルロボット装置は、機能ごとにブロック化した
ボードを設け、これらをマザーボードから抜き差しでき
るようにし、新しい部分だけを交換したり、追加したり
できる拡張性を持たせた。
In order to solve the above-mentioned problem (3), the personal robot apparatus of the present invention is provided with a block board for each function so that these boards can be inserted and removed from the mother board, and only new parts are replaced or added. It has expandability that can be used.

【0012】前記課題(4)を解決するため、メインの
計算手段以外に画像処理手段や音声合成手段の中に、そ
れ専用の計算手段を設けた。
In order to solve the above-mentioned problem (4), a dedicated calculation means is provided in the image processing means and the voice synthesis means in addition to the main calculation means.

【0013】前記課題(5)を解決するため、触覚セン
シング手段またはパワーセーブ手段を設け、ユーザから
の命令が無いときには、命令の検出に必要な電力以外は
オフさせることにした。
In order to solve the above-mentioned problem (5), tactile sensing means or power saving means is provided, and when there is no command from the user, power other than the power required to detect the command is turned off.

【0014】[0014]

【作用】本発明では、音声合成手段により、必要に応じ
て「言葉」を発することが出来る。更に、ロボットが発
した「言葉」に対する「返事」を音声入力手段と音量検
出手段により、声の「大」「小」の情報として検出する
ことができ、ユーザと肉声による対話が簡単な構成で可
能になる。音声合成にれば、かなり複雑な「言葉」き発
することができるので、仮りに、「返事」が「大」
「小」しか判断出来なくともかなり高等なやり取りが可
能になる。また、音声入力手段のペアを複数設けた場合
には、ユーザの位置する方向も同時に知ることができる
ので、より高度な判断や動作が行われる。
In the present invention, the "speech" can be emitted as needed by the voice synthesizing means. Furthermore, the "answer" to the "word" uttered by the robot can be detected as the "loud" and "small" information of the voice by the voice input means and the volume detection means, and the dialogue with the user can be made simple. It will be possible. If you use voice synthesis, you can utter quite complicated "words", so tentatively "answer" is "large".
Even if only "small" can be judged, it is possible to communicate at a fairly high level. Further, when a plurality of pairs of voice input means are provided, the direction in which the user is located can be known at the same time, so that more advanced judgments and operations are performed.

【0015】また本発明では、電気的書き換え可能な非
破壊メモリ手段(EEPROM等)を設けているので、
例えばニューラルネットの係数をこれに記憶させて、ユ
ーザとのやり取りの結果からよりユーザの意図にあうよ
うに係数を更新することが出来る。これにより、ユーザ
とのやり取りを繰り返すうちに徐々にユーザの意図にあ
った行動を取るようになり、ユーザが頻繁に制御しなく
ても所望の動作を行われる。
Further, in the present invention, since electrically rewritable nondestructive memory means (EEPROM etc.) is provided,
For example, the coefficient of the neural network can be stored in this, and the coefficient can be updated so as to better suit the user's intention from the result of the interaction with the user. This allows the user to gradually take actions that suit the user's intention while repeatedly interacting with the user, and the desired action can be performed without the user's frequent control.

【0016】また本発明では、ブロックごとにボードが
抜き差しできるので一部のボードを交換したり追加した
りすることにより容易にバージョンアップされる。
Further, according to the present invention, since the boards can be inserted and removed for each block, the version can be easily upgraded by exchanging or adding a part of the boards.

【0017】また本発明では、メインの計算手段以外に
も画像認識手段や音声合成手段の中に計算手段を持って
いるので、同時に動いたり、見たり、聞いたり、話した
りする。仮りに1つのフォンノイマン型の計算手段だけ
で制御すると、話している間は画像認識が出来なかった
り、動きを変えられなかったりしてぎこちないロボット
になってしまう。しかし、本発明のように複数の計算手
段を設ければ、話している間にも画像の観察などを続け
ることができるので突然の変化にも対応できるし、また
同時にニューラルネットの計算を行なうことが可能にな
るので効率が良い。
Further, in the present invention, since the image recognizing means and the voice synthesizing means have a calculating means in addition to the main calculating means, they can simultaneously move, see, hear, and speak. If it is controlled by only one von Neumann type calculation means, it becomes an awkward robot because image recognition cannot be performed or movement cannot be changed while talking. However, if a plurality of calculation means are provided as in the present invention, it is possible to continue observing an image while talking, so that it is possible to cope with sudden changes, and at the same time perform neural network calculation. Because it is possible, it is efficient.

【0018】また本発明では、メインの電源を「オン」
にしても、ユーザから命令が無い限り命令の検出に必要
なブロック以外の電源を「オフ」にさせるのことで、電
力の無駄遣い避ける。
Further, in the present invention, the main power source is turned "on".
However, power consumption is avoided by turning off the power supplies other than the blocks necessary for detecting an instruction unless the user gives an instruction.

【0019】[0019]

【実施例】以下、本発明の実施例を図を用いて説明す
る。図1は本発明におけるロボット装置の構成を示した
一実施例である。このうち、図1(a)は本発明におけ
るロボット装置のボディカバー103を取外した状態を
前方から見たところである。同図に示した様に、該ロボ
ット装置は、マザーボード101をベースに構成されて
いる。そして、センサブロック110、音声入力ブロッ
ク111、音声出力ブロック112、画像入力ブロック
113、マイコンブロック114、非破壊メモリブロッ
ク115、外部ROMブロック116というように、各
々の機能ごとにユニット化され、これら各ブロックはマ
ザーボード101上に設けられたコネクタ119に接続
される。また、マザーボード101には、コントロール
スイッチ102(詳細図は図7)が取り付けられてい
て、ロボットの動作モードの切り替えを行う。更にま
た、マザーボード101の下部には、ロボット装置を走
行させるための駆動輪105R、Lと、駆動装置106
R、Lが備え付けられている。また更に、該マザーボー
ド101の下部には、ニッケルカドミウム電池やニッケ
ル水素電池の様な充電式の電池から成る電源ブロック1
04を配する。次に、図1(b)と図1(c)を用いて
該ロボット装置の外観についてさらに説明する。図1
(b)は該ロボット装置のボディカバー103を上方か
ら眺めたものである。同図に示すように、ボディカバー
103には撮像用レンズ117がロボット装置の真正面
方向に光軸が向くように取り付けられている。そして、
該撮像レンズ117の光軸に対して軸対象になるように
一対のマイクロフォン109aと109bが取り付けら
れている。そして更に、該ロボット装置の真後に向かっ
てマイクロフォン109cが一つ取り付けられいる。そ
して、マザーボード101上の外部ROMが接続される
ソケットがある部分にあわせて外部ROM挿入口108
が設けられている。図1(c)は該ロボット装置のボデ
ィカバー103を正面から見た図である。同図に示され
ているようにボディカバー103の正面には、撮像レン
ズ117とスピーカ118が配され手いる。そして、そ
れらを左右から挟むような形にタッチセンサ107a、
107bが取り付けられている。該ロボット装置は、以
上に示したように、ボディカバー103をマザーボード
101の上に載せた構成である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is an embodiment showing the configuration of a robot apparatus according to the present invention. Of these, FIG. 1A is a front view of the robot apparatus of the present invention with the body cover 103 removed. As shown in the figure, the robot apparatus is configured based on the mother board 101. Then, the sensor block 110, the voice input block 111, the voice output block 112, the image input block 113, the microcomputer block 114, the non-destructive memory block 115, the external ROM block 116 are unitized for each function, and each of them is united. The block is connected to a connector 119 provided on the motherboard 101. Further, a control switch 102 (detailed view is FIG. 7) is attached to the mother board 101 to switch the operation mode of the robot. Furthermore, on the lower part of the motherboard 101, drive wheels 105R and L for running the robot device, and a drive device 106.
R and L are provided. Furthermore, at the bottom of the mother board 101, there is a power supply block 1 composed of a rechargeable battery such as a nickel-cadmium battery or a nickel-hydrogen battery.
Place 04. Next, the appearance of the robot apparatus will be further described with reference to FIGS. 1 (b) and 1 (c). Figure 1
(B) is a view of the body cover 103 of the robot apparatus viewed from above. As shown in the figure, an image pickup lens 117 is attached to the body cover 103 so that the optical axis thereof faces directly in front of the robot apparatus. And
A pair of microphones 109a and 109b are attached so as to be symmetrical with respect to the optical axis of the imaging lens 117. Further, one microphone 109c is attached toward the rear of the robot device. Then, the external ROM insertion opening 108 is aligned with the portion of the motherboard 101 where the external ROM is connected.
Is provided. FIG. 1C is a front view of the body cover 103 of the robot apparatus. As shown in the figure, an imaging lens 117 and a speaker 118 are arranged on the front surface of the body cover 103. Then, the touch sensor 107a is formed so as to sandwich them from the left and right,
107b is attached. As described above, the robot apparatus has a structure in which the body cover 103 is placed on the motherboard 101.

【0020】また、コントロールスイッチ102は、本
ロボット装置の主電源の「オン」「オフ」を切替たり、
外部ROMモード、通信モードなどのモードの切替を行
なうものである。図7では、その切替スイッチをダイヤ
ル式にしたものである。モードの切り替えはダイヤル7
を回して「▼」の位置に「●」をあわせることによって
行う。各モードの説明をすると、「ROM]は外部RO
Mモード、「OFF」は主電源オフ、「ON」は主電源
音、「LOAD」はプログラムロード又は、デ−タロー
ドのモードである。
The control switch 102 switches the main power source of the robot apparatus between "ON" and "OFF",
The mode is switched between the external ROM mode and the communication mode. In FIG. 7, the changeover switch is of a dial type. Dial 7 to switch modes
Turn to align the "●" with the "▼" position. Explaining each mode, "ROM" is an external RO
M mode, "OFF" is the main power supply off, "ON" is the main power supply sound, and "LOAD" is the program load or data load mode.

【0021】次に、各ブロックの構成と働きについて説
明する。図2は画像入力ブロック113の一実施例を示
すブロック図である。同図において、撮像レンズ117
により撮像素子201上に結像された光は、撮像素子に
より撮像信号に変換される。該撮像信号は、オートゲイ
ンコントロールアンプ(AGC)202によりゲイン調
整がなされる。そして、このアナログの撮像信号はA/
D変換器203によりディジタル信号に変換されて画像
抽出処理ブロック204に供給される。画像抽出処理ブ
ロック204は、撮像信号をマトリクス処理することに
より輝度信号や色差信号の生成を行なう機能と、画像抽
出マイコン205から指定される色や輝度で条件のあて
はまる被写体の抽出を行ない、その結果を形状メモリ内
に書き込む。また、該画像抽出処理ブロック204は照
度、色温度の検出機能などの多数の機能を持ち合わせて
いる。そして、画像抽出マイコン205は該形状メモリ
内に書かれた物体の形状のデータを読みだして、色、位
置、面積等の物体情報の計算と、照度、色温度、輝度分
布、色分布といった映像に関する情報を入手する。
Next, the structure and function of each block will be described. FIG. 2 is a block diagram showing an embodiment of the image input block 113. In the figure, the imaging lens 117
The light imaged on the image sensor 201 is converted by the image sensor into an image signal. The image pickup signal is subjected to gain adjustment by an automatic gain control amplifier (AGC) 202. The analog image pickup signal is A /
It is converted into a digital signal by the D converter 203 and supplied to the image extraction processing block 204. The image extraction processing block 204 performs a function of generating a luminance signal and a color difference signal by subjecting the image pickup signal to a matrix process, and extracts a subject to which the condition is satisfied by the color and the luminance specified by the image extraction microcomputer 205. Is written into the shape memory. Further, the image extraction processing block 204 has many functions such as an illuminance and color temperature detection function. Then, the image extraction microcomputer 205 reads out the data of the shape of the object written in the shape memory, calculates the object information such as color, position, area, and images such as illuminance, color temperature, luminance distribution, and color distribution. Get information about.

【0022】図3は音声出力ブロック112の一実施例
を示すブロック図である。同図において音声合成マイコ
ン301は音声合成ROM302を動作させて言葉を発
生させるためのマイコンである。音声合成ROM302
は夫れ夫れ母音と子音とに分解された音声のデータを、
各々の音声を表現する波形のデータとしてメモリ内に記
憶している。音声を発生させるには、先ず、音声合成マ
イコン301から音素(母音と子音)の波形デ−タが書
き込まれている先頭アドレスをカウンタ308に転送す
る。カウンタ308の出力は音声合成ROM302のア
ドレス入力部に入力されており、カウンタ308をカウ
ントアップさせることにより音素の波形デ−タが音声合
成ROM302から順々に読みだされる。また、音声合
成マイコン301には、予め、各単語ごとにその単語を
構成する子音と母音の先頭アドレスが登録されている。
これにより、音声合成マイコン301に予め用意されて
いる単語の各子音と母音の先頭アドレスをカウンタ30
8に順序良く転送し、音声の合成を行なう。また、音声
と音声のつなぎ目において滑らかに音声を変化させるた
めに、RAM303と、内挿回路304と、さらに、ア
ップダウンカウンタ305を設ける。そして、内挿した
合成音声信号をD/A変換器306によりアナログ信号
に変換する。そして、低帯域通過型増幅回路307によ
り増幅して、スピーカ118より出力する。ここで、内
挿の仕組みは以下のとおりである。今、音声出力ブロッ
クの出力信号を”a”という出力から”b”という出力
へ切り換えようとするとき、まずRAM303に”a”
という信号を書き込んでおく、そして、音声合成ROM
302から”b”という信号を出力させながらRAM3
03より”a”という信号を読みだす、この時、アップ
ダウンカウンタ305の出力を”c”とすると、内挿回
路304の出力”y”が y=(1−c÷d)×a+c÷d×b で表わされるのであれば、内挿回路304出力を”a”
から”b”に滑らかに変化させるにはアップダウンカウ
ンタ305の出力”c”を”0”から”d”までカウン
トアップさせれば良い。
FIG. 3 is a block diagram showing an embodiment of the audio output block 112. In the figure, a voice synthesis microcomputer 301 is a microcomputer for operating the voice synthesis ROM 302 to generate words. Speech synthesis ROM 302
Is the voice data decomposed into vowels and consonants,
It is stored in the memory as waveform data representing each voice. To generate a voice, first, the head address in which the waveform data of phonemes (vowels and consonants) is written is transferred from the voice synthesis microcomputer 301 to the counter 308. The output of the counter 308 is input to the address input section of the voice synthesis ROM 302, and by counting up the counter 308, the phoneme waveform data is sequentially read from the voice synthesis ROM 302. Further, in the voice synthesis microcomputer 301, the start addresses of the consonants and vowels that make up each word are registered in advance for each word.
As a result, the counter addresses of the consonant and vowel start addresses of words prepared in advance in the voice synthesis microcomputer 301 are counted by the counter 30.
8 is transferred in order to synthesize the voice. Further, a RAM 303, an interpolation circuit 304, and an up / down counter 305 are provided in order to smoothly change the voice at the joint between the voices. Then, the interpolated synthesized voice signal is converted into an analog signal by the D / A converter 306. Then, the signal is amplified by the low band pass amplifier circuit 307 and output from the speaker 118. Here, the mechanism of interpolation is as follows. Now, when trying to switch the output signal of the audio output block from the output "a" to the output "b", first, "a" is stored in the RAM 303.
Signal is written, and voice synthesis ROM
RAM3 while outputting the signal "b" from 302
The signal "a" is read out from 03. At this time, if the output of the up / down counter 305 is "c", the output "y" of the interpolation circuit 304 is y = (1-c ÷ d) × a + c ÷ d If it is represented by × b, the output of the interpolation circuit 304 is set to “a”.
In order to smoothly change from "b" to "b", the output "c" of the up / down counter 305 may be counted up from "0" to "d".

【0023】また、音声合成マイコン301の単語デ−
タの各単語ごとに、アップダウンカウンタ305のカウ
ントアップ/ダウンの動作速度を変えるデ−タを合わせ
て持たせることによりより自然な音声合成を行う。
The word data of the voice synthesis microcomputer 301 is also used.
A more natural speech synthesis is performed by providing each word of the data together with data for changing the up / down operation speed of the up / down counter 305.

【0024】また、更に、カウンタ308の動作速度を
変化させることにより、合成される音声の音の高さの調
節を行うこともできる。音の高さの調節は、例えば、
「あ」という音声を合成するとき、通常、“a”という
信号の先頭アドレスをカウンタ308に転送し、音声合
成ROM302から音声を出力させるとすれば、“a”
“a”というように“a”という信号を2回続けて通常
の倍の速さで波形データを読みだし音声合成すれば、通
常よりも1オクターブ高い音声を合成することが出来
る。
Further, the pitch of the synthesized voice can be adjusted by changing the operating speed of the counter 308. To adjust the pitch of the sound, for example,
When synthesizing the voice "a", normally, if the head address of the signal "a" is transferred to the counter 308 and the voice is outputted from the voice synthesis ROM 302, "a" is given.
If the waveform data is read twice as fast as the normal signal "a" such as "a" and then voice synthesis is performed, a voice one octave higher than usual can be synthesized.

【0025】図4は、センサブロックの一実施例を表わ
すブロック図である。センサブロックは、二つのタッチ
センサ107aと107bを具備し、これら二つのセン
サの出力は、増幅回路4aと4bによりゲイン調整が行
なわれる。そして、各々の出力はマイコンブロック11
4に伝送され時分割でA/Dポートから取り込まれる。
これにより、ロボット装置が障害物や壁などに接触した
とき、その状況を認識できる。
FIG. 4 is a block diagram showing an embodiment of the sensor block. The sensor block includes two touch sensors 107a and 107b, and the outputs of these two sensors are subjected to gain adjustment by amplifier circuits 4a and 4b. Each output is the microcomputer block 11
4 and is time-divisionally fetched from the A / D port.
Thus, when the robot device contacts an obstacle or a wall, the situation can be recognized.

【0026】図5は、音声入力ブロック111の一実施
例を表わすブロック図である。音声入力ブロックでは、
図1で示した様に取り付けた3つのマイクロフォン10
9aと109bと109cにより周囲の音波を電気信号
に変換する。そして検出された音声信号はAGCアンプ
501a、501b、501cによりゲイン調整が行な
われる。そして、ゲイン調整された音声信号を検波手段
502a、502b、502cにより整流する。そし
て、整流された音声信号はローパスフィルタ503a、
503b、503cにより直流成分だけにする。この直
流成分だけの音声信号は、マイコンブロック114のA
/Dポートに伝送されセンサブロックの出力と同様に時
分割で処理される。この時、マイコンブロック114は
音声ブロックからの入力レベルの大小で音の有り、無し
を判定する。また、3つのマイクロフォンの各々の入力
レベルの差分から音の到来方位を判定する。
FIG. 5 is a block diagram showing an embodiment of the voice input block 111. In the voice input block,
Three microphones 10 mounted as shown in FIG.
9a, 109b, and 109c convert surrounding sound waves into electric signals. Then, the detected audio signal is subjected to gain adjustment by AGC amplifiers 501a, 501b, 501c. Then, the gain-adjusted audio signal is rectified by the detection means 502a, 502b, 502c. The rectified audio signal is then passed through the low-pass filter 503a,
Only DC component is made by 503b and 503c. The audio signal of only this DC component is A of the microcomputer block 114.
It is transmitted to the / D port and processed in a time-sharing manner like the output of the sensor block. At this time, the microcomputer block 114 determines whether sound is present or absent depending on the input level from the audio block. Also, the arrival direction of the sound is determined from the difference between the input levels of the three microphones.

【0027】図6はマイコンブロック114と他のブロ
ックの接続関係を示したものである。マイコンブロック
114には、データとアドレスのI/Oバスが設けら
れ、そこには外部ROMブロック116と非破壊メモリ
ブロック115が接続される。この二つのメモリにはマ
イコンブロック114に内蔵のROMと共通のアドレス
バスよりアドレスが与えられており、各々を差し示すア
ドレスは夫れ夫れ異なったアドレスが割り当てられてい
る。また、マイコンブロック114にはA/D変換用の
入力ポートを設け、そこには音声入力ブロック111で
拾われた音声信号とセンサブロック110で検出された
信号が入力される。そして、マイコンブロック114は
時分割でこの入力信号を処理する。また更に、マイコン
ブロック114は、I/Oポートを具備しており、この
I/Oポートに走行装置制御回路6、音声出力ブロック
112、画像入力ブロック113が接続される。そし
て、マイコンブロック114が指定する画像情報は、画
像入力ブロック113から出力されて、マイコンブロッ
ク114に取り込まれる。そして、音声出力ブロック1
12や走行装置制御回路6には、画像、音声、センサの
各入力の結果に応じて制御信号が転送される。また、非
破壊メモリブロック115はバッテリーバックアップR
AMやEEPROM等の読み書き自由な不揮発性のメモ
リから成り、ユーザーのプログラムや、ロボット装置が
学習した結果を記憶しておく。また、外部ROMブロッ
クは、ゲームソフトやセキュリティソフトなどが予めプ
ログラミングされているROMで、ロボット装置本体と
ROMとを自在に着脱を出来るようにパッケージングし
たものである。ユーザはこの外部ROMブロックをロボ
ットの使用目的に応じて交換する。これにより、ユーザ
がプログラムをしなくても目的に応じてロボット装置を
動作させて楽しむことが可能になる。
FIG. 6 shows the connection relationship between the microcomputer block 114 and other blocks. The microcomputer block 114 is provided with an I / O bus for data and addresses, to which an external ROM block 116 and a non-destructive memory block 115 are connected. Addresses are given to these two memories from an address bus common to the ROM incorporated in the microcomputer block 114, and different addresses are assigned to the respective addresses. Further, the microcomputer block 114 is provided with an input port for A / D conversion, into which the voice signal picked up by the voice input block 111 and the signal detected by the sensor block 110 are input. Then, the microcomputer block 114 processes this input signal in a time division manner. Furthermore, the microcomputer block 114 has an I / O port, and the traveling device control circuit 6, the voice output block 112, and the image input block 113 are connected to this I / O port. Then, the image information designated by the microcomputer block 114 is output from the image input block 113 and taken into the microcomputer block 114. And the voice output block 1
A control signal is transferred to 12 and the traveling device control circuit 6 in accordance with the result of each input of image, voice, and sensor. The non-destructive memory block 115 is a battery backup R
It is composed of a readable and writable non-volatile memory such as AM or EEPROM, and stores user programs and results learned by the robot apparatus. The external ROM block is a ROM in which game software, security software, etc. are pre-programmed, and the robot apparatus main body and the ROM are packaged so that they can be freely attached and detached. The user replaces this external ROM block according to the purpose of use of the robot. As a result, the user can operate and enjoy the robot apparatus according to the purpose without programming.

【0028】次に、本発明におけるロボット装置のプロ
グラム例について説明する。図8は、物体に近寄って観
察したり、喋べったりさせるためのプログラム例を表す
フローチャートである。以下このフローチャートを用い
てこのプログラム例について説明する。電源が投入され
ハードウエアをリセットした後、「スタンバイモード」
で待機状態(800)になる。「スタンバイモード」で
は、音声入力ブロック111とマイコンブロック114
だけが電源オン状態であり、先ず、音声入力の有無につ
いてチェックする(801)。そこで、音声入力が無け
れば音声入力があるまで待機し、音声入力があれば音声
出力ブロック112を動作状態にして起動確認を行なう
(802)。そして、起動確認の結果ユーザが「起動不
許可」とすれば、再び「スタンバイモード」に戻り、
「起動許可」とすれば「パワーオン」状態にする(80
3)。「パワーオン」状態では、先ず最初に、行動の選
択が行なわれる。行動の選択はニューラルネットによる
計算の結果を用いて行なわれる(804)。計算の結果
にはプラスの符号が付く場合とマイナスの符号が付く場
合があり、選択される行動パターンは、「選択フラッ
グ」の立っていないものの中でプラス出力で最大の行動
パターンである。そして、行動パターンが決定されたら
(805)、その行動パターンに対して「選択フラッ
グ」を立てて、行動の確認を行なう(808)。行動確
認の結果「許可」であれば、「選択フラッグ」を全て解
除して(809)、その入力パターンに対して選択され
た行動パターンの選択出力であるニューラルネットの計
算結果が増加する様に、ニューラルネットの係数を変更
し(810)、行動の実行に移る(811)。行動を実
行した後、次の行動の選択を行なう。また、行動確認の
結果「不許可」であれば、その入力パターンに対する選
択出力が減少する方向にニューラルネットの係数を変更
する(812)。そして、再び行動の選択を行なう(8
04)。また、行動の選択の結果、選択する行動パター
ン(プラスの出力で、選択フラッグの足っていないも
の)が無くなってしまったとき、全ての行動パターンの
「選択フラッグ」を解除して(806)、その時の入力
パターンに対する計算の結果の中でマイナス符号の行動
パターン(選択フラッグが立たなかった行動パターン)
の選択出力が、ゼロに近づくようにニューラルネットの
係数を変更する(807)。そして再び、スタンバイモ
ードに戻り音が入力されるのを待つ。
Next, a program example of the robot apparatus according to the present invention will be described. FIG. 8 is a flow chart showing an example of a program for observing and talking to an object. This program example will be described below using this flowchart. "Standby mode" after powering on and resetting hardware
The standby state (800) is reached. In the "standby mode", the voice input block 111 and the microcomputer block 114
Only the power is on, and the presence / absence of voice input is first checked (801). Therefore, if there is no voice input, the system waits until there is a voice input, and if there is a voice input, activates the voice output block 112 and confirms activation (802). Then, if the user confirms that the startup is not permitted as a result of the startup confirmation, it returns to the "standby mode" again,
If "Startup permission" is given, it will be in the "power on" state (80
3). In the "power on" state, the action is selected first. The action is selected using the result of calculation by the neural network (804). The result of the calculation may have a plus sign or a minus sign, and the action pattern to be selected is the maximum action pattern with a positive output among those without the "selection flag". When the action pattern is determined (805), a "selection flag" is set for the action pattern to confirm the action (808). If the result of the action confirmation is "permit", all the "selection flags" are canceled (809) so that the calculation result of the neural network which is the selected output of the action pattern selected for the input pattern increases. , The coefficient of the neural network is changed (810), and the action is executed (811). After performing an action, select the next action. If the result of the action confirmation is "non-permitted", the coefficient of the neural network is changed so that the selection output for the input pattern decreases (812). Then, the action is selected again (8
04). Also, as a result of the action selection, when the action pattern to be selected (a positive output and the selection flag is not sufficient) disappears, the "selection flag" of all the action patterns is canceled (806). , The action pattern of the minus sign in the calculation result for the input pattern at that time (the action pattern in which the selection flag did not stand)
The coefficient of the neural net is changed so that the selected output of (1) approaches zero (807). Then, again, it returns to the standby mode and waits for a sound to be input.

【0029】次に、音声出力装置と音声入力装置を用い
た、ロボット装置との対話法について説明する。図9
は、図8における「起動の確認」のプログラムのフロー
チャートである。起動の確認は、音声が検出さることを
きっかけにして開始され、先ずは、音が静まるまで待つ
ことからスタートする(901)。そして、音が止んだ
ら、音声合成ブロックに単語を出力させるための制御信
号を転送して『ハイ、オヨビデスカ』と発声する(90
2)。そして、2秒間経過する間に音が検出されれば
「起動不許可」であると判定し(903、904)、音
が検出されなければ起動中止の確認を行なう。起動中止
の確認は、『モウスコシ、ネマス』と発声させる(90
5)。そして、2秒経過する間に音の検出がされなけれ
ば「起動不許可」と判定し(906、907)、音が検
出されれば「起動許可」と判定する。このプログラムで
はロボット装置の言動を否定するとき「NO」と大声で
叫ぶこととした。図10は、図8における「行動の確
認」のプログラムのフローチャートである。「行動の確
認」では、先ず始めに音の入力かあるかどうかをチェッ
クし(1001)、音が有れば音が止むまで待つ。そし
て、音が止んだら『○○シマス』と発声し(100
2)、その後2秒経過する間に音が無ければ「行動許
可」であると判定する(1003、1004)。2秒経
過するまでの間に、音が検出されたら音が止むまで待つ
(1005)。そして、音が止んだら『ヤメマス』と発
声する(1006)。その後2経過する間に音が検出さ
れなければ、「行動不許可」と判定し(1007、10
08)、音が検出されれば、止めることを否定されたと
判断して始めに戻り音が止むまで待つ。以上の様にロボ
ット装置をプログラムすることにより、ロボット装置に
起動や行動の「許可」「不許可」を音の大小で確認させ
ることが出来る。以上により、該ロボット装置は、音声
の内容を認識する音声認識機能を持たずとも、ロボット
のユーザに対する伺にユーザがロボットに音の有無で答
えることによりロボットとユーザの間でコミュニケーシ
ョンを取ることが可能になる。
Next, a method of interacting with the robot device using the voice output device and the voice input device will be described. Figure 9
8 is a flow chart of a program of "confirm start-up" in FIG. The confirmation of the start is started by the fact that the sound is detected, and first, it is started by waiting until the sound becomes quiet (901). Then, when the sound stops, a control signal for outputting a word to the voice synthesis block is transferred to say "High, Oyobidesuka" (90
2). Then, if a sound is detected during a period of 2 seconds, it is determined that the activation is not permitted (903, 904), and if no sound is detected, the activation stop is confirmed. To confirm that the startup has been cancelled, say "Mouskoshi, Nemas" (90
5). Then, if no sound is detected within 2 seconds, it is determined to be "activation not permitted" (906, 907), and if a sound is detected, it is determined to be "activation permitted". In this program, when denying the words and actions of the robot device, it was decided to yell out "NO". FIG. 10 is a flowchart of the “confirm action” program in FIG. In the "confirmation of action", first, it is checked whether or not there is a sound input (1001), and if there is a sound, it waits until the sound stops. Then, when the sound stopped, say "○○ shimusu" (100
2) After that, if there is no sound for 2 seconds, it is determined that “action permitted” (1003, 1004). If a sound is detected within 2 seconds, it waits until the sound stops (1005). Then, when the sound stops, "Yamemasu" is uttered (1006). If no sound is detected during the two passages thereafter, it is determined that “action is not permitted” (1007, 10
08), if a sound is detected, it is judged that the stop has been denied, and the process waits until the return sound stops first. By programming the robot apparatus as described above, it is possible to make the robot apparatus confirm "permission" and "non-permission" of activation and action by the volume of the sound. As described above, even if the robot apparatus does not have a voice recognition function for recognizing the content of voice, the user can communicate with the robot by answering the question to the user of the robot with or without sound. It will be possible.

【0030】次に、該ロボット装置の行動パターンのプ
ログラムとして、物体の観察する時のプログラムを図1
1のフローチャートに示す。物体の観察は、先ず物体の
方向をむく(1101)。そして、前進を開始し(11
02)、物体が画面一杯になるか(1104)接触する
か(1103)のいづれかの状態になるまで前進させ
る。そして、停止(1105)後、画像入力ブロックか
ら得られる情報を言葉に変える。そして、言葉の単語情
報を音声出力ブロックに送り、認識情報を音声合成して
音声出力ブロックから言葉で出力することにより物体の
解説を行なう(1106)。
Next, as an action pattern program of the robot apparatus, a program for observing an object is shown in FIG.
It is shown in the flowchart of FIG. In observing an object, the direction of the object is first turned (1101). Then, it starts to move forward (11
02), the object is moved forward until either the screen becomes full (1104) or touches (1103). Then, after stopping (1105), the information obtained from the image input block is converted into words. Then, the word information of the word is sent to the voice output block, the recognition information is voice-synthesized, and the object is explained by outputting the voice from the voice output block in the word (1106).

【0031】図12は、行動の選択で用いるニューラル
ネットの一例である。このニューラルネットの入力は要
素は、映像入力装置から得られるあらゆる情報(照度、
色温度、物体の大きさ、物体の動き、物体の色)、音の
大きさ、音の到来方位、時間(昼らしい、夜らしい
等)、前回の行動などである。また、これらの入力は非
破壊メモリ内に保存された係数を用いて計算される。計
算結果は中間層をいくつか通過した後に最終出力へ出力
されてくる。これら最終出力は、夫れ夫れの行動パター
ンに対する実行の可能性を表す数値で、プラスの符号が
付いたものとマイナス符号が付いたものがある。行動パ
ターンとしては動き周る、観察する、喋べる、画面解
説、追い掛ける、近づく、遠のく、周り込むなど他多数
の行動パターンがあり、該行動パターンの数とニューラ
ルネットの出力の数は一致している。また、ニューラル
ネットによる計算は非破壊メモリ上に保持されている係
数を用いてソフトウエアで逐次行なわれる。また、各係
数は、入力と出力の関係に対するユーザの評価をフィー
ドバックすることにより変更されることがある。
FIG. 12 shows an example of a neural network used for action selection. The input of this neural network is that all the information (illuminance,
The color temperature, the size of the object, the movement of the object, the color of the object), the volume of the sound, the direction of arrival of the sound, the time (like daytime, nighttime, etc.), and the previous action. Also, these inputs are calculated using the coefficients stored in non-destructive memory. The calculation result is output to the final output after passing through several intermediate layers. These final outputs are numerical values showing the possibility of execution for each behavior pattern, and some have a plus sign and some have a minus sign. There are many other action patterns such as moving around, observing, talking, screen commentary, chasing, approaching, moving away, turning around, and the number of the action patterns and the number of outputs of the neural network are the same. ing. Further, the calculation by the neural network is sequentially performed by software using the coefficient held in the nondestructive memory. Moreover, each coefficient may be changed by feeding back the user's evaluation of the relationship between the input and the output.

【0032】[0032]

【発明の効果】本発明によれば、まず第1にパーソナル
ロボット装置において、簡易な構成で、ユーザとロボッ
ト装置の間で肉声により対話することが可能なため、ユ
ーザが手を使わずにロボット装置を制御することが可能
である。
According to the present invention, first of all, in the personal robot apparatus, since the user and the robot apparatus can have a real voice conversation with a simple structure, the robot can be operated by the user without using the hand. It is possible to control the device.

【0033】第2に、非破壊メモリに行動パターンを決
定するニューラルネットの計算の係数をユーザとのやり
取りの結果からユーザの意図にあうように更新して記憶
しておくことによりユーザが頻繁に制御すること無く、
ロボットは、ユーザの所望の行動を取る。
Secondly, the non-destructive memory is frequently used by the user by updating and storing the calculation coefficient of the neural network for determining the action pattern so as to meet the user's intention from the result of the interaction with the user. Without control
The robot takes the desired behavior of the user.

【0034】第3に、各機能のブロックをボード状と
し、マザーボードと自由に着脱できるようにしたので、
バージョンアップや新機能の追加が容易である。
Thirdly, since each function block has a board shape and can be freely attached to and detached from the mother board,
It is easy to upgrade and add new functions.

【0035】第4に、各機能ブロックごとに各々専用の
計算手段を用たので、ロボットは、同時に複数の作業を
こなすことができ、滑らかな動きをすることができる。
Fourth, since the calculation means dedicated to each functional block is used, the robot can simultaneously perform a plurality of tasks and can perform smooth movements.

【0036】第5に、状況に応じて最低限必要な機能だ
けを動作させるように電源コントロールを行うので、消
費電力を常に最低限に押さえることができる。
Fifth, since the power supply is controlled so that only the minimum required function is operated depending on the situation, the power consumption can always be kept to the minimum.

【0037】第6に、目的に応じて外部ROMでソフト
ウェア供給を受けるので、ユーザがプログラムしなくて
も様々な目的で該ロボット装置を動作させることができ
る。
Sixth, since the software is supplied from the external ROM according to the purpose, the robot apparatus can be operated for various purposes without the user having to program.

【図面の簡単な説明】[Brief description of drawings]

【図1】ロボット装置の構成の一実施例を示す外観図で
ある。
FIG. 1 is an external view showing an example of the configuration of a robot apparatus.

【図2】画像入力ブロックの一実施例を示すブロック図
である。
FIG. 2 is a block diagram showing an embodiment of an image input block.

【図3】音声出力ブロックの一実施例を示すブロック図
である。
FIG. 3 is a block diagram showing an embodiment of an audio output block.

【図4】センサブロックの一実施例を示すブロック図で
ある。
FIG. 4 is a block diagram showing an embodiment of a sensor block.

【図5】音声入力ブロックの一実施例を示すブロック図
である。
FIG. 5 is a block diagram showing an example of a voice input block.

【図6】各ブロックの接続関係を示すブロック図であ
る。
FIG. 6 is a block diagram showing a connection relationship of each block.

【図7】コントロールスイッチの一実施例を示す図であ
る。
FIG. 7 is a diagram showing an embodiment of a control switch.

【図8】ロボット装置のメインプログラムのプログラム
を示すフローチャートである。
FIG. 8 is a flowchart showing a program of a main program of the robot apparatus.

【図9】ロボット装置の「起動の確認」のプログラムを
示すフローチャートである。
FIG. 9 is a flowchart showing a program for “confirmation of activation” of the robot apparatus.

【図10】ロボット装置の「行動の確認」のプログラム
を示すフローチャートである。
FIG. 10 is a flowchart showing a program for “confirming behavior” of the robot apparatus.

【図11】ロボット装置の「行動」プログラムを示すフ
ローチャートである。
FIG. 11 is a flowchart showing a “behavior” program of the robot apparatus.

【図12】ニューラルネットを用いた行動選択を実現す
るの一実施例を示す図である。
FIG. 12 is a diagram showing an example of realizing action selection using a neural network.

【符号の説明】[Explanation of symbols]

101 マザーボード 108 外部ROM挿入口 109a、b、c マイクロフォン 110 センサブロック 111 音声入力ブロック 112 音声出力ブロック 113 画像入力ブロック 114 マイコンブロック 115 非破壊メモリブロック 116 外部ROMブロック 117 撮像レンズ 118 スピーカ 101 Motherboard 108 External ROM Insertion 109a, b, c Microphone 110 Sensor Block 111 Audio Input Block 112 Audio Output Block 113 Image Input Block 114 Microcomputer Block 115 Nondestructive Memory Block 116 External ROM Block 117 Imaging Lens 118 Speaker

Claims (17)

【特許請求の範囲】[Claims] 【請求項1】行動を制御するプログラムをメモリ手段に
記憶し、該プログラムを計算手段で実行することにより
該プログラムに応じた行動を行うパーソナルロボット装
置であって、 該ロボットの置かれた状況に応じてユーザに行動の指示
を仰ぐ音声信号を生成する音声合成手段、 該音声合成手段により生成された音声信号を出力する音
声出力手段、 外部の音声を入力する音声入力手段、 該音声出力手段による音声の出力の後、該音声入力手段
により入力された音声の音量を検出する音量検出手段、
及び該音量検出手段の検出結果に従って該ロボットの行
動を決定する手段を設けたパーソナルロボット装置。
1. A personal robot apparatus which stores a program for controlling an action in a memory means, and executes the program by a calculating means to perform an action according to the program, in a situation where the robot is placed. A voice synthesizing means for generating a voice signal in response to a user's action instruction, a voice output means for outputting the voice signal generated by the voice synthesizing means, a voice input means for inputting an external voice, and a voice outputting means. Volume detection means for detecting the volume of the voice input by the voice input means after outputting the voice,
And a means for determining the action of the robot according to the detection result of the volume detecting means.
【請求項2】前記音声検出手段は、音量が一定値より大
きいか小さいかで音量を検出する請求項1記載のパーソ
ナルロボット装置。
2. The personal robot apparatus according to claim 1, wherein the voice detecting means detects the volume depending on whether the volume is higher or lower than a fixed value.
【請求項3】前記音声入力手段と前記音量検出手段の対
を複数組設けた請求項1記載のパーソナルロボット装
置。
3. The personal robot apparatus according to claim 1, wherein a plurality of pairs of the voice input means and the volume detecting means are provided.
【請求項4】前記音声入力手段と前記音量検出手段の対
は3個である請求項3記載のパーソナルロボット装置。
4. The personal robot apparatus according to claim 3, wherein there are three pairs of the voice input means and the volume detecting means.
【請求項5】電気的に書き換え可能な不揮発性メモリ手
段を更に設け、前記決定された行動音量検出手段の検出
結果に従って該不揮発性メモリ手段に記憶されたデータ
を逐次更新することにより学習を行う請求項1記載のパ
ーソナルロボット装置。
5. Learning is further provided by further providing electrically rewritable non-volatile memory means and successively updating the data stored in the non-volatile memory means in accordance with the determined detection result of the action sound volume detection means. The personal robot apparatus according to claim 1.
【請求項6】複数のボードの差し替えを行なうことの出
来るマザーボードを設け、該ロボットの使用目的に応じ
たボードを装着する請求項1記載のパーソナルロボット
装置。
6. The personal robot apparatus according to claim 1, further comprising a mother board capable of replacing a plurality of boards and mounting the boards according to the purpose of use of the robot.
【請求項7】前記音声合成手段は、前記プログラムとは
別のプログラムを記憶する第2のメモリ手段、及び該別
のプログラムを実行する第2の計算手段により制御され
る請求項6記載のたパーソナルロボット装置。
7. The speech synthesizing means is controlled by a second memory means for storing a program different from the program and a second calculating means for executing the different program. Personal robot equipment.
【請求項8】前記プログラムとは別のプログラムを記憶
する第2のメモリ手段、及び該別のプログラムを実行す
る第2の計算手段により制御される画像処理手段を設け
た請求項1記載のパーソナルロボット装置
8. The personal computer according to claim 1, further comprising a second memory means for storing a program different from the program, and an image processing means controlled by a second calculating means for executing the other program. Robot equipment
【請求項9】外部の物体との接触を検出する触覚センシ
ング手段を設け、該触覚センシング手段の出力が所定の
値を越えた場合に走行を中止する請求項1記載のパーソ
ナルロボット装置。
9. The personal robot apparatus according to claim 1, further comprising: tactile sensing means for detecting contact with an external object, and stopping traveling when the output of the tactile sensing means exceeds a predetermined value.
【請求項10】前記計算手段は、複数の「電源入」モー
ドに係る複数系統の電源を制御する請求項1記載のパー
ソナルロボット装置。
10. The personal robot apparatus according to claim 1, wherein said calculation means controls a plurality of power supplies in a plurality of "power-on" modes.
【請求項11】ユーザからの指令を受信する手段を設
け、前記計算手段は、該指令が無いときには最も消費電
力の少ない「電源入」モード設定し待機する請求項10
記載のパーソナルロボット装置。
11. A means for receiving a command from a user is provided, and the calculating means sets a "power-on" mode in which the power consumption is minimum when there is no command, and stands by.
The personal robot device described.
【請求項12】電源の「入」「切」のスイッチを設け、
該スイッチを「入」の状態にしたとき、前記計算手段
は、最も消費電力の少ない「電源入」モードを設定する
請求項10記載のパーソナルロボット装置。
12. A power on / off switch is provided,
11. The personal robot apparatus according to claim 10, wherein when the switch is in the "ON" state, the calculating means sets the "power-on" mode with the least power consumption.
【請求項13】行動を制御するプログラムをメモリ手段
に記憶し、該プログラムを計算手段で実行することによ
り該プログラムに応じた行動を制御するパーソナルロボ
ット装置の制御方法であって、 該ロボットの置かれた状況に応じてユーザに行動の指示
を仰ぐ音声を発生し、 外部の音声を入力し、 入力された該外部の音声の音量を検出し、 検出された該音量から該ロボットの行動を決定すること
を特徴とするパーソナルロボット装置の制御方法。
13. A control method of a personal robot apparatus, wherein a program for controlling a behavior is stored in a memory means, and the behavior according to the program is controlled by executing the program by a computing means. Generates a voice that asks the user for an action instruction according to the circumstance, inputs an external voice, detects the volume of the input external voice, and determines the action of the robot from the detected volume. A method for controlling a personal robot apparatus, comprising:
【請求項14】前記音量の検出は、音量が一定値より大
きいか小さいかで行う請求項13記載のパーソナルロボ
ット装置の制御方法。
14. The control method for a personal robot apparatus according to claim 13, wherein the sound volume is detected depending on whether the sound volume is higher or lower than a predetermined value.
【請求項15】前記音声の入力は、複数の個所から行
い、前記音量の検出は、該複数の個所からの入力ごとに
行う請求項13記載のパーソナルロボット装置の制御方
法。
15. The control method for a personal robot apparatus according to claim 13, wherein the voice is input from a plurality of points, and the sound volume is detected for each input from the plurality of points.
【請求項16】前記音声の入力の個所は、3個所である
請求項15記載のパーソナルロボット装置の制御方法。
16. The method of controlling a personal robot apparatus according to claim 15, wherein the number of the voice input points is three.
【請求項17】前記行動の決定に関するデータは、電気
的に書き換え可能な不揮発性メモリに逐次記憶し、前記
行動の決定は、該記憶されたデータに基づいて行われる
請求項13記載のパーソナルロボット装置の制御方法。
17. The personal robot according to claim 13, wherein the data regarding the action determination is sequentially stored in an electrically rewritable nonvolatile memory, and the action determination is performed based on the stored data. Device control method.
JP5286400A 1993-11-16 1993-11-16 Personal robot and its control method Pending JPH07140997A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5286400A JPH07140997A (en) 1993-11-16 1993-11-16 Personal robot and its control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5286400A JPH07140997A (en) 1993-11-16 1993-11-16 Personal robot and its control method

Publications (1)

Publication Number Publication Date
JPH07140997A true JPH07140997A (en) 1995-06-02

Family

ID=17703916

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5286400A Pending JPH07140997A (en) 1993-11-16 1993-11-16 Personal robot and its control method

Country Status (1)

Country Link
JP (1) JPH07140997A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08266747A (en) * 1995-03-31 1996-10-15 Matsushita Electric Ind Co Ltd Voice recognition device, reacting device, reaction selecting device, and reactive toy using those devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08266747A (en) * 1995-03-31 1996-10-15 Matsushita Electric Ind Co Ltd Voice recognition device, reacting device, reaction selecting device, and reactive toy using those devices

Similar Documents

Publication Publication Date Title
CN111868824A (en) Context aware control of smart devices
KR101034524B1 (en) Controlling an apparatus based on speech
JP3674990B2 (en) Speech recognition dialogue apparatus and speech recognition dialogue processing method
CN102056036A (en) Reproducing device, headphone and reproducing method
US11587560B2 (en) Voice interaction method, device, apparatus and server
JP4622384B2 (en) ROBOT, ROBOT CONTROL DEVICE, ROBOT CONTROL METHOD, AND ROBOT CONTROL PROGRAM
CN113168227A (en) Method of performing function of electronic device and electronic device using the same
JP3000999B1 (en) Speech recognition method, speech recognition device, and recording medium recording speech recognition processing program
CN110968353A (en) Central processing unit awakening method and device, voice processor and user equipment
KR20200043642A (en) Electronic device for ferforming speech recognition using microphone selected based on an operation state and operating method thereof
EP3779963A1 (en) Voice recognition service operating method and electronic device supporting same
KR20210044509A (en) An electronic device supporting improved speech recognition
JPH07140997A (en) Personal robot and its control method
CN111369992A (en) Instruction execution method and device, storage medium and electronic equipment
JP3446857B2 (en) Voice recognition device
JP2008040075A (en) Robot apparatus and control method of robot apparatus
JP2019219509A (en) Robot, control method of the same, and program
KR20220125523A (en) Electronic device and method for processing voice input and recording in the same
JP4143487B2 (en) Time-series information control system and method, and time-series information control program
JP3846500B2 (en) Speech recognition dialogue apparatus and speech recognition dialogue processing method
JP2006064973A (en) Control system
JP2000089787A (en) Continuous word recognition system for speech recognizing device and recording medium stored with continuous word recognition processing program in speech recognizing device
JP2002507772A (en) Device for information reproduction or function execution
JP3050232B2 (en) Speech recognition method, speech recognition device, and recording medium recording speech recognition processing program
JP2001043126A (en) Robot system