JP2006026761A - Robot - Google Patents
Robot Download PDFInfo
- Publication number
- JP2006026761A JP2006026761A JP2004206003A JP2004206003A JP2006026761A JP 2006026761 A JP2006026761 A JP 2006026761A JP 2004206003 A JP2004206003 A JP 2004206003A JP 2004206003 A JP2004206003 A JP 2004206003A JP 2006026761 A JP2006026761 A JP 2006026761A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- robot body
- image
- data
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、家庭等において使用されるロボットに関し、より詳しくは、ロボット本体と、このロボット本体に分離可能に接続され、ロボット本体のアバタ(分身)のように機能する分体部とを備えたロボットに関する。 The present invention relates to a robot used in homes and the like, and more specifically, includes a robot main body and a separating unit that is detachably connected to the robot main body and functions like an avatar (separator) of the robot main body. Regarding robots.
従来より、CPUを搭載した携帯型情報端末装置をロボット本体と合体させ、ロボット本体駆動時のセンサ情報の処理を携帯型情報端末装置のCPUで行うようにしたロボットが提案されている。
上記従来のロボットでは、携帯型情報端末装置は、単にロボットの制御装置としての機能を有しているにすぎず、携帯型情報端末装置単体でユーザとコミュニケーションを行ったり、心理的なつながり感を得るには不十分であった。 In the above-described conventional robot, the portable information terminal device merely has a function as a robot control device, and the portable information terminal device alone communicates with the user or feels psychologically connected. It was not enough to get.
上記課題を解決するために、本発明は、
ロボット本体(10)と、このロボット本体(10)に分離可能に接続されると共に前記ロボット本体(10)と通信可能な分体部(50)とを備えたロボットにおいて、
前記分体部(50)は、外部から入力される情報及び予め記憶した前記ロボット固有の状態データに基づいて前記ロボット本体(10)を制御すると共に前記状態データを適宜改変するようにしたものであって、
画像を表示するディスプレイ(51)と、
前記状態データを記憶する記憶手段(66)と、
前記情報を入力するための入力手段(52、53、55、56、57)と、
前記入力手段(52、53、55、56、57)で入力された情報に基づいて前記記憶手段(66)の記憶内容を改変するデータ改変手段(S220〜S300、S320〜S390、S420〜S490)と、
前記ロボット本体(10)との接続状態を検出する接続状態検出手段(S110、S120)と、
この接続状態検出手段(S110、S120)により前記ロボット本体(10)から分離した状態にあると検出されたときに前記ロボット本体(10)のイメージ画像(P)を前記ディスプレイ(51)に表示させる出力手段(S130)と、
前記入力手段(52、53、55、56、57)で入力された情報及び前記状態データに基づいて前記出力手段(S130)を制御する制御手段(65)と、
を有することを特徴としている。
In order to solve the above problems, the present invention provides:
In a robot comprising a robot body (10) and a separating part (50) that is separably connected to the robot body (10) and can communicate with the robot body (10),
The splitting unit (50) is configured to control the robot body (10) based on information input from the outside and the robot-specific state data stored in advance and appropriately modify the state data. There,
A display (51) for displaying images,
Storage means (66) for storing the state data;
Input means (52, 53, 55, 56, 57) for inputting the information;
Data modification means (S220 to S300, S320 to S390, S420 to S490) for modifying the storage contents of the storage means (66) based on the information input by the input means (52, 53, 55, 56, 57) When,
Connection state detection means (S110, S120) for detecting the connection state with the robot body (10),
When the connection state detection means (S110, S120) detects that the robot body (10) is separated, the image (P) of the robot body (10) is displayed on the display (51). Output means (S130);
Control means (65) for controlling the output means (S130) based on the information input by the input means (52, 53, 55, 56, 57) and the state data;
It is characterized by having.
本発明によれば、分体部がロボット本体と分離したときにディスプレイにロボット本体のイメージ画像が表示されるので、ユーザに親近感を与えることができる。また、ユーザが入力手段で情報を入力することにより、記憶手段の記憶内容が改変され、分体部単体でも性格が変化したり、成長したりすることで、あたかも分体部がロボット本体のアバタ(分身)のような感覚をユーザに与えることができる。したがって、ユーザと親近感の有るコミュニケーションを行うことができ、心理的なつながり感をユーザに与えることができる。 According to the present invention, since the image of the robot main body is displayed on the display when the separating unit is separated from the robot main body, it is possible to give a sense of familiarity to the user. In addition, when the user inputs information with the input means, the storage contents of the storage means are modified, and even if the split part alone changes or grows, it is as if the split part is an avatar of the robot body. A sense like (alternate) can be given to the user. Therefore, it is possible to communicate with the user in a close sense, and to give the user a psychological connection.
以下、本発明の一実施形態を図面に基づいて説明する。図1は本発明の一実施形態であるロボット1の正面図、図2は図1の側面図、図3は図1のA−A線断面図、図4はロボット本体10と分体部50の接続部の拡大図、図5はロボット1の制御ブロック図である。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. 1 is a front view of a robot 1 according to an embodiment of the present invention, FIG. 2 is a side view of FIG. 1, FIG. 3 is a cross-sectional view taken along the line AA in FIG. FIG. 5 is a control block diagram of the robot 1.
本実施形態のロボット1は家庭やオフィス等で使用されるもので、図1に示すように、ロボット本体10と、このロボット本体10に装脱自在に装着される分体部50とを備えている。
The robot 1 according to the present embodiment is used in a home or office, and includes a robot
分体部50は、タッチパネル付きLCDパネル51(ディスプレイ)、マイク52(入力手段)、カメラ53(入力手段)、スピーカ54、操作ボタン55〜57(入力手段)を有している。
The
分体部50は独立した携帯情報端末装置として使用可能であり、これをロボット本体10と合体することでロボット本体10の頭脳として用いることができる。また、マイク52は音声入力装置、カメラ53は画像入力装置として使用可能である。
The splitting
LCDパネル51はカラーで文字や画像を表示することが可能である。操作ボタン55〜57は通常の携帯情報端末装置と同様の操作を可能にするもので、左側の操作ボタン55はLCDパネル51上のカーソルを移動させたりするのに使用することができる。
The
また、図3に示すように、分体部50の両側面には長手方向に延びる凹溝58が設けられている。さらに、図4に示すように、分体部50の底面には、端子59〜61、発光部62、受光部63が設けられており、これらを介してロボット本体10と信号のやり取りを行う。
Further, as shown in FIG. 3,
図1、2に示すように、ロボット本体10は、胴部11と、その上部に設けられた頭部12と、胴部11の両側に設けられた左右一対の腕部13、14と、腕部13、14の先端に回転自在に取り付けられた腕ローラ15、16と、胴部11の下部に設けられた左右一対の腰ローラ17、18とを備えている。
As shown in FIGS. 1 and 2, the
腕部13、14は上端部を中心として図2の紙面と平行な方向に回転自在となっており、腕部13、14及び腕ローラ15、16の駆動制御により、ロボット1の前進、後退、右折、左折等の動作が可能である。さらに、腕部13、14のいずれか片方を上げたりすることもできる。
The
胴部11の前面には略直方体状のポケット状のホルダー19が設けられており、このホルダー19には、その上面に形成された開口部(図示せず)を介して分体部50が装脱自在に装着される。ホルダー19の前面には窓20が設けられており、この窓20を介して分体部50の一部を外部に露出させている。
A substantially rectangular parallelepiped pocket-
図3に示すように、ホルダー19の両内側面にはそれぞれ上下に延びる凸条21が形成されており、この凸条21は分体部50の両側面に形成された凹溝58に摺動自在に係合して分体部50を装脱方向にガイドする。
As shown in FIG. 3,
なお、ホルダー19の前面上部には左右一対のストッパ22が設けられており、これらのストッパ22は、分体部50との間に摩擦力を生じさせて分体部50をロボット本体10側に押し付けることにより分体部50のホルダー19からの脱落を防止する。
In addition, a pair of left and
また、図4に示すように、ホルダー19の内底面には、分体部50の底部に設けられた信号入出力用の端子59〜61、発光部62、及び受光部63にそれぞれ対応するように、コネクタ23〜25、受光部26、及び発光部27が設けられている。コネクタ23〜25はそれぞれバネ28〜30で上方に付勢されて端子59〜61に圧接されている。
Further, as shown in FIG. 4, the inner bottom surface of the
コネクタ23及び端子59はデータDAT、コネクタ24及び端子60はグランドGND、コネクタ25及び端子61はシリアル信号のクロックCLKにそれぞれ対応しており、ロボット本体10と分体部50との間で双方向通信が可能である。この場合、例えば12C等の信号で良い。
The
また、受光部26及び発光部62は分体部50側からロボット本体10側にデータを送る系統であり、発光部27及び受光部63はロボット本体10側から分体部50側にデータを送る系統である。この場合、例えばIrDA等で良い。
The
なお、本実施形態ではコネクタと光通信の2系統の信号伝送経路を設けているが、いずれか1系統であってもよい。 In this embodiment, two signal transmission paths for the connector and optical communication are provided, but any one of them may be used.
図1に示すように、頭部12は垂直回転軸31を介して胴部4に回転自在に取り付けられ、水平方向に360°回転自在となっている。また、頭部12の前部には目部を構成する一対のLEDアレイ32が設けられている。このLEDアレイ32は、LEDを例えば5行×5列のマトリックス状に配列して成るものである。
As shown in FIG. 1, the
図5に示すように、ロボット本体10は、LEDアレイ32の駆動部としてのLEDドライバ33、モータ制御ユニット34を有しており、これらはメカ制御CPU35に接続されている。
As shown in FIG. 5, the
LEDドライバ33がLEDアレイ32を構成する多数のLEDを選択的に駆動することにより、点灯パターンで表情を表すことが可能となる。例えば、図6(a)は喜びの表情、(b)は驚きの表情、(c)は悲しみの表情、(d)は通常の表情を表している。なお、この図面において黒丸は点灯状態、白丸は消灯状態であるが、点灯状態と消灯状態を逆にして表情を表すようにしてもよい。
When the
モータ制御ユニット34は、頭部5の駆動部としての頭駆動モータ36、左の腕部13の駆動部としての左腕駆動モータ37、右の腕部14の駆動部としての右腕駆動モータ38、左の腰ローラ17の駆動部としての左腰駆動モータ39、右の腰ローラ18の駆動部としての右腰駆動モータ40を有しており、これらモータ36〜40にはそれぞれ角度センサ41〜45が付設されている。モータ36〜40及びセンサ41〜45はモータ制御CPU/ドライバ36に接続されている。
The
分体部50は、CPU65と、記憶手段としてのメモリ66と、無線通信回路67とを有している。メモリ66には、制御プログラムやカメラ53で撮影した画像が記憶される。カメラ53はCPU65の制御により画像を取り込む。無線通信回路67は文字や画像データやプログラム等を送受信する。
The
このロボット1は、自律的に動く自律モードでは、カメラ53から入力された画像に基づいて移動したり、所定の色のボールを追いかけたりすることができる。すなわち、分体部50のCPU65はカメラ53から画像を取り込んで画像認識を行い、所定の色のボールを認識したら、ロボット本体10がそちらの方向を向くようにメカ制御CPU35に指令を出す。
In the autonomous mode in which the robot 1 moves autonomously, the robot 1 can move based on an image input from the
メカ制御CPU35は、まず、腰ローラ17、18を逆方向に回転させてロボット本体10がボールの方向に向くようにする。そして、腰ローラ17、18を同じ方向に回転させてロボット本体10を前進させる。
First, the
このように、分体部50はロボット本体10の制御装置として機能する。また、マイク52から入力した音声をコマンドとして認識し、メカ制御CPU35に指令を出すようにすることで、音声による制御も実現することができる。
As described above, the dividing
また、分体部50にメールが着信したときに腕部13、14を上げたり、目部であるLEDアレイ32の点灯パターンを所定のものにすることにより、エンターテインメント性豊かな着信通知等も実現することができる。
In addition, when the mail is received at the
さらに、腕部13、14等の被駆動部の角度データを分体部50のCPU65に送ることにより、被駆動部の状態を検出可能である。例えば、故障や何処かにつかえて駆動不能になったことも知ることができる。このとき、分体部50のCPU65はロボット1の電源をOFFする等の処置をすることも可能である。
Furthermore, the state of the driven part can be detected by sending the angle data of the driven parts such as the
メカ制御CPU35の制御プログラムをバージョンアップする場合は、分体部50を介して行うと、可搬型メモリ媒体やワイヤ接続等が不要で、簡単かつ低コストで実現することができる。具体的には、図7に示す如く、無線LAN等を介し無線通信回路67で受信したプログラムを分体部50のメモリ66にダウンロードし(ステップS10)、これをメカ制御CPU35のメモリに書き込む(ステップS20)ことにより実現することができる。
When upgrading the control program of the
なお、外出時にはロボット本体10を自宅やオフィスに置いておき、分体部50を持って外出し、スケジュール管理やメモ等に利用することができる。分体部50はロボット1の頭脳部であり、この場合、図8に示すように、LCDパネル51にロボット本体10のイメージ画像Pを表示することで、ロボット1との関わり合いや思い入れがユーザに生じて心理的にロボット1との親近感のある関係を実現することができる。このような分体部50に表示される仮想的なロボットは、実態と同様の画像やロボット1の個性を表現するものとする。
When the user goes out, the
このイメージ画像は分体部50のメモリ66に格納しておき、分体部50がロボット本体10から離脱した際にLCDパネル51に表示する。このように、分体部50がロボット本体10を離れたときにLCDパネル51にロボット本体10のイメージ画像を表示することにより、仮想的に分体部50内にロボット1が存在するイメージを表現することが可能となる。
This image is stored in the
また、このイメージ画像をアニメーション画像、すなわち動画とするとさらに良い。さらに、マイク52を介した音声入力、CPU65での音声認識、判断・処理、音声合成により、簡易的な会話を実現することも可能であり、更にリアルな仮想ロボットの状態を実現することができる。
It is even better if this image is an animation image, that is, a moving image. Furthermore, a simple conversation can be realized by voice input through the
また、メモリ66に記憶してあるスケジュールデータに基づき、スケジュールの日時になったときに告知を行うようにすると、秘書のようなイメージになる。分体部50がロボット本体10と合体している時には実際のロボット1が話しているように見えるし、分体部50がロボット本体10と分離している時にはLCDパネル51の画面でのロボット本体10の表示となり、いずれも良好な感覚が得られる。
Further, if notification is made when the date and time of the schedule comes based on the schedule data stored in the
なお、ロボット1を操作により育成するようなアプリケーションを実現することもできる。これは、データが増える毎に成長するペット的なものである。これらはメモリ66に記憶されたデータにより実現される。
An application that trains the robot 1 by operation can also be realized. This is like a pet that grows as data increases. These are realized by data stored in the
図9にメモリ66上に記憶される状態データの例を示す。成長状態は、前記の育成プログラムにおける成長の状態を示している。例えば年齢や健康状態である。ロボット1を操作する毎に年齢が上がり、年齢を重ねると反応が良くなったり、操作を長時間しないと健康状態が悪化して反応が鈍くなったりする等のアプリケーションを実現することができる。
FIG. 9 shows an example of state data stored on the
性格データは、ロボット1のある自律的な動作に対してほめることにより、その動作パターンの頻度を上げたり、反対に躾反応を行えば、その頻度が低くなるといったアプリケーションを実現する。ほめたり、躾たりすることは、分体部50のLCDパネル51にメニューを表示して、これを操作ボタン55〜57により入力することにより実現することができる。
Personality data realizes an application in which the frequency of the motion pattern is increased by complimenting a certain autonomous operation of the robot 1, or the frequency is decreased if a habit reaction is performed on the contrary. Complimenting and wandering can be realized by displaying a menu on the
認識データ1は最近の音声認識データの情報である。例えば音声で命令されたコマンドを憶えておき、同様のコマンド入力に対して反応を変化させるアプリケーションを実現することができる。 Recognition data 1 is information on recent speech recognition data. For example, it is possible to realize an application that remembers commands instructed by voice and changes the response to the same command input.
認識データ2は最近の画像認識データについて記憶しているものである。例えば、顔認識により憶えた顔と一致するデータを認識したときに、同一人物と判断して喜ぶ動作を表現させるアプリケーションを実現することができる。 The recognition data 2 is stored for recent image recognition data. For example, it is possible to realize an application that expresses a joyful operation by determining that the person is the same person when data matching a face remembered by face recognition is recognized.
スケジュールデータは分体部50に入力してあるスケジュールデータであり、これをもとにアラーム等の機能を実現できる。メモデータは備忘録等を実現できる。アクセスデータは、無線LAN等を介してインターネットにアクセスし、これらの履歴を保存したデータである。これらにより、ユーザの好みを憶えて、会話時の話題のもととするアプリケーションを実現することができる。
The schedule data is the schedule data input to the
分体部50はロボット本体10と分離しても、ロボット1の基本機能はそのまま受け継ぐことが可能である。また、分体部50をロボット本体10と合体したときには、ロボット本体10と分離した仮想ロボット状態で経験した状態を分体部50内でのデータにより再現することが可能であり、仮想ロボット状態(分体部50がロボット本体10から分離)と実ロボット状態(分体部50がロボット本体10と合体)とを連続したアプリケーションとすることができる。
Even if the
なお、ロボット本体10側にも無線通信回路を設けておくと、分体部50がロボット本体10から分離した状態においても、無線通信回路67を介してロボット本体10を制御可能となり、また、ロボット本体10の状態を表すデータを受け取ってLCDパネル51に表示させることにより、ロボット本体10の状態を把握することもできる。この表示はロボットのイメージ画像と置き替えたり、2画面表示により同時に表示したりする等、自由に行うことができる。
If a wireless communication circuit is also provided on the
図10はロボット1の状態の判別と制御モードの設定を行う手順を示すフローチャートである。まず、CPU65は、図4に示すコネクタ23〜25、発光部26、及び受光部27の信号のやりとりにより、分体部50とロボット本体10との接続状態をチェックする(ステップS110)。
FIG. 10 is a flowchart showing a procedure for determining the state of the robot 1 and setting the control mode. First, the
例えば、分体部50から所定の信号を送信し(光通信、コネクタを介した通信のいずれでもよい)、ロボット本体10から応答が有れば接続状態とし、応答が無ければ非接続状態とする。
For example, a predetermined signal is transmitted from the splitting unit 50 (either optical communication or communication via a connector may be used). If there is a response from the
非接続状態である場合、すなわち仮想ロボット状態の場合には、分体部50のLCDパネル51にロボット1のイメージ画像やその動画を表示する。また、マイク52からの音声入力等に反応して応答するようにすれば、実ロボット状態と一体的な感覚となる(ステップS120、S130)。
In the disconnected state, that is, in the virtual robot state, the image image of the robot 1 and its moving image are displayed on the
接続状態である場合、すなわち実ロボット状態の場合にはロボット本体10を制御するモードになり、腕部13、14の動作等に関するコマンドをロボット本体10に送信する(ステップS120、S140)。
If it is in a connected state, that is, if it is a real robot state, it enters a mode for controlling the
ステップS110〜ステップS120は本発明の接続状態検出手段に相当し、ステップS130は本発明の出力手段に相当する。 Steps S110 to S120 correspond to connection state detection means of the present invention, and step S130 corresponds to output means of the present invention.
図11はロボット1に躾を行う際の制御手順を示すフローチャートである。まず、ユーザがLCDパネル51に表示された躾ボタンを選択する(ステップS210)と、LCDパネル51に「ほめる」や「しかる」等のメニューが表示される。
FIG. 11 is a flowchart showing a control procedure when wrinkling the robot 1. First, when the user selects the 躾 button displayed on the LCD panel 51 (step S210), a menu such as “praise” or “push” is displayed on the
操作ボタン55〜57で「ほめる」を選択入力すると、ほめられ値がアップし、しかられ値がダウンする(ステップS220、S230)。この「ほめられ値」、「しかられ値」はカウント値により構成されるものであり、性格に影響する値である。ほめられ値がアップすると、CPU65は、LEDアレイ32を喜びの表情にしたり、スピーカ54から喜びの言葉を発する等により喜びを表現する(ステップS240)。
When “praise” is selected and input with the
なお、操作ボタン55〜57で「しかる」を選択入力すると、ほめられ値がダウンし、しかられ値がアップする(ステップS250、S260)。ほめられ値がダウンすると、CPU65は、LEDアレイ32を悲しみの表情にしたり、スピーカ54から悲しみの言葉を発する等により悲しみを表現する(ステップS270)。
Note that if “Karuru” is selected and input with the
喜びや悲しみが表現されると、操作カウントがアップする(ステップS280)。この操作カウントは操作ボタン55〜57を押された回数である。また、CPU65は電源ON時間を読み込み(ステップS290)、操作カウント、ほめられ値、しかられ値、操作時間をメモリ66に保存する(ステップS300)。操作カウントは操作ボタン55〜57が押された回数であり、操作時間は電源がONであった時間の総和である。この値により年齢等の成長状態を表す。
When joy or sadness is expressed, the operation count is increased (step S280). This operation count is the number of times the
図12はロボット1がユーザに対する応答を行う際の制御手順(音声認識)を示すフローチャートである。まず、ユーザの音声がマイク52に入力されると(ステップS310)、CPU65はその音声パターンを認識し(ステップS320)、メモリ66に記憶された登録者の音声であるかを判定する(ステップS330)。
FIG. 12 is a flowchart showing a control procedure (voice recognition) when the robot 1 responds to the user. First, when a user's voice is input to the microphone 52 (step S310), the
登録者である場合にはメモリ66に記憶された登録者親近値をアップする(ステップS340)と共にLEDドライバ33、モータ36〜40、スピーカ54等を駆動して喜びを表現する(ステップS350)。また、ユーザとの会話内容を表すキーワードをメモリ66に記憶させる(ステップS390)。
If the user is a registrant, the registrant closeness value stored in the
ステップS320で認識された音声がメモリ66に登録されていない場合には、LCDパネル51に登録するか否かのメッセージが表示されるので(ステップS360)、ユーザが登録を選択する(ステップS370)と、CPU65はLEDドライバ33、モータ36〜40、スピーカ54等を駆動してユーザに挨拶を行う(ステップS380)。そして、新規に登録されたユーザの登録者親近値及び会話内容を表すキーワードをメモリ66に記憶させる(ステップS390)。
If the voice recognized in step S320 is not registered in the
図13はロボット1がユーザに対して応答を行う際の手順(画像認識)を示すフローチャートである。まず、ユーザの画像がカメラ53に入力されると(ステップS410)、CPU65はその画像を認識し(ステップS420)、その顔がメモリ66に記憶された登録者の顔であるかを判定する(ステップS430)。
FIG. 13 is a flowchart showing a procedure (image recognition) when the robot 1 responds to the user. First, when a user image is input to the camera 53 (step S410), the
登録者である場合にはメモリ66に記憶された登録者親近値をアップする(ステップS440)と共にLEDドライバ33、モータ36〜40、スピーカ54等を駆動して喜びを表現する(ステップS450)。
If the user is a registrant, the registrant closeness value stored in the
ステップS420で認識された画像がメモリ66に登録されていない場合には、LCDパネル51に登録するか否かのメッセージが表示されるので(ステップS460)、ユーザが登録を選択する(ステップS470)と、CPU65はLEDドライバ33、モータ36〜40、スピーカ54等を駆動してユーザに挨拶を行う(ステップS480)。そして、新規に登録されたユーザの登録者親近値及び顔の画像をメモリ66に記憶させる(ステップS490)。
If the image recognized in step S420 is not registered in the
なお、上記の図11〜図13の処理は、ロボット本体10と分体部50が合体した実ロボット状態だけでなく、ロボット本体10から分離した仮想ロボット状態の分体部50においても行われるのはいうまでもない。
11 to 13 is performed not only in the real robot state in which the
操作カウント、ほめられ値、しかられ値、操作時間、登録者親近値等は本発明の状態データに相当し、ステップS220〜ステップS300、ステップS320〜ステップS390、及びステップS420〜ステップS490までの処理は本発明のデータ改変手段に相当する。 The operation count, the praise value, the luck value, the operation time, the registrant closeness value, etc. correspond to the status data of the present invention, and the processing from step S220 to step S300, step S320 to step S390, and step S420 to step S490 is performed. Corresponds to the data modifying means of the present invention.
このロボット1は、分体部50がロボット本体10と分離したときにLCDパネル51にロボット本体10のイメージ画像Pが表示されることにより、ユーザに親近感を与えることができる。また、ユーザが、マイク52、カメラ53、操作ボタン55〜57等で情報を入力することにより、メモリ66に記憶された性格・経験等の状態データが改変され、分体部50単体でも性格が変化したり、成長したりすると共に、それに応じた出力がマイク54等を介して行われるので、あたかも分体部50がロボット本体10のアバタ(分身)のような感覚をユーザに与えることができる。したがって、ユーザと親近感の有るコミュニケーションを行うことができ、心理的なつながり感を得ることができる。
The robot 1 can give a sense of familiarity to the user by displaying the image P of the
また、本実施形態では、分体部50として携帯情報端末装置を用いているため、専用に設計された分体部を用いる場合と比べてコストダウンを図ることができる。また、携帯情報端末装置を用いてロボット1の制御プログラムを開発することができるので、児童や技術的知識の少ない人でも容易にプログラミングすることができ、創造性を育む玩具にもなり得る。この場合、USBのキーボード等を用いると良い。
Moreover, in this embodiment, since the portable information terminal device is used as the
また、本実施形態では、LEDアレイ32の点灯パターン、スピーカ54からの音声、ロボット本体10の被駆動部(例えば腕部13、14等)の動作を適宜組み合わせることで、豊かな感情表現を行うことができ、高いエンターテインメント性を実現することができる。
Further, in the present embodiment, rich emotional expression is performed by appropriately combining the lighting pattern of the
なお、分体部50がユーザに対して行う出力は音声に限られるものではなく、LCDパネル51に表示される画像や文字、あるいはその他のものであってもよい。
In addition, the output which the
また、上記実施形態では、分体部50のCPU65及びメモリ66でロボット本体10を制御するようにしているが、図14に示すように、ロボット本体10側にメインCPU68及びメモリ69を設け、分体部50のメモリ66に記憶したデータをロボット本体10のメモリ69でも記憶させ、メインCPU68でロボット本体10を制御するようにしてもよい。
In the above embodiment, the
その他にも、本発明の要旨を逸脱しない範囲で上記実施形態に種々の改変を施すことができる。 In addition, various modifications can be made to the above embodiment without departing from the gist of the present invention.
1 ロボット
10 ロボット本体
50 分体部
51 LCDパネル(ディスプレイ)
52 マイク(入力手段)
53 カメラ(入力手段)
54 スピーカ(出力手段)
55 操作ボタン(入力手段)
56 操作ボタン(入力手段)
57 操作ボタン(入力手段)
65 CPU(制御手段)
66 メモリ(記憶手段)
S110、S120 接続状態検出手段
S130 出力手段
S220〜S300 データ改変手段
S320〜S390 データ改変手段
S420〜S490 データ改変手段
1
52 Microphone (input means)
53 Camera (input means)
54 Speaker (output means)
55 Operation buttons (input means)
56 Operation buttons (input means)
57 Operation buttons (input means)
65 CPU (control means)
66 Memory (memory means)
S110, S120 Connection state detection means S130 Output means S220 to S300 Data modification means S320 to S390 Data modification means S420 to S490 Data modification means
Claims (1)
前記分体部は、外部から入力される情報及び予め記憶した前記ロボット固有の状態データに基づいて前記ロボット本体を制御すると共に前記状態データを適宜改変するようにしたものであって、
画像を表示するディスプレイと、
前記状態データを記憶する記憶手段と、
前記情報を入力するための入力手段と、
前記入力手段で入力された情報に基づいて前記記憶手段の記憶内容を改変するデータ改変手段と、
前記ロボット本体との接続状態を検出する接続状態検出手段と、
この接続状態検出手段により前記ロボット本体から分離した状態にあると検出されたときに前記ロボット本体のイメージ画像を前記ディスプレイに表示させる出力手段と、
前記入力手段で入力された情報及び前記状態データに基づいて前記出力手段を制御する制御手段と、
を有することを特徴とするロボット。
In a robot provided with a robot main body and a separating part that is separably connected to the robot main body and can communicate with the robot main body,
The splitting unit is configured to control the robot main body based on information input from the outside and the state data unique to the robot stored in advance and appropriately change the state data,
A display for displaying images,
Storage means for storing the state data;
Input means for inputting the information;
Data modifying means for modifying the storage content of the storage means based on information input by the input means;
Connection state detection means for detecting a connection state with the robot body;
Output means for displaying an image of the robot body on the display when it is detected by the connection state detection means that the robot body is separated from the robot body;
Control means for controlling the output means based on the information inputted by the input means and the state data;
A robot characterized by comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004206003A JP4561209B2 (en) | 2004-07-13 | 2004-07-13 | robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004206003A JP4561209B2 (en) | 2004-07-13 | 2004-07-13 | robot |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006026761A true JP2006026761A (en) | 2006-02-02 |
JP4561209B2 JP4561209B2 (en) | 2010-10-13 |
Family
ID=35893704
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004206003A Active JP4561209B2 (en) | 2004-07-13 | 2004-07-13 | robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4561209B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007196375A (en) * | 2006-01-25 | 2007-08-09 | Lin Chyi Yeu | Device and method for interacting with autonomous robot |
JP2010264555A (en) * | 2009-05-15 | 2010-11-25 | Technical Research & Development Institute Ministry Of Defence | Hand throw type robot |
CN106003077A (en) * | 2016-06-22 | 2016-10-12 | 昆山邦泰汽车零部件制造有限公司 | Robot voice conservation method |
JP2016215292A (en) * | 2015-05-15 | 2016-12-22 | Kddi株式会社 | Robot operation creation device and program |
WO2017000795A1 (en) * | 2015-06-30 | 2017-01-05 | 芋头科技(杭州)有限公司 | Robot system and method for controlling same |
CN107029335A (en) * | 2017-03-29 | 2017-08-11 | 深圳市赛亿科技开发有限公司 | A kind of psychological consultant robot |
US10363663B2 (en) | 2015-12-15 | 2019-07-30 | Samsung Electronics Co., Ltd. | Electronic device and cradle thereof |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101905471B1 (en) * | 2016-06-23 | 2018-10-10 | 주식회사 아카인텔리전스 | Social Robot |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05127717A (en) * | 1991-11-05 | 1993-05-25 | Mitsubishi Electric Corp | Numerical controller |
JPH05277859A (en) * | 1992-03-27 | 1993-10-26 | Nippei Toyama Corp | Processing unit control panel in processing production system |
JPH11126017A (en) * | 1997-08-22 | 1999-05-11 | Sony Corp | Storage medium, robot, information processing device and electronic pet system |
JP2002154085A (en) * | 2000-11-15 | 2002-05-28 | Toyota Motor Corp | Maintenance support method and maintenance support device for working robot system |
JP2002321180A (en) * | 2001-04-24 | 2002-11-05 | Matsushita Electric Ind Co Ltd | Robot control system |
JP2003019681A (en) * | 2001-07-05 | 2003-01-21 | Sony Corp | Expansion module, information processing unit and method, recording medium and program |
JP2003136455A (en) * | 2001-11-07 | 2003-05-14 | Sony Corp | Robot system, remote control device and remote control method, and robot device and control method thereof |
-
2004
- 2004-07-13 JP JP2004206003A patent/JP4561209B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05127717A (en) * | 1991-11-05 | 1993-05-25 | Mitsubishi Electric Corp | Numerical controller |
JPH05277859A (en) * | 1992-03-27 | 1993-10-26 | Nippei Toyama Corp | Processing unit control panel in processing production system |
JPH11126017A (en) * | 1997-08-22 | 1999-05-11 | Sony Corp | Storage medium, robot, information processing device and electronic pet system |
JP2002154085A (en) * | 2000-11-15 | 2002-05-28 | Toyota Motor Corp | Maintenance support method and maintenance support device for working robot system |
JP2002321180A (en) * | 2001-04-24 | 2002-11-05 | Matsushita Electric Ind Co Ltd | Robot control system |
JP2003019681A (en) * | 2001-07-05 | 2003-01-21 | Sony Corp | Expansion module, information processing unit and method, recording medium and program |
JP2003136455A (en) * | 2001-11-07 | 2003-05-14 | Sony Corp | Robot system, remote control device and remote control method, and robot device and control method thereof |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007196375A (en) * | 2006-01-25 | 2007-08-09 | Lin Chyi Yeu | Device and method for interacting with autonomous robot |
JP4617322B2 (en) * | 2006-01-25 | 2011-01-26 | 國立台湾科技大學 | Apparatus and method for interaction with an autonomous robot |
JP2010264555A (en) * | 2009-05-15 | 2010-11-25 | Technical Research & Development Institute Ministry Of Defence | Hand throw type robot |
JP2016215292A (en) * | 2015-05-15 | 2016-12-22 | Kddi株式会社 | Robot operation creation device and program |
WO2017000795A1 (en) * | 2015-06-30 | 2017-01-05 | 芋头科技(杭州)有限公司 | Robot system and method for controlling same |
TWI622474B (en) * | 2015-06-30 | 2018-05-01 | 芋頭科技(杭州)有限公司 | Robot system and control method thereof |
US10363663B2 (en) | 2015-12-15 | 2019-07-30 | Samsung Electronics Co., Ltd. | Electronic device and cradle thereof |
CN106003077A (en) * | 2016-06-22 | 2016-10-12 | 昆山邦泰汽车零部件制造有限公司 | Robot voice conservation method |
CN107029335A (en) * | 2017-03-29 | 2017-08-11 | 深圳市赛亿科技开发有限公司 | A kind of psychological consultant robot |
Also Published As
Publication number | Publication date |
---|---|
JP4561209B2 (en) | 2010-10-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20070173974A1 (en) | Device and method for interacting with autonomous robot | |
KR101088406B1 (en) | Interactive learning system using robot and method of operating the same in child education | |
KR101053875B1 (en) | Event execution method and system for robots synchronized with mobile terminal | |
JP7400923B2 (en) | Information processing device and information processing method | |
US7987091B2 (en) | Dialog control device and method, and robot device | |
US7822507B2 (en) | Input device and inputting method | |
US20130123987A1 (en) | Robotic system, robot control method and robot control program | |
CN107225578A (en) | Robot controller, robot, robot control method and system | |
CN102103707B (en) | Emotion engine, emotion engine system and control method of electronic device | |
KR20170068532A (en) | Interactive learning blocks | |
JP2003205483A (en) | Robot system and control method for robot device | |
KR100894569B1 (en) | Humanized doll with adaptive function | |
JP4561209B2 (en) | robot | |
CN109262606B (en) | Apparatus, method, recording medium, and robot | |
JP2012155616A (en) | Content provision system, content provision method, and content provision program | |
JP2013099823A (en) | Robot device, robot control method, robot control program and robot system | |
US11074491B2 (en) | Emotionally intelligent companion device | |
CN108724206B (en) | Interaction device, interaction method, interaction program, and robot | |
KR20190106925A (en) | Ai robot and the control method thereof | |
KR100417402B1 (en) | Toy able to seperation of central controller | |
JP2001242780A (en) | Information communication robot device, information communication method, and information communication robot system | |
US11461404B2 (en) | System and method for adjustment of a device personality profile | |
CN108724204B (en) | Interaction device, interaction method, interaction program, and robot | |
KR100995807B1 (en) | Daily contents updating teller toy and method for operating the same | |
CN207895719U (en) | Face recognition early learning machine |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100706 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100719 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130806 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4561209 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130806 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130806 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130806 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |