JP2006026761A - Robot - Google Patents

Robot Download PDF

Info

Publication number
JP2006026761A
JP2006026761A JP2004206003A JP2004206003A JP2006026761A JP 2006026761 A JP2006026761 A JP 2006026761A JP 2004206003 A JP2004206003 A JP 2004206003A JP 2004206003 A JP2004206003 A JP 2004206003A JP 2006026761 A JP2006026761 A JP 2006026761A
Authority
JP
Japan
Prior art keywords
robot
robot body
image
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004206003A
Other languages
Japanese (ja)
Other versions
JP4561209B2 (en
Inventor
Katsuyuki Shudo
勝行 首藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2004206003A priority Critical patent/JP4561209B2/en
Publication of JP2006026761A publication Critical patent/JP2006026761A/en
Application granted granted Critical
Publication of JP4561209B2 publication Critical patent/JP4561209B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problems of a robot including a separate body part separably connected to a robot body, wherein since the separate body part just has a function as a control device for the robot body, it cannot communicate with a user or obtain a feeling of psychological contact. <P>SOLUTION: This separate body 50 displays an image P of the robot body 10 on an LCD panel 51 in the state of separating from the robot body 10. The separate body part 50 modifies the status data such as character and experience stored by a memory 66 on the basis of the information input by a microphone 52, a camera 53, operation buttons 55 to 57 or the like and outputs the voice according to the input information and the status data from a microphone 54. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、家庭等において使用されるロボットに関し、より詳しくは、ロボット本体と、このロボット本体に分離可能に接続され、ロボット本体のアバタ(分身)のように機能する分体部とを備えたロボットに関する。   The present invention relates to a robot used in homes and the like, and more specifically, includes a robot main body and a separating unit that is detachably connected to the robot main body and functions like an avatar (separator) of the robot main body. Regarding robots.

従来より、CPUを搭載した携帯型情報端末装置をロボット本体と合体させ、ロボット本体駆動時のセンサ情報の処理を携帯型情報端末装置のCPUで行うようにしたロボットが提案されている。
特開平8−137546号公報
2. Description of the Related Art Conventionally, a robot has been proposed in which a portable information terminal device equipped with a CPU is combined with a robot body, and sensor information processing when the robot body is driven is performed by the CPU of the portable information terminal device.
JP-A-8-137546

上記従来のロボットでは、携帯型情報端末装置は、単にロボットの制御装置としての機能を有しているにすぎず、携帯型情報端末装置単体でユーザとコミュニケーションを行ったり、心理的なつながり感を得るには不十分であった。   In the above-described conventional robot, the portable information terminal device merely has a function as a robot control device, and the portable information terminal device alone communicates with the user or feels psychologically connected. It was not enough to get.

上記課題を解決するために、本発明は、
ロボット本体(10)と、このロボット本体(10)に分離可能に接続されると共に前記ロボット本体(10)と通信可能な分体部(50)とを備えたロボットにおいて、
前記分体部(50)は、外部から入力される情報及び予め記憶した前記ロボット固有の状態データに基づいて前記ロボット本体(10)を制御すると共に前記状態データを適宜改変するようにしたものであって、
画像を表示するディスプレイ(51)と、
前記状態データを記憶する記憶手段(66)と、
前記情報を入力するための入力手段(52、53、55、56、57)と、
前記入力手段(52、53、55、56、57)で入力された情報に基づいて前記記憶手段(66)の記憶内容を改変するデータ改変手段(S220〜S300、S320〜S390、S420〜S490)と、
前記ロボット本体(10)との接続状態を検出する接続状態検出手段(S110、S120)と、
この接続状態検出手段(S110、S120)により前記ロボット本体(10)から分離した状態にあると検出されたときに前記ロボット本体(10)のイメージ画像(P)を前記ディスプレイ(51)に表示させる出力手段(S130)と、
前記入力手段(52、53、55、56、57)で入力された情報及び前記状態データに基づいて前記出力手段(S130)を制御する制御手段(65)と、
を有することを特徴としている。
In order to solve the above problems, the present invention provides:
In a robot comprising a robot body (10) and a separating part (50) that is separably connected to the robot body (10) and can communicate with the robot body (10),
The splitting unit (50) is configured to control the robot body (10) based on information input from the outside and the robot-specific state data stored in advance and appropriately modify the state data. There,
A display (51) for displaying images,
Storage means (66) for storing the state data;
Input means (52, 53, 55, 56, 57) for inputting the information;
Data modification means (S220 to S300, S320 to S390, S420 to S490) for modifying the storage contents of the storage means (66) based on the information input by the input means (52, 53, 55, 56, 57) When,
Connection state detection means (S110, S120) for detecting the connection state with the robot body (10),
When the connection state detection means (S110, S120) detects that the robot body (10) is separated, the image (P) of the robot body (10) is displayed on the display (51). Output means (S130);
Control means (65) for controlling the output means (S130) based on the information input by the input means (52, 53, 55, 56, 57) and the state data;
It is characterized by having.

本発明によれば、分体部がロボット本体と分離したときにディスプレイにロボット本体のイメージ画像が表示されるので、ユーザに親近感を与えることができる。また、ユーザが入力手段で情報を入力することにより、記憶手段の記憶内容が改変され、分体部単体でも性格が変化したり、成長したりすることで、あたかも分体部がロボット本体のアバタ(分身)のような感覚をユーザに与えることができる。したがって、ユーザと親近感の有るコミュニケーションを行うことができ、心理的なつながり感をユーザに与えることができる。   According to the present invention, since the image of the robot main body is displayed on the display when the separating unit is separated from the robot main body, it is possible to give a sense of familiarity to the user. In addition, when the user inputs information with the input means, the storage contents of the storage means are modified, and even if the split part alone changes or grows, it is as if the split part is an avatar of the robot body. A sense like (alternate) can be given to the user. Therefore, it is possible to communicate with the user in a close sense, and to give the user a psychological connection.

以下、本発明の一実施形態を図面に基づいて説明する。図1は本発明の一実施形態であるロボット1の正面図、図2は図1の側面図、図3は図1のA−A線断面図、図4はロボット本体10と分体部50の接続部の拡大図、図5はロボット1の制御ブロック図である。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. 1 is a front view of a robot 1 according to an embodiment of the present invention, FIG. 2 is a side view of FIG. 1, FIG. 3 is a cross-sectional view taken along the line AA in FIG. FIG. 5 is a control block diagram of the robot 1.

本実施形態のロボット1は家庭やオフィス等で使用されるもので、図1に示すように、ロボット本体10と、このロボット本体10に装脱自在に装着される分体部50とを備えている。   The robot 1 according to the present embodiment is used in a home or office, and includes a robot main body 10 and a separating unit 50 that is detachably attached to the robot main body 10 as shown in FIG. Yes.

分体部50は、タッチパネル付きLCDパネル51(ディスプレイ)、マイク52(入力手段)、カメラ53(入力手段)、スピーカ54、操作ボタン55〜57(入力手段)を有している。   The splitting unit 50 includes an LCD panel 51 with a touch panel (display), a microphone 52 (input means), a camera 53 (input means), a speaker 54, and operation buttons 55 to 57 (input means).

分体部50は独立した携帯情報端末装置として使用可能であり、これをロボット本体10と合体することでロボット本体10の頭脳として用いることができる。また、マイク52は音声入力装置、カメラ53は画像入力装置として使用可能である。   The splitting unit 50 can be used as an independent portable information terminal device, and can be used as the brain of the robot body 10 by combining it with the robot body 10. The microphone 52 can be used as an audio input device, and the camera 53 can be used as an image input device.

LCDパネル51はカラーで文字や画像を表示することが可能である。操作ボタン55〜57は通常の携帯情報端末装置と同様の操作を可能にするもので、左側の操作ボタン55はLCDパネル51上のカーソルを移動させたりするのに使用することができる。   The LCD panel 51 can display characters and images in color. The operation buttons 55 to 57 enable operations similar to those of a normal portable information terminal device, and the left operation button 55 can be used to move the cursor on the LCD panel 51.

また、図3に示すように、分体部50の両側面には長手方向に延びる凹溝58が設けられている。さらに、図4に示すように、分体部50の底面には、端子59〜61、発光部62、受光部63が設けられており、これらを介してロボット本体10と信号のやり取りを行う。   Further, as shown in FIG. 3, concave grooves 58 extending in the longitudinal direction are provided on both side surfaces of the split part 50. Further, as shown in FIG. 4, terminals 59 to 61, a light emitting unit 62, and a light receiving unit 63 are provided on the bottom surface of the splitting unit 50, and exchange signals with the robot body 10 through these.

図1、2に示すように、ロボット本体10は、胴部11と、その上部に設けられた頭部12と、胴部11の両側に設けられた左右一対の腕部13、14と、腕部13、14の先端に回転自在に取り付けられた腕ローラ15、16と、胴部11の下部に設けられた左右一対の腰ローラ17、18とを備えている。   As shown in FIGS. 1 and 2, the robot body 10 includes a trunk portion 11, a head portion 12 provided on the upper portion thereof, a pair of left and right arm portions 13 and 14 provided on both sides of the trunk portion 11, and arms. Arm rollers 15 and 16 rotatably attached to the tips of the portions 13 and 14 and a pair of left and right waist rollers 17 and 18 provided at the lower portion of the trunk portion 11 are provided.

腕部13、14は上端部を中心として図2の紙面と平行な方向に回転自在となっており、腕部13、14及び腕ローラ15、16の駆動制御により、ロボット1の前進、後退、右折、左折等の動作が可能である。さらに、腕部13、14のいずれか片方を上げたりすることもできる。   The arm portions 13 and 14 are rotatable about the upper end portion in a direction parallel to the paper surface of FIG. 2, and the robot 1 is moved forward and backward by drive control of the arm portions 13 and 14 and the arm rollers 15 and 16. Operations such as turning right or turning left are possible. Further, either one of the arm portions 13 and 14 can be raised.

胴部11の前面には略直方体状のポケット状のホルダー19が設けられており、このホルダー19には、その上面に形成された開口部(図示せず)を介して分体部50が装脱自在に装着される。ホルダー19の前面には窓20が設けられており、この窓20を介して分体部50の一部を外部に露出させている。   A substantially rectangular parallelepiped pocket-shaped holder 19 is provided on the front surface of the body portion 11, and the split body portion 50 is mounted on the holder 19 through an opening (not shown) formed on the upper surface thereof. Removably attached. A window 20 is provided on the front surface of the holder 19, and a part of the split body 50 is exposed to the outside through the window 20.

図3に示すように、ホルダー19の両内側面にはそれぞれ上下に延びる凸条21が形成されており、この凸条21は分体部50の両側面に形成された凹溝58に摺動自在に係合して分体部50を装脱方向にガイドする。   As shown in FIG. 3, protruding ridges 21 extending vertically are formed on both inner side surfaces of the holder 19, and the protruding ridges 21 slide in recessed grooves 58 formed on both side surfaces of the split portion 50. It engages freely and guides the division part 50 in the loading / unloading direction.

なお、ホルダー19の前面上部には左右一対のストッパ22が設けられており、これらのストッパ22は、分体部50との間に摩擦力を生じさせて分体部50をロボット本体10側に押し付けることにより分体部50のホルダー19からの脱落を防止する。   In addition, a pair of left and right stoppers 22 are provided on the upper front surface of the holder 19, and these stoppers 22 generate a frictional force between the body 50 and the body 50 on the robot body 10 side. By pressing, the falling of the split part 50 from the holder 19 is prevented.

また、図4に示すように、ホルダー19の内底面には、分体部50の底部に設けられた信号入出力用の端子59〜61、発光部62、及び受光部63にそれぞれ対応するように、コネクタ23〜25、受光部26、及び発光部27が設けられている。コネクタ23〜25はそれぞれバネ28〜30で上方に付勢されて端子59〜61に圧接されている。   Further, as shown in FIG. 4, the inner bottom surface of the holder 19 corresponds to the signal input / output terminals 59 to 61, the light emitting unit 62, and the light receiving unit 63 provided on the bottom of the split part 50. The connectors 23 to 25, the light receiving unit 26, and the light emitting unit 27 are provided. The connectors 23 to 25 are biased upward by springs 28 to 30 and are pressed against the terminals 59 to 61, respectively.

コネクタ23及び端子59はデータDAT、コネクタ24及び端子60はグランドGND、コネクタ25及び端子61はシリアル信号のクロックCLKにそれぞれ対応しており、ロボット本体10と分体部50との間で双方向通信が可能である。この場合、例えば12C等の信号で良い。   The connector 23 and the terminal 59 correspond to the data DAT, the connector 24 and the terminal 60 correspond to the ground GND, the connector 25 and the terminal 61 correspond to the serial signal clock CLK, respectively, and bidirectional between the robot body 10 and the dividing unit 50. Communication is possible. In this case, a signal such as 12C may be used.

また、受光部26及び発光部62は分体部50側からロボット本体10側にデータを送る系統であり、発光部27及び受光部63はロボット本体10側から分体部50側にデータを送る系統である。この場合、例えばIrDA等で良い。   The light receiving unit 26 and the light emitting unit 62 are systems that send data from the separating unit 50 side to the robot body 10 side, and the light emitting unit 27 and the light receiving unit 63 send data from the robot body 10 side to the separating unit 50 side. It is a system. In this case, for example, IrDA may be used.

なお、本実施形態ではコネクタと光通信の2系統の信号伝送経路を設けているが、いずれか1系統であってもよい。   In this embodiment, two signal transmission paths for the connector and optical communication are provided, but any one of them may be used.

図1に示すように、頭部12は垂直回転軸31を介して胴部4に回転自在に取り付けられ、水平方向に360°回転自在となっている。また、頭部12の前部には目部を構成する一対のLEDアレイ32が設けられている。このLEDアレイ32は、LEDを例えば5行×5列のマトリックス状に配列して成るものである。   As shown in FIG. 1, the head 12 is rotatably attached to the trunk 4 via a vertical rotation shaft 31 and is rotatable 360 ° in the horizontal direction. In addition, a pair of LED arrays 32 constituting an eye portion are provided in the front portion of the head portion 12. The LED array 32 is formed by arranging LEDs in a matrix of 5 rows × 5 columns, for example.

図5に示すように、ロボット本体10は、LEDアレイ32の駆動部としてのLEDドライバ33、モータ制御ユニット34を有しており、これらはメカ制御CPU35に接続されている。   As shown in FIG. 5, the robot body 10 includes an LED driver 33 and a motor control unit 34 as drive units for the LED array 32, and these are connected to a mechanical control CPU 35.

LEDドライバ33がLEDアレイ32を構成する多数のLEDを選択的に駆動することにより、点灯パターンで表情を表すことが可能となる。例えば、図6(a)は喜びの表情、(b)は驚きの表情、(c)は悲しみの表情、(d)は通常の表情を表している。なお、この図面において黒丸は点灯状態、白丸は消灯状態であるが、点灯状態と消灯状態を逆にして表情を表すようにしてもよい。   When the LED driver 33 selectively drives a large number of LEDs constituting the LED array 32, an expression can be expressed by a lighting pattern. For example, FIG. 6A shows a joyful expression, (b) shows a surprised expression, (c) shows a sad expression, and (d) shows a normal expression. In this drawing, the black circle is in the lit state and the white circle is in the unlit state. However, the lighting state and the unlit state may be reversed to represent facial expressions.

モータ制御ユニット34は、頭部5の駆動部としての頭駆動モータ36、左の腕部13の駆動部としての左腕駆動モータ37、右の腕部14の駆動部としての右腕駆動モータ38、左の腰ローラ17の駆動部としての左腰駆動モータ39、右の腰ローラ18の駆動部としての右腰駆動モータ40を有しており、これらモータ36〜40にはそれぞれ角度センサ41〜45が付設されている。モータ36〜40及びセンサ41〜45はモータ制御CPU/ドライバ36に接続されている。   The motor control unit 34 includes a head drive motor 36 as a drive unit for the head 5, a left arm drive motor 37 as a drive unit for the left arm unit 13, a right arm drive motor 38 as a drive unit for the right arm unit 14, A left waist drive motor 39 as a drive unit for the waist roller 17 and a right waist drive motor 40 as a drive unit for the right waist roller 18 are provided, and angle sensors 41 to 45 are respectively provided to these motors 36 to 40. It is attached. The motors 36 to 40 and the sensors 41 to 45 are connected to the motor control CPU / driver 36.

分体部50は、CPU65と、記憶手段としてのメモリ66と、無線通信回路67とを有している。メモリ66には、制御プログラムやカメラ53で撮影した画像が記憶される。カメラ53はCPU65の制御により画像を取り込む。無線通信回路67は文字や画像データやプログラム等を送受信する。   The division unit 50 includes a CPU 65, a memory 66 as storage means, and a wireless communication circuit 67. The memory 66 stores a control program and an image captured by the camera 53. The camera 53 captures an image under the control of the CPU 65. The wireless communication circuit 67 transmits and receives characters, image data, programs, and the like.

このロボット1は、自律的に動く自律モードでは、カメラ53から入力された画像に基づいて移動したり、所定の色のボールを追いかけたりすることができる。すなわち、分体部50のCPU65はカメラ53から画像を取り込んで画像認識を行い、所定の色のボールを認識したら、ロボット本体10がそちらの方向を向くようにメカ制御CPU35に指令を出す。   In the autonomous mode in which the robot 1 moves autonomously, the robot 1 can move based on an image input from the camera 53 or can chase a ball of a predetermined color. That is, the CPU 65 of the splitting unit 50 captures an image from the camera 53 and performs image recognition. When a predetermined color ball is recognized, the CPU 65 issues a command to the mechanical control CPU 35 so that the robot body 10 faces that direction.

メカ制御CPU35は、まず、腰ローラ17、18を逆方向に回転させてロボット本体10がボールの方向に向くようにする。そして、腰ローラ17、18を同じ方向に回転させてロボット本体10を前進させる。   First, the mechanical control CPU 35 rotates the waist rollers 17 and 18 in the reverse direction so that the robot body 10 faces the ball. Then, the waist rollers 17 and 18 are rotated in the same direction to advance the robot body 10.

このように、分体部50はロボット本体10の制御装置として機能する。また、マイク52から入力した音声をコマンドとして認識し、メカ制御CPU35に指令を出すようにすることで、音声による制御も実現することができる。   As described above, the dividing unit 50 functions as a control device of the robot body 10. Further, voice control can be realized by recognizing voice input from the microphone 52 as a command and issuing a command to the mechanical control CPU 35.

また、分体部50にメールが着信したときに腕部13、14を上げたり、目部であるLEDアレイ32の点灯パターンを所定のものにすることにより、エンターテインメント性豊かな着信通知等も実現することができる。   In addition, when the mail is received at the splitting unit 50, the arms 13 and 14 are raised, and the lighting pattern of the LED array 32 which is the eye is set to a predetermined one, so that an incoming notification with rich entertainment can be realized. can do.

さらに、腕部13、14等の被駆動部の角度データを分体部50のCPU65に送ることにより、被駆動部の状態を検出可能である。例えば、故障や何処かにつかえて駆動不能になったことも知ることができる。このとき、分体部50のCPU65はロボット1の電源をOFFする等の処置をすることも可能である。   Furthermore, the state of the driven part can be detected by sending the angle data of the driven parts such as the arm parts 13 and 14 to the CPU 65 of the split part 50. For example, it is possible to know that a malfunction or somewhere has made it impossible to drive. At this time, the CPU 65 of the dividing unit 50 can also take measures such as turning off the power of the robot 1.

メカ制御CPU35の制御プログラムをバージョンアップする場合は、分体部50を介して行うと、可搬型メモリ媒体やワイヤ接続等が不要で、簡単かつ低コストで実現することができる。具体的には、図7に示す如く、無線LAN等を介し無線通信回路67で受信したプログラムを分体部50のメモリ66にダウンロードし(ステップS10)、これをメカ制御CPU35のメモリに書き込む(ステップS20)ことにより実現することができる。   When upgrading the control program of the mechanical control CPU 35, if it is performed via the separating unit 50, a portable memory medium or wire connection is not required, and it can be realized easily and at low cost. Specifically, as shown in FIG. 7, a program received by the wireless communication circuit 67 via a wireless LAN or the like is downloaded to the memory 66 of the dividing unit 50 (step S10), and this is written into the memory of the mechanical control CPU 35 ( This can be realized by step S20).

なお、外出時にはロボット本体10を自宅やオフィスに置いておき、分体部50を持って外出し、スケジュール管理やメモ等に利用することができる。分体部50はロボット1の頭脳部であり、この場合、図8に示すように、LCDパネル51にロボット本体10のイメージ画像Pを表示することで、ロボット1との関わり合いや思い入れがユーザに生じて心理的にロボット1との親近感のある関係を実現することができる。このような分体部50に表示される仮想的なロボットは、実態と同様の画像やロボット1の個性を表現するものとする。   When the user goes out, the robot body 10 can be placed at home or in the office, and the user can go out with the body 50 and use it for schedule management, memos, and the like. The body part 50 is the brain part of the robot 1. In this case, as shown in FIG. 8, the image image P of the robot body 10 is displayed on the LCD panel 51, so that the user can be involved in and think about the robot 1. It is possible to realize a psychologically friendly relationship with the robot 1. Such a virtual robot displayed on the splitting unit 50 represents the same image as the actual situation and the individuality of the robot 1.

このイメージ画像は分体部50のメモリ66に格納しておき、分体部50がロボット本体10から離脱した際にLCDパネル51に表示する。このように、分体部50がロボット本体10を離れたときにLCDパネル51にロボット本体10のイメージ画像を表示することにより、仮想的に分体部50内にロボット1が存在するイメージを表現することが可能となる。   This image is stored in the memory 66 of the division unit 50 and displayed on the LCD panel 51 when the division unit 50 is detached from the robot body 10. Thus, by displaying the image of the robot main body 10 on the LCD panel 51 when the division unit 50 leaves the robot main unit 10, an image in which the robot 1 exists virtually in the division unit 50 is expressed. It becomes possible to do.

また、このイメージ画像をアニメーション画像、すなわち動画とするとさらに良い。さらに、マイク52を介した音声入力、CPU65での音声認識、判断・処理、音声合成により、簡易的な会話を実現することも可能であり、更にリアルな仮想ロボットの状態を実現することができる。   It is even better if this image is an animation image, that is, a moving image. Furthermore, a simple conversation can be realized by voice input through the microphone 52, voice recognition by the CPU 65, determination / processing, and voice synthesis, and a more realistic virtual robot state can be realized. .

また、メモリ66に記憶してあるスケジュールデータに基づき、スケジュールの日時になったときに告知を行うようにすると、秘書のようなイメージになる。分体部50がロボット本体10と合体している時には実際のロボット1が話しているように見えるし、分体部50がロボット本体10と分離している時にはLCDパネル51の画面でのロボット本体10の表示となり、いずれも良好な感覚が得られる。   Further, if notification is made when the date and time of the schedule comes based on the schedule data stored in the memory 66, an image like a secretary is obtained. When the body 50 is combined with the robot body 10, the actual robot 1 appears to be speaking, and when the body 50 is separated from the robot body 10, the robot body on the screen of the LCD panel 51. 10 is displayed, and a good feeling can be obtained in all cases.

なお、ロボット1を操作により育成するようなアプリケーションを実現することもできる。これは、データが増える毎に成長するペット的なものである。これらはメモリ66に記憶されたデータにより実現される。   An application that trains the robot 1 by operation can also be realized. This is like a pet that grows as data increases. These are realized by data stored in the memory 66.

図9にメモリ66上に記憶される状態データの例を示す。成長状態は、前記の育成プログラムにおける成長の状態を示している。例えば年齢や健康状態である。ロボット1を操作する毎に年齢が上がり、年齢を重ねると反応が良くなったり、操作を長時間しないと健康状態が悪化して反応が鈍くなったりする等のアプリケーションを実現することができる。   FIG. 9 shows an example of state data stored on the memory 66. The growth state indicates the growth state in the training program. For example, age or health. It is possible to realize an application in which the age increases each time the robot 1 is operated, and the response improves as the age increases, or the health condition deteriorates and the response becomes dull if the operation is not performed for a long time.

性格データは、ロボット1のある自律的な動作に対してほめることにより、その動作パターンの頻度を上げたり、反対に躾反応を行えば、その頻度が低くなるといったアプリケーションを実現する。ほめたり、躾たりすることは、分体部50のLCDパネル51にメニューを表示して、これを操作ボタン55〜57により入力することにより実現することができる。   Personality data realizes an application in which the frequency of the motion pattern is increased by complimenting a certain autonomous operation of the robot 1, or the frequency is decreased if a habit reaction is performed on the contrary. Complimenting and wandering can be realized by displaying a menu on the LCD panel 51 of the splitting unit 50 and inputting the menu with the operation buttons 55 to 57.

認識データ1は最近の音声認識データの情報である。例えば音声で命令されたコマンドを憶えておき、同様のコマンド入力に対して反応を変化させるアプリケーションを実現することができる。   Recognition data 1 is information on recent speech recognition data. For example, it is possible to realize an application that remembers commands instructed by voice and changes the response to the same command input.

認識データ2は最近の画像認識データについて記憶しているものである。例えば、顔認識により憶えた顔と一致するデータを認識したときに、同一人物と判断して喜ぶ動作を表現させるアプリケーションを実現することができる。   The recognition data 2 is stored for recent image recognition data. For example, it is possible to realize an application that expresses a joyful operation by determining that the person is the same person when data matching a face remembered by face recognition is recognized.

スケジュールデータは分体部50に入力してあるスケジュールデータであり、これをもとにアラーム等の機能を実現できる。メモデータは備忘録等を実現できる。アクセスデータは、無線LAN等を介してインターネットにアクセスし、これらの履歴を保存したデータである。これらにより、ユーザの好みを憶えて、会話時の話題のもととするアプリケーションを実現することができる。   The schedule data is the schedule data input to the splitting unit 50, and functions such as an alarm can be realized based on the schedule data. Memo data can be used as a memorandum. The access data is data obtained by accessing the Internet via a wireless LAN or the like and storing these histories. As a result, it is possible to realize an application that remembers the user's preferences and is used as a topic for conversation.

分体部50はロボット本体10と分離しても、ロボット1の基本機能はそのまま受け継ぐことが可能である。また、分体部50をロボット本体10と合体したときには、ロボット本体10と分離した仮想ロボット状態で経験した状態を分体部50内でのデータにより再現することが可能であり、仮想ロボット状態(分体部50がロボット本体10から分離)と実ロボット状態(分体部50がロボット本体10と合体)とを連続したアプリケーションとすることができる。   Even if the splitting unit 50 is separated from the robot body 10, the basic functions of the robot 1 can be inherited as they are. In addition, when the separating unit 50 is combined with the robot body 10, the state experienced in the virtual robot state separated from the robot body 10 can be reproduced by the data in the separating unit 50, and the virtual robot state ( The split part 50 is separated from the robot main body 10) and the actual robot state (the split part 50 is combined with the robot main body 10) can be used as a continuous application.

なお、ロボット本体10側にも無線通信回路を設けておくと、分体部50がロボット本体10から分離した状態においても、無線通信回路67を介してロボット本体10を制御可能となり、また、ロボット本体10の状態を表すデータを受け取ってLCDパネル51に表示させることにより、ロボット本体10の状態を把握することもできる。この表示はロボットのイメージ画像と置き替えたり、2画面表示により同時に表示したりする等、自由に行うことができる。   If a wireless communication circuit is also provided on the robot body 10 side, the robot body 10 can be controlled via the wireless communication circuit 67 even when the separating unit 50 is separated from the robot body 10. By receiving data representing the state of the main body 10 and displaying it on the LCD panel 51, the state of the robot main body 10 can also be grasped. This display can be freely performed, for example, by replacing the image of the robot or displaying the image simultaneously by a two-screen display.

図10はロボット1の状態の判別と制御モードの設定を行う手順を示すフローチャートである。まず、CPU65は、図4に示すコネクタ23〜25、発光部26、及び受光部27の信号のやりとりにより、分体部50とロボット本体10との接続状態をチェックする(ステップS110)。   FIG. 10 is a flowchart showing a procedure for determining the state of the robot 1 and setting the control mode. First, the CPU 65 checks the connection state between the separating unit 50 and the robot body 10 by exchanging signals between the connectors 23 to 25, the light emitting unit 26, and the light receiving unit 27 shown in FIG. 4 (step S110).

例えば、分体部50から所定の信号を送信し(光通信、コネクタを介した通信のいずれでもよい)、ロボット本体10から応答が有れば接続状態とし、応答が無ければ非接続状態とする。   For example, a predetermined signal is transmitted from the splitting unit 50 (either optical communication or communication via a connector may be used). If there is a response from the robot body 10, the connection state is established, and if there is no response, the connection state is established. .

非接続状態である場合、すなわち仮想ロボット状態の場合には、分体部50のLCDパネル51にロボット1のイメージ画像やその動画を表示する。また、マイク52からの音声入力等に反応して応答するようにすれば、実ロボット状態と一体的な感覚となる(ステップS120、S130)。   In the disconnected state, that is, in the virtual robot state, the image image of the robot 1 and its moving image are displayed on the LCD panel 51 of the splitting unit 50. Further, if a response is made in response to voice input from the microphone 52, a sense integrated with the actual robot state is obtained (steps S120 and S130).

接続状態である場合、すなわち実ロボット状態の場合にはロボット本体10を制御するモードになり、腕部13、14の動作等に関するコマンドをロボット本体10に送信する(ステップS120、S140)。   If it is in a connected state, that is, if it is a real robot state, it enters a mode for controlling the robot body 10, and commands related to the operation of the arm portions 13 and 14 are transmitted to the robot body 10 (steps S120 and S140).

ステップS110〜ステップS120は本発明の接続状態検出手段に相当し、ステップS130は本発明の出力手段に相当する。   Steps S110 to S120 correspond to connection state detection means of the present invention, and step S130 corresponds to output means of the present invention.

図11はロボット1に躾を行う際の制御手順を示すフローチャートである。まず、ユーザがLCDパネル51に表示された躾ボタンを選択する(ステップS210)と、LCDパネル51に「ほめる」や「しかる」等のメニューが表示される。   FIG. 11 is a flowchart showing a control procedure when wrinkling the robot 1. First, when the user selects the 躾 button displayed on the LCD panel 51 (step S210), a menu such as “praise” or “push” is displayed on the LCD panel 51.

操作ボタン55〜57で「ほめる」を選択入力すると、ほめられ値がアップし、しかられ値がダウンする(ステップS220、S230)。この「ほめられ値」、「しかられ値」はカウント値により構成されるものであり、性格に影響する値である。ほめられ値がアップすると、CPU65は、LEDアレイ32を喜びの表情にしたり、スピーカ54から喜びの言葉を発する等により喜びを表現する(ステップS240)。   When “praise” is selected and input with the operation buttons 55 to 57, the praise value increases and the praise value decreases (steps S220 and S230). The “praise value” and “surprise value” are constituted by count values, and are values that affect the personality. When the value is praised, the CPU 65 expresses joy by making the LED array 32 a joyful expression, or uttering a joyful word from the speaker 54 (step S240).

なお、操作ボタン55〜57で「しかる」を選択入力すると、ほめられ値がダウンし、しかられ値がアップする(ステップS250、S260)。ほめられ値がダウンすると、CPU65は、LEDアレイ32を悲しみの表情にしたり、スピーカ54から悲しみの言葉を発する等により悲しみを表現する(ステップS270)。   Note that if “Karuru” is selected and input with the operation buttons 55 to 57, the praise value goes down and the wink value goes up (steps S250 and S260). When the compliment value is reduced, the CPU 65 expresses sadness by making the LED array 32 a sad expression or uttering a sad word from the speaker 54 (step S270).

喜びや悲しみが表現されると、操作カウントがアップする(ステップS280)。この操作カウントは操作ボタン55〜57を押された回数である。また、CPU65は電源ON時間を読み込み(ステップS290)、操作カウント、ほめられ値、しかられ値、操作時間をメモリ66に保存する(ステップS300)。操作カウントは操作ボタン55〜57が押された回数であり、操作時間は電源がONであった時間の総和である。この値により年齢等の成長状態を表す。   When joy or sadness is expressed, the operation count is increased (step S280). This operation count is the number of times the operation buttons 55 to 57 are pressed. Further, the CPU 65 reads the power ON time (step S290), and stores the operation count, the praise value, the measurement value, and the operation time in the memory 66 (step S300). The operation count is the number of times the operation buttons 55 to 57 are pressed, and the operation time is the total time when the power is on. This value represents the growth state such as age.

図12はロボット1がユーザに対する応答を行う際の制御手順(音声認識)を示すフローチャートである。まず、ユーザの音声がマイク52に入力されると(ステップS310)、CPU65はその音声パターンを認識し(ステップS320)、メモリ66に記憶された登録者の音声であるかを判定する(ステップS330)。   FIG. 12 is a flowchart showing a control procedure (voice recognition) when the robot 1 responds to the user. First, when a user's voice is input to the microphone 52 (step S310), the CPU 65 recognizes the voice pattern (step S320) and determines whether the voice is a registrant's voice stored in the memory 66 (step S330). ).

登録者である場合にはメモリ66に記憶された登録者親近値をアップする(ステップS340)と共にLEDドライバ33、モータ36〜40、スピーカ54等を駆動して喜びを表現する(ステップS350)。また、ユーザとの会話内容を表すキーワードをメモリ66に記憶させる(ステップS390)。   If the user is a registrant, the registrant closeness value stored in the memory 66 is increased (step S340) and the LED driver 33, motors 36 to 40, speaker 54, etc. are driven to express pleasure (step S350). Further, a keyword representing the content of the conversation with the user is stored in the memory 66 (step S390).

ステップS320で認識された音声がメモリ66に登録されていない場合には、LCDパネル51に登録するか否かのメッセージが表示されるので(ステップS360)、ユーザが登録を選択する(ステップS370)と、CPU65はLEDドライバ33、モータ36〜40、スピーカ54等を駆動してユーザに挨拶を行う(ステップS380)。そして、新規に登録されたユーザの登録者親近値及び会話内容を表すキーワードをメモリ66に記憶させる(ステップS390)。   If the voice recognized in step S320 is not registered in the memory 66, a message as to whether or not to register in the LCD panel 51 is displayed (step S360), and the user selects registration (step S370). Then, the CPU 65 greets the user by driving the LED driver 33, the motors 36 to 40, the speaker 54, and the like (step S380). Then, the newly registered user's registrant closeness value and the keyword representing the conversation content are stored in the memory 66 (step S390).

図13はロボット1がユーザに対して応答を行う際の手順(画像認識)を示すフローチャートである。まず、ユーザの画像がカメラ53に入力されると(ステップS410)、CPU65はその画像を認識し(ステップS420)、その顔がメモリ66に記憶された登録者の顔であるかを判定する(ステップS430)。   FIG. 13 is a flowchart showing a procedure (image recognition) when the robot 1 responds to the user. First, when a user image is input to the camera 53 (step S410), the CPU 65 recognizes the image (step S420) and determines whether the face is a registrant face stored in the memory 66 (step S420). Step S430).

登録者である場合にはメモリ66に記憶された登録者親近値をアップする(ステップS440)と共にLEDドライバ33、モータ36〜40、スピーカ54等を駆動して喜びを表現する(ステップS450)。   If the user is a registrant, the registrant closeness value stored in the memory 66 is increased (step S440) and the LED driver 33, motors 36 to 40, speaker 54, etc. are driven to express pleasure (step S450).

ステップS420で認識された画像がメモリ66に登録されていない場合には、LCDパネル51に登録するか否かのメッセージが表示されるので(ステップS460)、ユーザが登録を選択する(ステップS470)と、CPU65はLEDドライバ33、モータ36〜40、スピーカ54等を駆動してユーザに挨拶を行う(ステップS480)。そして、新規に登録されたユーザの登録者親近値及び顔の画像をメモリ66に記憶させる(ステップS490)。   If the image recognized in step S420 is not registered in the memory 66, a message as to whether to register in the LCD panel 51 is displayed (step S460), and the user selects registration (step S470). Then, the CPU 65 greets the user by driving the LED driver 33, the motors 36 to 40, the speaker 54, and the like (step S480). Then, the registrant closeness value and face image of the newly registered user are stored in the memory 66 (step S490).

なお、上記の図11〜図13の処理は、ロボット本体10と分体部50が合体した実ロボット状態だけでなく、ロボット本体10から分離した仮想ロボット状態の分体部50においても行われるのはいうまでもない。   11 to 13 is performed not only in the real robot state in which the robot body 10 and the separating unit 50 are combined, but also in the separating unit 50 in a virtual robot state separated from the robot body 10. Needless to say.

操作カウント、ほめられ値、しかられ値、操作時間、登録者親近値等は本発明の状態データに相当し、ステップS220〜ステップS300、ステップS320〜ステップS390、及びステップS420〜ステップS490までの処理は本発明のデータ改変手段に相当する。   The operation count, the praise value, the luck value, the operation time, the registrant closeness value, etc. correspond to the status data of the present invention, and the processing from step S220 to step S300, step S320 to step S390, and step S420 to step S490 is performed. Corresponds to the data modifying means of the present invention.

このロボット1は、分体部50がロボット本体10と分離したときにLCDパネル51にロボット本体10のイメージ画像Pが表示されることにより、ユーザに親近感を与えることができる。また、ユーザが、マイク52、カメラ53、操作ボタン55〜57等で情報を入力することにより、メモリ66に記憶された性格・経験等の状態データが改変され、分体部50単体でも性格が変化したり、成長したりすると共に、それに応じた出力がマイク54等を介して行われるので、あたかも分体部50がロボット本体10のアバタ(分身)のような感覚をユーザに与えることができる。したがって、ユーザと親近感の有るコミュニケーションを行うことができ、心理的なつながり感を得ることができる。   The robot 1 can give a sense of familiarity to the user by displaying the image P of the robot body 10 on the LCD panel 51 when the separating unit 50 is separated from the robot body 10. In addition, when the user inputs information with the microphone 52, the camera 53, the operation buttons 55 to 57, etc., the state data such as personality and experience stored in the memory 66 is modified, and the personality 50 alone has the personality. Since it changes or grows, and the output corresponding to it changes via the microphone 54 or the like, the splitting unit 50 can give the user a feeling like an avatar of the robot body 10. . Therefore, it is possible to communicate with the user in a close sense, and to obtain a psychological sense of connection.

また、本実施形態では、分体部50として携帯情報端末装置を用いているため、専用に設計された分体部を用いる場合と比べてコストダウンを図ることができる。また、携帯情報端末装置を用いてロボット1の制御プログラムを開発することができるので、児童や技術的知識の少ない人でも容易にプログラミングすることができ、創造性を育む玩具にもなり得る。この場合、USBのキーボード等を用いると良い。   Moreover, in this embodiment, since the portable information terminal device is used as the division part 50, cost reduction can be aimed at compared with the case where the division part designed exclusively is used. Moreover, since the control program of the robot 1 can be developed using a portable information terminal device, even a child or a person with little technical knowledge can easily program, and it can be a toy that nurtures creativity. In this case, a USB keyboard or the like may be used.

また、本実施形態では、LEDアレイ32の点灯パターン、スピーカ54からの音声、ロボット本体10の被駆動部(例えば腕部13、14等)の動作を適宜組み合わせることで、豊かな感情表現を行うことができ、高いエンターテインメント性を実現することができる。   Further, in the present embodiment, rich emotional expression is performed by appropriately combining the lighting pattern of the LED array 32, the sound from the speaker 54, and the operation of the driven parts (for example, the arm parts 13 and 14) of the robot body 10. And high entertainment properties can be realized.

なお、分体部50がユーザに対して行う出力は音声に限られるものではなく、LCDパネル51に表示される画像や文字、あるいはその他のものであってもよい。   In addition, the output which the division part 50 performs with respect to a user is not restricted to an audio | voice, The image displayed on the LCD panel 51, a character, or another thing may be sufficient.

また、上記実施形態では、分体部50のCPU65及びメモリ66でロボット本体10を制御するようにしているが、図14に示すように、ロボット本体10側にメインCPU68及びメモリ69を設け、分体部50のメモリ66に記憶したデータをロボット本体10のメモリ69でも記憶させ、メインCPU68でロボット本体10を制御するようにしてもよい。   In the above embodiment, the robot body 10 is controlled by the CPU 65 and the memory 66 of the dividing unit 50. However, as shown in FIG. 14, a main CPU 68 and a memory 69 are provided on the robot body 10 side, and the separation is performed. The data stored in the memory 66 of the body unit 50 may be stored in the memory 69 of the robot body 10, and the main CPU 68 may control the robot body 10.

その他にも、本発明の要旨を逸脱しない範囲で上記実施形態に種々の改変を施すことができる。   In addition, various modifications can be made to the above embodiment without departing from the gist of the present invention.

本発明の一実施形態であるロボット1の正面図。The front view of the robot 1 which is one Embodiment of this invention. 図1の側面図。The side view of FIG. 図1のA−A線断面図。AA sectional view taken on the line AA of FIG. ロボット本体10と分体部50の接続部の拡大図。The enlarged view of the connection part of the robot main body 10 and the splitting part 50. FIG. ロボット1の制御ブロック図。FIG. 3 is a control block diagram of the robot 1. ロボット1の目部を構成するLEDアレイ32の点灯パターンを示す図。The figure which shows the lighting pattern of the LED array 32 which comprises the eyes of the robot. ロボット本体10の制御プログラムのバージョンアップの手順を示すフローチャート。5 is a flowchart showing a procedure for upgrading a control program of the robot body 10; 分体部50をロボット本体10から分離した状態を示す図。The figure which shows the state which separated the body part 50 from the robot main body 10. FIG. メモリ66に記憶される状態データの内容を示す図。The figure which shows the content of the status data memorize | stored in the memory. ロボット1の状態の判別と制御モードの設定を行う手順を示すフローチャート。The flowchart which shows the procedure which discriminate | determines the state of the robot 1, and sets a control mode. ロボット1に躾を行う際の制御手順を示すフローチャート。5 is a flowchart showing a control procedure when performing a trap on the robot 1. ロボットがユーザに対して応答を行う際の制御手順(音声認識)を示すフローチャート。The flowchart which shows the control procedure (voice recognition) at the time of a robot responding with respect to a user. ロボットがユーザに対して応答を行う際の制御手順(画像認識)を示すフローチャート。The flowchart which shows the control procedure (image recognition) when a robot responds with respect to a user. 本発明の他の実施形態の制御ブロック図。The control block diagram of other embodiment of this invention.

符号の説明Explanation of symbols

1 ロボット
10 ロボット本体
50 分体部
51 LCDパネル(ディスプレイ)
52 マイク(入力手段)
53 カメラ(入力手段)
54 スピーカ(出力手段)
55 操作ボタン(入力手段)
56 操作ボタン(入力手段)
57 操作ボタン(入力手段)
65 CPU(制御手段)
66 メモリ(記憶手段)
S110、S120 接続状態検出手段
S130 出力手段
S220〜S300 データ改変手段
S320〜S390 データ改変手段
S420〜S490 データ改変手段
1 Robot 10 Robot main body 50 Body part 51 LCD panel (display)
52 Microphone (input means)
53 Camera (input means)
54 Speaker (output means)
55 Operation buttons (input means)
56 Operation buttons (input means)
57 Operation buttons (input means)
65 CPU (control means)
66 Memory (memory means)
S110, S120 Connection state detection means S130 Output means S220 to S300 Data modification means S320 to S390 Data modification means S420 to S490 Data modification means

Claims (1)

ロボット本体と、このロボット本体に分離可能に接続されると共に前記ロボット本体と通信可能な分体部とを備えたロボットにおいて、
前記分体部は、外部から入力される情報及び予め記憶した前記ロボット固有の状態データに基づいて前記ロボット本体を制御すると共に前記状態データを適宜改変するようにしたものであって、
画像を表示するディスプレイと、
前記状態データを記憶する記憶手段と、
前記情報を入力するための入力手段と、
前記入力手段で入力された情報に基づいて前記記憶手段の記憶内容を改変するデータ改変手段と、
前記ロボット本体との接続状態を検出する接続状態検出手段と、
この接続状態検出手段により前記ロボット本体から分離した状態にあると検出されたときに前記ロボット本体のイメージ画像を前記ディスプレイに表示させる出力手段と、
前記入力手段で入力された情報及び前記状態データに基づいて前記出力手段を制御する制御手段と、
を有することを特徴とするロボット。
In a robot provided with a robot main body and a separating part that is separably connected to the robot main body and can communicate with the robot main body,
The splitting unit is configured to control the robot main body based on information input from the outside and the state data unique to the robot stored in advance and appropriately change the state data,
A display for displaying images,
Storage means for storing the state data;
Input means for inputting the information;
Data modifying means for modifying the storage content of the storage means based on information input by the input means;
Connection state detection means for detecting a connection state with the robot body;
Output means for displaying an image of the robot body on the display when it is detected by the connection state detection means that the robot body is separated from the robot body;
Control means for controlling the output means based on the information inputted by the input means and the state data;
A robot characterized by comprising:
JP2004206003A 2004-07-13 2004-07-13 robot Active JP4561209B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004206003A JP4561209B2 (en) 2004-07-13 2004-07-13 robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004206003A JP4561209B2 (en) 2004-07-13 2004-07-13 robot

Publications (2)

Publication Number Publication Date
JP2006026761A true JP2006026761A (en) 2006-02-02
JP4561209B2 JP4561209B2 (en) 2010-10-13

Family

ID=35893704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004206003A Active JP4561209B2 (en) 2004-07-13 2004-07-13 robot

Country Status (1)

Country Link
JP (1) JP4561209B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007196375A (en) * 2006-01-25 2007-08-09 Lin Chyi Yeu Device and method for interacting with autonomous robot
JP2010264555A (en) * 2009-05-15 2010-11-25 Technical Research & Development Institute Ministry Of Defence Hand throw type robot
CN106003077A (en) * 2016-06-22 2016-10-12 昆山邦泰汽车零部件制造有限公司 Robot voice conservation method
JP2016215292A (en) * 2015-05-15 2016-12-22 Kddi株式会社 Robot operation creation device and program
WO2017000795A1 (en) * 2015-06-30 2017-01-05 芋头科技(杭州)有限公司 Robot system and method for controlling same
CN107029335A (en) * 2017-03-29 2017-08-11 深圳市赛亿科技开发有限公司 A kind of psychological consultant robot
US10363663B2 (en) 2015-12-15 2019-07-30 Samsung Electronics Co., Ltd. Electronic device and cradle thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101905471B1 (en) * 2016-06-23 2018-10-10 주식회사 아카인텔리전스 Social Robot

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127717A (en) * 1991-11-05 1993-05-25 Mitsubishi Electric Corp Numerical controller
JPH05277859A (en) * 1992-03-27 1993-10-26 Nippei Toyama Corp Processing unit control panel in processing production system
JPH11126017A (en) * 1997-08-22 1999-05-11 Sony Corp Storage medium, robot, information processing device and electronic pet system
JP2002154085A (en) * 2000-11-15 2002-05-28 Toyota Motor Corp Maintenance support method and maintenance support device for working robot system
JP2002321180A (en) * 2001-04-24 2002-11-05 Matsushita Electric Ind Co Ltd Robot control system
JP2003019681A (en) * 2001-07-05 2003-01-21 Sony Corp Expansion module, information processing unit and method, recording medium and program
JP2003136455A (en) * 2001-11-07 2003-05-14 Sony Corp Robot system, remote control device and remote control method, and robot device and control method thereof

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05127717A (en) * 1991-11-05 1993-05-25 Mitsubishi Electric Corp Numerical controller
JPH05277859A (en) * 1992-03-27 1993-10-26 Nippei Toyama Corp Processing unit control panel in processing production system
JPH11126017A (en) * 1997-08-22 1999-05-11 Sony Corp Storage medium, robot, information processing device and electronic pet system
JP2002154085A (en) * 2000-11-15 2002-05-28 Toyota Motor Corp Maintenance support method and maintenance support device for working robot system
JP2002321180A (en) * 2001-04-24 2002-11-05 Matsushita Electric Ind Co Ltd Robot control system
JP2003019681A (en) * 2001-07-05 2003-01-21 Sony Corp Expansion module, information processing unit and method, recording medium and program
JP2003136455A (en) * 2001-11-07 2003-05-14 Sony Corp Robot system, remote control device and remote control method, and robot device and control method thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007196375A (en) * 2006-01-25 2007-08-09 Lin Chyi Yeu Device and method for interacting with autonomous robot
JP4617322B2 (en) * 2006-01-25 2011-01-26 國立台湾科技大學 Apparatus and method for interaction with an autonomous robot
JP2010264555A (en) * 2009-05-15 2010-11-25 Technical Research & Development Institute Ministry Of Defence Hand throw type robot
JP2016215292A (en) * 2015-05-15 2016-12-22 Kddi株式会社 Robot operation creation device and program
WO2017000795A1 (en) * 2015-06-30 2017-01-05 芋头科技(杭州)有限公司 Robot system and method for controlling same
TWI622474B (en) * 2015-06-30 2018-05-01 芋頭科技(杭州)有限公司 Robot system and control method thereof
US10363663B2 (en) 2015-12-15 2019-07-30 Samsung Electronics Co., Ltd. Electronic device and cradle thereof
CN106003077A (en) * 2016-06-22 2016-10-12 昆山邦泰汽车零部件制造有限公司 Robot voice conservation method
CN107029335A (en) * 2017-03-29 2017-08-11 深圳市赛亿科技开发有限公司 A kind of psychological consultant robot

Also Published As

Publication number Publication date
JP4561209B2 (en) 2010-10-13

Similar Documents

Publication Publication Date Title
US20070173974A1 (en) Device and method for interacting with autonomous robot
KR101088406B1 (en) Interactive learning system using robot and method of operating the same in child education
KR101053875B1 (en) Event execution method and system for robots synchronized with mobile terminal
JP7400923B2 (en) Information processing device and information processing method
US7987091B2 (en) Dialog control device and method, and robot device
US7822507B2 (en) Input device and inputting method
US20130123987A1 (en) Robotic system, robot control method and robot control program
CN107225578A (en) Robot controller, robot, robot control method and system
CN102103707B (en) Emotion engine, emotion engine system and control method of electronic device
KR20170068532A (en) Interactive learning blocks
JP2003205483A (en) Robot system and control method for robot device
KR100894569B1 (en) Humanized doll with adaptive function
JP4561209B2 (en) robot
CN109262606B (en) Apparatus, method, recording medium, and robot
JP2012155616A (en) Content provision system, content provision method, and content provision program
JP2013099823A (en) Robot device, robot control method, robot control program and robot system
US11074491B2 (en) Emotionally intelligent companion device
CN108724206B (en) Interaction device, interaction method, interaction program, and robot
KR20190106925A (en) Ai robot and the control method thereof
KR100417402B1 (en) Toy able to seperation of central controller
JP2001242780A (en) Information communication robot device, information communication method, and information communication robot system
US11461404B2 (en) System and method for adjustment of a device personality profile
CN108724204B (en) Interaction device, interaction method, interaction program, and robot
KR100995807B1 (en) Daily contents updating teller toy and method for operating the same
CN207895719U (en) Face recognition early learning machine

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100706

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100719

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4561209

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130806

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350