JP2002355779A - Robot type interface device and control method for the same - Google Patents

Robot type interface device and control method for the same

Info

Publication number
JP2002355779A
JP2002355779A JP2001166227A JP2001166227A JP2002355779A JP 2002355779 A JP2002355779 A JP 2002355779A JP 2001166227 A JP2001166227 A JP 2001166227A JP 2001166227 A JP2001166227 A JP 2001166227A JP 2002355779 A JP2002355779 A JP 2002355779A
Authority
JP
Japan
Prior art keywords
means
interface device
robotic interface
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001166227A
Other languages
Japanese (ja)
Inventor
Atsuro Nakamura
Yasuhiro Ueda
Hironori Yamataka
泰広 上田
淳良 中村
大乗 山高
Original Assignee
Sharp Corp
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp, シャープ株式会社 filed Critical Sharp Corp
Priority to JP2001166227A priority Critical patent/JP2002355779A/en
Publication of JP2002355779A publication Critical patent/JP2002355779A/en
Application status is Withdrawn legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F19/00Digital computing or data processing equipment or methods, specially adapted for specific applications

Abstract

PROBLEM TO BE SOLVED: To provide a robot type interface device that permits a user to recognize presented information accurately. SOLUTION: A drive device is controlled to move the robot type interface device so that the face of a user captured by a video camera 113 is near the center of an image. An angle of a liquid crystal display device 111 relative to the robot type interface device is next changed. The liquid crystal display device 111 is thus controlled into a position continuously opposed to the face of the user, who can accurately recognize presented information.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】本発明は、使用者との間で情報の入出力を行なうインタフェース装置に関し、特に、 BACKGROUND OF THE INVENTION The present invention relates to an interface device for inputting and outputting information to and from the user, in particular,
家庭などにおいて使用される生物的な動作を行なうロボット型インタフェース装置およびその制御方法に関する。 Robotic interface device performing biological operations used in the home and the like and a control method thereof.

【0002】 [0002]

【従来の技術】近年、犬型ロボットなどの民生用ロボットが、ホビー用として家庭に普及しつつある。 In recent years, consumer robots such as a dog type robot, is spreading to the home as a hobby. このような民生用ロボットに関連する技術として、特開平7-2 As a technique related to such consumer robots, JP-7-2
48823号公報に開示された発明がある。 There is disclosed invention to 48823 JP.

【0003】特開平7-248823号公報に開示されたパーソナルロボット装置は、プログラムを記憶するメモリと、プログラムを実行するマイコンと、プログラムに応じて走行する走行ブロックと、ロボット本体に入力された映像、音声、データおよびロボット本体における信号や情報の処理内容を外部に対して表示する1つまたは複数の組合わせによる表示装置とを有している。 [0003] JP-A personal robot apparatus disclosed in 7-248823 discloses includes a memory for storing programs, and a microcomputer for executing a program, and a traveling block which runs in accordance with the program, then an image inputted to the robot body , voice, and a display device according to one or more combinations that displays the processing contents of the signal and the information in the data and the robot main body to the outside.

【0004】表示装置がロボット本体における信号や情報の処理内容を外部に対して表示することによって、使用者は、ロボットが何を見ているのか、何を聞いているのか、何を考えているのか、次に何をしようとしているのかを容易に知ることができ、ロボットが自由に動くこと自体に不安感を持つ使用者に安心感を与えるものである。 [0004] by the display device to display to the outside of the processing content of the signal and the information in the robot body, the user, whether looking at what a robot is, what you're hearing, what are you thinking the one, then what you and to that of whether the can be easily known to try to, in which the robot will give a sense of security to the user with the anxiety in itself to move freely.

【0005】 [0005]

【発明が解決しようとする課題】上述した特開平7−2 The object of the invention is to be Solved by JP-A-7-2 described above
48823号公報に開示された発明のように、使用者との間で情報をやり取りするロボット型インタフェース装置においては、入出力いずれにおいてもその認識率が重要になる。 As of the disclosed invention to 48823 JP, in robotic interface device for exchanging information with the user, also the recognition rate is important in both input and output. すなわち、ロボットが使用者の音声や周りの物体などを正しく認識したり、使用者が正しく認識できるように発声や表示を行なったりすることが重要である。 That is, the robot or correctly recognize the object or the like around the user's voice and it is important that the user or performs utterance or display for correct recognition. 特に、民生用ロボットにおいて、使用者とロボットとの間の相互の情報伝達の正確さが、使用者に与えるロボット全体に対する印象に大きく影響する。 In particular, the consumer robot, the accuracy of the mutual information transfer between the user and the robot, greatly influences the impression of the entire robot to be given to the user.

【0006】しかし、特開平7−248823号公報に開示されたパーソナルロボット装置においては、表示装置がロボット本体に固定されているため、パーソナルロボット装置の走行によってパーソナルロボット装置と使用者とを結ぶ平面(地面に対して平行な平面)上での相対位置を調整することができる。 However, in a personal robot apparatus disclosed in Japanese Patent Laid-Open No. 7-248823, since the display device is fixed to the robot body, a plane connecting the a user personal robotic device by the running of a personal robot it is possible to adjust the relative position on (a plane parallel to the ground). しかし、その平面に対する表示装置の相対角度を調整することができないため、使用者が表示装置に表示された内容を正しく認識するためには、表示装置が見える位置まで顔を移動させなければならないという問題点があった。 However, it is not possible to adjust the relative angle of the display device relative to the plane, that the user to correctly recognize what is displayed on the display device, it is necessary to move the face to a position where the display device appears there is a problem. また、外光や騒音などの外乱による表示装置への影響を調整することができないという問題点もあった。 Further, there is a problem that it is impossible to adjust the effect of the display device due to a disturbance such as external light and noise.

【0007】また、ロボットと使用者とのインタラクションによって、ユーザが受ける印象には様々な要因があると考えられるが、その中でもロボットの形態によるものが大きいと考えられる。 Further, the interaction between the robot and the user, it is considered that there are various factors for the impression the user receives is considered to be large due to the form of the robot among them. しかし、従来のロボットに搭載されたセンサ類または表示装置などが固定であるため、移動時や接触時などにインタラクションの妨げとなったり、インタラクション自体が原因でセンサ類または表示装置などが故障するといった問題点があった。 However, such as conventional onboard sensors or display device in a robot for a fixed, or hinders interaction, such as during moving or when contact interaction itself and sensors or display device failure due there is a problem.

【0008】本発明は、上記問題点を解決するためになされたものであり、第1の目的は、使用者が提示される情報を正確に認識することが可能なロボット型インタフェース装置およびその制御方法を提供することである。 [0008] The present invention has been made to solve the above problems, the first object is correctly recognized robotic interface device capable of and control information that the user is presented it is to provide a method.

【0009】第2の目的は、外部情報を正確に取得して的確な制御を行なうことが可能なロボット型インタフェース装置を提供することである。 A second object is to provide a robotic interface device capable of accurately acquired by accurate control of the external information.

【0010】第3の目的は、消費電力を削減することが可能なロボット型インタフェース装置を提供することである。 [0010] A third object is to provide a robotic interface device capable of reducing power consumption.

【0011】第4の目的は、装置の位置を変更することにより装置の保護が可能であり、使用者が利用しやすい形状のロボット型インタフェース装置を提供することである。 [0011] A fourth object of a possible protection device by changing the position of the device is that the user provides a robotic interface device easily shaped utilized.

【0012】 [0012]

【課題を解決するための手段】本発明のある局面に従えば、周辺の状態に応じて使用者に情報を提示するロボット型インタフェース装置であって、ロボット型インタフェース装置周辺の状態を検知するための検知手段と、使用者に対して情報を提示するための表示手段と、ロボット型インタフェース装置を移動させるための第1の駆動手段と、表示手段を移動させるための第2の駆動手段と、検知手段によって検知された周辺の状態に応じて第1の駆動手段を制御してロボット型インタフェース装置を移動させ、第2の駆動手段を制御してロボット型インタフェース装置に対する表示手段の相対位置と相対角度との少なくとも一方を変更して使用者に情報を提示させるための制御手段とを含む。 According to the present invention aspect Means for Solving the Problems], a robotic interface device for presenting information to the user in response to neighborhood state, for detecting the state of the peripheral robotic interface device and sensing means, and display means for presenting information to the user, a first driving means for moving the robotic interface device, a second drive means for moving the display means, moving the robotic interface device by controlling the first driving means in accordance with the state of the peripheral that is detected by the detection means, relative position and the display means by controlling the second driving means for robotic interface device and changing at least one of the angle and a control means for presenting information to the user.

【0013】制御手段は、第2の駆動手段を制御してロボット型インタフェース装置に対する表示手段の相対位置と相対角度との少なくとも一方を変更して使用者に情報を提示させるので、使用者は提示される情報を正確に認識することが可能となる。 The control means, so to present the information to the user by changing at least one of the relative position and angle of the display means by controlling the second driving means for robotic interface device, the user presents it is possible to accurately recognize the information.

【0014】好ましくは、検知手段は、周辺の画像を取得するための画像取得手段を含み、ロボット型インタフェース装置はさらに、画像取得手段を移動させるための第3の駆動手段を含み、制御手段は、画像取得手段によって取得された使用者の顔が画像の中央近傍となるように、第1の駆動手段と第3の駆動手段とを制御した後、 [0014] Preferably, the detection means includes an image acquiring means for acquiring an image of the peripheral, robotic interface device further includes a third drive means for moving the image acquisition means, the control means as the face of the user acquired by the image acquiring unit is near the center of the image, after controlling the first driving means and the third drive means,
第2の駆動手段を制御してロボット型インタフェース装置に対する表示手段の相対位置と相対角度との少なくとも一方を変更する。 And it controls the second drive means to change at least one of the relative position and angle of the display unit for a robotic interface device.

【0015】したがって、使用者の顔の位置を正確に判断することができ、ロボット型インタフェース装置の的確な制御を行なうことが可能となる。 [0015] Thus, it is possible to accurately determine the position of the user's face, it is possible to perform an accurate control of the robotic interface device.

【0016】さらに好ましくは、制御手段は、画像取得手段によって取得された使用者の顔の画像が予め記憶された顔の画像と一致する場合に、表示手段による情報の提示を開始する。 [0016] More preferably, the control means, when the image of the face of the user acquired by the image acquiring unit matches the image of the previously stored face, starts the presentation of information by the display means.

【0017】したがって、予め登録された使用者以外に情報が提示されるのを防止することが可能となる。 [0017] Thus, it is possible to prevent the information except the user registered in advance is presented.

【0018】好ましくは、検知手段はさらに、周辺にある物体までの距離を計測するための距離計測手段を含み、制御手段は、距離計測手段によって計測された使用者までの距離が所定値となるように第1の駆動手段を制御してロボット型インタフェース装置を移動させた後、 [0018] Preferably, the detection means further includes distance measuring means for measuring a distance to an object in the periphery, the control means, the distance to the user that is measured by the distance measuring means becomes a predetermined value after moving the robotic interface device by controlling the first driving means so as,
画像取得手段によって取得された使用者の顔が画像の中央近傍となるように、第1の駆動手段と第3の駆動手段とを制御した後、第2の駆動手段を制御して表示手段の相対位置と相対角度との少なくとも一方を変更する。 As the face of the user acquired by the image acquiring unit is near the center of the image, the first drive means and the third after controlling the drive means, the second control to display means driving means changing at least one of the relative position and the relative angle.

【0019】したがって、ロボット型インタフェース装置は、使用者がいる位置まで正確に移動することが可能となる。 [0019] Thus, robotic interface device, it is possible to accurately move to a position where there are user.

【0020】好ましくは、ロボット型インタフェース装置はさらに、周辺の照度を計測するための照度計測手段を含み、制御手段は、照度計測手段によって計測された周辺の照度に応じて、表示手段の表示モードを変更する。 [0020] Preferably, robotic interface device further includes an illuminance measurement means for measuring the illuminance of the peripheral, the control means, in accordance with the illuminance around measured by the illuminance measurement means, the display mode of the display means to change the.

【0021】したがって、表示手段の表示モードを的確に変更でき、消費電力を削減することが可能となる。 [0021] Therefore, it is possible to accurately change the display mode of the display means, it is possible to reduce power consumption.

【0022】好ましくは、ロボット型インタフェース装置はさらに、使用者の音声を入力して認識するための音声入力手段を含み、制御手段は、音声入力手段による認識結果が第1の所定命令であれば、表示手段による情報の提示を開始する。 [0022] Preferably, robotic interface device further includes a voice input means for recognizing enter the user's voice, the control unit, if the recognition result by the voice input means at a first predetermined instruction , to start the presentation of information by the display means.

【0023】したがって、ロボット型インタフェース装置は、情報提示の開始を正確に判断することが可能となる。 [0023] Thus, robotic interface device, it is possible to accurately determine the start of information presentation.

【0024】さらに好ましくは、制御手段は、音声入力手段による認識結果が第2の所定命令であれば、表示手段による情報の提示を終了する。 [0024] More preferably, the control means, if the recognition result by the voice input means a second predetermined instruction to end the presentation of information by the display means.

【0025】したがって、ロボット型インタフェース装置は、情報提示の終了を正確に判断することが可能となる。 [0025] Thus, robotic interface device, it is possible to accurately determine the end of the information presentation.

【0026】さらに好ましくは、ロボット型インタフェース装置はさらに、周辺の照度を計測するための照度計測手段を含み、制御手段は、照度計測手段によって計測された周辺の照度が所定値以下の場合に、表示手段による情報の提示を終了する。 [0026] More preferably, robotic interface device further includes an illuminance measurement means for measuring the illuminance of the peripheral control unit, when the illuminance around measured by the illuminance measurement means is below a predetermined value, to end the presentation of information by the display means.

【0027】したがって、ロボット型インタフェース装置は、情報提示の終了を正確に判断することが可能となる。 [0027] Thus, robotic interface device, it is possible to accurately determine the end of the information presentation.

【0028】好ましくは、ロボット型インタフェース装置はさらに、表示手段を覆うように設けられたカバーを含み、第2の駆動手段は、カバーを開いた後、表示手段を持上げて移動させる。 [0028] Preferably, robotic interface device further includes a cover provided to cover the display unit, the second drive means, after opening the cover, is moved to lift the display means.

【0029】したがって、情報を提示するとき以外は表示手段がカバーに覆われているため、衝撃に弱い表示手段を保護することが可能となる。 [0029] Thus, since the display unit is covered by the cover except when presenting information, it is possible to protect the sensitive display means to an impact.

【0030】好ましくは、ロボット型インタフェース装置はさらに、外部から情報を受信するための受信手段を含み、表示手段は受信手段によって受信された情報を表示する。 [0030] Preferably, robotic interface device further includes a receiving means for receiving information from outside, the display means displays the information received by the receiving means.

【0031】したがって、外部から表示手段によって提示される情報を供給でき、ロボット型インタフェース装置の利便性を向上させることが可能となる。 [0031] Therefore, it supplies the information presented by the display means from the outside, it is possible to improve the convenience of robotic interface device.

【0032】本発明の別の局面に従えば、周辺の状態に応じて使用者に情報を提示する表示装置を含んだロボット型インタフェース装置の制御方法であって、ロボット型インタフェース装置周辺の状態を検知するステップと、検知された周辺の状態に応じて前記ロボット型インタフェース装置を移動させ、ロボット型インタフェース装置に対する表示装置の相対位置と相対角度との少なくとも一方を変更して使用者に情報を提示するステップとを含む。 According to another aspect of the [0032] present invention, including a display device for presenting information to the user in response to neighborhood state A method of controlling a robotic interface device, the status of the peripheral robotic interface device presenting a step of detecting, according to the state of the peripheral sensed moving the robotic interface device, information to the user by changing at least one of the relative position and angle of the display device relative to the robotic interface device and a step of.

【0033】検知された周辺の状態に応じて、ロボット型インタフェース装置に対する表示装置の相対位置と相対角度との少なくとも一方を変更して使用者に情報を提示させるので、使用者は提示される情報を正確に認識することが可能となる。 [0033] Depending on the state of the peripheral sensed information so to present at least one change to the information to the user of the relative position and angle of the display device for robotic interface device, the user is presented it is possible to accurately recognize the.

【0034】 [0034]

【発明の実施の形態】図1および図2は、本発明の実施の形態におけるロボット型インタフェース装置の上面図およびその側面図である。 1 and 2 DETAILED DESCRIPTION OF THE INVENTION is a top view and a side view of a robotic interface device according to the embodiment of the present invention. 図1および図2はそれぞれ、 Figures 1 and 2,
本実施の形態におけるロボット型インタフェース装置から、後述するカバー103Tおよび103Bを外した場合の上面図および側面図を示している。 From robotic interface device of the present embodiment shows a top view and a side view when the cover removed 103T and 103B will be described later. このロボット型インタフェース装置は、各機能毎にモジュール化されたボードが接続されるマザーボード101と、メインスイッチ102と、電源ブロック104と、左右の駆動輪1 The robotic interface device, and a motherboard 101 which modular board for each function is connected, a main switch 102, a power supply block 104, the left and right drive wheels 1
05Rおよび105Lと、駆動輪105Rおよび105 And 05R and 105L, the driving wheels 105R and 105
Lをそれぞれ駆動する駆動輪用駆動装置106Rおよび106Lと、装置前部および後部の左右に設けられた3 L and respective drive wheel drive unit 106R for driving and 106L, 3 provided in the right and left of the device front and rear
自由度を有する4つのリンク機構107FR、107F Four of the link mechanism 107FR with a degree of freedom, 107F
L、107RRおよび107RLと、これらのリンク機構をそれぞれ駆動するリンク機構用駆動装置108F L, 107RR and 107RL and, these link mechanisms each drive link mechanism for driving device 108F
R、108FL、108RRおよび108RLと、液晶表示装置111と、液晶表示装置111を覆う液晶表示装置用カバー109と、液晶表示装置用カバー109の開閉を行なう開閉用駆動装置110と、液晶表示装置1 R, 108FL, and 108RR and 108RL, and the liquid crystal display device 111, a liquid crystal display device for a cover 109 for covering the liquid crystal display device 111, the opening and closing drive unit 110 for opening and closing the liquid crystal display device cover 109, a liquid crystal display device 1
11の一方の端部を持ち上げて液晶表示装置111の格納および角度の変更を行なう格納用駆動装置112と、 Lift one end of 11 and the storage drive device 112 for storage and angle changes of the liquid crystal display device 111,
ビデオカメラ113と、装置前部の左右に設けられたマイクロホン115Rおよび115Lと、装置前部に設けられた超音波センサ116Eと、装置前部および後部の左右に設けられた超音波センサ116FR、116F A video camera 113, a microphone 115R provided left and right of the device front and 115L and an ultrasonic sensor 116E provided in the device front, ultrasonic sensors 116FR provided on the left and right of the device front and rear, 116F
L、116RRおよび116RLと、ビデオカメラ11 L, and 116RR and 116RL, video camera 11
3および超音波センサ116Eを同時に動かすビデオカメラ用駆動装置114と、電源ブロック104の上面中心に設けられた照度センサ117と、ビデオカメラ11 3 and a video camera driving device 114 for moving the ultrasonic sensor 116E simultaneously, an illuminance sensor 117 provided on the upper surface center of the power supply block 104, the video camera 11
3の前面に設けられたビデオカメラ用レンズ118と、 A video camera lens 118 provided on the front surface of 3,
装置の前部に設けられたスピーカ119と、マザーボード101に接続される音声入力ブロック120、音声出力ブロック121、画像処理ブロック122、センサ情報の取得やモータ類の駆動を制御する入出力ブロック1 A speaker 119 provided to the front of the device, audio input block 120 connected to the motherboard 101, input block 1 which controls the drive of the audio output block 121, the image processing block 122, obtains the sensor information and motors
23、外部通信ブロック124および装置全体の制御を行なう制御ブロック125と、外部通信コネクタ126 23, a control block 125 for controlling the entire external communication block 124 and devices external communication connector 126
とを含む。 Including the door.

【0035】ロボット型インタフェース装置は、マザーボード101がベースとなっており、そのマザーボード101上のコネクタに、各機能ごとにモジュール化されたボードである音声入力ブロック120、音声出力ブロック121、画像処理ブロック122、入出力ブロック123、外部通信ブロック124および制御ブロック1 The robotic interface device, a motherboard 101 and is a base, the connector on the motherboard 101, the audio input block 120 is a modular board for each function, an audio output block 121, the image processing block 122, output block 123, external communication block 124 and control block 1
25が接続される。 25 are connected. なお、これらのブロック120〜1 It should be noted that, of these blocks 120-1
25の詳細は後述する。 For more information 25 will be described later.

【0036】マザーボード101後部にはメインスイッチ102が設けられており、このメインスイッチ102 [0036] The motherboard 101 rear and the main switch 102 is provided, the main switch 102
の操作によってロボット型インタフェース装置の起動/ Starting robotic interface device by the operation /
停止が行なわれる。 Stop is performed. メインスイッチ102の上部には、 At the top of the main switch 102,
外部通信ブロック124に接続された外部通信コネクタ126が設けられており、図示しないケーブルを介して外部から情報を受信したり、外部へ情報を送信したりすることができる。 External communication block 124 connected external communication connector 126 is provided in, or can send and receive information from the outside through a cable (not shown), information to the outside.

【0037】マザーボード101下部には、ロボット型インタフェース装置を移動させるための駆動輪105R [0037] The motherboard 101 lower, drive wheels 105R for moving the robotic interface device
および105Lと、駆動輪105Rおよび105Lを駆動するモータ等によって構成される駆動輪用駆動装置1 And 105L and the driving wheels 105R and the driving device for driving wheel constituted by a motor for driving the 105L 1
06Rおよび106Lとが設けられ、さらにリンク機構107FR、107FL、107RRおよび107RL 06R and 106L and is provided, further linkage 107FR, 107FL, 107RR and 107RL
と、これらのリンク機構を駆動するリンク機構用駆動装置108FR、108FL、108RRおよび108R When these linkage drive link mechanism for driving apparatus 108FR, 108FL, 108RR and 108R
Lとが駆動脚として取付けられている。 L and is mounted as a drive leg.

【0038】マザーボード101前部には、スピーカ1 [0038] The motherboard 101 front speaker 1
19が設けられており、音声出力ブロック121によって生成された音声等が出力される。 19 are provided, sound or the like generated by the audio output block 121 is output. マザーボード101 Motherboard 101
上部には、リチウムイオン電池などのような充電式の電池によって構成される電源ブロック104が設けられており、ロボット型インタフェース装置によって消費される電力が供給される。 The upper and power supply block 104 constituted by a rechargeable battery, such as lithium-ion batteries are provided, the power consumed by robotic interface device is supplied.

【0039】マザーボード101上部には、液晶表示装置用カバー109、開閉用駆動装置110、液晶表示装置111および格納用駆動装置112が設けられている。 [0039] motherboard 101 top, a liquid crystal display device cover 109, opening and closing drive unit 110, a liquid crystal display device 111 and the storage drive device 112 is provided. 開閉用駆動装置110の駆動によって液晶表示装置用カバー109が開けられ、さらに格納用駆動装置11 It can open the liquid crystal display device cover 109 by the driving of the opening and closing drive unit 110 further stores driving device 11
2の駆動によって液晶表示装置111の一方の端部が持ち上げられて、後述するように液晶表示装置111の角度が変更される。 It lifted the one end of the liquid crystal display device 111 by the second drive, the angle of the liquid crystal display device 111 as will be described later is changed.

【0040】液晶表示装置111の前方にはビデオカメラ113、超音波センサ116Eおよびそれらを同時に動かす2自由度のビデオカメラ用駆動装置114が設けられている。 The liquid crystal display device video camera 113 in front of the 111, ultrasonic sensors 116E and move them simultaneously two degrees of freedom of a video camera driving device 114 is provided. すなわち、ビデオカメラ113による撮像方向と同じ方向に超音波センサ116Eが向くように、 That is, in the same direction as the imaging direction of the video camera 113 so as to face the ultrasonic sensors 116E,
ビデオカメラ113および超音波センサ116Eがビデオカメラ用駆動装置114によって駆動される。 Video cameras 113 and ultrasonic sensors 116E is driven by a video camera driving device 114. 画像処理ブロック122は、ビデオカメラ113によって撮像された画像を解析することによって、ロボット型インタフェース装置周辺の人間や物体を認識する。 The image processing block 122, by analyzing the image captured by the video camera 113 recognizes the human or object near robotic interface device.

【0041】ビデオカメラ113および超音波センサ1 The video camera 113 and the ultrasonic sensor 1
16Eの両側には、左右対称となるようにマイクロホン115Rおよび115Lが取付けられている。 On both sides of 16E, a microphone 115R and 115L so as to be symmetrically mounted. 音声入力ブロック120は、マイクロホン115Rおよび115 Audio input block 120, a microphone 115R and 115
Lを介して入力された音声を解析して音声認識を行なう。 By analyzing the voice input through the L performs voice recognition. また、ロボット型インタフェース装置の前部には、 Further, the front of the robotic interface device,
スピーカ119が設けられており、音声出力ブロック1 Speaker 119 is provided, the audio output block 1
21によって合成された音声等を出力する。 Outputting sound or the like synthesized by 21.

【0042】また、ロボット型インタフェース装置には、4方向の距離を計測するための超音波センサ116 Further, the robotic interface device, the ultrasonic sensor 116 for measuring the four directions of the distance
FR、116FL、116RRおよび116RLが設けられており、ロボット型インタフェース装置周辺の人間や物体までの距離をくまなく計測することができる。 FR, 116FL, and 116RR and 116RL are provided, it is possible to measure all over the distance to the person or object near robotic interface device.

【0043】図3は、カバー103Tおよび103Bが取付けられた状態の本実施の形態におけるロボット型インタフェース装置の上面図である。 [0043] Figure 3 is a top view of a robotic interface device of the present embodiment of the cover 103T and 103B is attached. カバー103Tは液晶表示装置カバー109に固定され、カバー103Bはマザーボード101に固定されている。 Cover 103T is fixed to the liquid crystal display device cover 109, the cover 103B is fixed to the motherboard 101. 電源ブロック1 Power supply block 1
04上部の照度センサ117は、カバー103Tの中心に位置するように電源ブロック104に取付けられており、カバー103Tを介して周辺の照度を計測することができる。 04 the upper portion of the illumination sensor 117 is attached to the power supply block 104 to be in the center of the cover 103T, it is possible to measure the illuminance of the peripheral via the cover 103T.

【0044】図4は、カバー103Tを開けた状態の本実施の形態におけるロボット型インタフェース装置の側面図である。 [0044] Figure 4 is a side view of a robotic interface device of the present embodiment in a state where the cover open 103T. 制御ブロック125は、入出力ブロック1 Control block 125, output block 1
23を介して開閉用駆動装置110の駆動を制御することによって液晶表示装置カバー109およびそれに固定されたカバー103Tを矢印131の方向に開けた後、 After opening the cover 103T fixed to the liquid crystal display device cover 109 and it in the direction of arrow 131 by controlling the driving of the opening and closing drive unit 110 via the 23,
格納用駆動装置112の駆動を制御することによって液晶表示装置111を矢印132の方向に持ち上げて、液晶表示装置111の角度を変更する。 Lift the liquid crystal display device 111 in the direction of arrow 132 by controlling the drive of the storage drive device 112, changing the angle of the liquid crystal display device 111.

【0045】このとき、液晶表示装置カバー109の前部に設けられたビデオカメラ113および超音波センサ116Eも同時に持上げられ、それぞれがロボット型インタフェース装置の真正面、斜め上方の方向を向くことになる。 [0045] At this time, the video camera 113 and ultrasonic sensors 116E provided in front of the liquid crystal display device cover 109 also lifted simultaneously, each will be oriented directly in front of the robotic interface device, the direction of obliquely upward. 同様にして、ビデオカメラ113および超音波センサ116Eの両側に左右対称に設けられたマイクロホン115Rおよび115Lも、ロボット型インタフェース装置の真正面、斜め上方の方向を向くことになる。 Similarly, a microphone 115R and 115L provided symmetrically on either side of the video camera 113 and the ultrasonic sensor 116E also will be oriented directly in front of the robotic interface device, the direction of obliquely upward.

【0046】ロボット型インタフェース装置が使用者に情報を的確に提示する方法として、液晶表示装置カバー109を開いて液晶表示装置111を使用者に提示した後、使用者が液晶表示装置111の正面に移動する第1 [0046] As a method for robotic interface device to accurately present the information to the user, after presenting to the user of the liquid crystal display device 111 opens the liquid crystal display device cover 109, the user in front of the liquid crystal display device 111 the move 1
の方法と、ロボット型インタフェース装置が駆動輪10 And methods, driven robotic interface device wheel 10
5または駆動脚107を駆動して使用者の正面に移動した後、液晶表示装置カバー109を開いて液晶表示装置111を使用者に提示する第2の方法とを挙げることができる。 5 or after moving to the front of the user's driving leg 107 is driven, it can be given a second method of presenting a liquid crystal display device 111 to the user by opening the liquid crystal display device cover 109.

【0047】第1の方法の場合には、音声入力ブロック120がマイクロホン115を介して入力された使用者からの音声を認識し、制御ブロック125がその認識結果に基づいて使用者の命令を解析する。 [0047] In the case of the first method recognizes the speech from the user to the audio input block 120 is input via the microphone 115, analyzes the instruction of the user control block 125 is based on the recognition result to. そして、音声による命令が特定の命令であると判定されたときに、制御ブロック125が開閉用駆動装置110を制御して液晶表示装置用カバー109を開いた後、駆動装置112を制御して液晶表示装置111を持上げて液晶表示装置1 Then, when the instruction by voice is determined to be a specific instruction, after the control block 125 opens the liquid crystal display device cover 109 controls the opening and closing drive unit 110 controls the drive 112 LCD the liquid crystal display device 1 lifts the display device 111
11を所定角度となるようにする。 11 to have a predetermined angle. その後、使用者は提示された液晶表示装置111が正面となるように移動する。 Thereafter, the liquid crystal display device 111 user presented is moved so that the front.

【0048】第2の方法の場合には、制御ブロック12 [0048] In the case of the second method, the control block 12
5が駆動輪105または駆動脚107を駆動しながら、 5 while driving the drive wheel 105 or drive legs 107,
超音波センサ116Eからの出力信号によって物体が存在する方向に移動する。 It moves in the direction to the presence of an object by an output signal from the ultrasonic sensor 116E. そして、制御ブロック125が超音波センサ116Eからの出力信号によってロボット型インタフェース装置の正面に存在する物体までの距離が所定値となったことを検知すると、画像処理ブロック122がビデオカメラ113によって取得された画像から肌色領域を抽出し、予め図示しないメモリに格納している使用者の顔データと比較することによって使用者であるか否かを判定する。 Then, the control block 125 is the distance to the object present in front of the robotic interface device by an output signal from the ultrasonic sensor 116E detects that reaches a predetermined value, the image processing block 122 is acquired by the video camera 113 was extracted skin color area from the image, determines whether the user by comparing the face data of the user are stored in a memory, not previously shown.

【0049】メモリに格納されている使用者と同一であると判定された場合には、制御ブロック125が開閉用駆動装置110を制御して液晶表示装置用カバー109 [0049] If it is determined to be the same as the user that is stored in the memory, the control block 125 controls the opening and closing drive unit 110 liquid crystal display device cover 109
を開いた後、格納用駆動装置112を制御して液晶表示装置111を持上げて液晶表示装置111が使用者の方向を向くように角度を変更する。 After opening the liquid crystal display device 111 lifts the liquid crystal display device 111 controls the storage drive device 112 changes the angle to face the direction of the user. このようにして、超音波センサ116Eからの出力信号およびビデオカメラ1 Thus, the output signal from the ultrasonic sensor 116E and video camera 1
13によって取得された画像に基づいて、液晶表示装置111の向きが使用者の正面となるように制御を行なうことができ、使用者の表情、使用者までの距離、使用者の背後の環境などを撮像することが可能となる。 13 based on the acquired image by the orientation of the liquid crystal display device 111 can be controlled so that the front of the user, expressions of the user, the distance to the user, such as behind the environment of a user it is possible to image the.

【0050】図5は、本実施の形態におけるロボット型インタフェース装置が使用者に情報を提示するところを示す図である。 [0050] Figure 5 is a diagram showing the place robotic interface device of the present embodiment presents information to the user. 制御ブロック125は、図示しない内部メモリに予め記憶しているロボット本体に関する情報や、外部通信ブロック124を介して外部から受信した情報等を液晶表示装置111に表示することによって、 Control block 125, and information about the robot stored in advance in an internal memory (not shown), by displaying the information received from the outside via the external communication block 124 or the like to the liquid crystal display device 111,
使用者に情報を提示する。 To present the information to the user.

【0051】図5(a)は、超音波センサ116Eからの出力信号およびビデオカメラ111によって取得された画像に基づいて、液晶表示装置111によって反射された光源からの光が使用者の目に入射されるように液晶表示装置の角度が調整されているところを示している。 [0051] FIG. 5 (a), based on the acquired image by the output signal and the video camera 111 from the ultrasonic sensor 116E, enters the eyes of the light users from a light source is reflected by the liquid crystal display device 111 angle of the liquid crystal display device indicates the place where it is adjusted to be.
この場合には、映り込みなどの外乱が発生するため、制御ブロック125が格納用駆動装置112を制御して液晶表示装置111の角度を変更して、液晶表示装置11 In this case, since the disturbance such as reflection occurs, by changing the angle of the liquid crystal display device 111 control block 125 controls the storage drive device 112, a liquid crystal display device 11
1によって反射された光源からの光が使用者の目に入射されないように制御がされる。 Light from the light source reflected by 1 is a control so as not to be incident on the eye of the user.

【0052】図5(b)は、液晶表示装置111によって反射された光源からの光が使用者の目に入射されておらず、映り込みなどの外乱が発生していないところを示している。 [0052] FIG. 5 (b), the light from the light source reflected by the liquid crystal display device 111 is not incident on the eye of the user, disturbances such as reflection indicates the place has not occurred. このようにして、使用者の負担が少なくなるようにして、液晶表示装置111に情報を表示して、使用者に情報を提示することができる。 In this way, as the burden of the user is reduced, and display information on the liquid crystal display device 111 can present the information to the user.

【0053】図6は、液晶表示装置用カバー109を開けて、液晶表示装置111が使用者の顔の方向を向くようにした状態の本実施の形態におけるロボット型インタフェース装置の外観例を示している。 [0053] Figure 6, to open the liquid crystal display device cover 109, shows an appearance example of a robotic interface device of the present embodiment in a state where the liquid crystal display device 111 is to face the direction of the face of the user there. 図6に示すように、この状態ではビデオカメラ113および超音波センサ116Eが使用者の顔の方向を向くことになる。 As shown in FIG. 6, it will be directed toward the face of the video camera 113 and the ultrasonic sensor 116E by the user in this state.

【0054】また、使用者が楽な姿勢をとるために顔の位置を移動した場合には、制御ブロック125がビデオカメラ113によって取得された画像内の使用者の顔の位置に合せて、液晶表示装置111の角度を変更したり、駆動輪105や駆動脚107を駆動したりすることによって、液晶表示装置111が常に使用者の顔と正対する位置となるようにすることができる。 [0054] Also, when moving the position of the face in which a user takes a comfortable position, the control block 125 in accordance with the position of the face of the user in the image captured by the video camera 113, a liquid crystal change the angle of the display device 111, by or drives the drive wheel 105 and the drive legs 107, against face and positive liquid crystal display device 111 is always user can be made to be positioned.

【0055】以上の説明は、液晶表示装置111を使用者に提示して、使用者に内部情報を提供する場合についてであったが、使用者がロボット型インタフェース装置に触れて遊ぶ場合などのように、液晶表示装置111が必要でない場合には液晶表示装置用カバー109を閉じた状態にして液晶表示装置111を収納することができる。 [0055] The above description, a liquid crystal display device 111 is presented to the user, but was for the case to provide an internal information to the user, such as when the user play touch the robotic interface device to, if not required liquid crystal display device 111 can store a liquid crystal display device 111 in the closed liquid crystal display device for a cover 109. このようにして、使用されない部品を内部に収納することによって、ロボット型インタフェース装置の外観を、使用者が親しみやすい形状とすることができるとともに、衝撃に弱い液晶表示装置111を保護して故障の原因とならないようにすることができる。 In this way, by accommodating the unused parts inside, the appearance of the robotic interface device, it is possible to easily user friendly shape, failure to protect the liquid crystal display device 111 sensitive to shock it is possible to avoid the cause.

【0056】図7は、本発明の実施の形態におけるロボット型インタフェース装置の電気部品の概略構成を示すブロック図である。 [0056] Figure 7 is a block diagram showing the schematic configuration of the electrical components of the robotic interface device according to the embodiment of the present invention. ロボット型インタフェース装置は、 Robotic interface device,
電気部品として、駆動輪105Rを駆動する駆動輪用駆動装置106と、リンク機構107を駆動するリンク機構用駆動装置108と、液晶表示装置111と、液晶表示装置用カバー109およびそれに固定されたカバー1 As electrical components, a drive wheel driving device 106 for driving the drive wheels 105R, a link mechanism drive unit 108 for driving the link mechanism 107, cover the liquid crystal display device 111, which is fixed to the cover 109 and its liquid crystal display device 1
03Tの開閉を行なう開閉用駆動装置110と、液晶表示装置111の一方の端部を持ち上げる格納用駆動装置112と、ビデオカメラ113と、ビデオカメラ113 And opening and closing drive unit 110 for opening and closing the 03T, the storage drive device 112 to lift one end of the liquid crystal display device 111, a video camera 113, video camera 113
および超音波センサ116Eを同時に動かすビデオカメラ用駆動装置114と、マイクロホン115と、超音波センサ116と、照度センサ117と、スピーカ119 And a video camera driving device 114 for moving the ultrasonic sensor 116E simultaneously, a microphone 115, an ultrasonic sensor 116, an illuminance sensor 117, a speaker 119
と、マイクロホン115を介して音声を入力して解析する音声入力ブロック120と、スピーカ119を介して音声等を出力する音声出力ブロック121と、ビデオカメラ113によって撮像された画像を解析する画像処理ブロック122と、センサ情報の取得やモータ類の駆動を制御する入出力ブロック123と、外部通信ブロック124と、装置全体の制御を行なう制御ブロック125 When a speech input block 120 to analyze inputting sound via the microphone 115, an audio output block 121 for outputting a voice or the like via a speaker 119, an image processing block for analyzing the images captured by the video camera 113 and 122, input and output block 123 for controlling the driving of the acquisition and motors of the sensor information, the control block and external communications block 124, controls the entire apparatus 125
と、外部通信コネクタ126とを含む。 If, and an external communication connector 126.

【0057】図8は、本実施の形態におけるロボット型インタフェース装置の処理手順を説明するためのフローチャートである。 [0057] Figure 8 is a flowchart illustrating a processing procedure of a robotic interface device of the present embodiment. 初期状態においては、液晶表示装置1 In the initial state, the liquid crystal display device 1
11がロボット型インタフェース内部に収納されており、液晶表示装置用カバー109によって覆われた状態となっている。 11 is housed inside robotic interface has become a state of being covered by a liquid crystal display device for a cover 109. この状態で、使用者がマイク115を介して音声を入力すると、音声入力ブロック120が入力された音声の認識処理を行ない、認識結果を制御ブロック125へ出力する。 In this state, if a user inputs a voice through the microphone 115, performs recognition processing of speech sound input block 120 is input, and outputs the recognition result to the control block 125. 制御ブロック125は、その認識結果が使用者による情報提示命令であるか否かを判定する(S1)。 Control block 125 determines whether the recognition result is information presentation command by the user (S1).

【0058】制御ブロック125が情報提示命令でないと判断した場合には(S1,No)、駆動輪105および駆動脚107を制御してロボット型インタフェース装置の移動を行ない、ロボット型インタフェース装置周辺の探索を行なって、ロボット型インタフェース装置が使用者の方向を向くようにし、使用者までの距離が所定値となるように制御を行なう(S2)。 [0058] When the control block 125 is determined not to be the information presentation instruction (S1, No), and controls the drive wheel 105 and the drive leg 107 performs movement of the robotic interface device, explore the robotic interface device the performed, as robotic interface device are in the direction of the user, the distance to the user is controlled to be a predetermined value (S2).

【0059】次に、画像処理ブロック122は、ビデオカメラ113によって撮像された画像の中に使用者の顔が存在するか否かを判定する(S3)。 Next, the image processing block 122 determines whether there is the user's face in the image captured by the video camera 113 (S3). ビデオカメラ1 Video camera 1
13によって撮像された画像の中に使用者の顔が存在しない場合には(S3,No)、ステップS1へ戻って以降の処理を繰返す。 If there is no user's face in the image captured by the 13 repeats the subsequent process returns to (S3, No), the step S1. また、ビデオカメラ113によって撮像された画像の中に使用者の顔が存在する場合には(S3,Yes)、制御部125は液晶表示装置111 The video is if there is the user's face in the image captured by the camera 113 (S3, Yes), the control unit 125 the liquid crystal display device 111
がロボット型インタフェース装置内に収納されているか否かを判定する(S4)。 It is equal to or is accommodated in the robotic interface device (S4). 液晶表示装置111が既に使用者に提示されている場合には(S4,No)、ステップS6へ進む。 If the liquid crystal display device 111 has already been presented to the user proceeds to (S4, No), step S6. また、液晶表示装置111がロボット型インタフェース装置内に収納されている場合には(S Further, in the case where the liquid crystal display device 111 is accommodated in the robotic interface device (S
4,Yes)、制御ブロック125が入出力ブロック1 4, Yes), the control block 125 is input and output blocks 1
23を介して開閉用駆動装置110および格納用駆動装置112を制御して、液晶表示装置111が使用者に提示されるようにする(S5)。 And it controls the opening and closing drive unit 110 and the storage drive device 112 via the 23, so that the liquid crystal display device 111 is presented to the user (S5).

【0060】ステップS6において、画像処理ブロック122がビデオカメラ113によって撮像された画像の中心近傍に、使用者の顔が存在するか否かを判定する(S6)。 [0060] In step S6, near the center of the image by the image processing block 122 is captured by the video camera 113 determines whether the user's face is present (S6). 画像の中心近傍に使用者の顔が存在しない場合には(S6,No)、使用者の顔が画像内に存在するか否かを判定する(S7)。 If the face near the center to the user of the image does not exist (S6, No), it determines whether the user's face is present in the image (S7). 使用者の顔が画像内にも存在しない場合には(S7,No)、情報提供の終了の準備を行ない、開閉用駆動装置110および格納用駆動装置112を制御して液晶表示装置111をロボット型インタフェース装置内に収納して、処理を終了する(S1 If the face of the user is not present in the image (S7, No), performs the preparation of the end of the advertisement, the robot liquid crystal display device 111 controls the opening and closing drive unit 110 and the storage drive device 112 It is accommodated in the mold interface device, and ends the process (S1
2)。 2).

【0061】また、使用者の顔が画像内に存在する場合には(S7,Yes)、駆動輪用駆動装置106およびリンク機構用駆動装置108を制御して駆動輪105および駆動脚107を駆動し、上述した制御によって画像の中心に使用者の顔が存在するように移動が行なわれ(S8)、ステップS9へ処理が進む。 [0061] Further, in the case where the user's face is present in the image (S7, Yes), the control to drive the driving wheel 105 and the drive leg 107 of the drive wheel driving device 106 and the link mechanism drive unit 108 and, moving as the face of the user in the center of the image by the control described above there is performed (S8), the process proceeds to step S9.

【0062】ステップS6において、使用者の顔が画像の中心近傍に存在すると判定された場合には(S6,Y [0062] In step S6, if the face of the user is determined to exist in the vicinity of the center of the image (S6, Y
es)、制御ブロック125は図示しないメモリに格納されている情報を読み出して、液晶表示装置111に表示させることによって使用者に情報の提示を行なう(S es), the control block 125 reads the information stored in a memory (not shown), performs the presentation of information to the user by displaying on the liquid crystal display device 111 (S
9)。 9).

【0063】次に、音声によって情報提示の終了指示があるか否かが判定される(S10)。 Next, whether there is an end instruction information presented by voice is determined (S10). 音声入力ブロック120が、マイクロホン115を介して入力された音声が終了指示であると判断した場合には(S10,Ye If the sound input block 120, voice input through the microphone 115 is determined to be the end instruction (S10, Ye
s)、情報提供の終了の準備を行ない、開閉用駆動装置110および格納用駆動装置112を制御して、液晶表示装置111をロボット型インタフェース装置内に収納して、処理を終了する(S12)。 s), performs a preparation for completion of the advertisement, and controls the opening and closing drive unit 110 and the storage drive device 112, a liquid crystal display device 111 is accommodated in the robotic interface device, the processing is terminated (S12) .

【0064】また、マイクロホン115を介して入力された音声が終了指示でないと判断された場合には(S1 [0064] Also, if the voice input through the microphone 115 is determined not to be the end instruction (S1
0,No)、照度センサ117によって情報提示の終了指示があったか否かが判定される(S11)。 0, No), whether there is an end instruction information presented by the illuminance sensor 117 is determined (S11). 照度センサ117が遮蔽されて照度が低くなったときに、情報提示の終了指示があったものと判断され(S11,Ye When the illuminance sensor 117 illuminance is shielded becomes lower, it is determined that there is an end instruction of the information presentation (S11, Ye
s)、情報提供の終了の準備を行ない、開閉用駆動装置110および格納用駆動装置112を制御して液晶表示装置111をロボット型インタフェース装置内に収納して、処理を終了する(S12)。 s), it performs a preparation for completion of the advertisement, a liquid crystal display device 111 is accommodated in the robotic interface device to control the opening and closing drive unit 110 and the storage drive device 112, the process ends (S12). また、照度センサ11 In addition, the illuminance sensor 11
7の照度が低くない場合には(S11,No)、ステップS6に戻って以降の処理を繰返す。 If 7 illuminance is not lower repeated (S11, No), since the process returns to step S6.

【0065】以上の説明においては、液晶表示装置11 [0065] In the above description, the liquid crystal display device 11
1としてバックライトを用いたものを対象としているが、反射型とバックライト型の切替をおこなうことができる液晶表示装置を使用した場合には、電源ブロック1 Although intended for those using a backlight as 1, when using a liquid crystal display device which can be switched reflective and backlit, the power supply block 1
04の消費電力の節約を図ることが可能となる。 It is possible to achieve a saving of 04 power consumption of. すなわち、ビデオカメラ113が撮像した画像などによって、 That is, the image such as by the video camera 113 is captured,
液晶表示装置111正面の光量を計測し、光量が大きい場合には液晶表示装置111を反射型に切替え、光量が小さい場合には液晶表示装置111をバックライト型に切替えることによって、消費電力を削減することが可能となる。 Measuring the amount of the liquid crystal display device 111 front, when the light quantity is large switches the liquid crystal display device 111 on the reflective, by switching the liquid crystal display device 111 in the backlight-type when the light amount is small, power consumption is reduced it is possible to become.

【0066】また、液晶表示装置111がバックライト型であり、切替えることができない場合や、液晶以外の表示装置である場合であっても、たとえば使用者の顔の表情、予め定められた識別情報、ロボット型インタフェース装置周辺の外光や騒音などの情報を利用して、表示装置の光量やスピーカ119から出力される音量などを変化させることによって、消費電力を削減したり、使用者にストレスを与えることなしに情報を提示することが可能となる。 [0066] The liquid crystal display device 111 is a backlight type, and if it can not be switched, even when a display device other than the liquid crystal, for example, facial expressions of the user, identification information predetermined , using information such as ambient light and noise near robotic interface device, by changing the sound volume output from the light amount and the speaker 119 of the display device, or reducing power consumption, the stress to the user it is possible to present the information without giving. さらには、液晶表示装置としてEL(Elec Further, EL as a liquid crystal display device (Elec
troLuminescence)ディスプレイを使用した場合には、 troLuminescence) in the case of using the display,
暗所ではより少ない光量で表示が行なえるため、消費電力を削減することが可能となる。 Because performed is displayed in a smaller amount of light in the dark, it is possible to reduce power consumption.

【0067】また、液晶表示装置用カバー109の開閉と、液晶表示装置111の持上げとによって、液晶表示装置111を収納したり、使用者に提示したりしたが、 [0067] Further, the opening and closing of the liquid crystal display device cover 109, by a lifting up of the liquid crystal display device 111, or storage of the liquid crystal display device 111 has been or presented to the user,
平行送り機構を用いて液晶表示装置111を収納するようにしても良い。 It may be accommodated a liquid crystal display device 111 using a parallel feed mechanism. この場合には、液晶表示装置111の角度を調整することができなくなるが、可動部を1つにすることができるため、制御や設計が容易に行なえるようになる。 In this case, although it is not possible to adjust the angle of the liquid crystal display device 111, it is possible to a single moving part, the control and design can be easily so.

【0068】また、液晶表示装置111のみをロボット型インタフェース装置内部に収納するようにしているが、スピーカ119などの表示装置や、マイクロホン1 [0068] Although only a liquid crystal display device 111 so that is contained inside robotic interface device, display devices such as speakers 119, a microphone 1
15などのセンサ類を、ロボット型インタフェース装置内部に収納するようにしても良い。 The sensor such as 15, may be housed within a robotic interface device. このようにすれば、 In this way,
機能的なロボット型インタフェース装置の外観設計が可能になるとともに、それらの部品を衝撃などから保護でき、故障の原因を少なくすることが可能となる。 With the appearance design of functional robotic interface device becomes possible, their components can be protected such as from impact, it is possible to reduce the cause of the failure.

【0069】また、使用者とロボット型インタフェース装置とのインタラクションを非接触センサ(超音波センサ)のみを用いて行なっているが、カバー103Tの中心に設けられた照度センサ117をタッチセンサにし、 [0069] Further, although performing an interaction between the user and the robotic interface device using only non-contact sensor (ultrasonic sensor), the illuminance sensor 117 provided at the center of the cover 103T touch sensor,
使用者によって触れられるタッチセンサの方向や場所を検出して制御を行なうようにすれば、暗所であってもロボット型インタフェース装置に指示を与えたり、情報を取得することが可能になる。 If to perform detection to control the direction and location of a touch sensor touched by the user, or gives an instruction to the robotic interface device be dark, it is possible to obtain information.

【0070】以上説明したように、本実施の形態におけるロボット型インタフェース装置によれば、ビデオカメラ113によって取得された画像内の使用者の顔の位置に合せて、液晶表示装置111の角度を変更したり、駆動輪105や駆動脚を駆動したりすることによって、液晶表示装置111が常に使用者の顔と相対する位置となるようにしたので、使用者はロボット型インタフェース装置によって提示される情報を正確に認識することが可能となる。 [0070] As described above, according to the robotic interface device of the present embodiment, in accordance with the position of the face of the user in the image captured by the video camera 113, changing the angle of the liquid crystal display device 111 by or, or drives the drive wheel 105 and the drive leg, information since the liquid crystal display device 111 is always set to be the face that faces the position of the user, the user is presented by robotic interface device it is possible to accurately recognize the.

【0071】また、ビデオカメラ113および超音波センサ116Eの向きを制御して、ロボット型インタフェース装置周辺の情報を取得するようにしたので、外部情報を正確に取得することができるとともに、使用者がロボット型インタフェース装置に詳細な命令を与えなくてもロボット型インタフェース装置が的確な制御を行なうことが可能となる。 [0071] Further, by controlling the orientation of the video cameras 113 and ultrasonic sensors 116E, since acquire the information of the peripheral robotic interface device, it is possible to accurately obtain external information, the user without giving detailed instructions to robotic interface device robotic interface device it is possible to perform accurate control.

【0072】また、液晶表示装置用カバー109を開いた後、液晶表示装置111の一方の端部を持上げて使用者に情報を提示するようにしたので、液晶表示装置11 [0072] Further, after opening the liquid crystal display device cover 109, since the to present information to the user to lift the one end of the liquid crystal display device 111, a liquid crystal display device 11
1を使用しない場合には、ロボット型インタフェース装置内に液晶表示装置111を収納することができ、使用者にとって親しみやすい形状にすることが可能になるとともに、衝撃に弱い液晶表示装置111等の部品を保護することが可能となる。 If you do not use 1, it is possible to house the liquid crystal display device 111 in the robotic interface device, it becomes possible to friendly shape for the user, a weak crystal display device 111 such as a part of the impact it becomes possible to protect the.

【0073】今回開示された実施の形態は、すべての点で例示であって制限的なものではないと考えられるべきである。 [0073] This disclosed embodiments thereof, it is to be understood that the invention is not illustrative restrictive in every respect. 本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The scope of the invention is defined by the appended claims rather than by the foregoing description, and is intended to include all modifications within the meaning and range of equivalency of the claims.

【0074】 [0074]

【発明の効果】本発明のある局面によれば、制御手段が第2の駆動手段を制御してロボット型インタフェース装置に対する表示手段の相対位置と相対角度との少なくとも一方を変更して使用者に情報を提示させるので、使用者は提示される情報を正確に認識することが可能となった。 According to one aspect of the present invention, the control means to the user to change at least one of the relative position and angle of the display unit for the control to robotic interface device a second drive means since the presented information, the user has become possible to accurately recognize the information presented.

【0075】また、制御手段が、画像取得手段によって取得された使用者の顔が画像の中央近傍となるように、 [0075] Also, as control means, the face of the user acquired by the image acquiring unit is near the center of the image,
第1の駆動手段と第3の駆動手段とを制御した後、第2 After controlling the first driving means and the third drive means, second
の駆動手段を制御してロボット型インタフェース装置に対する表示手段の相対位置と相対角度との少なくとも一方を変更するので、使用者の顔の位置を正確に判断することができ、ロボット型インタフェース装置の的確な制御を行なうことが可能となった。 Since the controls the driving means to change at least one of the relative position and angle of the display means with respect to robotic interface device, it is possible to accurately determine the position of the face of the user, precise robotic interface device it becomes possible to perform Do control.

【0076】また、制御手段が画像取得手段によって取得された使用者の顔の画像が予め記憶された顔の画像と一致する場合に、表示手段による情報の提示を開始するので、予め登録された使用者以外に情報が提示されるのを防止することが可能となった。 [0076] Further, when the image of the face of the user control means is acquired by the image acquiring unit matches the image of the pre-stored face, so to start the presentation of the information by the display means, registered in advance it has become possible to prevent the information except to the user is presented.

【0077】また、制御手段が距離計測手段によって計測された使用者までの距離が所定値となるように第1の駆動手段を制御するので、ロボット型インタフェース装置は、使用者がいる位置まで正確に移動することが可能となった。 [0077] Further, since the distance to the user that the control means is measured by the distance measuring means controls the first driving means to a predetermined value, robotic interface device, precisely to a position where there are user it has become possible to move on.

【0078】また、制御手段が照度計測手段によって計測された周辺の照度に応じて、表示手段の表示モードを変更するので、表示手段の表示モードを的確に変更でき、消費電力を削減することが可能となった。 [0078] Further, in accordance with the illuminance around the control means is measured by the illuminance measurement means, so changes the display mode of the display unit, can accurately change the display mode of the display unit, it is possible to reduce the power consumption It has become possible.

【0079】また、制御手段が音声入力手段による認識結果が第1の所定命令であれば、表示手段による情報の提示を開始するので、ロボット型インタフェース装置は、情報提示の開始を正確に判断することが可能となった。 [0079] If the recognition result by the control unit voice input means at a first predetermined instruction, since starting the presentation of the information by the display means, robotic interface device, to accurately determine the start of information presentation it has become possible.

【0080】また、制御手段が音声入力手段による認識結果が第2の所定命令であれば、表示手段による情報の提示を終了するので、ロボット型インタフェース装置は、情報提示の終了を正確に判断することが可能となった。 [0080] If the control unit recognition result by the voice input means a second predetermined instruction, so ends the presentation of information by the display means, robotic interface device, to accurately determine the end of the information presentation it has become possible.

【0081】また、制御手段が照度計測手段によって計測された周辺の照度が所定値以下の場合に、表示手段による情報の提示を終了するので、ロボット型インタフェース装置は、情報提示の終了を正確に判断することが可能となった。 [0081] Further, when the illuminance around the control means is measured by the illuminance measurement means is below a predetermined value, so ends the presentation of information by the display means, robotic interface device, exactly the end of the information presentation it has become possible to determine.

【0082】また、第2の駆動手段がカバーを開いた後、表示手段を持上げて移動させるので、情報を提示するとき以外は表示手段がカバーに覆われているため、衝撃に弱い表示手段を保護することが可能となった。 [0082] Further, after the second driving means opens the cover, since moving to lift the display means, since the display unit is covered by the cover except when presenting information, a weak display means to an impact it has become possible to protect.

【0083】また、表示手段が受信手段によって受信された情報を表示するので、外部から表示手段によって提示される情報を供給でき、ロボット型インタフェース装置の利便性を向上させることが可能となった。 [0083] Further, since the display information by the display means is received by the receiving means, can supply information presented by the display means from the outside, it becomes possible to improve the convenience of robotic interface device.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】 本発明の実施の形態におけるロボット型インタフェース装置の上面図である。 1 is a top view of a robotic interface device according to the embodiment of the present invention.

【図2】 本発明の実施の形態におけるロボット型インタフェース装置の側面図である。 It is a side view of a robotic interface device according to the embodiment of the present invention; FIG.

【図3】 カバー103Tおよび103Bが取付けられた状態の本実施の形態におけるロボット型インタフェース装置の上面図である。 3 is a top view of a robotic interface device of the present embodiment states cover 103T and the 103B is attached.

【図4】 カバー103Tを開けた状態の本実施の形態におけるロボット型インタフェース装置の側面図である。 4 is a side view of a robotic interface device of the present embodiment in a state where the cover open 103T.

【図5】 本発明の実施の形態におけるロボット型インタフェース装置が使用者に情報を提示するところを示す図である。 5 is a diagram showing the place robotic interface device for presenting information to the user in the embodiment of the present invention.

【図6】 液晶表示装置用カバー109を開けて、液晶表示装置111が使用者の顔の方向を向くようにした状態の本実施の形態におけるロボット型インタフェース装置の外観例を示している。 6 to open the liquid crystal display device cover 109, a liquid crystal display device 111 shows an appearance example of a robotic interface device of the present embodiment in a state in which the facing direction of the face of the user.

【図7】 本発明の実施の形態におけるロボット型インタフェース装置の電気部品の概略構成を示すブロック図である。 7 is a block diagram showing the schematic configuration of the electrical components of the robotic interface device according to the embodiment of the present invention.

【図8】 本発明の実施の形態におけるロボット型インタフェース装置の処理手順を説明するためのフローチャートである。 8 is a flowchart illustrating a processing procedure of a robotic interface device according to the embodiment of the present invention.

【符号の説明】 DESCRIPTION OF SYMBOLS

101 マザーボード、102 メインスイッチ、10 101 motherboard, 102 main switch, 10
3T,103B カバー、104 電源ブロック、10 3T, 103B cover, 104 power supply block, 10
5R,105L 駆動輪、106R,106L駆動輪用駆動装置、107FR,107FL,107RR,10 5R, 105L driven wheels, 106R, 106L driven wheel driving apparatus, 107FR, 107FL, 107RR, 10
7RL リンク機構、108FR,108FL,108 7RL link mechanism, 108FR, 108FL, 108
RR,108RL リンク機構用駆動装置、109 液晶表示装置用カバー、110 開閉用駆動装置、111 RR, 108RL link mechanism drive unit, 109 a liquid crystal display device cover, 110 opening and closing drive unit, 111
液晶表示装置、112 格納用駆動装置、113 ビデオカメラ、114 ビデオカメラ用駆動装置、115 The liquid crystal display device, 112 storage drive device 113 a video camera, 114 video camera driving device, 115
R,115L マイクロホン、116E,116FR, R, 115L microphone, 116E, 116FR,
116FL,116RR,116RL 超音波センサ、 116FL, 116RR, 116RL ultrasonic sensor,
117 照度センサ、118 ビデオカメラ用レンズ、 117 illumination sensor, 118 a video camera lens,
119 スピーカ、120 音声入力ブロック、121 119 speaker, 120 audio input block, 121
音声出力ブロック、122 画像処理ブロック、12 The audio output block, 122 an image processing block, 12
3 入出力ブロック、124 外部通信ブロック、12 3 input and output blocks, 124 external communication block, 12
5 制御ブロック、126 外部通信コネクタ。 5 control block 126 external communication connector.

フロントページの続き (72)発明者 上田 泰広 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 2C150 AA14 CA01 CA02 CA04 DA06 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 DG01 DG02 DG12 DG13 DG42 DK02 ED42 ED52 EF07 EF16 EF17 EF23 EF29 EF33 EF36 3C007 AS34 CS08 JU03 KS00 KS11 KS36 KS39 KT01 KV18 KX02 LT06 LT11 LV12 WA02 WA16 WB16 WB17 WB19 WC06 Front page of the continuation (72) inventor Yasuhiro Ueda Osaka Abeno-ku, Osaka Nagaike-cho, No. 22 No. 22 Shea Sharp Co., Ltd. in the F-term (reference) 2C150 AA14 CA01 CA02 CA04 DA06 DA24 DA25 DA26 DA27 DA28 DF03 DF04 DF06 DF33 DG01 DG02 DG12 DG13 DG42 DK02 ED42 ED52 EF07 EF16 EF17 EF23 EF29 EF33 EF36 3C007 AS34 CS08 JU03 KS00 KS11 KS36 KS39 KT01 KV18 KX02 LT06 LT11 LV12 WA02 WA16 WB16 WB17 WB19 WC06

Claims (11)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】 周辺の状態に応じて使用者に情報を提示するロボット型インタフェース装置であって、 前記ロボット型インタフェース装置周辺の状態を検知するための検知手段と、 前記使用者に対して情報を提示するための表示手段と、 前記ロボット型インタフェース装置を移動させるための第1の駆動手段と、 前記表示手段を移動させるための第2の駆動手段と、 前記検知手段によって検知された周辺の状態に応じて前記第1の駆動手段を制御して前記ロボット型インタフェース装置を移動させ、前記第2の駆動手段を制御して前記ロボット型インタフェース装置に対する前記表示手段の相対位置と相対角度との少なくとも一方を変更して前記使用者に情報を提示させるための制御手段とを含む、 1. A robotic interface device for presenting information to the user according to the ambient conditions, and detecting means for detecting a state of surrounding the robotic interface device, information to the user display means for presenting a first driving means for moving the robotic interface device, a second drive means for moving said display means, around which is detected by said detecting means by controlling the first driving means in accordance with the state moving the robotic interface device, the relative position and angle of the display unit relative to the robotic interface device by controlling the second driving means and a control means for presenting information to the user by changing at least one,
    ロボット型インタフェース装置。 Robotic interface device.
  2. 【請求項2】 前記検知手段は、周辺の画像を取得するための画像取得手段を含み、 前記ロボット型インタフェース装置はさらに、前記画像取得手段を移動させるための第3の駆動手段を含み、 前記制御手段は、前記画像取得手段によって取得された使用者の顔が画像の中央近傍となるように、前記第1の駆動手段と前記第3の駆動手段とを制御した後、前記第2の駆動手段を制御して前記ロボット型インタフェース装置に対する前記表示手段の相対位置と相対角度との少なくとも一方を変更する、請求項1記載のロボット型インタフェース装置。 Wherein said detecting means includes an image acquiring means for acquiring an image of the peripheral, the robotic interface device further includes a third drive means for moving said image acquisition means, wherein control means, as the face of the user acquired by the image acquisition unit is near the center of the image, after controlling the said first driving means third drive means, said second drive and controlling means for changing at least one of the relative position and angle of the display unit relative to the robotic interface device, robotic interface apparatus according to claim 1.
  3. 【請求項3】 前記制御手段は、前記画像取得手段によって取得された使用者の顔の画像が予め記憶された顔の画像と一致する場合に、前記表示手段による情報の提示を開始する、請求項2記載のロボット型インタフェース装置。 Wherein said control means, when the image of the face of the user acquired by the image acquiring unit matches the image of the previously stored face, starts the presentation of information by the display means, wherein robotic interface device to claim 2.
  4. 【請求項4】 前記検知手段はさらに、周辺にある物体までの距離を計測するための距離計測手段を含み、 前記制御手段は、前記距離計測手段によって計測された前記使用者までの距離が所定値となるように前記第1の駆動手段を制御して前記ロボット型インタフェース装置を移動させた後、前記画像取得手段によって取得された使用者の顔が画像の中央近傍となるように、前記第1の駆動手段と前記第3の駆動手段とを制御した後、前記第2の駆動手段を制御して前記表示手段の相対位置と相対角度との少なくとも一方を変更する、請求項2または3 Wherein said detecting means further includes distance measuring means for measuring a distance to an object in the periphery, the control means, the distance to the user that is measured by said distance measuring means a predetermined after controlling the first driving means to a value to move the robotic interface device, as the face of the user acquired by the image acquisition unit is near the center of the image, the first after controlling said third driving means and first driving means, changing at least one of the relative position and angle of the display means by controlling the second driving means, according to claim 2 or 3
    記載のロボット型インタフェース装置。 Robotic interface device according.
  5. 【請求項5】 前記ロボット型インタフェース装置はさらに、周辺の照度を計測するための照度計測手段を含み、 前記制御手段は、前記照度計測手段によって計測された周辺の照度に応じて、前記表示手段の表示モードを変更する、請求項1〜4のいずれかに記載のロボット型インタフェース装置。 Wherein said robotic interface device further includes an illuminance measurement means for measuring the illuminance of the peripheral, the control means, in accordance with the illuminance around which is measured by said illuminance measurement means, said display means to change the display mode, robotic interface device according to claim 1.
  6. 【請求項6】 前記ロボット型インタフェース装置はさらに、使用者の音声を入力して認識するための音声入力手段を含み、 前記制御手段は、前記音声入力手段による認識結果が第1の所定命令であれば、前記表示手段による情報の提示を開始する、請求項1〜4のいずれかに記載のロボット型インタフェース装置。 Wherein said robotic interface device further includes a voice input means for recognizing enter the user's voice, the control means, the recognition result by the voice input means at a first predetermined instruction if any, to start the presentation of the information by the display means, robotic interface device according to claim 1.
  7. 【請求項7】 前記制御手段は、前記音声入力手段による認識結果が第2の所定命令であれば、前記表示手段による情報の提示を終了する、請求項6記載のロボット型インタフェース装置。 Wherein said control means, if the recognition result is a second predetermined instruction by the voice input means, and ends the presentation of information by the display means, robotic interface device according to claim 6.
  8. 【請求項8】 前記ロボット型インタフェース装置はさらに、周辺の照度を計測するための照度計測手段を含み、 前記制御手段は、前記照度計測手段によって計測された周辺の照度が所定値以下の場合に、前記表示手段による情報の提示を終了する、請求項6記載のロボット型インタフェース装置。 Wherein said robotic interface device further includes an illuminance measurement means for measuring the illuminance of the peripheral, wherein, when the illuminance around which is measured by said illuminance measurement means is below a predetermined value ends the presentation of information by the display means, robotic interface device according to claim 6, wherein.
  9. 【請求項9】 前記ロボット型インタフェース装置はさらに、前記表示手段を覆うように設けられたカバーを含み、 前記第2の駆動手段は、前記カバーを開いた後、前記表示手段を持上げて移動させる、請求項1〜8のいずれかに記載のロボット型インタフェース装置。 Wherein said robotic interface device further includes a cover provided to cover the display means, said second drive means, after opening the cover, is moved to lift said display means , robotic interface device according to claim 1.
  10. 【請求項10】 前記ロボット型インタフェース装置はさらに、外部から情報を受信するための受信手段を含み、 前記表示手段は、前記受信手段によって受信された情報を表示する、請求項1〜9のいずれかに記載のロボット型インタフェース装置。 Wherein said robotic interface device further includes a receiving means for receiving information from outside, the display means displays the information received by the receiving unit, any of claims 1 to 9 robotic interface device crab according.
  11. 【請求項11】 周辺の状態に応じて使用者に情報を提示する表示装置を含んだロボット型インタフェース装置の制御方法であって、 前記ロボット型インタフェース装置周辺の状態を検知するステップと、 前記検知された周辺の状態に応じて前記ロボット型インタフェース装置を移動させ、前記ロボット型インタフェース装置に対する前記表示装置の相対位置と相対角度との少なくとも一方を変更して前記使用者に情報を提示するステップとを含む、ロボット型インタフェース装置の制御方法。 11. A method of controlling a robotic interface device including a display device for presenting information to the user in response to neighborhood state, the method comprising: detecting a state of surrounding the robotic interface device, the detection a step wherein the robotic interface device is moved, presenting information to the user by changing at least one of the relative position and angle of the display device relative to the robotic interface device according to the state of the peripheral which is including, robot control method type interface device.
JP2001166227A 2001-06-01 2001-06-01 Robot type interface device and control method for the same Withdrawn JP2002355779A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001166227A JP2002355779A (en) 2001-06-01 2001-06-01 Robot type interface device and control method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001166227A JP2002355779A (en) 2001-06-01 2001-06-01 Robot type interface device and control method for the same

Publications (1)

Publication Number Publication Date
JP2002355779A true JP2002355779A (en) 2002-12-10

Family

ID=19008790

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001166227A Withdrawn JP2002355779A (en) 2001-06-01 2001-06-01 Robot type interface device and control method for the same

Country Status (1)

Country Link
JP (1) JP2002355779A (en)

Cited By (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005161414A (en) * 2003-11-28 2005-06-23 Kawada Kogyo Kk Electric equipment apparatus cooling structure of anthropomorphic robot
JP2005161417A (en) * 2003-11-28 2005-06-23 Kawada Kogyo Kk Electric equipment apparatus mounting structure of anthropomorphic robot
KR100629119B1 (en) 2005-04-20 2006-09-21 주식회사 유진로봇 Device for opening and closing lcd folder of robot and method for control the same
EP1594660A4 (en) * 2003-01-15 2009-03-11 Intouch Technologies Inc Five degrees of freedom mobile robot
KR100991193B1 (en) * 2008-07-31 2010-11-05 주식회사 유진로봇 System and method of robot for controling gradient
EP2281668A1 (en) * 2005-09-30 2011-02-09 iRobot Corporation Companion robot for personal interaction
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
JP2014050472A (en) * 2012-09-05 2014-03-20 Toshiba Tec Corp Robot control device and program
KR101408657B1 (en) 2007-12-18 2014-06-17 삼성전자주식회사 Apparatus and method for user interface of remote control system for Robot
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8861750B2 (en) 2008-04-17 2014-10-14 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
CN104723344A (en) * 2015-03-17 2015-06-24 江门市东方智慧物联网科技有限公司 Smart home service robot system
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
US9174342B2 (en) 2012-05-22 2015-11-03 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
USRE45870E1 (en) 2002-07-25 2016-01-26 Intouch Technologies, Inc. Apparatus and method for patient rounding with a remote controlled robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9375843B2 (en) 2003-12-09 2016-06-28 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US9469030B2 (en) 2011-01-28 2016-10-18 Intouch Technologies Interfacing with a mobile telepresence robot
US9602765B2 (en) 2009-08-26 2017-03-21 Intouch Technologies, Inc. Portable remote presence robot
US9715337B2 (en) 2011-11-08 2017-07-25 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US9849593B2 (en) 2002-07-25 2017-12-26 Intouch Technologies, Inc. Medical tele-robotic system with a master remote station with an arbitrator
US9902069B2 (en) 2010-05-20 2018-02-27 Irobot Corporation Mobile robot system
US9974612B2 (en) 2011-05-19 2018-05-22 Intouch Technologies, Inc. Enhanced diagnostics for a telepresence robot
EP3338962A1 (en) * 2016-12-23 2018-06-27 LG Electronics Inc. Guide robot
US10218748B2 (en) 2010-12-03 2019-02-26 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE45870E1 (en) 2002-07-25 2016-01-26 Intouch Technologies, Inc. Apparatus and method for patient rounding with a remote controlled robot
US9849593B2 (en) 2002-07-25 2017-12-26 Intouch Technologies, Inc. Medical tele-robotic system with a master remote station with an arbitrator
EP1594660A4 (en) * 2003-01-15 2009-03-11 Intouch Technologies Inc Five degrees of freedom mobile robot
JP2005161417A (en) * 2003-11-28 2005-06-23 Kawada Kogyo Kk Electric equipment apparatus mounting structure of anthropomorphic robot
JP2005161414A (en) * 2003-11-28 2005-06-23 Kawada Kogyo Kk Electric equipment apparatus cooling structure of anthropomorphic robot
US9375843B2 (en) 2003-12-09 2016-06-28 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US9956690B2 (en) 2003-12-09 2018-05-01 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US10241507B2 (en) 2004-07-13 2019-03-26 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US8983174B2 (en) 2004-07-13 2015-03-17 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US8401275B2 (en) 2004-07-13 2013-03-19 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US9766624B2 (en) 2004-07-13 2017-09-19 Intouch Technologies, Inc. Mobile robot with a head-based movement mapping scheme
KR100629119B1 (en) 2005-04-20 2006-09-21 주식회사 유진로봇 Device for opening and closing lcd folder of robot and method for control the same
US9878445B2 (en) 2005-09-30 2018-01-30 Irobot Corporation Displaying images from a robot
US9796078B2 (en) 2005-09-30 2017-10-24 Irobot Corporation Companion robot for personal interaction
US8583282B2 (en) 2005-09-30 2013-11-12 Irobot Corporation Companion robot for personal interaction
US9452525B2 (en) 2005-09-30 2016-09-27 Irobot Corporation Companion robot for personal interaction
US9446510B2 (en) 2005-09-30 2016-09-20 Irobot Corporation Companion robot for personal interaction
US8195333B2 (en) 2005-09-30 2012-06-05 Irobot Corporation Companion robot for personal interaction
US7957837B2 (en) 2005-09-30 2011-06-07 Irobot Corporation Companion robot for personal interaction
US8935006B2 (en) 2005-09-30 2015-01-13 Irobot Corporation Companion robot for personal interaction
EP2281668A1 (en) * 2005-09-30 2011-02-09 iRobot Corporation Companion robot for personal interaction
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US10259119B2 (en) 2005-09-30 2019-04-16 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
KR101408657B1 (en) 2007-12-18 2014-06-17 삼성전자주식회사 Apparatus and method for user interface of remote control system for Robot
US9002520B2 (en) 2007-12-18 2015-04-07 Samsung Electronics Co., Ltd. User interface device of remote control system for robot device and method using the same
US9757861B2 (en) 2007-12-18 2017-09-12 Samsung Electronics Co., Ltd. User interface device of remote control system for robot device and method using the same
US8861750B2 (en) 2008-04-17 2014-10-14 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
KR100991193B1 (en) * 2008-07-31 2010-11-05 주식회사 유진로봇 System and method of robot for controling gradient
US9429934B2 (en) 2008-09-18 2016-08-30 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US10059000B2 (en) 2008-11-25 2018-08-28 Intouch Technologies, Inc. Server connectivity control for a tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US9602765B2 (en) 2009-08-26 2017-03-21 Intouch Technologies, Inc. Portable remote presence robot
US9089972B2 (en) 2010-03-04 2015-07-28 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US9902069B2 (en) 2010-05-20 2018-02-27 Irobot Corporation Mobile robot system
US10218748B2 (en) 2010-12-03 2019-02-26 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9469030B2 (en) 2011-01-28 2016-10-18 Intouch Technologies Interfacing with a mobile telepresence robot
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US9785149B2 (en) 2011-01-28 2017-10-10 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
US9974612B2 (en) 2011-05-19 2018-05-22 Intouch Technologies, Inc. Enhanced diagnostics for a telepresence robot
US9715337B2 (en) 2011-11-08 2017-07-25 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9776327B2 (en) 2012-05-22 2017-10-03 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US9174342B2 (en) 2012-05-22 2015-11-03 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US10061896B2 (en) 2012-05-22 2018-08-28 Intouch Technologies, Inc. Graphical user interfaces including touchpad driving interfaces for telemedicine devices
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
JP2014050472A (en) * 2012-09-05 2014-03-20 Toshiba Tec Corp Robot control device and program
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
CN104723344A (en) * 2015-03-17 2015-06-24 江门市东方智慧物联网科技有限公司 Smart home service robot system
EP3338962A1 (en) * 2016-12-23 2018-06-27 LG Electronics Inc. Guide robot

Similar Documents

Publication Publication Date Title
JP5938977B2 (en) Head-mounted display and surgery system
CN102196789B (en) Apparatus and method for activation of components of an energized ophthalmic lens
US8184132B2 (en) Electronic display device medium and screen display control method used for electronic display medium
US20100308999A1 (en) Security and monitoring apparatus
US7047105B2 (en) Robot controlled by wireless signals
US20050250996A1 (en) Biological sensor device and content playback method and apparatus
KR101926942B1 (en) Portable eye tracking device
US20090243970A1 (en) Head mount display
CN101890719B (en) Robot remote control device and a robot system
EP1120205A1 (en) Robot
US20120229248A1 (en) Multipurpose controller for electronic devices, facial expressions management and drowsiness detection
KR20140059213A (en) Head mounted display with iris scan profiling
CN103404224A (en) Mobile device display management
KR20160020205A (en) Electronic device and method for controlling the same
KR101281806B1 (en) Personal service robot
CA2079612A1 (en) Portable programmer for hearing aids
US9898086B2 (en) Systems and methods for visual processing of spectrograms to generate haptic effects
JPH11327753A (en) Control method and program recording medium
JP2001290571A (en) Mobile computer system equipped with optimizing device for computer display
CN1404806A (en) Blindman walking aid
CN101947788A (en) Intelligent robot
EA200500272A1 (en) The gaming machine from the reel window
US10031576B2 (en) Speech generation device with a head mounted display unit
JP5784027B2 (en) Social robot
JP4024683B2 (en) Communication Robot

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805