WO2007132571A1 - ロボット - Google Patents

ロボット Download PDF

Info

Publication number
WO2007132571A1
WO2007132571A1 PCT/JP2007/050576 JP2007050576W WO2007132571A1 WO 2007132571 A1 WO2007132571 A1 WO 2007132571A1 JP 2007050576 W JP2007050576 W JP 2007050576W WO 2007132571 A1 WO2007132571 A1 WO 2007132571A1
Authority
WO
WIPO (PCT)
Prior art keywords
traveling
robot
detected object
main body
information
Prior art date
Application number
PCT/JP2007/050576
Other languages
English (en)
French (fr)
Inventor
Toshiki Moriguchi
Tsuyoshi Nakano
Original Assignee
Murata Kikai Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Murata Kikai Kabushiki Kaisha filed Critical Murata Kikai Kabushiki Kaisha
Priority to EP07713623A priority Critical patent/EP2025478B1/en
Priority to JP2008515438A priority patent/JP4915417B2/ja
Priority to US12/300,954 priority patent/US8272466B2/en
Publication of WO2007132571A1 publication Critical patent/WO2007132571A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators

Definitions

  • the present invention relates to a self-propelled robot.
  • a self-propelled robot capable of mutual transmission of various information (character, image information, voice information, etc.) with a person.
  • a robot described in Patent Document 1 includes a torso (cart) having two wheels, a chest mounted on the torso, a head rotatably connected to the chest, and a chest. It has left and right arms that are pivotally connected. The head has two cameras that mimic eyes.
  • This robot recognizes the person (user) who is the other party with a camera and controls the drive unit that drives the two wheels to move the torso to the front of the user's face or body. Therefore, it is possible to communicate with each other by transmitting information to each other with the eyes (camera) facing the user and looking at the user's eyes. In other words, since the conversation is performed with the robot standing in front of him and looking at his eyes as seen from the user side, a friendly conversation is established.
  • Patent Document 1 Japanese Patent Laid-Open No. 2004-34274
  • a main object of the present invention is to provide a robot capable of traveling while always directing a predetermined part of a main body (body) toward a detected body such as a person.
  • a robot includes a main body portion, a traveling wheel, a traveling portion connected to the main body portion so as to be relatively rotatable, traveling driving means for driving the traveling wheel, and the main body
  • traveling driving means for driving the traveling wheel
  • main body A rotation drive means for rotating the part relative to the travel part, a control means for controlling the travel drive means and the rotation drive means, and a position detection means for detecting the position of a surrounding detected object.
  • the control means is configured so that a predetermined portion of the main body portion always faces the detected body based on the position of the detected body detected by the position detecting means during traveling of the traveling section.
  • the rotation driving means is controlled.
  • the main body and the traveling unit are coupled so as to be relatively rotatable, and the control unit is configured to perform the traveling unit based on the position of the detected object detected by the position detecting unit.
  • the rotation driving means is controlled so that a predetermined part of the main body (for example, the front of the main body) always faces the detected object.
  • a part of the main body necessary for information transmission to the detected object a part where a camera, a microphone, a display, or a speaker is provided
  • a part of the main body necessary for information transmission to the detected object is always directed toward the detected object.
  • information can be reliably transmitted to the detected object.
  • by always directing the front surface of the main body to the detected body it is possible to perform movements (gestures) of the head and arms on the detected body while traveling.
  • the position information of the detected object acquired by the position detecting means may be information on the position of the detected object itself (information on both the separation distance and the direction), but at least the robot If the direction in which the detected object is present when the force is seen is known, the predetermined part of the main body can be directed in that direction.Therefore, the position information detected by the position detecting means includes the detected object. Only the direction to do.
  • a robot according to a second aspect of the present invention is the robot according to the first aspect, further comprising information acquisition means for acquiring information from the detected object, wherein the information acquisition is performed on the predetermined portion of the main body. At least a part of the means is provided.
  • information such as the physical strength of the detected person (for example, the body shape and posture of the person who is the detected object)
  • at least part of the information acquisition means that acquires visual information such as gestures and voice information such as voices uttered by humans always faces the direction of the detected object. It can be acquired with certainty.
  • a robot according to a third aspect of the present invention is the robot according to the first or second aspect, further comprising information transmission means for transmitting information toward the detected object, wherein the predetermined part of the main body is provided. Further, at least a part of the information transmitting means is provided. According to this configuration, since at least a part of the information transmitting means always faces in the direction of the detected object during traveling, the information transmitting means gives image information, audio information, etc. to the detected object. The various information can be transmitted reliably.
  • the control means performs the running based on the position of the detected object detected by the position detection means.
  • the travel driving means is controlled so that the row section travels while keeping the distance from the detected object within a predetermined range. According to this configuration, the distance between the detected object and the detected object is kept within a certain range during traveling, so that the information is not communicated with the detected object. Thus, it is possible to perform it stably even while driving.
  • a robot according to a fifth aspect of the present invention is the robot according to any one of the first to fourth aspects, wherein the main body is coupled to the travel unit so as to be relatively rotatable, and an upper end of the body. It is characterized by comprising a head portion that is pivotally provided on the part and two arm portions that are pivotably provided on both side portions of the body part. According to this configuration, the front part of the torso is always directed to the detected object while the traveling part is traveling, so that the detected object can easily recognize the movements (gestures) of the left and right arms and the head. Become.
  • FIG. 1 is a front view of a guide robot according to an embodiment of the present invention.
  • FIG. 2 is a side view of the guide robot.
  • FIG. 3 is an enlarged view of a connecting portion that connects the body portion and the leg portion.
  • FIG. 4 is a block diagram showing an electrical configuration of a guide robot centered on a control device.
  • FIG. 5 is a flowchart of the guidance operation of the guidance robot.
  • FIG. 6 is a diagram showing a state in which the detected object is present in the detectable area of the position detection sensor.
  • Fig. 7 is a diagram showing a state in which the guide robot runs while facing the front of the trunk and the head toward the body to be detected.
  • This embodiment is an example in which the present invention is applied to a self-propelled guide robot that guides a person who is a guide to a target position.
  • the guide robot 1 includes a main body 10 having a trunk 12, a head 13, and an arm 14, and traveling connected to the main body 10 so as to be relatively rotatable.
  • a control device 17 (control means: see FIG. 4) for controlling the operation of each unit 11 and each part of the guide robot 1 is provided.
  • a display 20 for displaying character information and image information provided to the guided person is provided on the front surface (front surface in FIG. 1) of the body portion 12.
  • a touch panel as an input device is provided on the surface of the display 20.
  • a plurality of (for example, four) position detection sensors 21 for example, four) for detecting the positions of various objects 50 (detected bodies) including a guided person existing around the guidance robot 1 are provided on the side surface of the body part 12.
  • Position detecting means is provided.
  • As the position detection sensor 21 an ultrasonic sensor or a laser sensor can be used.
  • the guide robot 1 includes a plurality of position detection sensors 21. It is now possible to detect in which direction and how far away the guided person is located in the circular detectable area A centered on the body 12! .
  • a head 13 is connected to the upper end of the body 12 so as to be rotatable about a vertical axis (not shown).
  • the head 13 is connected to a head drive motor 46 (see FIG. 4). Driven.
  • On the front surface of the head 13 (the front surface in FIG. 1), there is visual information of the detected object such as the guided person (eg, the guided person's body shape, posture, or CCD camera 22 for acquiring gestures, etc., a microphone 23 for acquiring voice information generated by the surrounding detected object and the like, a speaker 24 for transmitting voice information to the surroundings, and the like.
  • the guided person eg, the guided person's body shape, posture, or CCD camera 22 for acquiring gestures, etc.
  • a microphone 23 for acquiring voice information generated by the surrounding detected object and the like
  • a speaker 24 for transmitting voice information to the surroundings, and the like.
  • the CCD camera 22 and the microphone 23 provided in front of the head 13 correspond to the information acquisition means of the present invention for acquiring information from the detected object.
  • the display 20 provided in front of the body portion 12 and the speaker 24 force provided in front of the head 13 correspond to the information transmitting means of the present invention for transmitting information to the detected object.
  • two shoulder portions 25 are rotatably connected to the left and right side portions of the upper portion of the body portion 12 via a shaft 27 extending in the left-right direction.
  • the two arms 14 are connected to each other via a shaft 28 extending in the front-rear direction (vertical direction in FIG. 1).
  • the two shoulder portions 25 are rotationally driven around the shaft 27 by the two shoulder drive motors 42 and 43 (see FIG. 4), and the two arm portions 14 are driven by the two arm drive motors 44 and 45 (see FIG. 4). (Refer to 4). Therefore, the arm portion 14 can swing in the front-rear direction and the left-right direction via the shoulder portion 25.
  • the traveling unit 11 includes a leg portion 15, a frame member 16 fixedly provided at the lower end portion of the leg portion 15, and two rotatably provided at left and right end portions of the frame member 16. And traveling wheels 30.
  • the leg portion 15 is connected to the body portion 12 via the connecting portion 31 so as to be relatively rotatable.
  • the connecting portion 31 includes a connecting shaft 32, two pulleys 33 and 34, a belt 35 suspended on the two pulleys 3 and 34, and a body drive motor that rotationally drives the pulley 34. 36 (rotation drive means).
  • the upper end portion of the connecting shaft 32 is fixed to the central portion of the lower end portion of the body portion 12, and the lower end portion of the connecting shaft 32 is rotatably supported by the leg portion 15.
  • the connecting shaft 32 has a hollow inside.
  • a hollow shaft having a power supply cable for a motor, a control cable, and the like are disposed inside the hollow shaft.
  • one pulley 33 is fixedly provided in the middle in the longitudinal direction of the connecting shaft 32, and the other pulley 34 is coaxially attached to the output shaft of the body drive motor 36. ing. Therefore, when the pulley 34 is rotationally driven by the body drive motor 36, the rotation is transmitted to the connecting shaft 32 via the belt 35 and the pulley 33, and the body portion 12 is integrated with the connecting shaft 32. Rotates relative to 11.
  • the two traveling wheels 30 are connected to two wheel drive motors 40, 41 (see FIG. 4: travel drive means), respectively. Further, two auxiliary wheels (casters) 37 are rotatably provided at both front and rear ends of the frame member 16.
  • the traveling unit 11 travels on a flat traveling surface by rotating the two traveling wheels 30 by the two wheel driving motors 40 and 41 and rotating the two auxiliary wheels 37 in a driven manner. Is possible.
  • the two wheel drive motors 40 and 41 are used to rotate the two left and right traveling wheels 30 at different rotational speeds to create a differential between the two wheels, thereby changing the direction (traveling direction) of the traveling unit 11. It can change in any direction.
  • the main body part 10 (the body part 12) can rotate with respect to the traveling part 11 (the leg part 15), so that the traveling part 11 is traveling in a predetermined direction.
  • the front surface of the body portion 12 can be directed in a direction different from the traveling direction of the traveling portion 11. Therefore, the guide robot 1 can travel while always facing the front of the body part 12 provided with the display 20, the CCD camera 22, and the like toward the guided person. This configuration will be described in more detail later.
  • the control device 17 is processed by a CPU (Central Processing Unit) that is a central processing unit, a ROM (Read Only Memory) that stores programs and data for controlling each part of the guide robot 1, and the CPU.
  • RAM Random Access Memory
  • This control device 17 contains information (position information, visual information, audio information, etc.) about the detected object acquired by a plurality of position detection sensors 21, CCD cameras 22, and microphones 23. It is powered. In addition, information (character information, voice message, etc.) to be transmitted to the guided person is output to the display 20 and the speaker 24. Furthermore, the control device 17 controls the motors 36, 40, 41, 42, 43, 44, 45, 46 based on information about the guided person acquired by the position detection sensor 21, the CCD camera 22, etc. Each part (the body part 12, the head part 13, the shoulder part 25, the arm part 14, and the running wheel 30) of the guide robot 1 is driven to perform a predetermined guide operation set by a program stored in the ROM.
  • FIGS. 6 and 7 A series of guidance operation control of the guidance robot 1 by the control device 17 will be described more specifically with reference to the flowchart of FIG. 5 and FIGS. 6 and 7.
  • the display of the arm portion 14 of the guide robot 1 is omitted.
  • the body drive motor 36 and the head based on the position information of the object 50 detected by the position detection sensor 21, the body drive motor 36 and the head
  • the body 12 and the head 13 are respectively rotated by the drive motor 46 so that the front of the body 12 and the head 13 are directed to the object 50 (detected body) (Sl l).
  • the detected object 50 is photographed by the CCD camera 22 provided in front of the head 13, and image data of the outer shape of the detected object 50 is acquired.
  • the control device 17 determines whether or not the detected object 50 is a human force (S12). For example, the control device 17 analyzes the image data of the detected object 50 obtained by the CCD camera 22 and determines whether the detected object 50 is a human depending on whether or not the image data power can also confirm a human face. Judgment can be made.
  • the analysis of the image data for face confirmation only needs to be performed when the detected object 50 is detected by the position detection sensor 21, so that the load on the control device 17 is considerably reduced. Further, from the position information of the detected object 50 obtained by the position detection sensor 21, the control device 17 can estimate which part of the image data obtained by the CCD camera 22 has the face data. .
  • the control device 17 can analyze only the part that is estimated to have a face that does not need to analyze all of the obtained image data, and can determine the presence or absence of the face. The load on the device 17 is further reduced.
  • the detected object 50 is confirmed to be a human (S12: Yes)
  • the two driving wheels 30 are driven to rotate by the wheel drive motors 40, 41, and the traveling unit 11 is caused to travel.
  • the person 50 is approached and it is confirmed whether the person 50 needs guidance by the guidance robot 1 (S13).
  • the speaker 24 power voice message is sent to the person 50, and then the response from the person 50 is obtained by the microphone 23, thereby confirming whether there is a guidance request.
  • a response to the message is also input by the touch panel force provided on the display 20 by the person 50, so that the presence or absence of a guidance request can be confirmed.
  • the guidance robot 1 starts a guidance operation (S14). That is, predetermined character information and image information are displayed on the display 20, and voice information is exchanged (conversation) with the guided person 50 through the speaker 24 and the microphone 23, and the shoulder portion 25 is raised and the arm portion 14 is raised. Pointing to the target, swinging the arm part 14 up and down, left and right, gesturing, or turning the head 13 while driving the traveling part 11 and guiding Guide the person 50 to the target position.
  • the guidance robot 1 always grasps the position of the guided person 50 by the position detection sensor 21.
  • the control device 17 is based on the position information of the guided person 50.
  • the torso drive motor 36 is controlled so that the torso part 12 and the front of the head 13 provided on the torso part 12 face the guided person 50 as shown in FIG. Rotate with respect to the traveling unit 11 (S16). If the front direction of the body part 12 and the head part 13 are different, the control device 17 controls the head drive motor 46 so that the head part 13 faces the same direction as the body part 12. Rotate.
  • the display 20 provided in front of the body 12 and the CCD camera 22, microphone 23, and speaker 24 provided in front of the head 13 are always guided 5 It turns to 0. Therefore, information relating to the guided person 50, for example, visual information such as the body shape, posture, and gesture of the guided person 50, and voice information generated by the guided person 50 are reliably acquired by the CCD camera 22 and the microphone 23. be able to. Also, display 20 Nya speed Character information, image information, or audio information is transmitted from the display 20 or the speaker 24 to the guided person 50 with the car 24 facing the guided person. You will be able to get surely. Therefore, the guide robot 1 can travel while interacting with the guided person.
  • the guided person 50 since the front side of the body part 12 faces the guided person 50, the guided person 50 also has a frontal force with a gesture using the left and right arm parts 14 and the head part 13 provided on the body part 12. Because it can be seen, it becomes easier to recognize gestures and the guidance effect of such gestures is enhanced.
  • the control device 17 controls the wheel drive motors 40 and 41 based on the position information of the guided person 50 so that the distance from the guided person 50 is within a predetermined range.
  • the traveling direction and traveling speed are changed (S18). That is, since the traveling unit 11 travels while keeping the distance between the guide robot 1 and the guided person 50 within a predetermined range, the guiding robot 1 does not come too close or too far from the guided person 50. For this reason, the guide robot 1 can continue to communicate with the guided person 50 reliably while traveling.
  • the guide robot 1 performs a predetermined in-house operation while repeating the steps S15 to S18 described above, and after guiding the guided person 50 to the target position (S19: Yes), returns to S10. Guide another guide.
  • the body portion 12 of the main body portion 10 and the running portion 11 are coupled so as to be relatively rotatable, and the control device 17 is controlled by the position detection sensor 21.
  • the body 10 is controlled by controlling the body driving motor 36 so that the front of the body 10 (the body 12 and the head 13) always faces the guided person. Is rotated relative to the traveling unit 11. Therefore, even when the guidance robot 1 is running, the front part of the main body 10 where the CCD camera 22, microphone 23, speaker 24, display 20, etc. are provided always faces the guided person. Can communicate with each other reliably.
  • the body part 10 can be directed toward the guided person while running in parallel with the guided person walking, gestures by the arm part 14 and the head part 13 are proposed. It becomes easier for the insider to recognize, and the guidance effect by gesture is enhanced.
  • the position detection sensor 21 To direct the front of the main body 10 toward the detected object while the traveling part 11 is traveling, the position detection sensor 21 only needs to detect at least the direction in which the detected object exists. It is not always necessary to be able to detect the separation distance of the object to be detected.
  • a microphone 23 may be used as the position detection sensor 21 instead of the above-described ultrasonic sensor or laser sensor, and the microphone 23 may be configured to detect the direction of the detected object that is a sound source.
  • the positions of the CCD camera 22, the microphone 23, the speaker 24, and the display 20 can be changed as appropriate.
  • the CCD camera 22, the microphone 23, the speaker 24, and the display 20 force need not all be provided in front of the main unit 10.
  • a microphone having no directivity (omni-directional) is used, voice information can be acquired from any direction, and therefore the microphone does not need to be provided in front of the main body unit 10.
  • at least one force of the CCD power camera 22, microphone 23, speaker 24, and display 20 is provided on a part other than the front surface (for example, the side surface) of the main body 10 and this part is always detected during traveling. It is configured to face the body.
  • At least one of the CCD camera 22, the microphone 23, and the speaker 24 may be provided on the body 12, and conversely, the display 20 may be provided on the head 13.
  • the present invention is applied to a guide robot that guides a person to a target position, but a robot to which the present invention can be applied is not limited to a guide robot.
  • the present invention can be applied to various robots that are required to communicate with people while traveling, such as a robot for serving meals for people and an educational robot for teaching people to study.

Description

明 細 書
ロボット
技術分野
[0001] 本発明は、自走式のロボットに関する。
背景技術
[0002] 従来から、人との間で様々な情報 (文字や画像情報、あるいは、音声情報など)の 相互伝達が可能な自走式ロボットが知られている。例えば、特許文献 1に記載された ロボットは、 2つの車輪を有する胴部(台車部)と、この胴部に搭載された胸部と、胸部 に回動自在に連結された頭部と、胸部に回動自在に連結された左右の腕部などを 備えている。頭部には目を模した 2つのカメラが設けられている。このロボットは、話し 相手である人 (ユーザ)をカメラにより認識し、 2つの車輪を駆動する駆動部を制御し てユーザの顔または体の正面に胴部を移動させるようになつている。従って、目(カメ ラ)をユーザに向けてユーザの目を見ている状態で、情報を相互に伝達して会話 (コ ミュ-ケーシヨン)を図ることが可能である。つまり、ユーザ側から見て、ロボットが自分 の正面に立ち、更に自分の目を見ている状態で会話が行われるため、親近感のある 会話が成立する。
特許文献 1:特開 2004— 34274号公報
発明の開示
発明が解決しょうとする課題
[0003] ところで、被案内者と対話しながら走行して、被案内者を所定の位置まで案内する 案内用ロボットのように、ロボットの用途によっては、走行しながら人とコミュニケーショ ンを図ることが要求される場合がある。しかし、前述した特許文献 1のロボットにおい ては、車輪による走行中には胴部や胸部の正面が走行方向を向いてしまうため、走 行中にこれら胴部、胸部及び頭部を常に人に向けておくことができない。また、胴部 の正面を人に向けて、この胴部に設けられた腕部による身振り手振りと 、つたジエス チヤ一を行うこともできない。従って、この特許文献 1のロボットは、走行中に、人との 間でコミュニケーションを図ることは不可能である。 [0004] 本発明の主たる目的は、本体部 (胴体)の所定の一部分を人などの被検出体の方 向へ常に向けながら走行することが可能なロボットを提供することである。
課題を解決するための手段及びその効果
[0005] 第 1の発明であるロボットは、本体部と、走行輪を備え、前記本体部と相対回転可 能に連結された走行部と、前記走行輪を駆動する走行駆動手段と、前記本体部を前 記走行部に対して相対回転させる回転駆動手段と、前記走行駆動手段と前記回転 駆動手段をそれぞれ制御する制御手段と、周囲の被検出体の位置を検出する位置 検出手段とを備え、前記制御手段は、前記走行部の走行中に、前記位置検出手段 で検出された前記被検出体の位置に基づいて、前記本体部の所定部分が常に前記 被検出体を向くように、前記回転駆動手段を制御することを特徴とするものである。
[0006] 本発明のロボットにおいては、本体部と走行部が相対回転可能に連結されており、 また、制御手段が、位置検出手段により検出された被検出体の位置に基づいて、走 行部の走行中に本体部の所定部分 (例えば、本体部の正面)が常に被検出体を向く ように、回転駆動手段を制御する。そのため、例えば、本体部の被検出体との間の情 報伝達に必要な部分 (カメラ、マイク、ディスプレイ、あるいは、スピーカーなどが設け られている部分)を常に被検出体に向けることによって、走行しながら被検出体との 間で情報の伝達を確実に行うことができるようになる。あるいは、本体部の正面を常 に被検出体に向けることによって、走行しながら、頭部や腕部等の動き (ジェスチャー )を被検出体に対して行うことができる。
[0007] 尚、位置検出手段により取得される被検出体の位置情報とは、被検出体の位置そ のものの情報(離隔距離と方向の両方の情報)であってもよいが、少なくとも、ロボット 力 見たときの被検出体が存在している方向が分かれば、本体部の所定部分をその 方向に向けることができることから、位置検出手段により検出される位置情報は、被検 出体が存在する方向だけであってもよい。
[0008] 第 2の発明であるロボットは、前記第 1の発明において、前記被検出体から情報を 取得する情報取得手段をさらに備えており、前記本体部の前記所定部分に、前記情 報取得手段の少なくとも一部が設けられていることを特徴とするものである。この構成 によれば、走行中に、被検出体力ゝら情報 (例えば、被検出体である人の体型や姿勢 、あるいは、しぐさなどの視覚情報や、人が発する声などの音声情報)を取得する情 報取得手段の少なくとも一部が、被検出体の方向を常に向くことになるため、被検出 体力 情報を確実に取得することができる。
[0009] 第 3の発明であるロボットは、前記第 1又は第 2の発明において、前記被検出体に 向けて情報を発信する情報発信手段をさらに備えており、前記本体部の前記所定部 分に、前記情報発信手段の少なくとも一部が設けられていることを特徴とするもので ある。この構成によれば、走行中に、情報発信手段の少なくとも一部が被検出体の方 向に常に向くことになるため、情報発信手段により、被検出体に対して、画像情報や 音声情報などの種々の情報を確実に発信することができる。
[0010] 第 4の発明であるロボットは、前記第 1〜第 3の何れかの発明において、前記制御 手段は、前記位置検出手段で検出された前記被検出体の位置に基づいて、前記走 行部が前記被検出体との距離を所定の範囲内に保ちながら走行するように、前記走 行駆動手段を制御することを特徴とするものである。この構成によれば、走行中に、 被検出体との距離がある範囲内に保たれて、接近しすぎたり離れすぎたりすることが ないため、被検出体との間における情報の相互伝達を、走行中も安定して行うことが 可能となる。
[0011] 第 5の発明であるロボットは、前記第 1〜第 4の何れかの発明において、前記本体 部は、前記走行部に相対回転可能に連結された胴体部と、前記胴体部の上端部に 回動自在に設けられた頭部と、前記胴体部の両側部にそれぞれ揺動自在に設けら れた 2つの腕部を備えていることを特徴とするものである。この構成によれば、走行部 の走行中に、胴体部の正面部が常に被検出体に向けられることで、左右 2つの腕部 や頭部の動き(ジェスチャー)を被検出体が認識しやすくなる。
図面の簡単な説明
[0012] [図 1]図 1は、本発明の実施形態に係る案内ロボットの正面図である。
[図 2]図 2は、案内ロボットの側面図である。
[図 3]図 3は、胴体部と脚部を連結する連結部の拡大図である。
[図 4]図 4は、制御装置を中心とする案内ロボットの電気的構成を示すブロック図であ る。 [図 5]図 5は、案内ロボットの案内動作のフローチャートである。
[図 6]図 6は、被検出体が位置検出センサの検出可能エリアに存在している状態を示 す図である。
[図 7]図 7は、案内ロボットが、胴体部及び頭部の正面を被検出体に向けながら走行 して 、る状態を示す図である。
符号の説明
[0013] 1 案内ロボット
10 本体部
11 走行部
20 ディスプレイ
21 位置検出センサ
22 CCDカメラ
23 マイク
24 スピーカー
発明を実施するための最良の形態
[0014] 次に、本発明の実施形態について説明する。本実施形態は、被案内者である人を 目標位置まで案内する自走式の案内ロボットに本発明を適用した一例である。
[0015] 図 1、図 2に示すように、案内ロボット 1は、胴体部 12と頭部 13と腕部 14とを有する 本体部 10と、この本体部 10に相対回転可能に連結された走行部 11と、案内ロボット 1の各部の動作を制御する制御装置 17 (制御手段:図 4参照)などを備えている。
[0016] 胴体部 12の正面(図 1の手前側の面)には、被案内者に提供される文字情報や画 像情報を表示するディスプレイ 20が設けられている。また、このディスプレイ 20の表 面には、入力装置としてのタツチパネルが設けられている。さらに、胴体部 12の側面 には、案内ロボット 1の周囲に存在する被案内者を含む種々の物体 50 (被検出体)の 位置を検出する複数 (例えば、 4つ)の位置検出センサ 21 (位置検出手段)が設けら れている。この位置検出センサ 21としては、超音波センサやレーザーセンサなどを用 いることがでさる。
[0017] 従って、図 6、図 7に示すように、案内ロボット 1は、複数の位置検出センサ 21により 、胴体部 12を中心とする円形の検出可能エリア A内において、被案内者がどの方向 にどれだけの距離離れて位置して 、るかを検出することができるようになって!/、る。
[0018] 胴体部 12の上端部には、頭部 13が鉛直軸(図示省略)回りに回動可能に連結され ており、この頭部 13は、頭部駆動モータ 46 (図 4参照)により駆動される。頭部 13の 前面(図 1における手前側の面)には、案内ロボット 1の周囲に存在する、被案内者な どの被検出体の視覚情報 (例えば、被案内者の体型、姿勢、あるいは、しぐさなど)を 取得するための CCDカメラ 22と、周囲の被検出体等力 発せられる音声情報を取得 するマイク 23と、周囲に音声情報を発信するスピーカー 24等が設けられている。
[0019] 尚、頭部 13の正面に設けられた CCDカメラ 22とマイク 23が、被検出体から情報を 取得する本発明の情報取得手段に相当する。また、胴体部 12の正面に設けられた ディスプレイ 20と頭部 13の正面に設けられたスピーカー 24力 被検出体に対して情 報を発信する本発明の情報発信手段に相当する。
[0020] また、胴体部 12の上部の左右両側部には、 2つの肩部 25が、左右方向に延びる軸 27を介して回転自在に連結されており、さらに、これら 2つの肩部 25に、 2つの腕部 1 4力 前後方向(図 1の紙面垂直方向)に延びる軸 28を介してそれぞれ回転自在に 連結されている。そして、 2つの肩部 25が 2つの肩部駆動モータ 42, 43 (図 4参照) により軸 27の回りに回転駆動され、 2つの腕部 14は、 2つの腕部駆動モータ 44, 45 ( 図 4参照)により軸 28の回りに回転駆動される。従って、腕部 14は、肩部 25を介して 前後方向及び左右方向にそれぞれ揺動可能となっている。
[0021] 走行部 11は、脚部 15と、この脚部 15の下端部に固定的に設けられたフレーム部 材 16と、このフレーム部材 16の左右両端部に回転自在に設けられた 2つの走行輪 3 0とを有する。
[0022] 脚部 15は、連結部 31を介して胴体部 12と相対回転可能に連結されている。図 3に 示すように、連結部 31は、連結軸 32と、 2つのプーリ 33, 34と、これら 2つのプーリ 3 3, 34に懸架されたベルト 35と、プーリ 34を回転駆動する胴体駆動モータ 36 (回転 駆動手段)とを有する。
[0023] 連結軸 32の上端部は胴体部 12の下端部の中心部分に固定され、連結軸 32の下 端部は脚部 15に回転自在に支持されている。また、この連結軸 32は内部に空洞を 有する中空軸であり、その内部には、モータ類等への電力供給用ケーブルや制御用 ケーブルなどが配設されて 、る。
[0024] 2つのプーリ 33, 34のうち、一方のプーリ 33は連結軸 32の長手方向途中部に固定 的に設けられ、他方のプーリ 34は胴体駆動モータ 36の出力軸に同軸状に取り付け られている。従って、胴体駆動モータ 36によりプーリ 34が回転駆動されると、その回 転がベルト 35及びプーリ 33を介して連結軸 32に伝達されて、胴体部 12が連結軸 3 2と一体的に走行部 11に対して相対回転する。
[0025] 2つの走行輪 30は、 2つの車輪駆動モータ 40, 41 (図 4参照:走行駆動手段)にそ れぞれ連結されている。また、フレーム部材 16の前後両端部には 2つの補助輪 (キヤ スター) 37が回転自在に設けられている。そして、走行部 11は、 2つの車輪駆動モー タ 40, 41により 2つの走行輪 30が回転駆動されるとともに、 2つの補助輪 37が従動 回転することで、平坦な走行面上を走行することが可能となっている。また、 2つの車 輪駆動モータ 40, 41により、左右 2つの走行輪 30を異なった回転速度で回転駆動し て両輪間に差動を生じさせることで、走行部 11の向き(走行方向)を任意の方向に変 えることが可能である。
[0026] ところで、前述したように、本体部 10 (胴体部 12)が走行部 11 (脚部 15)に対して回 転可能であるため、走行部 11が所定の方向に走行している状態で、胴体部 12の正 面を走行部 11の走行方向と異なる方向に向けることが可能である。従って、案内ロボ ット 1は、ディスプレイ 20や CCDカメラ 22等が設けられた胴体部 12の正面を被案内 者に常に向けながら、走行することが可能となっている。この構成については後ほど さらに詳しく説明する。
[0027] 次に、制御装置 17を中心とする案内ロボット 1の電気的な構成について、図 4のブ ロック図を参照して説明する。制御装置 17は、中央演算処理装置である CPU (Centr al Processing Unit)と、案内ロボット 1の各部の制御を行うためのプログラムやデータ 等が格納された ROM (Read Only Memory)、 CPUで処理されるデータを一時的に 記憶する RAM (Random Access Memory)等を備えている。
[0028] この制御装置 17には、複数の位置検出センサ 21、 CCDカメラ 22、及び、マイク 23 で取得された、被検出体に関する情報 (位置情報、視覚情報、音声情報など)が入 力される。また、ディスプレイ 20及びスピーカー 24に対して、被案内者に伝達すべき 情報 (文字情報や音声メッセージ等)を出力する。さらに、制御装置 17は、位置検出 センサ 21や CCDカメラ 22等により取得された被案内者に関する情報に基づいて、 モータ 36, 40, 41, 42, 43, 44, 45, 46をそれぞれ制御して案内ロボット 1の各部( 胴体部 12、頭部 13、肩部 25、腕部 14、及び、走行輪 30)を駆動し、 ROMに記憶さ れたプログラムによって設定された所定の案内動作を行う。
[0029] この制御装置 17による案内ロボット 1の一連の案内動作制御について、図 5のフロ 一チャートと図 6、図 7を参照してさらに具体的に説明する。尚、図 6、図 7においては 、案内ロボット 1の腕部 14の表示は省略されている。
[0030] まず、案内ロボット 1が物体に近づくことにより、あるいは、物体が接近してくることに より、図 6に示すように、胴体部 12に設けられた複数の位置検出センサ 21の何れか 1 つによって検出可能エリア A内に物体 50が存在することが検出されたときには(S10 : Yes)、位置検出センサ 21により検出された物体 50の位置情報に基づいて、胴体 駆動モータ 36と頭部駆動モータ 46により胴体部 12と頭部 13をそれぞれ回転駆動し て、胴体部 12と頭部 13の正面を物体 50 (被検出体)に向ける(Sl l)。そして、頭部 1 3の正面に設けられた CCDカメラ 22により被検出体 50を撮影して、この被検出体 50 の外形の画像データを取得する。
[0031] 次に、 CCDカメラ 22により得られた画像データに基づいて、制御装置 17が、被検 出体 50が人間である力否かを判断する(S12)。例えば、 CCDカメラ 22により得られ た被検出体 50の画像データを制御装置 17が分析して、その画像データ力も人間の 顔を確認できる力否かによって、被検出体 50が人間であるかを判断することができる 。ここで、顔確認のための画像データの分析は、位置検出センサ 21により被検出体 5 0が検出されたときにのみ行えばよいことから、制御装置 17の負荷はかなり低減され る。また、位置検出センサ 21により得られた被検出体 50の位置情報から、制御装置 17は、 CCDカメラ 22で得られた画像データのどの部分に顔のデータがあるかを推 測することができる。従って、制御装置 17は、得られた画像データの全てを分析する 必要はなぐ顔があると推測される部分のみを分析して、顔の有無を判断することが できるため、顔確認に要する制御装置 17の負荷がさらに低減される。 [0032] 被検出体 50が人間であることが確認された場合には(S12 : Yes)、車輪駆動モー タ 40, 41により 2つの走行輪 30を回転駆動し、走行部 11を走行させて人 50に近づ き、その人 50が案内ロボット 1による案内を必要としているかを確認する(S13)。例え ば、スピーカー 24力 音声メッセージを人 50に向けて発信した後に、人 50からの返 答をマイク 23で取得することにより、案内要求の有無を確認することができる。あるい は、ディスプレイ 20にメッセージを表示した後に、そのメッセージに対する返答が人 5 0によりディスプレイ 20に設けられたタツチパネル力も入力されることにより、案内要求 の有無を確認することもできる。
[0033] 検出された人 50が案内を必要としていることが確認された場合には(S13 : Yes)、 案内ロボット 1は案内動作を開始する(S14)。即ち、ディスプレイ 20に所定の文字情 報や画像情報を表示させるとともに、スピーカー 24及びマイク 23により被案内者 50 と音声情報のやりとり(会話)を行い、さらに、肩部 25を上げて腕部 14で目標を指さ す、腕部 14を上下左右に揺動させて身振り手振りさせる、あるいは、頭部 13を回動 させるなどの様々なジェスチャーを交えながら、走行部 11を走行させて、被案内者 5 0を目標位置まで誘導する。
[0034] ここで、案内動作中には、案内ロボット 1は、位置検出センサ 21により被案内者 50 の位置を常に把握している。そして、本体部 10 (胴体部 12及び頭部 13)の正面が被 案内者 50の方を向いていない場合には(S15 :No)、制御装置 17は、被案内者 50 の位置情報に基づ 、て胴体駆動モータ 36を制御して、胴体部 12とこの胴体部 12に 設けられた頭部 13の正面が被案内者 50を向くように、図 7に示すように、胴体部 12 を走行部 11に対して回転させる(S 16)。尚、胴体部 12と頭部 13の正面の向きが異 なっている場合には、制御装置 17は、頭部駆動モータ 46を制御して、胴体部 12と 同じ向きを向くように頭部 13を回転させる。
[0035] つまり、走行中であっても、胴体部 12の正面に設けられたディスプレイ 20や、頭部 13の正面に設けられた CCDカメラ 22、マイク 23、スピーカー 24は、常に被案内者 5 0を向くことになる。従って、被案内者 50に関する情報、例えば、被案内者 50の体型 や姿勢、しぐさなどの視覚情報や、被案内者 50が発する音声情報などを、 CCDカメ ラ 22及びマイク 23により確実に取得することができる。また、ディスプレイ 20ゃスピー カー 24が被案内者を向いた状態で文字情報、画像情報、あるいは、音声情報を、デ イスプレイ 20やスピーカ一 24から被案内者 50に向けて発信するため、被案内者 50 がそれらの情報を確実に取得することができるようになる。従って、案内ロボット 1は被 案内者と対話しながら走行することが可能となる。さらに、胴体部 12の正面が被案内 者 50を向 、て 、ることから、この胴体部 12に設けられた左右の腕部 14や頭部 13を 用いたジェスチャーを被案内者 50が正面力も見ることができるため、ジェスチャーを 認識しやすくなり、このようなジェスチャーによる案内効果が高まる。
[0036] また、位置検出センサ 21により検出された案内ロボット 1と被案内者 50との距離力 情報を相互に伝達する (コミュニケーションを行う)ことが可能な所定の範囲から外れ たときには(S17 :No)、制御装置 17は、被案内者 50の位置情報に基づいて車輪駆 動モータ 40, 41を制御して、被案内者 50との距離が所定の範囲内となるように走行 部 11の走行方向や走行速度を変更する(S18)。つまり、走行部 11は、案内ロボット 1と被案内者 50との距離を所定の範囲内に保ちながら走行するため、案内ロボット 1 が被案内者 50に接近しすぎたり離れすぎたりすることがないことから、案内ロボット 1 は、走行中も継続して、被案内者 50との間でコミュニケーションを確実に行うことがで きる。
[0037] そして、案内ロボット 1は、前述の S15〜S18のステップを繰り返しながら所定の案 内動作を行い、被案内者 50を目標位置へ案内し終えたら(S19 : Yes)、 S10に戻つ て別の被案内者の案内を行う。
[0038] 以上説明した本実施形態の案内ロボット 1においては、本体部 10の胴体部 12と走 行部 11とが相対回転可能に連結されており、制御装置 17は、位置検出センサ 21に より検出された被案内者の位置に基づ!、て、本体部 10 (胴体部 12及び頭部 13)の 正面が常に被案内者を向くように、胴体駆動モータ 36を制御して本体部 10を走行 部 11に対して相対回転させる。そのため、案内ロボット 1の走行中においても、本体 部 10の、 CCDカメラ 22、マイク 23、スピーカー 24、ディスプレイ 20等が設けられて いる正面部分が常に被案内者に向くことになり、被案内者との間で相互の情報伝達 を確実に行うことができる。また、歩行する被案内者と平行に走行しながら胴体部 10 を被案内者に向けることができるため、腕部 14や頭部 13によるジェスチャーを被案 内者が認識しやすくなり、ジェスチャーによる案内効果が高まる。
[0039] 次に、前記実施形態に種々の変更を加えた変更形態につ!、て説明する。但し、前 記実施形態と同様の構成を有するものについては、同じ符号を付して適宜その説明 を省略する。
[0040] 1]走行部 11の走行中に本体部 10の正面を被検出体に向けるには、位置検出セ ンサ 21は少なくとも被検出体が存在する方向を検出できればよぐ案内ロボット 1から の被検出体の離隔距離まで検出可能であることは必ずしも必要ではな 、。例えば、 位置検出センサ 21として、前述した超音波センサやレーザーセンサの代わりにマイク 23が用いられて、このマイク 23により音源である被検出体の方向を検出するように構 成されてもよい。
[0041] 2] CCDカメラ 22、マイク 23、スピーカー 24、及び、ディスプレイ 20の位置は適宜 変更可能である。まず、 CCDカメラ 22、マイク 23、スピーカー 24、及び、ディスプレイ 20力 全て本体部 10の正面に設けられている必要はない。例えば、指向性のない( 全指向性)のマイクが用いられる場合には、どの方向からでも音声情報を取得するこ とができるため、マイクは、本体部 10の正面に設けられる必要はない。また、 CCD力 メラ 22、マイク 23、スピーカー 24、及び、ディスプレイ 20の少なくとも 1つ力 本体部 1 0の正面以外の部分 (例えば、側面)に設けられて、この部分が走行中に常に被検出 体を向くように構成されて 、てもよ 、。
[0042] さらに、 CCDカメラ 22、マイク 23、スピーカー 24の少なくとも 1つが胴体部 12に設 けられていてもよいし、逆に、ディスプレイ 20が頭部 13に設けられていてもよい。
[0043] 3]前記実施形態は、人を目標位置まで案内する案内ロボットに本発明を適用した 一例であるが、本発明を適用できるロボットは案内ロボットに限られない。例えば、人 に食事を運ぶ配膳用ロボットや人に勉強を教える教育用ロボットなど、走行しながら 人とコミュニケーションを行うことが求められる種々のロボットに本発明を適用すること が可能である。

Claims

請求の範囲
[1] 本体部と、
走行輪を備え、前記本体部と相対回転可能に連結された走行部と、
前記走行輪を駆動する走行駆動手段と、
前記本体部を前記走行部に対して相対回転させる回転駆動手段と、
前記走行駆動手段と前記回転駆動手段をそれぞれ制御する制御手段と、 周囲の被検出体の位置を検出する位置検出手段とを備え、
前記制御手段は、前記走行部の走行中に、前記位置検出手段で検出された前記被 検出体の位置に基づいて、前記本体部の所定部分が常に前記被検出体を向くよう に、前記回転駆動手段を制御することを特徴とするロボット。
[2] 前記被検出体から情報を取得する情報取得手段をさらに備えており、
前記本体部の前記所定部分に、前記情報取得手段の少なくとも一部が設けられて
V、ることを特徴とする請求項 1に記載のロボット。
[3] 前記被検出体に向けて情報を発信する情報発信手段をさらに備えており、
前記本体部の前記所定部分に、前記情報発信手段の少なくとも一部が設けられて いることを特徴とする請求項 1又は 2に記載のロボット。
[4] 前記制御手段は、前記位置検出手段で検出された前記被検出体の位置に基づ 、 て、前記走行部が前記被検出体との距離を所定の範囲内に保ちながら走行するよう に、前記走行駆動手段を制御することを特徴とする請求項 1〜3の何れかに記載の口 ホット。
[5] 前記本体部は、前記走行部に相対回転可能に連結された胴体部と、前記胴体部の 上端部に回動可能に設けられた頭部と、前記胴体部の両側部にそれぞれ揺動可能 に設けられた 2つの腕部を備えていることを特徴とする請求項 1〜4の何れかに記載 のロボ、ソ卜。
PCT/JP2007/050576 2006-05-16 2007-01-17 ロボット WO2007132571A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP07713623A EP2025478B1 (en) 2006-05-16 2007-01-17 Robot
JP2008515438A JP4915417B2 (ja) 2006-05-16 2007-01-17 ロボット
US12/300,954 US8272466B2 (en) 2006-05-16 2007-01-17 Robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-136594 2006-05-16
JP2006136594 2006-05-16

Publications (1)

Publication Number Publication Date
WO2007132571A1 true WO2007132571A1 (ja) 2007-11-22

Family

ID=38693672

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/050576 WO2007132571A1 (ja) 2006-05-16 2007-01-17 ロボット

Country Status (5)

Country Link
US (1) US8272466B2 (ja)
EP (1) EP2025478B1 (ja)
JP (1) JP4915417B2 (ja)
KR (1) KR20090005238A (ja)
WO (1) WO2007132571A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090037023A1 (en) * 2007-06-29 2009-02-05 Sony Computer Entertainment Inc. Information processing system, robot apparatus, and control method therefor
JP2009285818A (ja) * 2008-05-30 2009-12-10 Fujitsu Ltd 移動説明装置、および、移動説明プログラム
JP2011000656A (ja) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International 案内ロボット
JP2015518188A (ja) * 2012-02-29 2015-06-25 アイロボット コーポレイション 可動式ロボット
CN105108755A (zh) * 2015-09-07 2015-12-02 上海人智信息科技有限公司 一种智能仿人循迹送餐机器人
JP2018051701A (ja) * 2016-09-29 2018-04-05 トヨタ自動車株式会社 コミュニケーション装置
JP2020049624A (ja) * 2018-09-28 2020-04-02 日本信号株式会社 案内ロボット

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5080333B2 (ja) * 2007-04-06 2012-11-21 本田技研工業株式会社 自律移動体のための物体認識装置
KR101493383B1 (ko) * 2009-01-23 2015-02-13 삼성전자 주식회사 로봇
KR20110080919A (ko) * 2010-01-07 2011-07-13 삼성전자주식회사 로봇
US9283990B1 (en) * 2011-03-25 2016-03-15 Infamous Robotics, LLC Robotic personal assistant
KR101252096B1 (ko) * 2011-06-01 2013-04-12 호남대학교 산학협력단 대기전력 저감형 이동 로봇 장치
JP2013160530A (ja) * 2012-02-01 2013-08-19 Seiko Epson Corp 検査装置、ロボット装置、検査方法及び検査プログラム
CN103322435A (zh) * 2012-03-22 2013-09-25 北京美科艺数码科技发展有限公司 照明装置
JP6104519B2 (ja) * 2012-05-07 2017-03-29 シャープ株式会社 自走式電子機器
US9495788B2 (en) * 2013-03-22 2016-11-15 Kt Corporation Apparatus and method for developing robot contents
JP6136543B2 (ja) * 2013-05-01 2017-05-31 村田機械株式会社 自律移動体
USD732096S1 (en) * 2013-06-07 2015-06-16 Irobot Corporation Mobile human interface robot
USD739450S1 (en) * 2013-07-04 2015-09-22 Polaris Financial Technology Ltd. Financial technology robot
US9566534B1 (en) * 2014-01-06 2017-02-14 Wowwee Group Ltd User interface
USD752668S1 (en) * 2014-09-16 2016-03-29 Gripa Holding Aps Mount system for robotic tooling
USD761339S1 (en) * 2015-03-17 2016-07-12 Rethink Robotics, Inc. Compliant manufacturing robot
TWD171958S (zh) * 2015-05-14 2015-11-21 鴻海精密工業股份有限公司 情感互動式機器人
CN104932549B (zh) * 2015-06-01 2018-12-21 广东小天才科技有限公司 一种智能控制终端旋转的方法
CN115446818A (zh) * 2016-05-26 2022-12-09 精工爱普生株式会社 水平多关节型机器人
CN105796289B (zh) * 2016-06-03 2017-08-25 京东方科技集团股份有限公司 导盲机器人
EP3338963B1 (en) 2016-12-23 2022-02-02 LG Electronics Inc. Guide robot
EP3563980B1 (en) 2016-12-23 2020-10-28 LG Electronics Inc. Guide robot
EP3563981B1 (en) 2016-12-23 2023-04-19 LG Electronics Inc. Guide robot
KR102348041B1 (ko) 2017-03-28 2022-01-05 엘지전자 주식회사 복수의 이동 로봇을 포함하는 로봇 시스템의 제어 방법
KR102024087B1 (ko) 2017-03-31 2019-09-23 엘지전자 주식회사 커뮤니케이션 로봇
US10889374B1 (en) * 2017-05-03 2021-01-12 Survice Engineering Company Onboard drone human-machine interface for autonomous operation
JP7002415B2 (ja) * 2018-06-28 2022-01-20 株式会社日立製作所 情報処理装置および情報処理方法
KR102228866B1 (ko) * 2018-10-18 2021-03-17 엘지전자 주식회사 로봇 및 그의 제어 방법
US11964398B2 (en) * 2021-01-28 2024-04-23 Micropharmacy Corporation Systems and methods for autonomous robot distributed processing

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6119806U (ja) * 1984-07-11 1986-02-05 辰巳電子工業株式会社 ロボツト
JP2001260056A (ja) * 2000-03-17 2001-09-25 Mitsui Eng & Shipbuild Co Ltd 人間型ロボット
JP2003122394A (ja) * 2001-10-16 2003-04-25 Yamatake Corp 識別対象を認識する方法と装置及び該装置を搭載したロボット
JP2003340764A (ja) * 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004034274A (ja) 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP2005288573A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 移動ロボット

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6119806A (ja) 1985-02-15 1986-01-28 Kuraray Co Ltd 混合紡糸方法
KR940009860B1 (ko) * 1989-12-08 1994-10-18 가부시끼가이샤 히다찌세이사꾸쇼 자주식 수송기구
US5392024A (en) 1991-06-14 1995-02-21 Toyota Jidosha Kabushiki Kaisha Collision detection system
JP3282206B2 (ja) 1992-01-14 2002-05-13 松下電器産業株式会社 移動作業ロボットの障害物検知装置
EP0937612A3 (en) 1998-02-24 2000-03-15 Kabushiki Kaisha Toyota Chuo Kenkyusho A collision discriminating apparatus for vehicles using detecting means in the front bumper
EP1614475B1 (en) * 1998-05-01 2007-05-30 Gen-Probe Incorporated Device for agitating the fluid contents of a container
US6941199B1 (en) 1998-07-20 2005-09-06 The Procter & Gamble Company Robotic system
JP3277279B2 (ja) 1999-11-30 2002-04-22 科学技術振興事業団 ロボット聴覚装置
US7155308B2 (en) * 2000-01-24 2006-12-26 Irobot Corporation Robot obstacle detection system
JP4549626B2 (ja) * 2000-09-29 2010-09-22 本田技研工業株式会社 二足歩行ロボット
KR20020067921A (ko) * 2000-10-23 2002-08-24 소니 가부시끼 가이샤 각식 로봇 및 각식 로봇의 행동 제어 방법, 및 기억 매체
WO2002040222A1 (fr) * 2000-11-17 2002-05-23 Sony Corporation Dispositif et procede de commande des mouvements d'un robot marcheur mobile et procede de generation d'unites de mouvement destinees a un robot marcheur mobile
US6443543B1 (en) * 2001-04-06 2002-09-03 Wayne Chiang Mobile personal computer
US6408226B1 (en) * 2001-04-24 2002-06-18 Sandia Corporation Cooperative system and method using mobile robots for testing a cooperative search controller
US6687571B1 (en) * 2001-04-24 2004-02-03 Sandia Corporation Cooperating mobile robots
US6507773B2 (en) * 2001-06-14 2003-01-14 Sharper Image Corporation Multi-functional robot with remote and video system
US6859359B2 (en) * 2002-01-30 2005-02-22 The United States Of America As Represented By The Secretary Of The Army Modular sensor platform
US7742845B2 (en) * 2002-07-22 2010-06-22 California Institute Of Technology Multi-agent autonomous system and method
US7376487B2 (en) * 2003-11-25 2008-05-20 International Business Machines Corporation Nesting negotiation for self-mobile devices
KR100729870B1 (ko) 2004-03-31 2007-06-18 혼다 기켄 고교 가부시키가이샤 이동체의 위치검지 시스템
JP4373903B2 (ja) * 2004-12-14 2009-11-25 本田技研工業株式会社 自律移動ロボット
EP2050544B1 (en) * 2005-09-30 2011-08-31 iRobot Corporation Robot system with wireless communication by TCP/IP transmissions

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6119806U (ja) * 1984-07-11 1986-02-05 辰巳電子工業株式会社 ロボツト
JP2001260056A (ja) * 2000-03-17 2001-09-25 Mitsui Eng & Shipbuild Co Ltd 人間型ロボット
JP2003122394A (ja) * 2001-10-16 2003-04-25 Yamatake Corp 識別対象を認識する方法と装置及び該装置を搭載したロボット
JP2003340764A (ja) * 2002-05-27 2003-12-02 Matsushita Electric Works Ltd 案内ロボット
JP2004034274A (ja) 2002-07-08 2004-02-05 Mitsubishi Heavy Ind Ltd 会話ロボット及びその動作方法
JP2005288573A (ja) * 2004-03-31 2005-10-20 Honda Motor Co Ltd 移動ロボット

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SATO K. ET AL.: "Machi ni Deru Machine Vision Zenhoi Shikaku o Mochiita An'nai Robot System (Autonomous Guidance Robot System with Omnidirectional Image Sensor)", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRICAL ENGINEERS OF JAPAN C, vol. 117-C, no. 10, 1997, pages 1362 - 1369, XP003019348 *
See also references of EP2025478A4 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090037023A1 (en) * 2007-06-29 2009-02-05 Sony Computer Entertainment Inc. Information processing system, robot apparatus, and control method therefor
US8417384B2 (en) * 2007-06-29 2013-04-09 Sony Corporation Information processing system, robot apparatus, and control method therefor
JP2009285818A (ja) * 2008-05-30 2009-12-10 Fujitsu Ltd 移動説明装置、および、移動説明プログラム
JP2011000656A (ja) * 2009-06-17 2011-01-06 Advanced Telecommunication Research Institute International 案内ロボット
JP2015518188A (ja) * 2012-02-29 2015-06-25 アイロボット コーポレイション 可動式ロボット
CN105108755A (zh) * 2015-09-07 2015-12-02 上海人智信息科技有限公司 一种智能仿人循迹送餐机器人
JP2018051701A (ja) * 2016-09-29 2018-04-05 トヨタ自動車株式会社 コミュニケーション装置
US10576633B2 (en) 2016-09-29 2020-03-03 Toyota Jidosha Kabushiki Kaisha Communication device
JP2020049624A (ja) * 2018-09-28 2020-04-02 日本信号株式会社 案内ロボット

Also Published As

Publication number Publication date
EP2025478B1 (en) 2011-09-14
US8272466B2 (en) 2012-09-25
EP2025478A1 (en) 2009-02-18
US20090173561A1 (en) 2009-07-09
JPWO2007132571A1 (ja) 2009-09-24
EP2025478A4 (en) 2010-06-23
KR20090005238A (ko) 2009-01-12
JP4915417B2 (ja) 2012-04-11

Similar Documents

Publication Publication Date Title
JP4915417B2 (ja) ロボット
JP4849244B2 (ja) 移動ロボットおよび移動速度推定方法
JP5732632B2 (ja) ロボットシステムおよびそれに用いる空間陣形認識装置
JP4857242B2 (ja) ロボット
US9873200B2 (en) Personal robot
JP5429462B2 (ja) コミュニケーションロボット
JP5186723B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボットの視線制御方法
JP2007139710A (ja) 歩行補助ロボット
JP2006272471A (ja) コミュニケーションロボット
JP2007260822A (ja) 道案内ロボット
JP2013091114A (ja) インタラクション操作システム
JP3984493B2 (ja) 警備ロボット
KR20140128086A (ko) 장애인 안내용 가변구조 휠체어 로봇
JP5145569B2 (ja) 対象物特定方法および装置
JP6134895B2 (ja) ロボット制御システム、ロボット制御プログラムおよび説明ロボット
JP6150429B2 (ja) ロボット制御システム、ロボット、出力制御プログラムおよび出力制御方法
JP2006015436A (ja) 監視ロボット
JP6134894B2 (ja) ロボット制御システムおよびロボット
JP2011000656A (ja) 案内ロボット
JP4594663B2 (ja) 警備ロボット
JP4793904B2 (ja) コミュニケーションロボットシステムおよびコミュニケーションロボット
JP2017170568A (ja) サービス提供ロボットシステム
JP5842245B2 (ja) コミュニケーションロボット
JP5115886B2 (ja) 道案内ロボット
JP2016022537A (ja) ロボット

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07713623

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008515438

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12300954

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007713623

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1020087029710

Country of ref document: KR