JP7174673B2 - Guide robot - Google Patents

Guide robot Download PDF

Info

Publication number
JP7174673B2
JP7174673B2 JP2019111956A JP2019111956A JP7174673B2 JP 7174673 B2 JP7174673 B2 JP 7174673B2 JP 2019111956 A JP2019111956 A JP 2019111956A JP 2019111956 A JP2019111956 A JP 2019111956A JP 7174673 B2 JP7174673 B2 JP 7174673B2
Authority
JP
Japan
Prior art keywords
motion
robot
unit
obstacle
guidance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019111956A
Other languages
Japanese (ja)
Other versions
JP2020203339A (en
Inventor
智明 照沼
亮介 中村
泰士 上田
英則 関根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Building Systems Co Ltd filed Critical Hitachi Building Systems Co Ltd
Priority to JP2019111956A priority Critical patent/JP7174673B2/en
Priority to CN202010369712.6A priority patent/CN112092017A/en
Publication of JP2020203339A publication Critical patent/JP2020203339A/en
Application granted granted Critical
Publication of JP7174673B2 publication Critical patent/JP7174673B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones

Description

本発明は、案内ロボットに関する。 The present invention relates to a guiding robot.

案内ロボットを含むサービスロボットは、人が通行する空間において使用される場合も想定されている。例えば、ビル内において利用者に対する案内等の応対や、警備、巡回、清掃といった、従来は人が行っていた業務を代わりに行うものである。 Service robots, including guide robots, are also assumed to be used in spaces where people pass. For example, in a building, it performs tasks that were conventionally performed by people, such as providing guidance to users, guarding, patrolling, and cleaning.

このようなサービスロボットの利用状況においては、従来の産業用ロボットのようにロボットの設置エリアに安全柵を設けるなど、利用者に対するサービスを行うためのエリアを完全に分離することができない場合が多くなっている。このため、利用者に対する安全に特に配慮した構成とすることが重要となる。 In this kind of usage situation of service robots, it is often not possible to completely separate the area for providing services to users, such as setting up a safety fence in the robot installation area like conventional industrial robots. It's becoming Therefore, it is important to have a configuration that gives particular consideration to safety for users.

特許文献1には、環境情報に基づいて把握した周囲に存在する物体のうち、動作範囲を含む安全領域内に障害物が存在する場合に動作を一時的に停止し、障害物特定情報を外部に対して視覚的に出力する、自律動作型ロボットが開示されている。これにより、周囲の人間がロボットの認識した障害物が何であるかを容易に判断することが可能となると記載されている。 Japanese Patent Laid-Open No. 2004-100003 discloses a system in which, among objects present in the surroundings ascertained based on environmental information, when an obstacle exists within a safe area including the operating range, the operation is temporarily stopped, and the obstacle specifying information is sent to the outside. An autonomous robot is disclosed that provides visual output to a . It is described that this makes it possible for surrounding people to easily determine what the obstacle recognized by the robot is.

特許文献2には、筐体の重心を傾けることにより移動を制御する自律移動ロボットであって、周囲の物体を検出する複数の障害物検知センサと、筐体の傾き角度を検出する傾斜角度測定手段とを備え、傾斜角度測定手段の測定角度に従って、検出範囲を変更する障害物検知センサを有するものが開示されている。これにより、正しい障害物の検知が可能となると記載されている。 Patent Document 2 discloses an autonomous mobile robot that controls movement by tilting the center of gravity of the housing, and includes a plurality of obstacle detection sensors that detect surrounding objects and an inclination angle measurement that detects the tilt angle of the housing. and an obstacle detection sensor that changes the detection range according to the measured angle of the tilt angle measuring means. It is described that this enables correct detection of obstacles.

特開2009-113190号公報JP 2009-113190 A 特開2006-247803号公報JP-A-2006-247803

特許文献1に記載の自律動作型ロボットは、動作を一時的に停止する場合があり、その場合には、利用者に対する継続的なサービスが困難になる。 The autonomous robot described in Patent Literature 1 may temporarily stop its operation, in which case it becomes difficult to provide continuous service to the user.

特許文献2に記載の自律移動ロボットは、筐体の傾き角度が変化した場合には障害物の検知が可能であるが、ロボットの周囲の利用者、障害物等の状態に応じて動作を調整するものではない。 The autonomous mobile robot described in Patent Document 2 is capable of detecting obstacles when the inclination angle of the housing changes, but adjusts its operation according to the conditions of users, obstacles, etc. around the robot. not something to do.

本発明は、案内ロボットの利用者に対する安全性を確保するとともに、案内を停止することなく、案内ロボットの動作を継続することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to ensure safety for the user of a guide robot and to continue the operation of the guide robot without stopping guidance.

本発明の案内ロボットは、複数の動作候補を記憶した記憶部と、動作の障害となる物体を検知する複数のセンサと、実行動作を選択し各部位に指令を送信するロボット動作指令部と、を備え、ロボット動作指令部は、複数のセンサのうちいずれかのセンサにより物体との距離情報を取得し、距離情報に基づいて、記憶部の複数の動作候補から実行動作を選択することを特徴とする。 The guide robot of the present invention comprises a storage unit storing a plurality of candidate motions, a plurality of sensors for detecting objects that hinder the motion, a robot motion command unit for selecting a motion to be executed and transmitting a command to each part, The robot motion command unit acquires distance information from the object by one of the plurality of sensors, and selects an execution motion from a plurality of motion candidates in the storage unit based on the distance information. and

本発明によれば、案内ロボットの利用者に対する安全性を確保するとともに、案内を停止することなく、案内ロボットの動作を継続することができる。 According to the present invention, it is possible to ensure safety for the user of the guide robot and to continue the operation of the guide robot without stopping the guidance.

実施例1に係る自律型ロボットのハードウェアの構成を示す正面図である。2 is a front view showing the hardware configuration of the autonomous robot according to the first embodiment; FIG. 図1の自律型ロボットの側面図である。2 is a side view of the autonomous robot of FIG. 1; FIG. 実施例1の自律型ロボットが子どもに応対する状況を示す側面図である。FIG. 2 is a side view showing a state in which the autonomous robot of Example 1 responds to a child; 実施例1の自律型ロボットの制御に関する構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration related to control of the autonomous robot of Example 1; 実施例1の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでの制御プロセスを示すフローチャートである。4 is a flow chart showing a control process from when the autonomous robot of Example 1 receives a guidance instruction to execution of a guidance operation. ロボットが障害物検知をしないで動作した場合の状態を示す図である。FIG. 10 is a diagram showing a state in which the robot operates without detecting obstacles; 実施例1の自律型ロボットが障害物の有無を判定して動作を選択した場合の状態を示す図である。FIG. 10 is a diagram showing a state in which the autonomous robot of Example 1 determines the presence or absence of an obstacle and selects an action; 実施例2の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでに2個のセンサを用いる制御プロセスを示すフローチャートである。10 is a flow chart showing a control process using two sensors from when the autonomous robot of Example 2 receives a guidance instruction to when it executes a guidance operation. 実施例2の自律型ロボットが障害物の有無を判定して動作を選択した場合であって、左腕部の動作を制限し、右腕部を挙げる動作を選択した状態を示す図である。FIG. 10 is a diagram showing a state in which the autonomous robot of Example 2 determines the presence or absence of an obstacle and selects an action, restricting the action of the left arm and selecting the action of raising the right arm. 実施例3の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでの制御プロセスを示すフローチャートである。11 is a flow chart showing a control process from when the autonomous robot of Example 3 receives a guidance instruction to execution of a guidance operation. 図9の工程S804に対応する動作を示す図である。FIG. 10 is a diagram showing an operation corresponding to step S804 of FIG. 9; 図9の工程S807に対応する動作を示す図である。FIG. 10 is a diagram showing an operation corresponding to step S807 of FIG. 9; 図9の工程S809に対応する動作を示す図である。FIG. 10 is a diagram showing an operation corresponding to step S809 of FIG. 9;

本発明は、自律的に動作を行うロボットであって、利用者に対する案内等の応対が可能なロボットに関する。よって、本発明に係るロボットは、「案内ロボット」又は「自律型ロボット」と呼ぶことができる。自律型ロボットは、ロボット本体のメモリ、演算部等を小さくする観点から、リモートブレインロボットであることが望ましい。リモートブレインロボットとは、リアルタイム性が要求される処理をロボット本体側で行い、要求されない処理を外部システムで担う構成を有するロボットをいう。 BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a robot that operates autonomously and that is capable of responding to users such as guidance. A robot according to the invention can thus be called a "guide robot" or an "autonomous robot". The autonomous robot is desirably a remote brain robot from the viewpoint of reducing the size of the robot main body's memory, calculation unit, and the like. A remote brain robot is a robot having a configuration in which real-time processing is performed on the robot body side and unrequired processing is handled by an external system.

以下、図面を参照して、本発明の実施例について詳細を説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、実施例1に係る自律型ロボットのハードウェアの構成を示す正面図である。 FIG. 1 is a front view showing the hardware configuration of an autonomous robot according to the first embodiment.

本図において、自律型ロボット101は、人型であり、頭部、胴部、腕部及び脚部を備えている。腕部及び脚部には、関節部(肘部及び膝部)を設けている。胴部には、第一の外界センサ104及び第二の外界センサ105が設けられている。脚部の先端部には、車輪モータ部106が設けられている。腕部の関節部には、腕モータ部107が設けられている。頭部には、音声出力部108が設けられている。脚部の関節部には、膝モータ部117が設けられている。 In this figure, an autonomous robot 101 is humanoid and has a head, body, arms and legs. The arms and legs are provided with joints (elbows and knees). A first external sensor 104 and a second external sensor 105 are provided on the body. A wheel motor unit 106 is provided at the tip of the leg. An arm motor unit 107 is provided at the joint of the arm. An audio output unit 108 is provided on the head. A knee motor unit 117 is provided at the joint of the leg.

第一の外界センサ104及び第二の外界センサ105は、図示した位置に限定されるものではなく、周囲の状況を効率よく検知するために必要かつ十分に設けてよい。第一の外界センサ104及び第二の外界センサ105の種類も、特に限定されるものではなく、赤外線レーザを照射する赤外線センサ、超音波を利用する超音波センサ、カメラなどの画像センサなどを用いることができる。車輪モータ部106は、車輪を回転させる機能を有し、この機能により自律型ロボット101を自在に移動させることができる。腕モータ部107は、その回転により前腕部の上げ下げ等を行い、これにより前腕部を所望の位置・角度とする。 The first external sensor 104 and the second external sensor 105 are not limited to the illustrated positions, and may be provided as necessary and sufficient to efficiently detect the surrounding conditions. The types of the first external sensor 104 and the second external sensor 105 are also not particularly limited, and an infrared sensor that emits an infrared laser, an ultrasonic sensor that uses ultrasonic waves, an image sensor such as a camera, or the like is used. be able to. The wheel motor unit 106 has a function of rotating wheels, and can freely move the autonomous robot 101 by this function. The arm motor unit 107 raises and lowers the forearm by its rotation, thereby setting the forearm at a desired position and angle.

なお、図示していないが、肩部にもモータが内蔵されており、上腕部の上げ下げ、回転等の動作を自在に行うことができる。 In addition, although not shown, a motor is also built in the shoulder portion, so that the upper arm portion can be raised, lowered, rotated, etc. freely.

音声出力部108は、利用者に音声による案内を行う場合等に使用される。 The voice output unit 108 is used, for example, when providing voice guidance to the user.

また、自律型ロボット101は、その内部にロボット制御部102を有し、外部に設けられたロボット指令生成部103に電気通信回線等のネットワークを介して接続される。ロボット制御部102は、CPU(中央演算処理装置)、メモリ等を備えている。ロボット指令生成部103は、自律型ロボット101の状況等に関する情報を自律型ロボット101等から受信するとともに、自律型ロボット101に対して案内や移動などの行動に関する指令を与える。ネットワークは、有線通信回線でもよいが、無線LAN等の無線通信が望ましい。 Further, the autonomous robot 101 has a robot control unit 102 therein, and is connected to a robot command generation unit 103 provided outside via a network such as an electric communication line. The robot control unit 102 includes a CPU (Central Processing Unit), memory, and the like. The robot command generation unit 103 receives information about the status of the autonomous robot 101 from the autonomous robot 101 and the like, and gives the autonomous robot 101 commands about actions such as guidance and movement. The network may be a wired communication line, but wireless communication such as a wireless LAN is desirable.

図2は、図1の自律型ロボットの側面図である。 2 is a side view of the autonomous robot of FIG. 1; FIG.

図2に示すように、自律型ロボット101の曲面を有する胴部には、第二の外界センサ105が配置されている。また、車輪モータ部106及び膝モータ部117の構造が明瞭になっている。膝モータ部117を回転することにより、膝部の曲げ伸ばしを行うことができ、立ち上げる、かがむ、しゃがむ、ひざまづく等の動作を自在に行うことができる。よって、自律型ロボット101は、体高を自在に増減することができる。 As shown in FIG. 2, a second external sensor 105 is arranged on the curved torso of the autonomous robot 101 . Also, the structures of the wheel motor section 106 and the knee motor section 117 are clarified. By rotating the knee motor unit 117, the knee can be bent and stretched, and the user can freely perform actions such as standing up, bending down, crouching, and kneeling. Therefore, the autonomous robot 101 can freely increase or decrease its height.

図3は、実施例1の自律型ロボットが子どもに応対する状況を示す側面図である。 FIG. 3 is a side view showing a situation in which the autonomous robot of Example 1 responds to a child.

本図に示すように、子ども350が接近していることを第二の外界センサ105等により検知し、膝モータ部117の回転により、膝部を曲げ、かがんだ姿勢をとることができる。また、ひざまづくこともできる。小さい子ども350(乳児等)の検知に用いるセンサは、胴部に設けられた第二の外界センサ105だけでなく、脚部、膝部等の低い位置に設けられたセンサ(図示していない。)でもよく、例えば、車輪モータ部106又は膝モータ部117に設けられたセンサ(図示していない。)でもよい。 As shown in the figure, the second external sensor 105 or the like detects that a child 350 is approaching, and the rotation of the knee motor unit 117 allows the knees to be bent and the child to take a crouching posture. You can also kneel. Sensors used to detect a small child 350 (infant, etc.) include not only the second external sensor 105 provided on the torso, but also sensors provided at low positions such as legs and knees (not shown). ) or, for example, a sensor (not shown) provided in the wheel motor unit 106 or the knee motor unit 117 .

図4は、実施例1の自律型ロボットの制御に関する構成を示すブロック図である。 FIG. 4 is a block diagram showing a configuration related to control of the autonomous robot according to the first embodiment;

なお、本図においては、自律型ロボット101の構成として音声出力部108及び音声出力制御部206を示しているが、これらについては、本実施例における必須の構成ではなく、実施例3において説明する。 In addition, in this figure, the voice output unit 108 and the voice output control unit 206 are shown as the configuration of the autonomous robot 101, but these are not essential components in the present embodiment, and will be described in the third embodiment. .

本図に示すように、自律型ロボット101には、ロボット制御部102、第一の外界センサ104、第二の外界センサ105、車輪モータ部106及び腕モータ部107が設けられている。ロボット制御部102は、第一の外界センサ104及び第二の外界センサ105で検出した距離情報等を収集するセンサ情報収集部201と、自律型ロボット101の各部位に指令を送信するロボット動作指令部202と、自律型ロボット101の動作の候補を記憶した動作候補データベース203(記憶部)と、車輪モータ部106を制御する車輪制御部204と、腕モータ部107を制御する腕動作制御部205と、を含む。ロボット動作指令部202とロボット指令生成部103とは、ネットワークを介して接続されている。 As shown in this figure, the autonomous robot 101 is provided with a robot control section 102 , a first external sensor 104 , a second external sensor 105 , a wheel motor section 106 and an arm motor section 107 . The robot control unit 102 includes a sensor information collection unit 201 that collects distance information and the like detected by the first external sensor 104 and the second external sensor 105, and a robot operation command that transmits commands to each part of the autonomous robot 101. a motion candidate database 203 (storage unit) that stores motion candidates for the autonomous robot 101; a wheel control unit 204 that controls the wheel motor unit 106; and an arm motion control unit 205 that controls the arm motor unit 107. and including. The robot motion command section 202 and the robot command generation section 103 are connected via a network.

センサ情報収集部201で取得したセンサ情報は、ロボット動作指令部202に送られる。ロボット動作指令部202は、センサ情報収集部201で取り込まれたセンサ情報と、ロボット指令生成部103から送られた案内指示と、に従い、動作候補データベース203から次に実行する動作を取得する。また、センサ情報収集部201は、センサ決定部を含む。センサ決定部は、自律型ロボット101の姿勢に基づいて、複数のセンサのうち、有効とするセンサを決定する。 The sensor information acquired by the sensor information collection unit 201 is sent to the robot motion command unit 202 . The robot motion commanding unit 202 acquires the next motion to be executed from the motion candidate database 203 according to the sensor information captured by the sensor information collecting unit 201 and the guidance instruction sent from the robot command generating unit 103 . Moreover, the sensor information collection unit 201 includes a sensor determination unit. The sensor determination unit determines which of the plurality of sensors is valid based on the posture of the autonomous robot 101 .

ロボット動作指令部202は、動作候補データベース203から次に実行する動作の候補を複数取得し、その中から適切な動作を選択してもよい。ここで、次に実行する適切な動作は、「実行動作」と呼ぶ。なお、実行動作には、動作の完全な停止は含まれないものとする。例えば、音声出力のみを実行する場合は、動作の完全な停止ではない。 The robot motion command unit 202 may acquire a plurality of motion candidates to be executed next from the motion candidate database 203 and select an appropriate motion from among them. Herein, the next appropriate action to be performed is referred to as the "execution action". Note that execution actions do not include complete stoppage of actions. For example, when performing only audio output, it is not a complete stop of operation.

ロボット動作指令部202は、例えば、動作候補データベース203から送られた動作の候補が自律型ロボット101の移動に関するものである場合、車輪制御部204に指令を送り、車輪モータ部106を稼働する。これにより、車輪モータ部106が回転し、自律型ロボット101が移動する。 For example, when the motion candidate sent from the motion candidate database 203 relates to movement of the autonomous robot 101 , the robot motion command unit 202 sends a command to the wheel control unit 204 to operate the wheel motor unit 106 . As a result, the wheel motor unit 106 rotates and the autonomous robot 101 moves.

ロボット動作指令部202から送られた動作の候補が自律型ロボット101の腕部の動作に関するものである場合、腕動作制御部205に指令を受信し、腕モータ部107を稼働する。これにより、腕モータ部107が回転し、自律型ロボット101の腕部を所望の位置まで移動させる。 When the motion candidates sent from the robot motion commanding unit 202 relate to the motion of the arm of the autonomous robot 101 , the command is received by the arm motion control unit 205 to operate the arm motor unit 107 . As a result, the arm motor section 107 rotates and moves the arm section of the autonomous robot 101 to a desired position.

図5は、本実施例の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでの制御プロセスを示すフローチャートである。なお、以下の説明においては、図1~4に記載の符号も用いる。 FIG. 5 is a flow chart showing the control process from when the autonomous robot of this embodiment receives a guidance instruction to when it executes a guidance operation. 1 to 4 are also used in the following description.

図5においては、まず、ロボット指令生成部103が自律型ロボット101のロボット動作指令部202に案内動作の指令を送信する(S301)。つぎに、ロボット動作指令部202は、センサ情報収集部201から利用者や障害物までの距離を取得する(S302)。この距離は、第一の外界センサ104により検出されたものである。なお、以下の説明においては、障害物は、ロボットの動作の障害となる物体であり、廊下や部屋の壁、ドア等だけでなく、利用者等の人も含むものとする。 In FIG. 5, first, the robot command generation unit 103 transmits a guidance motion command to the robot motion command unit 202 of the autonomous robot 101 (S301). Next, the robot motion command unit 202 acquires the distances to the user and obstacles from the sensor information collection unit 201 (S302). This distance is detected by the first external sensor 104 . In the following description, obstacles are objects that hinder the movement of the robot, and include not only corridors, walls of rooms, doors, etc., but also people such as users.

ロボット動作指令部202は、ロボット指令生成部103からの動作指令と、センサ情報収集部201からの障害物までの距離情報とから、自律型ロボット101の動作範囲内に障害物があるかを判定する(S303)。 The robot motion command unit 202 determines whether there is an obstacle within the motion range of the autonomous robot 101 based on the motion command from the robot command generation unit 103 and the distance information to the obstacle from the sensor information collection unit 201. (S303).

工程S303において障害物がないと判定した場合は、ロボット動作指令部202がロボット指令生成部103から送信された動作指令を取得する(S304)。そして、ロボット動作指令部202がロボット指令生成部103から送られた動作を実行する(S305)。 If it is determined in step S303 that there is no obstacle, the robot motion command unit 202 acquires the motion command transmitted from the robot command generation unit 103 (S304). Then, the robot motion command unit 202 executes the motion sent from the robot command generation unit 103 (S305).

一方、センサ情報収集部201で取得した第一の外界センサ104の検知範囲内に障害物があり、ロボット動作指令部202が動作不可であると判定した場合(S303)は、ロボット動作指令部202は、自律型ロボット101の動作が障害物に衝突しない動作(接触しない動作)の候補を動作候補データベース203から取得し(S306)、ロボット動作指令部202が動作指令を実行する(S307)。 On the other hand, if there is an obstacle within the detection range of the first external sensor 104 acquired by the sensor information collecting unit 201 and the robot motion commanding unit 202 determines that it cannot operate (S303), the robot motion commanding unit 202 obtains a candidate for a motion of the autonomous robot 101 that does not collide with an obstacle (a motion that does not contact an obstacle) from the motion candidate database 203 (S306), and the robot motion command unit 202 executes the motion command (S307).

まとめると、次のようになる。 In summary:

ロボット動作指令部202は、第一の外界センサ104により検出した範囲内に障害物がある場合、障害物に接触しない動作を選択する。 If there is an obstacle within the range detected by the first external sensor 104, the robot motion commanding unit 202 selects a motion that does not come into contact with the obstacle.

ここで、ロボット動作指令部202は、複数の動作の候補(動作候補)から動作を選択し、実際に動作を行う腕部、脚部等に動作指令を送る。よって、ロボット動作指令部202は、動作選択部でもある。当該選択の際には、自律型ロボット101の周囲の利用者の状況(性別、身長、体形、推定年齢、声の特徴、会話の内容、歩く速さ、周囲にいる人の数や密度等、集団(家族)の構成、服装等)、気温、湿度、明るさ(照度)、光の波長(スペクトル)、音の強さ(音圧レベル)、臭気物質の濃度(臭気センサ等により検出する。)、日時、曜日、時刻等を基準としてもよい。また、これらの基準から、音声出力部108の発声の要否、音量、波長、声色等を選択してもよい。 Here, the robot motion command unit 202 selects motions from a plurality of motion candidates (motion candidates) and sends motion commands to arms, legs, and the like that actually perform motions. Therefore, the robot motion commanding section 202 is also a motion selecting section. At the time of the selection, the conditions of users around the autonomous robot 101 (sex, height, body shape, estimated age, voice characteristics, content of conversation, walking speed, number and density of people around, etc.) Group (family) composition, clothes, etc.), temperature, humidity, brightness (illuminance), light wavelength (spectrum), sound intensity (sound pressure level), concentration of odorant (detected by an odor sensor or the like). ), date and time, day of the week, time, or the like may be used as a reference. Further, from these criteria, necessity of vocalization of the voice output unit 108, volume, wavelength, tone of voice, etc. may be selected.

なお、本明細書においては、動作に音声出力も含まれるものとする。 In this specification, it is assumed that the operation includes voice output.

つぎに、本実施例に係る自律型ロボットの実際の動作について説明する。 Next, the actual operation of the autonomous robot according to this embodiment will be explained.

ここでは、自律型ロボットがエレベーター利用者を腕部の動作によりエレベーター乗り場まで案内するユースケースを例に説明する。なお、この場合において、動作だけでなく、音声により案内することが望ましい。 Here, an example of a use case will be described in which an autonomous robot guides an elevator user to an elevator platform by arm motion. In this case, it is desirable to provide guidance not only by motion but also by voice.

図6Aは、ロボットが障害物検知をしないで動作した場合の状態を示す図である。 FIG. 6A is a diagram showing a state in which the robot operates without detecting obstacles.

図6Bは、実施例1の自律型ロボットが障害物の有無を判定して動作を選択した場合の状態を示す図である。 FIG. 6B is a diagram illustrating a state in which the autonomous robot of Example 1 determines the presence or absence of an obstacle and selects an action.

図6Aにおいては、エレベーター利用者401aをエレベーター乗り場402aに案内する際、ロボット701の近くに立っているエレベーター利用者401aに接触するかどうかについて判定することなく、距離dに達する腕部の動作を行っている。このため、ロボット701の腕部がエレベーター利用者401aに接触してしまう。この場合、エレベーター利用者401aにけがを負わせるおそれがある。 In FIG. 6A, when guiding the elevator user 401a to the elevator platform 402a, the motion of the arm to reach the distance dA without determining whether to contact the elevator user 401a standing near the robot 701. It is carried out. As a result, the arm of the robot 701 comes into contact with the elevator user 401a. In this case, the elevator user 401a may be injured.

図6Bにおいては、エレベーター利用者401bをエレベーター乗り場402bに案内する際、自律型ロボット101は、近くに立っているエレベーター利用者401bを検知し、エレベーター利用者401bに接触するかどうかについて判定し、腕部の動作が図6Aの距離dよりも短い距離dに収まるように制御している。 In FIG. 6B, when guiding elevator user 401b to elevator platform 402b, autonomous robot 101 detects elevator user 401b standing nearby, determines whether to contact elevator user 401b, Control is performed so that the motion of the arm is within a distance d B that is shorter than the distance d A in FIG. 6A.

これにより、自律型ロボット101の腕部がエレベーター利用者401bに接触することを防止することができる。また、案内を停止することなく、動作を継続することが可能となる。 This can prevent the arms of the autonomous robot 101 from contacting the elevator user 401b. In addition, it is possible to continue the operation without stopping the guidance.

また、エレベーター利用者401bに接触しない場合であっても、エレベーター利用者401bを驚かせる動作となってしまう場合があり得る。このように判定される場合は、動作を更に制限する。これにより、エレベーター利用者401bを驚かせることなく案内することができる。 In addition, even if the elevator user 401b is not contacted, the elevator user 401b may be surprised. If so determined, the operation is further restricted. As a result, the elevator user 401b can be guided without being surprised.

以上のように、自律型ロボット101の動作を制御することにより、安全性を向上させることができる。 As described above, by controlling the operation of the autonomous robot 101, safety can be improved.

なお、自律型ロボット101は、エレベーター利用者401bが実際にエレベーター乗り場402bを探しているかどうかについても、エレベーター利用者401bに問いかけるなどして判別した上で、案内動作を開始することが望ましい。 It is desirable that the autonomous robot 101 also asks the elevator user 401b whether or not the elevator user 401b is actually looking for the elevator platform 402b, and then starts the guidance operation.

図7は、実施例2の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでに2個のセンサを用いる制御プロセスを示すフローチャートである。なお、以下の説明においては、図1~4に記載の符号も用いる。また、以下の説明においては、実施例1との共通点については割愛する。 FIG. 7 is a flow chart showing a control process using two sensors from when the autonomous robot of Example 2 receives a guidance instruction to when it executes a guidance operation. 1 to 4 are also used in the following description. Moreover, in the following description, points common to the first embodiment are omitted.

図7においては、まず、ロボット指令生成部103が自律型ロボット101のロボット動作指令部202に案内動作の指令を送信する(S501)。また、センサ情報収集部201は、第一の外界センサ104から利用者や障害物までの距離を取得する(S502)。さらに、センサ情報収集部201は、第二の外界センサ105から利用者や障害物までの距離を取得する(S503)。そして、ロボット動作指令部202は、センサ情報収集部201からこれらの距離を取得する。 In FIG. 7, first, the robot command generation unit 103 transmits a guidance motion command to the robot motion command unit 202 of the autonomous robot 101 (S501). Further, the sensor information collection unit 201 acquires the distance from the first external sensor 104 to the user and obstacles (S502). Furthermore, the sensor information collection unit 201 acquires the distances to the user and obstacles from the second external sensor 105 (S503). The robot motion command unit 202 then acquires these distances from the sensor information collection unit 201 .

ロボット動作指令部202は、ロボット指令生成部103からの動作指令と、センサ情報収集部201からの障害物までの距離情報とから、自律型ロボット101の動作範囲内に障害物があるかを判定する(S504)。工程S504において障害物がないと判定した場合は、ロボット動作指令部202がロボット指令生成部103から送信された動作指令を取得する(S505)。そして、ロボット動作指令部202は、ロボット指令生成部103から送られた動作を実行する(S506)。 The robot motion command unit 202 determines whether there is an obstacle within the motion range of the autonomous robot 101 based on the motion command from the robot command generation unit 103 and the distance information to the obstacle from the sensor information collection unit 201. (S504). If it is determined in step S504 that there is no obstacle, the robot motion command unit 202 acquires the motion command transmitted from the robot command generation unit 103 (S505). Then, the robot motion command unit 202 executes the motion sent from the robot command generation unit 103 (S506).

一方、センサ情報収集部201で取得した第一の外界センサ104の検知範囲内に障害物があり、ロボット動作指令部202が動作不可であると判定した場合(S504)は、ロボット動作指令部202は、自律型ロボット101の動作が障害物に衝突しない動作の候補を動作候補データベース203から取得する(S507)。 On the other hand, if there is an obstacle within the detection range of the first external sensor 104 acquired by the sensor information collecting unit 201 and the robot motion commanding unit 202 determines that it cannot operate (S504), the robot motion commanding unit 202 obtains a candidate for a motion that does not collide with an obstacle for the motion of the autonomous robot 101 from the motion candidate database 203 (S507).

第一の外界センサ104の検知範囲内の障害物に衝突しないと判定した場合(S508)は、ロボット動作指令部202は、障害物に達しない範囲内の動作を実行する(S510)。 When it is determined that the robot will not collide with an obstacle within the detection range of the first external sensor 104 (S508), the robot motion command unit 202 performs a motion within a range that does not reach the obstacle (S510).

一方、第一の外界センサ104の検知範囲内の障害物に衝突すると判定した場合(S508)は、さらに、第二の外界センサ105の検知範囲内の障害物に衝突するかどうかについて判定する(S509)。工程S509において障害物に衝突すると判定した場合は、工程S507の処理を再度実行する。一方、工程S509において障害物に衝突しない場合は、ロボット動作指令部202は、障害物に達しない範囲内の動作を実行する(S510)。 On the other hand, if it is determined that the vehicle will collide with an obstacle within the detection range of the first external sensor 104 (S508), it is further determined whether or not the vehicle will collide with an obstacle within the detection range of the second external sensor 105 ( S509). If it is determined in step S509 that the vehicle will collide with the obstacle, the process of step S507 is executed again. On the other hand, if the robot does not collide with the obstacle in step S509, the robot motion commanding unit 202 performs a motion within a range that does not reach the obstacle (S510).

このように、障害物に衝突するか否かにより、自律型ロボット101の動作を選択する。 Thus, the motion of the autonomous robot 101 is selected depending on whether or not it collides with an obstacle.

図8は、実施例2の自律型ロボットが障害物の有無を判定して動作を選択した場合であって、左腕部の動作を制限し、右腕部を挙げる動作を選択した状態を示したものである。 FIG. 8 shows a state in which the autonomous robot of Example 2 determines the presence or absence of an obstacle and selects an action, restricting the action of the left arm and selecting the action of raising the right arm. is.

本図に示すように、エレベーター利用者601をエレベーター乗り場602に案内する際、第一の外界センサ104の検知範囲内の障害物に衝突すると判定した場合において、第二の外界センサ105の検知範囲内の障害物に衝突するかどうかについて判定し、第二の外界センサ105の検知範囲内の障害物に衝突しないと判定した場合には、右腕を挙げる動作により案内する。すなわち、図7の工程S508、S509及びS510を経た結果としての動作の例である。これにより、案内を停止することなく、動作を継続することが可能となる。 As shown in this figure, when it is determined that an elevator user 601 will collide with an obstacle within the detection range of the first external sensor 104 when guiding an elevator user 601 to an elevator hall 602, the detection range of the second external sensor 105 If it is determined that the vehicle will not collide with an obstacle within the detection range of the second external sensor 105, guidance is provided by raising the right arm. That is, it is an example of the operation resulting from steps S508, S509 and S510 of FIG. As a result, the operation can be continued without stopping guidance.

なお、第二の外界センサ105の検知範囲内においても障害物との接触のおそれがあると判定した場合は、障害物が検知されない場所まで自律型ロボット101が移動し、右腕部を挙げる動作で案内するように制御してもよい。 If it is determined that there is a risk of contact with an obstacle even within the detection range of the second external sensor 105, the autonomous robot 101 moves to a place where the obstacle is not detected, and raises its right arm. You may control to guide.

図7及び8に示す構成は、まとめると、次のようになる。 The configurations shown in FIGS. 7 and 8 can be summarized as follows.

ロボット動作指令部202は、第一の外界センサ104により検出した範囲内に障害物があり、動作目的(一つの動作目的)を実現可能な動作候補がない場合、第二の外界センサ105(他の外界センサ)に切替え、いずれの外界センサの検知範囲内においても障害物に接触しない動作を選択する。複数の動作候補は、一つの動作目的に対して設定されている。 When there is an obstacle within the range detected by the first external sensor 104 and there is no motion candidate capable of realizing the motion purpose (one motion purpose), the robot motion command unit 202 uses the second external sensor 105 (other external sensor), and selects an operation that does not come into contact with an obstacle within the detection range of any external sensor. A plurality of motion candidates are set for one motion purpose.

本実施例は、実施例1で用いた図4を用いて説明する。なお、以下の説明においては、図1~3及び5~8に記載の符号も用いる場合がある。また、以下の説明においては、実施例1又は2との共通点については割愛する。 This embodiment will be described with reference to FIG. 4 used in the first embodiment. 1 to 3 and 5 to 8 may also be used in the following description. Moreover, in the following description, points common to the first or second embodiment are omitted.

本実施例においては、図4の音声出力部108及び音声出力制御部206を使用する。 In this embodiment, the audio output unit 108 and the audio output control unit 206 shown in FIG. 4 are used.

音声出力部108は、図1及び2に示すように、自律型ロボット101の頭部に設置されている。音声出力部108は、外部に音声出力をする際に使用される。音声出力は、自律型ロボット101を利用する人に対する案内などに有用である。また、音声出力制御部206は、音声出力部108における音声の内容などを制御する。 The audio output unit 108 is installed on the head of the autonomous robot 101, as shown in FIGS. The audio output unit 108 is used when outputting audio to the outside. The voice output is useful for guidance to the person using the autonomous robot 101, and the like. Also, the audio output control unit 206 controls the content of audio in the audio output unit 108 and the like.

図9は、本実施例の自律型ロボットが案内指示を受けてから案内動作の実行に至るまでの制御プロセスを示すフローチャートである。 FIG. 9 is a flow chart showing the control process from when the autonomous robot of this embodiment receives a guidance instruction to when it executes a guidance operation.

本図においては、まず、ロボット指令生成部103が自律型ロボット101のロボット動作指令部202に案内動作の指令を送信する(S801)。センサ情報収集部201は、第一の外界センサ104から利用者や障害物までの距離を取得する(S802)。そして、第一の外界センサ104に検知範囲内に障害物があるかを判定する(S803)。 In this figure, first, the robot command generation unit 103 transmits a guidance motion command to the robot motion command unit 202 of the autonomous robot 101 (S801). The sensor information collection unit 201 acquires the distance from the first external sensor 104 to the user and obstacles (S802). Then, it is determined whether there is an obstacle within the detection range of the first external sensor 104 (S803).

第一の外界センサ104に検知範囲内に障害物がない場合には、その方向に移動する動作により案内する(S804)。 If there is no obstacle within the detection range of the first external sensor 104, guidance is provided by moving in that direction (S804).

一方、第一の外界センサ104に検知範囲内に障害物がある場合には、腕部の動作を取得する(S805)。そして、第二の外界センサ105の検知範囲内に障害物があるかを判定する(S806)。第二の外界センサ105の検知範囲内に障害物がない場合には、腕部の動作により案内する(S807)。 On the other hand, if there is an obstacle within the detection range of the first external sensor 104, the motion of the arm is acquired (S805). Then, it is determined whether there is an obstacle within the detection range of the second external sensor 105 (S806). If there is no obstacle within the detection range of the second external sensor 105, guidance is provided by arm movements (S807).

第二の外界センサ105の検知範囲内に障害物がある場合には、音声出力制御部206が案内のための音声出力に関する情報を取得し(S808)、音声により案内する(S809)。 If there is an obstacle within the detection range of the second external sensor 105, the audio output control unit 206 acquires information on audio output for guidance (S808), and provides audio guidance (S809).

このように、障害物に衝突するか否かにより、自律型ロボット101の動作又は音声による案内を段階的に選択する。 In this way, depending on whether or not the robot collides with an obstacle, the guidance by the motion of the autonomous robot 101 or the voice is selected step by step.

図10A~10Cは、図9の動作又は音声による案内に対応する自律型ロボットの状況を示したものである。ここでは、自律型ロボットがエレベーターの利用者をエレベーター乗り場まで案内するユースケースを例に説明する。 10A-10C illustrate the autonomous robot situation corresponding to the motion or voice guidance of FIG. Here, an example use case will be described in which an autonomous robot guides elevator users to the elevator platform.

図10Aは、図9の工程S804に対応する動作を示したものである。 FIG. 10A shows the operation corresponding to step S804 of FIG.

すなわち、第一の外界センサ104に検知範囲内に障害物がない場合には、その方向に移動する動作により案内する。 That is, when there is no obstacle within the detection range of the first external sensor 104, guidance is provided by moving in that direction.

図10Aにおいては、自律型ロボット101の第一の外界センサ104の検知範囲251及び第二の外界センサ105の検知範囲252を示している。自律型ロボット101は、左側にあるエレベーターに向かって、エレベーター利用者281を先導している。この場合は、障害物がないため、最短距離で直進し、エレベーター利用者281をエレベーター前まで案内する。このとき、自律型ロボット101は、音声出力部108を使用し、エレベーター利用者281に対し、目的地をわかりやすくして安心感を与えるよう、「こちらのエレベーターへどうぞ。」などと発話してもよい。 FIG. 10A shows a detection range 251 of the first external sensor 104 and a detection range 252 of the second external sensor 105 of the autonomous robot 101 . Autonomous robot 101 is leading elevator user 281 toward the left elevator. In this case, since there is no obstacle, the elevator user 281 is guided to the front of the elevator by going straight at the shortest distance. At this time, the autonomous robot 101 uses the voice output unit 108 to speak to the elevator user 281, such as "Please take this elevator," so as to make the destination easier to understand and give them a sense of security. good too.

図10Bは、図9の工程S807に対応する動作を示したものである。 FIG. 10B shows the operation corresponding to step S807 of FIG.

すなわち、第二の外界センサ105の検知範囲内に障害物がない場合には、腕部の動作により案内する。 That is, when there is no obstacle within the detection range of the second external sensor 105, guidance is provided by the motion of the arm.

図10Bにおいては、自律型ロボット101の前方に複数の人が立っているため、自律型ロボット101は、直進することができない。この場合は、第二の外界センサ105の検知範囲252における障害物の有無を判別し、第二の外界センサ105の検知範囲252に障害物がない場合は、移動を停止し、腕部の動作によりエレベーター利用者281を案内する。この場合も、エレベーター利用者281に対する音声による案内を同時に行ってもよい。 In FIG. 10B, since a plurality of people are standing in front of the autonomous robot 101, the autonomous robot 101 cannot go straight. In this case, the presence or absence of an obstacle in the detection range 252 of the second external sensor 105 is determined. to guide the elevator user 281 . Also in this case, voice guidance may be provided to the elevator user 281 at the same time.

図10Cは、図9の工程S809に対応する動作を示したものである。 FIG. 10C shows the operation corresponding to step S809 of FIG.

すなわち、自律型ロボット101は、移動も、腕部等の動作も困難と判定される場合であり、音声のみにより案内する。 In other words, the autonomous robot 101 is judged to be difficult to move and to move its arms, and guidance is given only by voice.

図10Cにおいては、自律型ロボット101の第一の外界センサ104の検知範囲251及び第二の外界センサ105の検知範囲252に複数の人が立っている。このため、自律型ロボット101は、移動することができない。この場合は、腕部の動作も危険を伴うため、音声のみによりエレベーター利用者281を案内する。音声による案内の内容は、例えば、「前方○○メートル先にエレベーターがあります。」等である。 In FIG. 10C , a plurality of people are standing within the detection range 251 of the first external sensor 104 and the detection range 252 of the second external sensor 105 of the autonomous robot 101 . Therefore, the autonomous robot 101 cannot move. In this case, the movement of the arm is also dangerous, so the elevator user 281 is guided only by voice. The content of the voice guidance is, for example, "there is an elevator XX meters ahead."

このように、動作の候補の中に、移動の動作、腕部の動作、音声出力等の優先順位を設けておくことにより、利用者等の安全確保についての判定をしながら、ロボットの動作を完全には停止することなく、縮小した動作又は限定した動作により案内を継続することが可能となる。すなわち、一つの動作目的に対して優先順位を保持した動作候補が設けられている。 In this way, by prioritizing movement motions, arm motions, voice output, etc. among motion candidates, robot motions can be determined while ensuring the safety of the user. Guidance can be continued with reduced or limited movement without a complete stop. In other words, motion candidates are provided with priorities for one motion purpose.

なお、本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。例えば、上記の実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明は、必ずしも説明した全ての構成を備える態様に限定されるものではない。また、実施例の構成の一部について、削除したり、他の構成を追加・置換したりすることが可能である。 It should be noted that the present invention is not limited to the above embodiments, and various modifications are possible. For example, the above embodiments have been described in detail in order to facilitate understanding of the present invention, and the present invention is not necessarily limited to aspects having all the described configurations. Moreover, it is possible to delete a part of the configuration of the embodiment, or to add or replace another configuration.

上記の実施例においては、自律型ロボットがリモートブレインロボットである場合について説明したが、本発明は、リモートブレインロボットに限定されるものではなく、ロボットがその内部にロボット指令生成部を有するものも含むものとする。 In the above embodiments, the autonomous robot is a remote brain robot, but the present invention is not limited to the remote brain robot, and the robot may have a robot command generator inside it. shall include

101:自律型ロボット、102:ロボット制御部、103:ロボット指令生成部、104:第一の外界センサ、105:第二の外界センサ、106:車輪モータ部、107:腕モータ部、108:音声出力部、117:膝モータ部、201:センサ情報収集部、202:ロボット動作指令部、203:動作候補データベース、204:車輪制御部、205:腕動作制御部、206:音声出力制御部、281、401a、401b、601:エレベーター利用者、350:子ども、402a、402b、602:エレベーター乗り場。 101: autonomous robot, 102: robot control unit, 103: robot command generation unit, 104: first external sensor, 105: second external sensor, 106: wheel motor unit, 107: arm motor unit, 108: voice Output unit 117: Knee motor unit 201: Sensor information collection unit 202: Robot motion command unit 203: Motion candidate database 204: Wheel control unit 205: Arm motion control unit 206: Voice output control unit 281 , 401a, 401b, 601: elevator user, 350: child, 402a, 402b, 602: elevator platform.

Claims (5)

複数の動作候補を記憶した記憶部と、
動作の障害となる物体を検知する複数のセンサと、
実行動作を選択し各部位に指令を送信するロボット動作指令部と、を備えた案内ロボットにおいて、
前記ロボット動作指令部は、前記複数のセンサのうちいずれかのセンサにより前記物体との距離情報を取得し、前記距離情報に基づいて、前記記憶部の前記複数の動作候補から前記実行動作を選択し、
前記複数の動作候補には、優先順位が設けられ、
前記複数の動作候補は、移動を含む動作候補、腕部を用いる動作候補及び音声を用いる動作候補を含み、
前記優先順位は、前記移動を含む動作候補、前記腕部を用いる動作候補、前記音声を用いる動作候補の順であることを特徴とする案内ロボット。
a storage unit storing a plurality of motion candidates;
a plurality of sensors for detecting objects that impede movement;
A robot motion command unit that selects a motion to be executed and transmits a command to each part,
The robot motion command unit acquires distance information from the object by one of the plurality of sensors, and selects the execution motion from the plurality of motion candidates in the storage unit based on the distance information. death,
Priority is provided to the plurality of operation candidates,
The plurality of motion candidates include a motion candidate including movement, a motion candidate using an arm, and a motion candidate using voice;
The guidance robot , wherein the priority order is the motion candidate including the movement, the motion candidate using the arm, and the motion candidate using voice .
前記ロボット動作指令部は、前記実行動作の選択の際、前記物体に接触する動作を除外する、請求項1記載の案内ロボット。 2. The guide robot according to claim 1, wherein said robot motion command unit excludes a motion of contacting said object when selecting said execution motion. 前記複数の動作候補は、一つの動作目的に対して設定されているものである、請求項1記載の案内ロボット。 2. The guide robot according to claim 1, wherein said plurality of motion candidates are set for one motion purpose. 前記複数のセンサのうち有効とするセンサを決定するセンサ決定部を更に備えた、請求項1記載の案内ロボット。 2. The guide robot according to claim 1, further comprising a sensor determination unit that determines which of said plurality of sensors to be valid. 頭部と、胴部と、前記腕部と、膝部を含む脚部と、を有し、
前記複数のセンサは、少なくとも前記胴部及び前記脚部に設けられている、請求項1記載の案内ロボット。
having a head, a torso, the arms, and legs including knees;
2. The guide robot according to claim 1, wherein said plurality of sensors are provided on at least said torso and said legs.
JP2019111956A 2019-06-17 2019-06-17 Guide robot Active JP7174673B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019111956A JP7174673B2 (en) 2019-06-17 2019-06-17 Guide robot
CN202010369712.6A CN112092017A (en) 2019-06-17 2020-04-28 Guiding robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019111956A JP7174673B2 (en) 2019-06-17 2019-06-17 Guide robot

Publications (2)

Publication Number Publication Date
JP2020203339A JP2020203339A (en) 2020-12-24
JP7174673B2 true JP7174673B2 (en) 2022-11-17

Family

ID=73750418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019111956A Active JP7174673B2 (en) 2019-06-17 2019-06-17 Guide robot

Country Status (2)

Country Link
JP (1) JP7174673B2 (en)
CN (1) CN112092017A (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005335001A (en) 2004-05-26 2005-12-08 Sony Corp Robot control device and method, recording medium, and program
WO2006043396A1 (en) 2004-10-19 2006-04-27 Matsushita Electric Industrial Co., Ltd. Robot apparatus
JP2007118129A (en) 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2007160440A (en) 2005-12-12 2007-06-28 Honda Motor Co Ltd Control device of legged mobile robot
JP2008213082A (en) 2007-03-02 2008-09-18 Sky Kk Barker robot, barker robot control method and control program
JP2008279529A (en) 2007-05-09 2008-11-20 Honda Motor Co Ltd Moving type robot
JP2011079103A (en) 2009-10-08 2011-04-21 Fujitsu Ltd Method and program for controlling interference electromagnetic wave, and robot
JP2011224737A (en) 2010-04-21 2011-11-10 Toyota Motor Corp Guide robot, guide method, and program for controlling guide
JP2012111011A (en) 2010-11-26 2012-06-14 Advanced Telecommunication Research Institute International Mobile robot

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005335001A (en) 2004-05-26 2005-12-08 Sony Corp Robot control device and method, recording medium, and program
WO2006043396A1 (en) 2004-10-19 2006-04-27 Matsushita Electric Industrial Co., Ltd. Robot apparatus
JP2007118129A (en) 2005-10-27 2007-05-17 Advanced Telecommunication Research Institute International Communication robot and caution control system using the same
JP2007160440A (en) 2005-12-12 2007-06-28 Honda Motor Co Ltd Control device of legged mobile robot
JP2008213082A (en) 2007-03-02 2008-09-18 Sky Kk Barker robot, barker robot control method and control program
JP2008279529A (en) 2007-05-09 2008-11-20 Honda Motor Co Ltd Moving type robot
JP2011079103A (en) 2009-10-08 2011-04-21 Fujitsu Ltd Method and program for controlling interference electromagnetic wave, and robot
JP2011224737A (en) 2010-04-21 2011-11-10 Toyota Motor Corp Guide robot, guide method, and program for controlling guide
JP2012111011A (en) 2010-11-26 2012-06-14 Advanced Telecommunication Research Institute International Mobile robot

Also Published As

Publication number Publication date
CN112092017A (en) 2020-12-18
JP2020203339A (en) 2020-12-24

Similar Documents

Publication Publication Date Title
JP5768273B2 (en) A robot that predicts a pedestrian's trajectory and determines its avoidance behavior
JP5324286B2 (en) Network robot system, robot control apparatus, robot control method, and robot control program
US8180486B2 (en) Mobile robot and controller for same
JP5735102B2 (en) Mobile human interface robot and method of operating a mobile human interface robot
JP4849244B2 (en) Mobile robot and moving speed estimation method
JP5747191B2 (en) Mobile remote control system and control program therefor
JP5142137B2 (en) Remote controller
US9662788B2 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP3675386B2 (en) Autonomous mobile device and autonomous mobile device operation system
US20210346557A1 (en) Robotic social interaction
JP4126291B2 (en) Robot control program updating method and system
US20140297066A1 (en) Remote control system
JP2012236244A (en) Robot device, method of controlling the same, and program for controlling the same
JP2007118129A (en) Communication robot and caution control system using the same
JP2007196300A (en) Robot control system
JP2019198907A (en) Robot system
JP2011224679A (en) Reaction robot, reaction control method, and reaction control program
JP7174673B2 (en) Guide robot
JP2006231447A (en) Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
JP2015066625A (en) Attention object estimation system, robot, and control program
JP2005222560A (en) Autonomous moving unit and autonomous moving unit operation system
JP7309371B2 (en) robot control system
JP3931906B2 (en) Autonomous mobile device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221019

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221107

R150 Certificate of patent or registration of utility model

Ref document number: 7174673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150