JP2009113190A - Autonomous working robot and method of controlling operation of autonomous working robot - Google Patents

Autonomous working robot and method of controlling operation of autonomous working robot Download PDF

Info

Publication number
JP2009113190A
JP2009113190A JP2007292443A JP2007292443A JP2009113190A JP 2009113190 A JP2009113190 A JP 2009113190A JP 2007292443 A JP2007292443 A JP 2007292443A JP 2007292443 A JP2007292443 A JP 2007292443A JP 2009113190 A JP2009113190 A JP 2009113190A
Authority
JP
Japan
Prior art keywords
obstacle
unit
robot
output
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007292443A
Other languages
Japanese (ja)
Inventor
敦 ▲吉▼見
Atsushi Yoshimi
Minoru Yamauchi
実 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007292443A priority Critical patent/JP2009113190A/en
Publication of JP2009113190A publication Critical patent/JP2009113190A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an autonomous working robot enabling a person therearound to easily determine what is the obstacle detected by the robot. <P>SOLUTION: This autonomous working robot comprises an environmental information acquiring part for acquiring peripheral environmental information, a control part for controlling the autonomous operation according to the environmental information acquired by the environmental information acquiring part, and an operation part the operation of which is controlled by the control part. The autonomous working robot further comprises an obstacle recognition part for detecting objects present around the robot according to the acquired environmental information and recognizing an object, among the detected objects, which affects the operation part to normally operate the operation part, and an output part for visually outputting obstacle specifying information for specifying the obstacle recognized by the obstacle recognizing part to the outside. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、自律的に動作を行う自律動作型ロボットおよび自律動作型ロボットの動作制御方法に関する。   The present invention relates to an autonomous motion robot that autonomously operates and an operation control method for the autonomous motion robot.

近年、建物内部や屋外の広場などといった移動領域内において、周囲の環境に基づいて、移動やゼスチャーなどの自律的な動作を行う、人間と共生する自律動作型のロボットが開発されつつある。このようなロボットは、工場内に設置され特定の動作を行うような産業型ロボットとは異なり、その周囲に安全柵を設けて周囲の人間や物体との距離を確保する、といった処置をとることができない。そのため、ロボットに対して、自律動作を行う際に周囲の人間や物体に対する接触を避けるような制御を行わせる必要がある。   In recent years, autonomous robots coexisting with human beings have been developed that perform autonomous movement such as movement and gesture based on the surrounding environment in a moving area such as an inside of a building or an open space. Unlike industrial robots that are installed in factories and perform specific actions, such robots must be provided with a safety fence around them to ensure distance from surrounding people and objects. I can't. Therefore, it is necessary to cause the robot to perform control so as to avoid contact with surrounding humans and objects when performing autonomous operation.

しかしながら、ロボットが周囲の環境を認識した際にはその動作に影響するような障害物がなくても、実際に動作を行う際に、ロボットの動作範囲内に障害物が接近してくる場合がある。そのため、自律動作を行うロボットにおいては、その動作を継続する場合に確実かつ安全に自律動作を行うことが難しい。   However, when the robot recognizes the surrounding environment, even if there are no obstacles that affect its operation, the obstacle may approach the robot's movement range when actually performing the operation. is there. For this reason, it is difficult for a robot that performs an autonomous operation to reliably and safely perform an autonomous operation when the operation is continued.

そこで、例えば特許文献1においては、ロボットに搭載したプロジェクタにより、移動する平面上において危険情報を投影し、外部の人間に周囲の危険な情報を伝達するように構成したロボットが提案されている。また、特許文献2に記載されたロボットは、ロボットに搭載したプロジェクタにより、移動を予定する移動経路の情報を投影することで、周囲の人間がロボットの移動経路を視覚的に認識できるようにしている。これらのロボットでは、ロボットから発せられた視覚的な情報によって、周囲の人間にロボットの行動を知らしめることで、注意を促すことができる。   Therefore, for example, Patent Document 1 proposes a robot configured to project dangerous information on a moving plane by a projector mounted on the robot and to transmit surrounding dangerous information to an external person. In addition, the robot described in Patent Document 2 projects information on a movement path scheduled to move by a projector mounted on the robot so that surrounding humans can visually recognize the movement path of the robot. Yes. In these robots, attention can be urged by notifying surrounding humans of the behavior of the robot by visual information emitted from the robot.

一方、特許文献3では、ロボットが動作を行う動作空間内と、周囲の人間がロボットに対して接近するように行動する行動空間とが交錯する場合に、ロボットに接近する人間の行動を妨げる行動をロボットが行う旨が開示されている。   On the other hand, in Patent Document 3, when an action space in which a robot operates and an action space in which surrounding people act so as to approach the robot intersect, an action that hinders the action of a person approaching the robot. It is disclosed that the robot performs this.

また、特許文献4に記載の技術では、移動型ロボット(搬送用台車)において、周囲に存在する障害物を検知するスキャン装置を設け、障害物を検知すると警告等を点灯するとともに、警報を鳴らすような技術が開示されている。
特開2007−102488号公報 特再表2005−15466号公報 特許第3927994号公報 特開2006−323435号公報
In the technique described in Patent Document 4, a scanning device that detects obstacles around the mobile robot (carrying carriage) is provided. When an obstacle is detected, a warning or the like is turned on and an alarm is sounded. Such a technique is disclosed.
JP 2007-102488 A Japanese National Patent Publication No. 2005-15466 Japanese Patent No. 3927994 JP 2006-323435 A

しかしながら、これらのいずれのロボットにおいても、ロボットが障害物となる物体を認識したことを周囲の人間が確認できるものの、ロボットの認識した障害物が何であるかを知ることができない。そのため、周囲の人間がロボットの次の動作を予測することが難しく、人間側がロボットの次の動作に対してどのように行動をすればよいかを判断することが困難となる場合がある。   However, in any of these robots, although surrounding humans can confirm that the robot has recognized an obstacle object, it is impossible to know what the obstacle the robot has recognized. Therefore, it is difficult for surrounding humans to predict the next motion of the robot, and it may be difficult for the human side to determine how to act on the next motion of the robot.

本発明は、このような問題を解決するためになされたものであり、周囲の人間がロボットの認識した障害物が何であるかを容易に判断可能である自律動作型ロボットを提供することを目的とするものである。   The present invention has been made to solve such a problem, and an object of the present invention is to provide an autonomously-operated robot in which surrounding humans can easily determine what an obstacle recognized by the robot is. It is what.

本発明にかかる自律動作型ロボットは、周囲の環境情報を取得する環境情報取得部と、前記環境情報取得部で取得した環境情報に基づいて自律動作を制御する制御部と、前記制御部により動作を制御される動作部と、を備えるとともに、取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部を正常に動作させる際に影響を及ぼす物体を障害物と認識する障害物認識部と、前記障害物認識部により認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する出力部と、を備えることを特徴とすることを特徴としている。   An autonomous motion robot according to the present invention is operated by an environment information acquisition unit that acquires surrounding environment information, a control unit that controls autonomous operation based on the environment information acquired by the environment information acquisition unit, and the control unit An obstacle that recognizes an object that affects the normal operation of the operation part as an obstacle among objects existing around the environment based on the acquired environmental information. It is characterized by comprising an object recognizing unit and an output unit that visually outputs obstacle identifying information for identifying an obstacle recognized by the obstacle recognizing unit to the outside.

このような自律動作型ロボットは、障害物認識部により認識した障害物を特定するように、外部に視覚的に情報を出力するため、ロボットの周囲に存在する人間が、ロボットの認識した障害物が何であるかを容易に判断することが可能となる。   Since such an autonomously operating robot visually outputs information to the outside so as to identify the obstacle recognized by the obstacle recognizing unit, humans around the robot can recognize obstacles recognized by the robot. It is possible to easily determine what is.

また、このような自律動作型ロボットにおいては、前記動作部の動作範囲を含む所定の安全領域を特定し、該安全領域内に存在する物体を障害物と認識するように構成してもよい。このようにすると、ロボットがその周囲に位置する物体を、障害物であるか否かを容易に認識することができる。   In addition, such an autonomous movement type robot may be configured to identify a predetermined safety area including the movement range of the movement unit and recognize an object existing in the safety area as an obstacle. In this way, it is possible to easily recognize whether or not an object located around the robot is an obstacle.

さらに、このような自律動作型ロボットが動作を行う場合に、前記制御部が、障害物認識部により障害物が認識された際に、動作部の動作を一時的に停止するようにすることが好ましい。このように、動作範囲を含む安全領域内に障害物が存在する場合に動作を一時的に停止することで、ロボットの動作部を障害物と接触させることがなくなり、より高い安全性が保たれる。   Further, when such an autonomously operating robot performs an operation, the control unit may temporarily stop the operation of the operation unit when an obstacle is recognized by the obstacle recognition unit. preferable. As described above, when an obstacle exists in the safety area including the operation range, the operation of the robot is not brought into contact with the obstacle by temporarily stopping the operation, and higher safety is maintained. It is.

また、このような自律動作型ロボットは、前記認識した障害物が移動するか否かを判別する判別部をさらに備えるように構成してもよい。このような判別部を備えることによって、ロボットの周囲に存在する物体が、人間などの移動物か、静止物であるかを簡単に判別することができるため、障害物の種類に応じた行動を取りやすくなるという効果が得られる。   In addition, such an autonomously operating robot may further include a determination unit that determines whether or not the recognized obstacle moves. By providing such a discriminating unit, it is possible to easily discriminate whether an object existing around the robot is a moving object such as a human being or a stationary object, so that an action corresponding to the type of obstacle is performed. The effect that it becomes easy to take is acquired.

また、このような自律動作型ロボットは、認識する障害物の種類ごとに対応する複数の特定情報を備えた特定情報データベースを予め記憶させるとともに、前記出力部によって、前記障害物認識部で認識した障害物に対応する特定情報を前記データベースから読み出し、出力するように構成してもよい。このようにすると、ロボットが認識した障害物に対して、適切な障害物特定情報を簡単に出力することが可能となる。   In addition, such an autonomous motion robot stores in advance a specific information database including a plurality of specific information corresponding to each type of obstacle to be recognized, and is recognized by the obstacle recognition unit by the output unit. The specific information corresponding to the obstacle may be read from the database and output. In this way, it is possible to easily output appropriate obstacle specifying information for the obstacle recognized by the robot.

また、出力部により前記障害物特定情報を出力する方向は、前記障害物認識部により認識された障害物の位置に基づいて定められるようにすると好適である。これにより、ロボットの周囲に存在する人間が、ロボットの動作に対する障害物をより明確に判断することが可能となる。この場合、出力部より障害物特定情報を出力する方向を、障害物の位置に向けた方向としてもよい。この場合、ロボットが障害物と認識した物体を明確に外部に示すことが可能となる。   The direction in which the obstacle identifying information is output by the output unit is preferably determined based on the position of the obstacle recognized by the obstacle recognition unit. Thereby, it is possible for a person existing around the robot to more clearly determine an obstacle to the operation of the robot. In this case, the direction in which the obstacle specifying information is output from the output unit may be a direction toward the position of the obstacle. In this case, the object recognized by the robot as an obstacle can be clearly shown to the outside.

また、前記出力部を複数設置し、ロボットの周囲全体に障害物特定情報を出力可能とするように構成することが好ましい。自律動作型ロボットをこのように構成することで、ロボットの取り得る全ての動作に対して障害となる障害物を特定して、その障害物の位置に対して障害物特定情報を出力することができる。   Further, it is preferable that a plurality of the output units are installed so that obstacle specifying information can be output to the entire periphery of the robot. By configuring the autonomous motion robot in this way, it is possible to identify obstacles that become obstacles to all the actions that the robot can take and output obstacle identification information for the positions of the obstacles. it can.

なお、このような出力部としては、出力する方向を変更可能に取り付けられたプロジェクタであることが好ましい。このような出力部は、重量が小さく、かつ高精度に障害物特定情報を出力することができるため、ロボットに取り付けて障害物特定情報を出力させる場合には好適である。   Note that such an output unit is preferably a projector attached so that the output direction can be changed. Since such an output unit is small in weight and can output obstacle specifying information with high accuracy, it is suitable for attaching obstacle specifying information to a robot.

また、出力部により出力する障害物特定情報としては、特に限定されるものではないが、文字情報であってもよい。この場合、出力する文字情報を予め定めておくことで、周囲に存在する人間に対して、次の動作を特定するように情報を提供することが可能となるとともに、周囲の状況に応じて出力する内容を容易に変更することもできる。   Further, the obstacle specifying information output by the output unit is not particularly limited, but may be character information. In this case, by predetermining the character information to be output, it becomes possible to provide information so that the next person can identify the next action and output it according to the surrounding situation. It is also possible to easily change the contents to be performed.

なお、このような自律動作型ロボットとしては、前記動作部がロボットの位置を変更する移動手段を含み、自律移動を可能とするものであると、より効果的である。   In addition, as such an autonomously moving robot, it is more effective that the moving unit includes a moving unit that changes the position of the robot and enables autonomous movement.

また、前記動作部が、関節により駆動し、その姿勢を変形可能な関節駆動部を含むものであってもよい。特に、人間と同様に手や足を備えたヒューマノイド型の外観を備えたロボットの場合、人間と共生するためにより好適である。   Further, the operation unit may include a joint drive unit that is driven by a joint and capable of changing its posture. In particular, in the case of a robot having a humanoid appearance with hands and feet like a human being, it is more suitable for coexisting with a human being.

また、このような自律動作型ロボットにおける関節駆動部を、多関節を有する腕部で構成した場合、前記出力部をこの腕部に取り付けてもよい。この場合、障害物特定情報を出力する方向を、この腕部の関節を駆動することで任意に変更することもできるため、少ない数の出力部でより広範囲に障害物特定情報を出力することが可能となる。   Moreover, when the joint drive part in such an autonomous operation type | mold robot is comprised with the arm part which has many joints, you may attach the said output part to this arm part. In this case, since the direction in which the obstacle specifying information is output can be arbitrarily changed by driving the joint of the arm portion, the obstacle specifying information can be output more widely with a small number of output units. It becomes possible.

また、本発明は自律動作型ロボットの動作制御方法をも提供するものであり、この動作制御方法は、動作部の動作範囲を特定する動作範囲特定ステップと、周囲の環境情報を取得する環境情報取得ステップと、前記環境情報取得ステップにおいて取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部の動作範囲に含まれる物体を障害物と認識する障害物認識ステップと、前記障害物認識ステップにより認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する障害物特定情報出力ステップと、を備えることを特徴としている。   The present invention also provides an operation control method for an autonomous robot, which includes an operation range specifying step for specifying an operation range of an operation unit, and environment information for acquiring surrounding environment information. An obstacle recognizing step of recognizing an object included in the operation range of the operation unit as an obstacle among objects existing around based on the environment information acquired in the environment information acquisition step; An obstacle specifying information output step for visually outputting to the outside obstacle specifying information for specifying the obstacle recognized by the obstacle recognition step.

このような自律動作型ロボットの動作制御方法によれば、外部に対して、認識した障害物を特定するように視覚的に障害物特定情報を出力することができるため、ロボットの周囲に存在する人間が、ロボットの認識した障害物が何であるかを容易に判断することが可能となる。   According to such an operation control method of an autonomous movement type robot, since obstacle identification information can be visually output to the outside so as to identify a recognized obstacle, it exists around the robot. It becomes possible for a human to easily determine what is the obstacle recognized by the robot.

以上、説明したように、本発明によると、周囲の人間がロボットの認識した障害物が何であるかを容易に判断可能である自律動作型ロボットおよび自律動作型ロボットの制御方法を提供することが可能となる。   As described above, according to the present invention, it is possible to provide an autonomous motion robot and a control method for the autonomous motion robot in which surrounding humans can easily determine what an obstacle recognized by the robot is. It becomes possible.

発明の実施の形態1.
以下に、図1から図7を参照しつつ本発明の実施の形態1にかかる自律動作型ロボットおよび自律動作型ロボットの制御方法について説明する。この実施の形態においては、自律動作型ロボット(以下、単にロボットという)として、車輪駆動により移動可能で、かつ、上半身がヒューマノイド型に構成されたロボットである例を用いて説明するものとする。
Embodiment 1 of the Invention
Hereinafter, an autonomous motion robot and an autonomous motion robot control method according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 7. In this embodiment, an autonomously operating robot (hereinafter simply referred to as a robot) will be described using an example of a robot that can be moved by wheel driving and that has a humanoid type upper body.

図1に示すロボット10は、その上半身がヒューマノイド型に構成されるロボットであり、頭部11、胴体部12、右腕部13、左腕部14、腰部15および移動部20を備えている。   A robot 10 shown in FIG. 1 is a robot whose upper body is configured as a humanoid type, and includes a head 11, a body 12, a right arm 13, a left arm 14, a waist 15, and a moving unit 20.

頭部11は、その前面左右においてカメラ111、112が設けられるとともに、その側面にアンテナ113を備えるほか、前面下方にスピーカ114を備えており、さらに外部からの音声を入力するためのマイク115,116を備えている。   The head 11 is provided with cameras 111 and 112 on the left and right sides of the front face, and is provided with an antenna 113 on the side face and a speaker 114 on the lower side of the front face, and a microphone 115 for inputting sound from the outside. 116 is provided.

頭部11に設けられたカメラ111、112は周囲の環境を視認するものであり、視認した結果得られる画像情報を後述する制御コンピュータに出力する。このようなカメラとしては、例えば赤外線レーザを3次元的に照射するレーザセンサなどを用いることができる。この場合、照射したレーザの反射状態から、物体の形状情報や、ロボット10からの距離情報を環境情報として取得することができる。   Cameras 111 and 112 provided in the head 11 visually recognize the surrounding environment, and output image information obtained as a result of the visual recognition to a control computer described later. As such a camera, for example, a laser sensor that three-dimensionally irradiates an infrared laser can be used. In this case, object shape information and distance information from the robot 10 can be acquired as environment information from the reflected state of the irradiated laser.

また、アンテナ113は、ロボット10の絶対位置を認識する位置信号を受信するともに、現在の自己位置や自己の状態を示す信号を送信するために用いられる。これらの情報の送受信は、図示しないロボット監視システムとの間で行われる。前述の演算処理部は、アンテナ113により受信した位置信号に基づいて、自身の絶対位置をリアルタイムで認識する。このようにして得られた位置信号も、前述のような経路計画や移動する方向を定める際に用いられる。   The antenna 113 is used to receive a position signal for recognizing the absolute position of the robot 10 and to transmit a signal indicating the current self position and the self state. Transmission / reception of these pieces of information is performed with a robot monitoring system (not shown). The aforementioned arithmetic processing unit recognizes its absolute position in real time based on the position signal received by the antenna 113. The position signal obtained in this way is also used when determining the route plan and the moving direction as described above.

また、マイク114は、制御コンピュータの記憶領域に含まれる音声データファイルから、適宜選択された音声データを外部に出力する。マイク114から出力される音声ファイルは、ガイドなどの内容の他、後述するように、障害物を認識した場合に、認識した物体の種類に応じて適宜選択され、障害物を特定するための音声に関する内容のものが用いられる。   Moreover, the microphone 114 outputs the audio data appropriately selected from the audio data file included in the storage area of the control computer. The audio file output from the microphone 114 is selected as appropriate according to the type of the recognized object when the obstacle is recognized, as described later, in addition to the content of the guide and the like, and the sound for identifying the obstacle. The content of is used.

胴体部12は、前述のように制御コンピュータ120を内蔵するとともに、ロボットの各構成要素に電力を供給するためのバッテリー(図示せず)を備えている。   The body 12 includes the control computer 120 as described above and includes a battery (not shown) for supplying power to each component of the robot.

そして、図2に示すように、胴体部12の内部には、カメラ111や112、およびマイク115,116から入力された画像信号や音声信号の内容を認識し、適切な動作を行うための制御部としての制御コンピュータ120と、このコンピュータ120を含む各構成要素を動作させるための電力供給を行うバッテリー(図示せず)が備えられている。この制御コンピュータ120に含まれる演算処理部120aは、前述したカメラ111,112から得られた情報に基づいて、外部の物体に関する情報、すなわち物体の形状やロボットまでの相対距離といった環境情報を算出する。なお、詳細は省略するが、このカメラにより障害物と認識した物体が、所定時間静止しているか否かに基づいて、人間であるか静止物であるか否かが制御コンピュータにより判断される。   As shown in FIG. 2, inside the body portion 12, the control for recognizing the contents of the image signal and the sound signal input from the cameras 111 and 112 and the microphones 115 and 116 and performing an appropriate operation is performed. A control computer 120 as a unit and a battery (not shown) for supplying power for operating each component including the computer 120 are provided. The arithmetic processing unit 120a included in the control computer 120 calculates information on an external object, that is, environmental information such as the shape of the object and the relative distance to the robot, based on the information obtained from the cameras 111 and 112 described above. . Although not described in detail, the control computer determines whether the object recognized as an obstacle by this camera is a human or a stationary object based on whether or not the object is stationary for a predetermined time.

また、右腕部13および左腕部14は、胴体部12の左右側面に取り付けられ、肘部、手首部、指部などの各所において図示しないモータ部により駆動される複数の関節部を備える。そして、これらの関節部の関節駆動量を制御コンピュータ120からの信号により変更することでその姿勢を変更し、物体把持、方向指示などの所望の動作を自律的に取ることができる。また、関節部により駆動される各腕部は、その形状が予め制御コンピュータに記憶されており、関節部の駆動により動作を行う際に、その動作により腕部が占める空間が演算処理部により計算されるものとする。すなわち、本実施形態においては、これらの腕部および前述の移動部が動作部を構成している。   Moreover, the right arm part 13 and the left arm part 14 are attached to the left and right side surfaces of the body part 12, and are provided with a plurality of joint parts driven by a motor part (not shown) at various points such as an elbow part, a wrist part, and a finger part. Then, by changing the joint drive amount of these joints by a signal from the control computer 120, the posture can be changed, and desired operations such as object gripping and direction indication can be taken autonomously. The shape of each arm driven by the joint is stored in the control computer in advance, and when the operation is performed by driving the joint, the space occupied by the arm by the operation is calculated by the arithmetic processing unit. Shall be. That is, in this embodiment, these arm parts and the above-mentioned moving part constitute an operating part.

腰部15は、移動部20の上方に固定されるとともに、胴体部12の底面に対してモータ等の駆動力によって回動可能に取り付けられ、移動部20と胴体部12との相対的な姿勢を変更可能としている。   The waist 15 is fixed above the moving unit 20 and is rotatably attached to the bottom surface of the body unit 12 by a driving force such as a motor. The relative position between the moving unit 20 and the body unit 12 is set. It can be changed.

また、移動部20は、図3に示すように、1対の対向する車輪21と、その前方にキャスタ22を備える対向2輪型の車両で構成されている。ロボット10は、これらの車輪21、キャスタ22とでその姿勢を水平に支持された状態で移動可能となっている。さらに、移動部20の内部には、車輪21をそれぞれ駆動するモータ23と、各車輪の回転数を検出するためのカウンタ24とが備えられている。このように構成された移動部20は、制御コンピュータにより、車輪21の駆動量をそれぞれ独立に制御され、直進や曲線移動(旋回)、後退、その場回転(両車輪の中点を中心とした旋回)などの移動動作を行うことができるとともに、移動速度や移動する方向が自律的に定められる。   As shown in FIG. 3, the moving unit 20 is composed of a pair of opposed wheels 21 and an opposed two-wheel vehicle including a caster 22 in front of the pair of wheels 21. The robot 10 can move with these wheels 21 and casters 22 supported horizontally. Furthermore, a motor 23 that drives the wheels 21 and a counter 24 for detecting the number of rotations of each wheel are provided inside the moving unit 20. The moving unit 20 configured as described above is controlled by the control computer independently of the driving amount of the wheel 21, and travels straight, moves in a curve (turns), moves backward, and rotates on the spot (centering on the middle point of both wheels). It is possible to perform a movement operation such as (turning) and to autonomously determine the moving speed and the moving direction.

さらに、図4に示すように、移動部20の前面、背面、および両側面には、障害物特定情報を視覚的に出力するための出力部としてのプロジェクタ26が各々取り付けられている。そして、これらのプロジェクタは、前記カメラ111,112により認識された物体が障害物と認識された場合に、その認識した障害物を外部に対して特定するように、複数種類の色または/および形状の光を照射する。照射される光としては、例えば赤色や黄色、緑色の光で円形状の照射領域を形成するようなもののほか、文字情報を描写するようなものが含まれる。また、図4に示すように、これらのプロジェクタの照射するエリアが、移動部20が接地している移動領域の周囲、すなわちロボット10の周囲全体に亘って障害物特定情報を出力可能となるように、その取り付け位置および照射領域が予め調整されている。   Further, as shown in FIG. 4, projectors 26 as output units for visually outputting obstacle specifying information are respectively attached to the front surface, the back surface, and both side surfaces of the moving unit 20. These projectors have a plurality of colors and / or shapes so as to identify the recognized obstacle to the outside when the object recognized by the cameras 111 and 112 is recognized as an obstacle. Irradiate the light. The light to be irradiated includes, for example, light that draws character information in addition to light that forms a circular irradiation region with red, yellow, and green light. In addition, as shown in FIG. 4, the area to be irradiated by these projectors can output obstacle specifying information over the periphery of the moving area where the moving unit 20 is grounded, that is, the entire periphery of the robot 10. In addition, the mounting position and irradiation area are adjusted in advance.

さらに、これらのプロジェクタは、図5に示すように、鉛直方向および水平方向について障害物特定情報を出力する方向を変化可能となるように、所定の軸を中心として回動自在に取り付けられている。そして、これらのプロジェクタは、前述の制御コンピュータからの信号により、その照射方向を適宜変更可能に構成されている。   Further, as shown in FIG. 5, these projectors are mounted so as to be rotatable about a predetermined axis so that the direction in which the obstacle specifying information is output in the vertical direction and the horizontal direction can be changed. . And these projectors are comprised so that the irradiation direction can be suitably changed with the signal from the above-mentioned control computer.

また、これらのプロジェクタにより照射される情報(障害物特定情報)は、予め制御コンピュータ内部に設けられた記憶領域120bに記憶されており、これらの情報を読み出して外部に出力(照射)される。この障害物特定情報については詳細を後述する。   Information (obstacle identification information) emitted by these projectors is stored in advance in a storage area 120b provided in the control computer, and the information is read and output (irradiated) to the outside. Details of the obstacle specifying information will be described later.

次に、胴体部12の内部に設けられた制御コンピュータ120について説明する。本実施形態に係る自律動作型のロボットにおいては、前述のプログラムを制御コンピュータ120に含まれる演算処理部120aにより読み出すことによって、腕部(右腕部13、左腕部14)や移動部20等の各構成が、所定の制御プログラムに従って駆動する。例えば、胴体部や腕部等に含まれる関節部を駆動するモータの駆動量を制御する制御信号を出力することで、これらの間接の関節駆動角度を決定し、胴体部や腕部の状態を所望の姿勢となるように制御する。   Next, the control computer 120 provided in the body part 12 will be described. In the autonomous operation type robot according to the present embodiment, each of the arm unit (the right arm unit 13 and the left arm unit 14), the moving unit 20 and the like is read by reading the above-described program by the arithmetic processing unit 120a included in the control computer 120. The configuration is driven according to a predetermined control program. For example, by outputting a control signal that controls the drive amount of a motor that drives a joint part included in the body part, arm part, etc., these indirect joint drive angles are determined, and the state of the body part or arm part is determined. Control to achieve a desired posture.

また、制御コンピュータ120においては、前述した記憶領域内において移動する領域における移動経路を決定するプログラムが記憶され、周囲の環境に応じて移動経路を適宜決定する。詳細については説明を省略するが、認識された外部の物体に関する情報に基づいて、移動する方向や経路計画、または取り得る動作を自律的に選択する。また、前述の記憶領域においては、動作部としての腕部や移動部が次の動作を行うためのプログラムや、認識する障害物の種類および障害物のロボットからの相対距離ごとに対応する特定情報からなる障害物特定情報データベース等も記憶されている。   Further, the control computer 120 stores a program for determining a movement route in an area that moves within the above-described storage area, and appropriately determines the movement route according to the surrounding environment. Although the description is omitted for details, a moving direction, a route plan, or an action that can be taken is autonomously selected based on information about the recognized external object. In the storage area described above, a program for the arm or moving unit as the operation unit to perform the next operation, the type of obstacle to be recognized, and specific information corresponding to each obstacle relative distance from the robot An obstacle specifying information database made up of and the like is also stored.

この障害物特定情報データベースは、例えば図6に示すように、ロボットの移動経路上に障害物が存在する場合、経路付近(移動経路から所定距離内)に存在する場合、移動経路上からは離れているが、腕部の動作範囲に含まれる場合について、異なる障害物特定情報を設定する。なお、この実施形態においては、認識した障害物が人間であるか静止物であるかによって出力する情報が異なる。   For example, as shown in FIG. 6, the obstacle specifying information database is separated from the moving route when there is an obstacle on the moving route of the robot, or when it is near the route (within a predetermined distance from the moving route). However, different obstacle specifying information is set for the case where it is included in the movement range of the arm. In this embodiment, the information to be output differs depending on whether the recognized obstacle is a human or a stationary object.

例えば移動経路上に障害物としての人間が存在する場合は、『道を空けてください』といった文字情報を照射する赤色の光を出力する。また、移動経路上からは外れているが、経路より所定距離内に人間が存在する場合は、『近くを通ります。ご注意ください』といった文字情報を、黄色の光を用いて出力する。また、移動経路上からは大きく離れているが、腕部の動作範囲に含まれる場所に人間が存在する場合は、『離れて下さい』といった文字情報を、赤色の光を用いて出力する。   For example, when there is a human being as an obstacle on the moving route, a red light that emits character information such as “please make a way” is output. In addition, if a person is within a predetermined distance from the route but is off the route, “Pass nearby. Please output the text information such as “Please Note” using yellow light. In addition, when a person is present at a place included in the movement range of the arm portion although it is far away from the moving route, character information such as “Please leave” is output using red light.

このように、障害物を人間と認識した場合は、その障害物特定情報は文字情報を含み、その位置に応じて情報を出力する際に用いる光を異ならせている。なお、この場合、出力する文字情報と同一または類似の内容の音声情報を、マイク114から出力するようにしてもよい。   As described above, when the obstacle is recognized as a human, the obstacle specifying information includes character information, and the light used when outputting the information differs according to the position. In this case, audio information having the same or similar content as the character information to be output may be output from the microphone 114.

また、障害物と認識した物体が静止物である場合は、その物体に対して略円形の光を照射する。この場合においても、図6に示すように、物体の位置がロボットの移動経路上にある場合は赤色の光、移動経路から所定距離内にある場合は黄色の光、移動経路から離れているものの、腕部の動作範囲に位置する場合は赤色の光、といったように、出力する光の色を異ならせるようにしてもよい。   When the object recognized as an obstacle is a stationary object, the object is irradiated with substantially circular light. Even in this case, as shown in FIG. 6, when the position of the object is on the movement path of the robot, the red light is used. When the object is within a predetermined distance from the movement path, the yellow light is used. Alternatively, the color of the output light may be made different, such as red light when located in the movement range of the arm.

この場合、情報を出力する方向は、認識した障害物の位置、または障害物の近傍とすることが好ましい。例えば、障害物として認識した物体が人間である場合は、出力する方向を人間の位置から少し離れた近傍(例えば足元付近)に文字情報が照射されるような位置に障害物特定情報を出力する。一方、障害物として認識した物体が静止物である場合は、その静止物に対して光を照射するように、その出力方向を定める。このようにすると、ロボットの周囲に位置する人間が、ロボットがどの物体を障害物として認識しているかを明確に知ることができる。   In this case, the direction in which information is output is preferably the position of the recognized obstacle or the vicinity of the obstacle. For example, when the object recognized as an obstacle is a human, the obstacle specifying information is output to a position where the character information is irradiated in the vicinity where the output direction is slightly away from the human position (for example, near the feet). . On the other hand, when the object recognized as an obstacle is a stationary object, the output direction is determined so that the stationary object is irradiated with light. In this way, a person located around the robot can clearly know which object the robot recognizes as an obstacle.

また、制御コンピュータ120は、カメラ111,112より確認された外部の物体が、ロボットの予想される動作範囲内に位置している場合に、これらの物体を障害物と認識し、動作部としての腕部や移動部の動作を暫定的に停止する。カメラ111,112により確認される物体とロボットとの相対位置は、物体とカメラとの相対位置(距離および方向)を三角測量の手法等を用いて算出することにより求められる。   In addition, when external objects confirmed by the cameras 111 and 112 are located within an expected motion range of the robot, the control computer 120 recognizes these objects as obstacles and serves as an operation unit. Temporarily stop the movement of the arm and moving unit. The relative position between the object and the robot confirmed by the cameras 111 and 112 is obtained by calculating the relative position (distance and direction) between the object and the camera using a triangulation method or the like.

このように、本実施形態においては、前記カメラ111,112および制御コンピュータ120により、本発明でいう環境認識部および障害物認識部が構成され、制御コンピュータおよびプロジェクタにより出力部が構成されている。さらに、制御コンピュータは、認識した障害物が移動するか否かを判別する判別部としても作用する。   As described above, in the present embodiment, the cameras 111 and 112 and the control computer 120 constitute an environment recognition unit and an obstacle recognition unit in the present invention, and an output unit is constituted by the control computer and the projector. Further, the control computer also functions as a determination unit that determines whether or not the recognized obstacle moves.

次に、このように構成された自律動作型のロボットが、認識した周囲の障害物を特定するための情報を外部に出力する手法について図7に示すフローチャートを用いて説明する。   Next, a method in which the autonomously operating robot configured as described above outputs information for identifying recognized obstacles to the outside will be described with reference to the flowchart shown in FIG.

まず、制御コンピュータ120によって、ロボットの動作範囲、すなわち腕部を動かすことにより腕部が通過する領域や、移動部によりロボット本体が通過する領域(動作範囲)を、ロボットを中心として三次元的に特定する(STEP101)。この動作範囲の特定は、微小な時間間隔で連続して行われる。   First, the operation range of the robot by the control computer 120, that is, the region through which the arm passes by moving the arm and the region through which the robot body passes through the moving unit (operation range) are three-dimensionally centered on the robot. Specify (STEP 101). The operation range is specified continuously at a minute time interval.

次に、カメラ111,112により、周囲に位置する物体の情報(環境情報)を取得し(STEP102)、それらの物体が前記特定した動作範囲内に存在するか否か、すなわち前記物体が障害物であるか否かを判定する(STEP103)。カメラにより情報が取得された周囲の物体が動作範囲内に存在しない場合は、特に新たな処理を行わず、動作を継続しつつSTEP101に戻って動作範囲の特定を連続して行う。   Next, information (environment information) of surrounding objects is acquired by the cameras 111 and 112 (STEP 102), and whether or not these objects exist within the specified operation range, that is, the objects are obstacles. It is determined whether or not (STEP 103). When a surrounding object whose information is acquired by the camera does not exist within the motion range, the process returns to STEP 101 and continues to specify the motion range without performing any new process.

一方、カメラが特定した動作範囲内に物体が存在する場合は、その物体を障害物とみなして一旦動作を停止し(STEP104)、その後に障害物と認識した物体が静止物か否かを判断する(STEP105)。障害物と認識した物体が静止物であるか否かは、停止したロボットに対して、その物体が相対的に所定時間移動するか否かなどの手法により判断する。   On the other hand, if an object exists within the motion range specified by the camera, the object is regarded as an obstacle and the operation is temporarily stopped (STEP 104), and then it is determined whether or not the object recognized as the obstacle is a stationary object. (STEP 105). Whether or not the object recognized as an obstacle is a stationary object is determined by a method such as whether or not the object moves for a predetermined time relative to the stopped robot.

障害物と認識された物体が静止物である場合は、その動作を停止したまま、障害物特定情報としての光を外部に対して照射する(STEP106)。このとき、光を照射する方向は、障害物の位置に応じて適宜選択し、認識した障害物のロボットに対する相対位置に基づいて定められる。そして、認識した障害物に対して光を照射し続けたまま、障害物を避けるための新たな経路を経路計画により探索し(STEP107)、新たな経路上を移動することで、認識した障害物がロボットの動作範囲内から外れるか否かを判断する(STEP108)。ロボットの動作範囲内から障害物が外れると判断された場合は、移動を含む動作を継続する(STEP109)。またロボットの動作範囲内に障害物が存在する場合は、STEP107に戻って再度新たな経路を探索する。   When the object recognized as the obstacle is a stationary object, the light as the obstacle specifying information is irradiated to the outside while the operation is stopped (STEP 106). At this time, the light irradiation direction is appropriately selected according to the position of the obstacle, and is determined based on the relative position of the recognized obstacle to the robot. Then, while continuing to irradiate light on the recognized obstacle, a new route for avoiding the obstacle is searched by the route plan (STEP 107), and the recognized obstacle is moved by moving on the new route. Is determined to be out of the movement range of the robot (STEP 108). When it is determined that the obstacle is out of the movement range of the robot, the operation including the movement is continued (STEP 109). If there is an obstacle in the movement range of the robot, the process returns to STEP 107 to search for a new route again.

その後、移動を含む動作を終了するか否かを判断し(STEP110)、終了しない場合はSTEP101に戻って動作範囲の特定を連続して行うとともに、終了する場合は所定の動作終了処理(STEP111)を行った後にその動作を完全に停止する。   Thereafter, it is determined whether or not the operation including the movement is to be ended (STEP 110). If the operation is not ended, the operation returns to STEP 101 to continuously specify the operation range, and if the operation is to be ended, a predetermined operation end process (STEP 111). After that, the operation is completely stopped.

一方、障害物と認識した物体が静止物でない場合は、障害物と認識した物体が人間であると判断し、障害物特定情報としての文字情報を照射する(STEP206)。このとき、文字情報に併せて、障害物が静止物である場合と同様に、円形の光を照射するようにしてもよい。そして、文字情報を所定時間(例えば数秒間)照射後、ロボットの動作範囲内から人間がいなくなったか否かを判断し(STEP207)、人間がまだ存在する場合は、動作を停止し続けたまま、STEP206に戻って文字情報を照射し続ける。なお、文字情報を照射する際に、さらに音声情報を出力するなどの処理を加えてもよい。また、STEP207において人間がロボットの動作範囲に存在しなくなったと判断すると、STEP109に進み、動作を継続する。   On the other hand, if the object recognized as an obstacle is not a stationary object, it is determined that the object recognized as an obstacle is a human being, and character information serving as obstacle specifying information is emitted (STEP 206). At this time, circular light may be irradiated together with the character information as in the case where the obstacle is a stationary object. Then, after irradiating the character information for a predetermined time (for example, several seconds), it is determined whether or not the human is gone from within the movement range of the robot (STEP 207). It returns to STEP206 and continues irradiating character information. In addition, when irradiating character information, you may add the process of outputting audio | voice information further. If it is determined in STEP 207 that the human is no longer in the robot motion range, the process proceeds to STEP 109 and the operation is continued.

このように、本実施形態に係る自律動作型ロボットおよび自律動作型ロボットの動作制御方法によれば、認識した周囲の障害物を特定するための情報を、認識した障害物の種類に応じて外部に出力することで、周囲の人間にロボットが障害物と認識している物体を伝達することができる。その結果、ロボットが何故停止や経路変更などを行っているかを、周囲の人間が簡単に把握し、障害物となる静止物を除去するなどの作業を行ったり、障害物と認識された人間が場所を移動するなどの処置をとることが可能となる。   As described above, according to the autonomous operation robot and the operation control method of the autonomous operation robot according to the present embodiment, the information for identifying the recognized surrounding obstacles is externally determined according to the types of the recognized obstacles. Can output an object that the robot recognizes as an obstacle to surrounding humans. As a result, the surrounding humans can easily understand why the robot is stopping or changing the route, and perform tasks such as removing stationary objects that become obstacles. It is possible to take measures such as moving the place.

なお、前述の実施形態においては、障害物と認識された物体が静止物でない(人間である)と判断された後に、その障害物がロボットの動作範囲から外れるまで文字情報を照射し続けているが、本発明はこれに限られるものではない。例えば、所定時間文字情報を照射し続けた後、障害物と認識された物体が移動しない場合は、この物体は静止物であると判断し、円形の光を照射するなどの静止物に対する障害物特定情報を出力するフローにより処理を行ってもよい。   In the above-described embodiment, after it is determined that an object recognized as an obstacle is not a stationary object (a person), the character information is continuously irradiated until the obstacle is out of the movement range of the robot. However, the present invention is not limited to this. For example, if an object that is recognized as an obstacle does not move after being irradiated with character information for a predetermined time, it is determined that the object is a stationary object, and an obstacle to a stationary object such as irradiating circular light. Processing may be performed by a flow for outputting specific information.

また、前述の実施形態においては、認識する障害物の種類として、静止物か人間かの判断のみを行っているが、これに代えて、より詳細な障害物の種類を識別するようにしてもよい。例えば、制御コンピュータ内部に予め種々の障害物の形状データを記憶させ、ロボットに備えられたカメラにより認識した外部の物体の形状と、記憶した形状データとをマッチングさせるなどの手法を用いることによって、より詳細な障害物の種類を識別させることができる。   In the above-described embodiment, only the determination of whether the object is a stationary object or a human is performed as the type of obstacle to be recognized. Instead, a more detailed type of obstacle may be identified. Good. For example, by storing the shape data of various obstacles in the control computer in advance and using a method such as matching the shape of the external object recognized by the camera provided in the robot with the stored shape data, More detailed types of obstacles can be identified.

また、前述の実施形態においては、所定時間の間静止しなかった物体を人間と判断しているが、これに代えて、カメラなどの撮像手段により認識する物体の特徴点抽出を行うことで、その物体が人間であるか否かの人物認識を行ってもよい。   Further, in the above-described embodiment, an object that has not been stationary for a predetermined time is determined as a human, but instead of this, by performing feature point extraction of an object recognized by an imaging unit such as a camera, Person recognition may be performed to determine whether the object is a human.

さらに、前述の実施形態においては、ロボットの移動部に出力部としてのプロジェクタを設けているが、これに代えてロボットの胴体部や他の箇所に出力部を設けてもよい。この場合、出力部の回動範囲をできるだけ広く取り得る箇所を選択することで、少ない台数のプロジェクタで障害物特定情報を広範囲に出力することが可能となる。例えば、前述の実施形態のようなヒューマノイド型のロボットの場合、出力部を動作部としての腕部先端(手首部など)に設けると、腕部の関節駆動量を調整することで、より広範囲に障害物特定情報を出力することが可能となる。   Further, in the above-described embodiment, the projector as the output unit is provided in the moving unit of the robot. However, instead of this, an output unit may be provided in the body of the robot or in other places. In this case, by selecting a location where the rotation range of the output unit can be as wide as possible, it is possible to output obstacle identification information over a wide range with a small number of projectors. For example, in the case of a humanoid robot as in the above-described embodiment, if the output unit is provided at the tip of the arm unit (such as the wrist unit) as the operation unit, the joint drive amount of the arm unit can be adjusted to achieve a wider range. Obstacle identification information can be output.

また、外部に出力する障害物特定情報として、前述の実施形態においては、光(文字情報および略円形の光)を用いた例を開示しているが、本発明はこれに限られるものではない。例えば、これらの光による照射に加えて、音声情報を出力したり、腕部などの動作部を用いて認識した障害物を指し示すなどの動作を行うことで、障害物を特定することも可能である。   Further, in the above-described embodiment, light (character information and substantially circular light) is disclosed as the obstacle specifying information output to the outside, but the present invention is not limited to this. . For example, in addition to irradiation with these lights, it is also possible to specify an obstacle by outputting voice information or pointing an obstacle recognized using an action part such as an arm part. is there.

また、前述の実施形態においては、このような自律動作型ロボットとして、自律移動を行うタイプのロボットを用いて説明しているが、このような自律移動を行うことができるロボットを、建物内部を案内する案内ロボットや、家庭内に用いる家庭用ロボットなどとして利用する際に、本発明は有用となる。また、本発明は、前述のように自律的な移動を行うようなロボットに限られるものではなく、移動を行わず、手足の動作のみを行うものであってもよい。このようなロボットとして、例えば自律的な動作と外部からの制御による動作とをともに含むような動作型ロボットであってもよい。すなわち、外部からの指示によって移動する方向等が決定される一方、他の動作部のみが自律的に制御されるようなものであってもよい。また、このようなロボットの外観としては、必ずしもヒューマノイド型を備えていなくともよい。   In the above-described embodiment, a robot that performs autonomous movement is described as such an autonomous movement type robot. However, a robot that can perform such autonomous movement is installed inside a building. The present invention is useful when it is used as a guidance robot for guiding or a home robot used in the home. Further, the present invention is not limited to a robot that performs autonomous movement as described above, and may perform only movement of a limb without moving. Such a robot may be, for example, an operation type robot that includes both an autonomous operation and an operation by external control. That is, the moving direction or the like may be determined by an instruction from the outside, while only other operation units may be autonomously controlled. Further, the appearance of such a robot does not necessarily have a humanoid type.

以上、説明したように、本発明に係る自律動作型ロボットおよび自律動作型ロボットの動作制御方法よると、ロボットの認識した障害物が何であるかを、動作を行うロボットの周囲に位置する人間が容易に判断することが可能となる。   As described above, according to the autonomous motion robot and the motion control method of the autonomous motion robot according to the present invention, what is the obstacle recognized by the robot is determined by a person located around the robot performing the motion. Judgment can be easily made.

第1の実施の形態に係る自律動作型のロボットの外観を示す概略図である。It is the schematic which shows the external appearance of the autonomous operation type robot which concerns on 1st Embodiment. 図1に示すロボットの胴体部に設けられた制御コンピュータが、頭部に設けられたカメラやマイクにより信号を受け、動作部を制御する様子を示すブロック図である。It is a block diagram which shows a mode that the control computer provided in the trunk | drum of the robot shown in FIG. 1 receives a signal with the camera and microphone which were provided in the head, and controls an operation | movement part. 図1に示すロボットの移動部の内部構造を概略的に示すブロック図である。It is a block diagram which shows roughly the internal structure of the moving part of the robot shown in FIG. 図1に示すロボットの移動部にプロジェクタが設けられた様子を示す概略図である。It is the schematic which shows a mode that the projector was provided in the moving part of the robot shown in FIG. 図4に示すプロジェクタが、鉛直方向および水平方向について方向を変化可能である様子を説明する概略図である。FIG. 5 is a schematic diagram illustrating how the projector shown in FIG. 4 can change directions in the vertical direction and the horizontal direction. 本実施形態における、障害物特定情報データベースの内容の一例を示す図である。It is a figure which shows an example of the content of the obstacle specific information database in this embodiment. 図1に示す自律動作型のロボットが、認識した周囲の障害物を特定するための情報を外部に出力する手順を示すフローチャートである。It is a flowchart which shows the procedure in which the autonomous operation | movement type robot shown in FIG. 1 outputs the information for pinpointing the recognized surrounding obstacle outside.

符号の説明Explanation of symbols

10・・・ロボット(自律動作型ロボット)
11・・・頭部
111,112・・・カメラ(環境認識部)
114・・・スピーカ(出力部)
115,116・・・マイク
12・・・胴体部
120・・・制御コンピュータ(制御部)
13・・・右腕部(動作部)
14・・・左腕部(動作部)
15・・・腰部
20・・・移動部(動作部)
21・・・車輪
22・・・キャスタ
23・・・モータ
26・・・プロジェクタ(出力部)
10 ... Robot (autonomous robot)
11 ... heads 111,112 ... camera (environment recognition unit)
114 ... Speaker (output unit)
115, 116 ... Microphone 12 ... Body 120 ... Control computer (control unit)
13 ... Right arm (operation part)
14 ... Left arm (operation part)
15 ... waist 20 ... moving part (operation part)
21 ... Wheel 22 ... Caster 23 ... Motor 26 ... Projector (output unit)

Claims (14)

周囲の環境情報を取得する環境情報取得部と、
前記環境情報取得部で取得した環境情報に基づいて自律動作を制御する制御部と、
前記制御部により動作を制御される動作部と、を備える自律動作型ロボットであって、
取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部を正常に動作させる際に影響を及ぼす物体を障害物と認識する障害物認識部と、
前記障害物認識部により認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する出力部と、を備えることを特徴とする自律動作型ロボット。
An environmental information acquisition unit for acquiring surrounding environmental information;
A control unit that controls autonomous operation based on environmental information acquired by the environmental information acquisition unit;
An autonomous operation robot comprising an operation unit whose operation is controlled by the control unit,
An obstacle recognizing unit that recognizes an object that affects the normal operation of the operating unit among objects existing around the environment based on the acquired environment information; and
An autonomous motion robot, comprising: an output unit that visually outputs to the outside obstacle specifying information for specifying an obstacle recognized by the obstacle recognition unit.
前記障害物認識部が、前記動作部の動作範囲を含む所定の安全領域を特定し、該安全領域内に存在する物体を障害物と認識することを特徴とする請求項1に記載の自律動作型ロボット。   The autonomous operation according to claim 1, wherein the obstacle recognition unit identifies a predetermined safety region including an operation range of the operation unit, and recognizes an object existing in the safety region as an obstacle. Type robot. 前記制御部が、前記障害物認識部により障害物が認識された際に、動作部の動作を一時的に停止することを特徴とする請求項1または2に記載の自律動作型ロボット。   The autonomous operation robot according to claim 1 or 2, wherein the control unit temporarily stops the operation of the operation unit when an obstacle is recognized by the obstacle recognition unit. 前記認識した障害物が移動するか否かを判別する判別部をさらに備えていることを特徴とする請求項1から3のいずれかに記載の自律動作型ロボット。   The autonomous operation robot according to claim 1, further comprising a determination unit that determines whether or not the recognized obstacle moves. 認識する障害物の種類ごとに対応する複数の特定情報を備えた特定情報データベースを予め記憶するとともに、前記出力部が、前記障害物認識部で認識した障害物に対応する特定情報を前記データベースから読み出し、出力することを特徴することを特徴とする請求項1から4のいずれかに記載の自律動作型ロボット。   A specific information database including a plurality of specific information corresponding to each type of obstacle to be recognized is stored in advance, and the output unit receives specific information corresponding to the obstacle recognized by the obstacle recognition unit from the database. 5. The autonomous operation type robot according to claim 1, wherein the robot performs reading and output. 前記障害物認識部により認識された障害物の位置に基づいて、前記障害物特定情報を出力する方向を定めることを特徴とする請求項1から5のいずれかに記載の自律動作型ロボット。   6. The autonomous motion robot according to claim 1, wherein a direction in which the obstacle specifying information is output is determined based on the position of the obstacle recognized by the obstacle recognition unit. 前記認識された障害物の位置に向けて前記障害物特定情報を出力することを特徴とする請求項6に記載の自律動作型ロボット。   The autonomously operating robot according to claim 6, wherein the obstacle specifying information is output toward a position of the recognized obstacle. 前記出力部が、ロボットの周囲全体に亘って前記障害物特定情報を出力できるように、複数配置されていることを特徴とする請求項1から7のいずれかに記載の自律動作型ロボット。   The autonomous operation robot according to any one of claims 1 to 7, wherein a plurality of the output units are arranged so that the obstacle specifying information can be output over the entire periphery of the robot. 前記出力部が、出力する方向を変更可能に取り付けられたプロジェクタであることを特徴とする請求項1から8のいずれかに記載の自律動作型ロボット。   The autonomous operation robot according to any one of claims 1 to 8, wherein the output unit is a projector attached so as to be capable of changing the output direction. 前記出力部により出力する障害物特定情報が、文字情報であることを特徴とする請求項1から9のいずれかに記載の自律動作型ロボット。   The autonomously operating robot according to claim 1, wherein the obstacle specifying information output by the output unit is character information. 前記動作部が、ロボットの位置を変更する移動手段を含むことを特徴とする請求項1から10のいずれかに記載の自律動作型ロボット。   The autonomous operation robot according to claim 1, wherein the operation unit includes a moving unit that changes a position of the robot. 前記動作部が、関節により駆動し、その姿勢を変形可能な関節駆動部を含むことを特徴とする請求項1から11のいずれかに記載の自律動作型ロボット。   The autonomous operation robot according to claim 1, wherein the operation unit includes a joint drive unit that is driven by a joint and is capable of deforming its posture. 前記関節駆動部が、多関節を有する腕部であり、前記出力部が該腕部に取り付けられていることを特徴とする請求項12に記載の自律動作型ロボット。   The autonomous motion robot according to claim 12, wherein the joint driving unit is an arm unit having a multi-joint, and the output unit is attached to the arm unit. 動作部の動作範囲を特定する動作範囲特定ステップと、
周囲の環境情報を取得する環境情報取得ステップと、
前記環境情報取得ステップにおいて取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部の動作範囲に含まれる物体を障害物と認識する障害物認識ステップと、
前記障害物認識ステップにより認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する障害物特定情報出力ステップと、を備えることを特徴とする自律動作型ロボットの動作制御方法。
An operation range specifying step for specifying an operation range of the operation unit;
An environmental information acquisition step for acquiring surrounding environmental information;
An obstacle recognition step of recognizing an object included in the operation range of the operation unit as an obstacle among objects existing around based on the environment information acquired in the environment information acquisition step;
And an obstacle identification information output step for visually outputting obstacle identification information for identifying an obstacle recognized in the obstacle recognition step to the outside. Method.
JP2007292443A 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot Pending JP2009113190A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007292443A JP2009113190A (en) 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007292443A JP2009113190A (en) 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot

Publications (1)

Publication Number Publication Date
JP2009113190A true JP2009113190A (en) 2009-05-28

Family

ID=40780891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007292443A Pending JP2009113190A (en) 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot

Country Status (1)

Country Link
JP (1) JP2009113190A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
CN104093527A (en) * 2012-02-03 2014-10-08 日本电气株式会社 Communication draw-in system, communication draw-in method, and communication draw-in program
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
WO2016080321A1 (en) * 2014-11-21 2016-05-26 シャープ株式会社 Display projection control device, display projection system, program for controlling display projection control device, computer-readable recording medium having control program recorded thereon, and method for controlling display projection control device
JP2016198839A (en) * 2015-04-08 2016-12-01 富士電機株式会社 Production line monitor system
CN108818573A (en) * 2018-09-11 2018-11-16 中新智擎科技有限公司 A kind of Multifunctional service robot
JP2019214084A (en) * 2018-06-11 2019-12-19 オムロン株式会社 Route planning device, route planning method, and route planning program
JP2020154635A (en) * 2019-03-19 2020-09-24 株式会社フジタ Unmanned moving device
CN112381048A (en) * 2020-11-30 2021-02-19 重庆优乃特医疗器械有限责任公司 3D posture detection analysis system and method based on multi-user synchronous detection
JP2021086217A (en) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 Autonomous mobile body system, control program of autonomous mobile body and method for controlling autonomous mobile body
CN112894850A (en) * 2021-01-27 2021-06-04 国网安徽省电力有限公司电力科学研究院 Pole-climbing robot control system and control method thereof
JP7285354B1 (en) 2022-03-11 2023-06-01 Dmg森精機株式会社 traveling robot system
CN112381048B (en) * 2020-11-30 2024-05-10 重庆优乃特医疗器械有限责任公司 3D posture detection analysis system and method based on multi-user synchronous detection

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
CN104093527A (en) * 2012-02-03 2014-10-08 日本电气株式会社 Communication draw-in system, communication draw-in method, and communication draw-in program
JPWO2013114493A1 (en) * 2012-02-03 2015-05-11 日本電気株式会社 Communication pull-in system, communication pull-in method and communication pull-in program
US9662788B2 (en) 2012-02-03 2017-05-30 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
WO2016080321A1 (en) * 2014-11-21 2016-05-26 シャープ株式会社 Display projection control device, display projection system, program for controlling display projection control device, computer-readable recording medium having control program recorded thereon, and method for controlling display projection control device
JPWO2016080321A1 (en) * 2014-11-21 2017-05-25 シャープ株式会社 Display projection control device, display projection system, control program for display projection control device, computer-readable recording medium storing the control program, and control method for display projection control device
JP2016198839A (en) * 2015-04-08 2016-12-01 富士電機株式会社 Production line monitor system
JP2019214084A (en) * 2018-06-11 2019-12-19 オムロン株式会社 Route planning device, route planning method, and route planning program
US11207780B2 (en) 2018-06-11 2021-12-28 Omron Corporation Path planning apparatus, path planning method, and path planning program
JP7077800B2 (en) 2018-06-11 2022-05-31 オムロン株式会社 Route planning device, route planning method, and route planning program
CN108818573A (en) * 2018-09-11 2018-11-16 中新智擎科技有限公司 A kind of Multifunctional service robot
JP2020154635A (en) * 2019-03-19 2020-09-24 株式会社フジタ Unmanned moving device
JP7312582B2 (en) 2019-03-19 2023-07-21 株式会社フジタ unmanned mobile device
JP2021086217A (en) * 2019-11-25 2021-06-03 トヨタ自動車株式会社 Autonomous mobile body system, control program of autonomous mobile body and method for controlling autonomous mobile body
CN112381048A (en) * 2020-11-30 2021-02-19 重庆优乃特医疗器械有限责任公司 3D posture detection analysis system and method based on multi-user synchronous detection
CN112381048B (en) * 2020-11-30 2024-05-10 重庆优乃特医疗器械有限责任公司 3D posture detection analysis system and method based on multi-user synchronous detection
CN112894850A (en) * 2021-01-27 2021-06-04 国网安徽省电力有限公司电力科学研究院 Pole-climbing robot control system and control method thereof
CN112894850B (en) * 2021-01-27 2023-11-17 国网安徽省电力有限公司电力科学研究院 Control system and control method of pole-climbing robot
JP7285354B1 (en) 2022-03-11 2023-06-01 Dmg森精機株式会社 traveling robot system
WO2023171500A1 (en) * 2022-03-11 2023-09-14 Dmg森精機株式会社 Travel robot system

Similar Documents

Publication Publication Date Title
JP2009113190A (en) Autonomous working robot and method of controlling operation of autonomous working robot
JP6601155B2 (en) Robot control system
US9517559B2 (en) Robot control system, robot control method and output control method
JP6392972B2 (en) Method, persistent computer readable medium and system implemented by a computing system
JP4266211B2 (en) Robot device, method of moving robot device, and program
EP2068275B1 (en) Communication robot
US20210346557A1 (en) Robotic social interaction
WO2021220679A1 (en) Robot control device, method, and program
JP5764795B2 (en) Mobile robot, mobile robot learning system, and mobile robot behavior learning method
JP2011204145A (en) Moving device, moving method and program
JP6828579B2 (en) Environmental maintenance robot and its control program
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
KR101842459B1 (en) Robot cleaner and method for controlling the same
JP2009222969A (en) Speech recognition robot and control method for speech recognition robot
JP2007199965A (en) Autonomous mobile device
JP2020181434A (en) Autonomous traveling work apparatus and autonomous traveling work system
JP2017146945A (en) Lead robot
JP6177837B2 (en) Robot system using visual sensor
JP2003326479A (en) Autonomous operation robot
JP2006231447A (en) Confirmation method for indicating position or specific object and method and device for coordinate acquisition
JP5552710B2 (en) Robot movement control system, robot movement control program, and robot movement control method
US20210157326A1 (en) Autonomous mobile body system, control program for autonomous mobile body, and control method for autonomous mobile body
SHARMA et al. Human following robot
JP2005222560A (en) Autonomous moving unit and autonomous moving unit operation system
EP3969231A1 (en) Method, robot and system for interacting with actors or item recipients