JP2009113190A - Autonomous working robot and method of controlling operation of autonomous working robot - Google Patents

Autonomous working robot and method of controlling operation of autonomous working robot Download PDF

Info

Publication number
JP2009113190A
JP2009113190A JP2007292443A JP2007292443A JP2009113190A JP 2009113190 A JP2009113190 A JP 2009113190A JP 2007292443 A JP2007292443 A JP 2007292443A JP 2007292443 A JP2007292443 A JP 2007292443A JP 2009113190 A JP2009113190 A JP 2009113190A
Authority
JP
Japan
Prior art keywords
obstacle
robot
operation
unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007292443A
Other languages
Japanese (ja)
Inventor
敦 ▲吉▼見
Minoru Yamauchi
Atsushi Yoshimi
実 山内
Original Assignee
Toyota Motor Corp
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp, トヨタ自動車株式会社 filed Critical Toyota Motor Corp
Priority to JP2007292443A priority Critical patent/JP2009113190A/en
Publication of JP2009113190A publication Critical patent/JP2009113190A/en
Application status is Pending legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an autonomous working robot enabling a person therearound to easily determine what is the obstacle detected by the robot.
SOLUTION: This autonomous working robot comprises an environmental information acquiring part for acquiring peripheral environmental information, a control part for controlling the autonomous operation according to the environmental information acquired by the environmental information acquiring part, and an operation part the operation of which is controlled by the control part. The autonomous working robot further comprises an obstacle recognition part for detecting objects present around the robot according to the acquired environmental information and recognizing an object, among the detected objects, which affects the operation part to normally operate the operation part, and an output part for visually outputting obstacle specifying information for specifying the obstacle recognized by the obstacle recognizing part to the outside.
COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、自律的に動作を行う自律動作型ロボットおよび自律動作型ロボットの動作制御方法に関する。 The present invention relates to an operation control method of an autonomous operation robot and autonomous operation type robots that autonomously operate.

近年、建物内部や屋外の広場などといった移動領域内において、周囲の環境に基づいて、移動やゼスチャーなどの自律的な動作を行う、人間と共生する自律動作型のロボットが開発されつつある。 In recent years, such as such movement area inside the building and outdoor squares, based on the surrounding environment, perform autonomous operations such as moving or gestures, autonomous operation type robot in harmony with humans are being developed. このようなロボットは、工場内に設置され特定の動作を行うような産業型ロボットとは異なり、その周囲に安全柵を設けて周囲の人間や物体との距離を確保する、といった処置をとることができない。 Such robot, unlike industrial robot as installed in the plant performing the specific operation, taking action such, to ensure the distance between the surrounding people and objects by providing a safety fence therearound can not. そのため、ロボットに対して、自律動作を行う際に周囲の人間や物体に対する接触を避けるような制御を行わせる必要がある。 Therefore, the robot, it is necessary to perform control so as to avoid the contact with the surrounding people and objects when performing autonomous operation.

しかしながら、ロボットが周囲の環境を認識した際にはその動作に影響するような障害物がなくても、実際に動作を行う際に、ロボットの動作範囲内に障害物が接近してくる場合がある。 However, even without obstacles such as when the robot has recognized the surrounding environment affects its operation, when actually operating, if an obstacle in the operating range of the robot approaching is there. そのため、自律動作を行うロボットにおいては、その動作を継続する場合に確実かつ安全に自律動作を行うことが難しい。 Therefore, in the robot performing autonomous operation, it is difficult to perform reliably and safely autonomous operation in case of continuing the operation.

そこで、例えば特許文献1においては、ロボットに搭載したプロジェクタにより、移動する平面上において危険情報を投影し、外部の人間に周囲の危険な情報を伝達するように構成したロボットが提案されている。 Thus, for example, in Patent Document 1, by mounting the projector on the robot, by projecting the danger information on a plane to move, configured robot has been proposed to transmit dangerous information around the outside of the human. また、特許文献2に記載されたロボットは、ロボットに搭載したプロジェクタにより、移動を予定する移動経路の情報を投影することで、周囲の人間がロボットの移動経路を視覚的に認識できるようにしている。 Further, the robot described in patent document 2, by mounting the projector on the robot, by projecting the information of the movement path to schedule move, as people around can visually recognize the movement path of the robot there. これらのロボットでは、ロボットから発せられた視覚的な情報によって、周囲の人間にロボットの行動を知らしめることで、注意を促すことができる。 In these robots, by visual information emitted from the robot, by notify the action of the robot around the person, it is possible to call attention.

一方、特許文献3では、ロボットが動作を行う動作空間内と、周囲の人間がロボットに対して接近するように行動する行動空間とが交錯する場合に、ロボットに接近する人間の行動を妨げる行動をロボットが行う旨が開示されている。 On the other hand, in Patent Document 3, it interferes with the operating space in which the robot performs an operation, if the periphery of the human and behavior space to act so as to approach the robot is crossed, the human behavior to approach the robot behavior it is disclosed that to carry out the robot.

また、特許文献4に記載の技術では、移動型ロボット(搬送用台車)において、周囲に存在する障害物を検知するスキャン装置を設け、障害物を検知すると警告等を点灯するとともに、警報を鳴らすような技術が開示されている。 In the technique described in Patent Document 4, in the mobile robot (transport carriage) is provided with a scanning device for detecting an obstacle existing around, with lights the warning or the like to detect obstacles, sound an alarm techniques are disclosed as.
特開2007−102488号公報 JP 2007-102488 JP 特再表2005−15466号公報 Trick-table 2005-15466 JP 特許第3927994号公報 Patent No. 3927994 Publication 特開2006−323435号公報 JP 2006-323435 JP

しかしながら、これらのいずれのロボットにおいても、ロボットが障害物となる物体を認識したことを周囲の人間が確認できるものの、ロボットの認識した障害物が何であるかを知ることができない。 However, in any of these robots, though the robot can be confirmed around the humans to the recognition of an object that becomes an obstacle, it is impossible to know recognized obstacle the robot is. そのため、周囲の人間がロボットの次の動作を予測することが難しく、人間側がロボットの次の動作に対してどのように行動をすればよいかを判断することが困難となる場合がある。 Therefore, it may become difficult to be around the human predicts the next operation of the robot difficult, human side to determine whether it is sufficient how the actions for the next operation of the robot.

本発明は、このような問題を解決するためになされたものであり、周囲の人間がロボットの認識した障害物が何であるかを容易に判断可能である自律動作型ロボットを提供することを目的とするものである。 The present invention has been made to solve such problems, aims to provide an autonomous operation robot can be easily determined whether the obstacle around the human recognizes the robot is what it is an.

本発明にかかる自律動作型ロボットは、周囲の環境情報を取得する環境情報取得部と、前記環境情報取得部で取得した環境情報に基づいて自律動作を制御する制御部と、前記制御部により動作を制御される動作部と、を備えるとともに、取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部を正常に動作させる際に影響を及ぼす物体を障害物と認識する障害物認識部と、前記障害物認識部により認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する出力部と、を備えることを特徴とすることを特徴としている。 Autonomous operation robot according to the present invention includes a control unit for controlling the autonomous operation based and environment information acquisition unit for acquiring ambient environment information, the acquired environmental information by the environmental information acquisition unit, operated by the control unit together and an operation unit to be controlled, of the object existing around the grasped based on the acquired environmental information, obstacle recognizing disorder affecting objects in operating normally the operation portion and objects recognition unit, is characterized in that characterized in that it comprises an output unit for outputting visual obstacle identification information for identifying the external the recognized obstacle by the obstacle recognition unit.

このような自律動作型ロボットは、障害物認識部により認識した障害物を特定するように、外部に視覚的に情報を出力するため、ロボットの周囲に存在する人間が、ロボットの認識した障害物が何であるかを容易に判断することが可能となる。 Such autonomous operation robot is to identify the obstacle recognized by the obstacle recognition unit, for outputting the visual information to the outside, person existing around the robot, recognized obstacle robot There it is possible to easily determine what is.

また、このような自律動作型ロボットにおいては、前記動作部の動作範囲を含む所定の安全領域を特定し、該安全領域内に存在する物体を障害物と認識するように構成してもよい。 Further, in such an autonomous operation robot, identifies the predetermined safety area including the operating range of the operation portion may be configured to recognize the obstacle objects present in the safety area. このようにすると、ロボットがその周囲に位置する物体を、障害物であるか否かを容易に認識することができる。 In this way, the robot is an object located around, whether the obstacle can be easily recognized.

さらに、このような自律動作型ロボットが動作を行う場合に、前記制御部が、障害物認識部により障害物が認識された際に、動作部の動作を一時的に停止するようにすることが好ましい。 Further, when such an autonomous operation robot performs an operation, the control section, when the obstacle is recognized by the obstacle recognition unit, it is made to temporarily stop the operation of the operation portion preferable. このように、動作範囲を含む安全領域内に障害物が存在する場合に動作を一時的に停止することで、ロボットの動作部を障害物と接触させることがなくなり、より高い安全性が保たれる。 Thus, by temporarily stopping the operation when there is an obstacle in the secure area including the operating range, it is not contacting the operation of the robot with an obstacle, higher safety is maintained It is.

また、このような自律動作型ロボットは、前記認識した障害物が移動するか否かを判別する判別部をさらに備えるように構成してもよい。 Further, such self-operated robot, obstacle the recognition may be configured to further include a determination unit for determining whether or not to move. このような判別部を備えることによって、ロボットの周囲に存在する物体が、人間などの移動物か、静止物であるかを簡単に判別することができるため、障害物の種類に応じた行動を取りやすくなるという効果が得られる。 By providing such a determination unit, an object existing around the robot, or moving object such as a human, for whether a stationary object can be easily determined, the action corresponding to the type of the obstacle an effect that is likely to take is obtained.

また、このような自律動作型ロボットは、認識する障害物の種類ごとに対応する複数の特定情報を備えた特定情報データベースを予め記憶させるとともに、前記出力部によって、前記障害物認識部で認識した障害物に対応する特定情報を前記データベースから読み出し、出力するように構成してもよい。 Further, such self-operated robot, causes previously stored specific information database having a plurality of identification information corresponding to each type of recognized obstacle by the output unit, recognized by the obstacle recognition unit It reads the specific information corresponding to the obstacle from the database may be configured to output. このようにすると、ロボットが認識した障害物に対して、適切な障害物特定情報を簡単に出力することが可能となる。 In this way, with respect to obstacle the robot has recognized, it is possible to output an appropriate obstacle specific information easily.

また、出力部により前記障害物特定情報を出力する方向は、前記障害物認識部により認識された障害物の位置に基づいて定められるようにすると好適である。 The direction of outputting the obstacle specifying information by the output unit, it is preferable to so determined based on the position of the recognized obstacle by the obstacle recognition unit. これにより、ロボットの周囲に存在する人間が、ロボットの動作に対する障害物をより明確に判断することが可能となる。 Thus, humans present around the robot, it is possible to determine the obstacle with respect to the operation of the robot more clearly. この場合、出力部より障害物特定情報を出力する方向を、障害物の位置に向けた方向としてもよい。 In this case, the direction of outputting the obstacle identification information from the output unit may be a direction toward the position of the obstacle. この場合、ロボットが障害物と認識した物体を明確に外部に示すことが可能となる。 In this case, it is possible to indicate in clear outside the object the robot has recognized an obstacle.

また、前記出力部を複数設置し、ロボットの周囲全体に障害物特定情報を出力可能とするように構成することが好ましい。 Further, the output unit a plurality of installation, it is preferably configured to allow outputting obstacle specific information on the entire periphery of the robot. 自律動作型ロボットをこのように構成することで、ロボットの取り得る全ての動作に対して障害となる障害物を特定して、その障害物の位置に対して障害物特定情報を出力することができる。 The autonomous operation robot With such a configuration, that identifies the obstacle as the obstacle to all operations that may take the robot, and outputs the obstacle identifying information relative to the position of the obstacle it can.

なお、このような出力部としては、出力する方向を変更可能に取り付けられたプロジェクタであることが好ましい。 As such the output unit is preferably a projector mounted for changing the direction of output. このような出力部は、重量が小さく、かつ高精度に障害物特定情報を出力することができるため、ロボットに取り付けて障害物特定情報を出力させる場合には好適である。 Such output unit weight is small and it is possible to output the obstacle identification information with high accuracy, it is preferable in the case of outputting the obstacle identification information attached to the robot.

また、出力部により出力する障害物特定情報としては、特に限定されるものではないが、文字情報であってもよい。 As the obstacle identification information outputted by the output unit, it is not particularly limited, and may be character information. この場合、出力する文字情報を予め定めておくことで、周囲に存在する人間に対して、次の動作を特定するように情報を提供することが可能となるとともに、周囲の状況に応じて出力する内容を容易に変更することもできる。 In this case, by predetermining the character information to be output, to humans existing around, it becomes possible to provide information to identify the next operation, the output according to the ambient conditions it is also possible to easily change the content to.

なお、このような自律動作型ロボットとしては、前記動作部がロボットの位置を変更する移動手段を含み、自律移動を可能とするものであると、より効果的である。 Examples of such an autonomous operation robot includes a moving means for the operation unit changes the position of the robot, if it is an enabling autonomous mobile, is more effective.

また、前記動作部が、関節により駆動し、その姿勢を変形可能な関節駆動部を含むものであってもよい。 Further, the operating unit is driven by a joint, it may include a deformable articulation drive its attitude. 特に、人間と同様に手や足を備えたヒューマノイド型の外観を備えたロボットの場合、人間と共生するためにより好適である。 In particular, in the case of human-robot having the appearance of a humanoid having hands and feet as well, which is more suitable for coexistence with humans.

また、このような自律動作型ロボットにおける関節駆動部を、多関節を有する腕部で構成した場合、前記出力部をこの腕部に取り付けてもよい。 Furthermore, the articulation drive in such autonomous operation robot, when configured by the arms with articulated, the output unit may be attached to the arm portion. この場合、障害物特定情報を出力する方向を、この腕部の関節を駆動することで任意に変更することもできるため、少ない数の出力部でより広範囲に障害物特定情報を出力することが可能となる。 In this case, the direction of outputting the obstacle identification information, since it is also possible to arbitrarily change by driving the joints of the arms, is possible to output more widely obstacle identification information with a small number of output portion It can become.

また、本発明は自律動作型ロボットの動作制御方法をも提供するものであり、この動作制御方法は、動作部の動作範囲を特定する動作範囲特定ステップと、周囲の環境情報を取得する環境情報取得ステップと、前記環境情報取得ステップにおいて取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部の動作範囲に含まれる物体を障害物と認識する障害物認識ステップと、前記障害物認識ステップにより認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する障害物特定情報出力ステップと、を備えることを特徴としている。 Further, the present invention provides also a method of controlling operation Autonomous operation robot, the operation control method includes the operating range specifying step of specifying the operating range of the operation portion, the environment information acquiring ambient environment information an acquisition step, out of the objects existing around the grasped based on the acquired environment information in the environment information acquiring step, and recognizing the obstacle recognition step the object and obstacle included in the operating range of the operation portion, wherein It is characterized by and a obstacle identifying information output step of outputting visually obstacle identification information for identifying the external the recognized obstacle by the obstacle recognition step.

このような自律動作型ロボットの動作制御方法によれば、外部に対して、認識した障害物を特定するように視覚的に障害物特定情報を出力することができるため、ロボットの周囲に存在する人間が、ロボットの認識した障害物が何であるかを容易に判断することが可能となる。 According to the operation control method of the autonomous operation robot, it is possible to output a visually obstacle identification information to identify the external, the recognized obstacle present around the robot humans, it is possible to recognize the obstacle robot easily determine what.

以上、説明したように、本発明によると、周囲の人間がロボットの認識した障害物が何であるかを容易に判断可能である自律動作型ロボットおよび自律動作型ロボットの制御方法を提供することが可能となる。 As described above, according to the present invention, is to provide a control method for people around are readily determine obstacle recognition robot is what autonomous operation robot and autonomous operation robot It can become.

発明の実施の形態1. DESCRIPTION OF THE INVENTION Embodiment 1.
以下に、図1から図7を参照しつつ本発明の実施の形態1にかかる自律動作型ロボットおよび自律動作型ロボットの制御方法について説明する。 The following describes a method for controlling the reference while autonomous operation robot and autonomous operation robot according to the first embodiment of the present invention to FIGS. この実施の形態においては、自律動作型ロボット(以下、単にロボットという)として、車輪駆動により移動可能で、かつ、上半身がヒューマノイド型に構成されたロボットである例を用いて説明するものとする。 In this embodiment, autonomous operation robot (hereinafter, simply referred to as a robot) as, movable by the wheel driving, and shall be described using an example a robot upper body is configured to humanoid.

図1に示すロボット10は、その上半身がヒューマノイド型に構成されるロボットであり、頭部11、胴体部12、右腕部13、左腕部14、腰部15および移動部20を備えている。 Robot 10 shown in FIG. 1 is a robot constructed that the upper body is a humanoid, head 11 includes a body portion 12, a right arm portion 13, the left arm 14, the waist 15 and mobile unit 20.

頭部11は、その前面左右においてカメラ111、112が設けられるとともに、その側面にアンテナ113を備えるほか、前面下方にスピーカ114を備えており、さらに外部からの音声を入力するためのマイク115,116を備えている。 Head 11, along with the camera 111, 112 is provided at its front left and right, in addition to an antenna 113 on its side surface, and a speaker 114 on the front lower, the microphone 115 for further inputting a voice from the outside, It is equipped with a 116.

頭部11に設けられたカメラ111、112は周囲の環境を視認するものであり、視認した結果得られる画像情報を後述する制御コンピュータに出力する。 Camera 111 and 112 provided in the head 11 is intended to visually recognize the surrounding environment, and outputs to the control computer for later image information obtained as a result of viewing. このようなカメラとしては、例えば赤外線レーザを3次元的に照射するレーザセンサなどを用いることができる。 Such a camera may be used such as a laser sensor for irradiating example an infrared laser in three dimensions. この場合、照射したレーザの反射状態から、物体の形状情報や、ロボット10からの距離情報を環境情報として取得することができる。 In this case, the reflecting state of laser irradiation, the object and the shape information, the distance information from the robot 10 can be obtained as the environment information.

また、アンテナ113は、ロボット10の絶対位置を認識する位置信号を受信するともに、現在の自己位置や自己の状態を示す信号を送信するために用いられる。 The antenna 113 are both receiving the position signal recognizes the absolute position of the robot 10 is used to transmit a signal indicating the state of the current self-position and self. これらの情報の送受信は、図示しないロボット監視システムとの間で行われる。 Transmission and reception of these information is performed between the robot monitoring system (not shown). 前述の演算処理部は、アンテナ113により受信した位置信号に基づいて、自身の絶対位置をリアルタイムで認識する。 Processing unit described above, on the basis of the position signals received by the antenna 113, it recognizes the absolute position of itself in real time. このようにして得られた位置信号も、前述のような経路計画や移動する方向を定める際に用いられる。 Position signal obtained in this manner is also used in determining the path planning and direction of movement as described above.

また、マイク114は、制御コンピュータの記憶領域に含まれる音声データファイルから、適宜選択された音声データを外部に出力する。 Further, the microphone 114, the audio data file contained in the storage area of ​​the control computer, and outputs the audio data selected appropriately to the outside. マイク114から出力される音声ファイルは、ガイドなどの内容の他、後述するように、障害物を認識した場合に、認識した物体の種類に応じて適宜選択され、障害物を特定するための音声に関する内容のものが用いられる。 Audio files output from the microphone 114, other contents such as a guide, as described later, when recognizing an obstacle, is selected according to the kind of the recognized object, audio for identifying obstacles those of the contents on is used.

胴体部12は、前述のように制御コンピュータ120を内蔵するとともに、ロボットの各構成要素に電力を供給するためのバッテリー(図示せず)を備えている。 Body portion 12, with a built-in control computer 120, as described above, and a battery (not shown) for supplying power to each component of the robot.

そして、図2に示すように、胴体部12の内部には、カメラ111や112、およびマイク115,116から入力された画像信号や音声信号の内容を認識し、適切な動作を行うための制御部としての制御コンピュータ120と、このコンピュータ120を含む各構成要素を動作させるための電力供給を行うバッテリー(図示せず)が備えられている。 Then, as shown in FIG. 2, the interior of the carcass part 12, a camera 111 or 112, and recognizes the contents of the input image signal and the audio signal from the microphone 115 and 116, control for proper operation a control computer 120 as part, a battery for supplying power for operating each component including the computer 120 (not shown) is provided. この制御コンピュータ120に含まれる演算処理部120aは、前述したカメラ111,112から得られた情報に基づいて、外部の物体に関する情報、すなわち物体の形状やロボットまでの相対距離といった環境情報を算出する。 Processing unit 120a included in the control computer 120, based on the information obtained from the camera 111, 112 described above, calculates information about an external object, i.e., the environmental information such as the relative distance to an object shape or robot . なお、詳細は省略するが、このカメラにより障害物と認識した物体が、所定時間静止しているか否かに基づいて、人間であるか静止物であるか否かが制御コンピュータにより判断される。 Incidentally, details are omitted, the object recognizing an obstacle by the camera, based on whether at rest a predetermined time, whether it is either a human stationary object is determined by the control computer.

また、右腕部13および左腕部14は、胴体部12の左右側面に取り付けられ、肘部、手首部、指部などの各所において図示しないモータ部により駆動される複数の関節部を備える。 Further, the right arm 13 and the left arm portion 14 is attached to the right and left sides of the body portion 12 includes an elbow portion, a wrist portion, a plurality of joints driven by a motor unit (not shown) at various locations, such as fingers. そして、これらの関節部の関節駆動量を制御コンピュータ120からの信号により変更することでその姿勢を変更し、物体把持、方向指示などの所望の動作を自律的に取ることができる。 Then, it is possible by changing the signal from the control computer 120 a joint drive amount of the joint portion to change its attitude, taking object grasping, the desired operation, such as direction instruction autonomously. また、関節部により駆動される各腕部は、その形状が予め制御コンピュータに記憶されており、関節部の駆動により動作を行う際に、その動作により腕部が占める空間が演算処理部により計算されるものとする。 Moreover, the arms driven by the joint, the shape is stored in advance in the control computer, compute when performing an operation by the driving of the joint portion, the space occupied by the arm portion operation processing unit by the operation before the process is started. すなわち、本実施形態においては、これらの腕部および前述の移動部が動作部を構成している。 That is, in the present embodiment, the movement of these arms and above constitute an operation unit.

腰部15は、移動部20の上方に固定されるとともに、胴体部12の底面に対してモータ等の駆動力によって回動可能に取り付けられ、移動部20と胴体部12との相対的な姿勢を変更可能としている。 Waist 15 is fixed to the upper moving portion 20, pivotally mounted by a driving force of a motor or the like to the bottom surface of the body portion 12, the relative orientation of the mobile unit 20 and the body portion 12 It is set to be changed.

また、移動部20は、図3に示すように、1対の対向する車輪21と、その前方にキャスタ22を備える対向2輪型の車両で構成されている。 The mobile unit 20, as shown in FIG. 3, the wheel 21 facing the pair, and a vehicle of the opposing two-wheel type with a caster 22 on its front. ロボット10は、これらの車輪21、キャスタ22とでその姿勢を水平に支持された状態で移動可能となっている。 Robot 10, these wheels 21, and is movable to its position in the horizontally supported state by the casters 22. さらに、移動部20の内部には、車輪21をそれぞれ駆動するモータ23と、各車輪の回転数を検出するためのカウンタ24とが備えられている。 Furthermore, the interior of the moving portion 20 includes a motor 23 for driving the wheels 21, respectively, and the counter 24 for detecting the rotational speed of each wheel is provided. このように構成された移動部20は、制御コンピュータにより、車輪21の駆動量をそれぞれ独立に制御され、直進や曲線移動(旋回)、後退、その場回転(両車輪の中点を中心とした旋回)などの移動動作を行うことができるとともに、移動速度や移動する方向が自律的に定められる。 Thus configured mobile unit 20 by the control computer, is controlled independently of the driving of the wheel 21, the straight or curved movement (turning), backward, with a focus on the midpoint of the spot rotation (both wheels it is possible to perform the movement operations, such as turning), the moving speed and direction of movement is determined autonomously.

さらに、図4に示すように、移動部20の前面、背面、および両側面には、障害物特定情報を視覚的に出力するための出力部としてのプロジェクタ26が各々取り付けられている。 Furthermore, as shown in FIG. 4, the front surface of the moving portion 20, the back, and on both sides, the projector 26 as an output unit for outputting obstacle identification information visually is attached respectively. そして、これらのプロジェクタは、前記カメラ111,112により認識された物体が障害物と認識された場合に、その認識した障害物を外部に対して特定するように、複数種類の色または/および形状の光を照射する。 Then, these projectors, when the object recognized by the camera 111 and 112 is recognized as an obstacle, so as to identify the recognized obstacle to the outside, a plurality of types of color and / or shape It is irradiated with light. 照射される光としては、例えば赤色や黄色、緑色の光で円形状の照射領域を形成するようなもののほか、文字情報を描写するようなものが含まれる。 The light to be irradiated, for example, red, yellow, green addition to things like to form a circular illuminated area with light include those that depict the character information. また、図4に示すように、これらのプロジェクタの照射するエリアが、移動部20が接地している移動領域の周囲、すなわちロボット10の周囲全体に亘って障害物特定情報を出力可能となるように、その取り付け位置および照射領域が予め調整されている。 Further, as shown in FIG. 4, the area of ​​irradiation of these projectors, surrounding the moving region moving unit 20 is grounded, i.e. so as to be capable of outputting a obstacle specific information over the entire circumference of the robot 10 in its mounting position and the irradiation region is adjusted in advance.

さらに、これらのプロジェクタは、図5に示すように、鉛直方向および水平方向について障害物特定情報を出力する方向を変化可能となるように、所定の軸を中心として回動自在に取り付けられている。 Moreover, these projectors, as shown in FIG. 5, so that it is possible change the direction of outputting the obstacle specific information about the vertical and horizontal directions, is mounted rotatably around a predetermined axis . そして、これらのプロジェクタは、前述の制御コンピュータからの信号により、その照射方向を適宜変更可能に構成されている。 Then, these projectors, a signal from the aforementioned control computer, and is suitably capable of changing the irradiation direction.

また、これらのプロジェクタにより照射される情報(障害物特定情報)は、予め制御コンピュータ内部に設けられた記憶領域120bに記憶されており、これらの情報を読み出して外部に出力(照射)される。 The information emitted by these projectors (obstacle specific information) is stored in the storage area 120b provided within pre control computer is output to the outside (irradiation) reads these information. この障害物特定情報については詳細を後述する。 This obstacle specific information will be described in detail later.

次に、胴体部12の内部に設けられた制御コンピュータ120について説明する。 Next, a description will be given of the control computer 120 provided inside the body portion 12. 本実施形態に係る自律動作型のロボットにおいては、前述のプログラムを制御コンピュータ120に含まれる演算処理部120aにより読み出すことによって、腕部(右腕部13、左腕部14)や移動部20等の各構成が、所定の制御プログラムに従って駆動する。 In the robot of an autonomous operation type according to the present embodiment, by reading by the arithmetic processing unit 120a included the aforementioned program in the control computer 120, the arm portion (right arm portion 13, the left arm portion 14) and the like moving part 20 each configuration, driven in accordance with a predetermined control program. 例えば、胴体部や腕部等に含まれる関節部を駆動するモータの駆動量を制御する制御信号を出力することで、これらの間接の関節駆動角度を決定し、胴体部や腕部の状態を所望の姿勢となるように制御する。 For example, by outputting a control signal for controlling the drive amount of the motor for driving the joint portion included in the body portion and the arm portion or the like, it determines a joint driving angle of these indirect, the status of the body portion and the arm portion It is controlled to be a desired posture.

また、制御コンピュータ120においては、前述した記憶領域内において移動する領域における移動経路を決定するプログラムが記憶され、周囲の環境に応じて移動経路を適宜決定する。 Further, the control computer 120 is stored program for determining a movement path in the region to be moved in the storage area described above, appropriately determines the movement path in accordance with the surrounding environment. 詳細については説明を省略するが、認識された外部の物体に関する情報に基づいて、移動する方向や経路計画、または取り得る動作を自律的に選択する。 For details omitted, based on the information about the recognized external object, moving direction and path planning, or autonomously selects Torieru operation. また、前述の記憶領域においては、動作部としての腕部や移動部が次の動作を行うためのプログラムや、認識する障害物の種類および障害物のロボットからの相対距離ごとに対応する特定情報からなる障害物特定情報データベース等も記憶されている。 Further, in the storage area described above, a program for arms and movement of the operation unit performs the following operations, specific information corresponding to each relative distance from the robot type and obstacle recognizing obstacles obstacle identification information database or the like made of are also stored.

この障害物特定情報データベースは、例えば図6に示すように、ロボットの移動経路上に障害物が存在する場合、経路付近(移動経路から所定距離内)に存在する場合、移動経路上からは離れているが、腕部の動作範囲に含まれる場合について、異なる障害物特定情報を設定する。 The obstacle particular information database, for example, as shown in FIG. 6, if the obstacle on the movement path of the robot is present, when present in the vicinity of the route (within a predetermined distance from the moving path), leave the on the movement route and which, but for the case included in the operating range of the arm, to set different obstacles specific information. なお、この実施形態においては、認識した障害物が人間であるか静止物であるかによって出力する情報が異なる。 Incidentally, in this embodiment, information obstacle recognition is output depending on whether a human stationary object is different.

例えば移動経路上に障害物としての人間が存在する場合は、『道を空けてください』といった文字情報を照射する赤色の光を出力する。 For example if there are human as an obstacle on the path of movement, it outputs a red light that illuminates the character information such as "Please open the road." また、移動経路上からは外れているが、経路より所定距離内に人間が存在する場合は、『近くを通ります。 In addition, although off from on the movement path, when a person is present in a predetermined distance in than the path, go through "nearby. ご注意ください』といった文字情報を、黄色の光を用いて出力する。 Notes Please, "such as character information, to output using the yellow light. また、移動経路上からは大きく離れているが、腕部の動作範囲に含まれる場所に人間が存在する場合は、『離れて下さい』といった文字情報を、赤色の光を用いて出力する。 Further, although far apart from the movement path, when a person is present in the location included in the operating range of the arm portion, the character information such as "Please leave", and outputs with a red light.

このように、障害物を人間と認識した場合は、その障害物特定情報は文字情報を含み、その位置に応じて情報を出力する際に用いる光を異ならせている。 Thus, when recognizing an obstacle and humans, the obstacle specific information includes character information, and by varying the light to be used for outputting information in accordance with its position. なお、この場合、出力する文字情報と同一または類似の内容の音声情報を、マイク114から出力するようにしてもよい。 In this case, the audio information of the same or similar content and character information output, may be output from the microphone 114.

また、障害物と認識した物体が静止物である場合は、その物体に対して略円形の光を照射する。 Further, the object recognizing the obstacle may be stationary illuminates a substantially circular light to the object. この場合においても、図6に示すように、物体の位置がロボットの移動経路上にある場合は赤色の光、移動経路から所定距離内にある場合は黄色の光、移動経路から離れているものの、腕部の動作範囲に位置する場合は赤色の光、といったように、出力する光の色を異ならせるようにしてもよい。 In this case, as shown in FIG. 6, red light if the position of the object is on the moving path of the robot, although if there from moving route within a predetermined distance away from the yellow light, the movement path , when located operating range of the arm, as red light, such as it may be made different colors of the output light.

この場合、情報を出力する方向は、認識した障害物の位置、または障害物の近傍とすることが好ましい。 In this case, the direction of outputting the information, position of the recognized obstacle, or it is preferable that the vicinity of the obstacle. 例えば、障害物として認識した物体が人間である場合は、出力する方向を人間の位置から少し離れた近傍(例えば足元付近)に文字情報が照射されるような位置に障害物特定情報を出力する。 For example, the object recognized as the obstacle when a human, the character information in the vicinity of a short distance and a direction output from the human position (e.g., near the foot) outputs the obstacle specified information on the position as irradiated . 一方、障害物として認識した物体が静止物である場合は、その静止物に対して光を照射するように、その出力方向を定める。 On the other hand, if the object is recognized as an obstacle is a stationary object is to irradiate light to the stationary object, defining its output direction. このようにすると、ロボットの周囲に位置する人間が、ロボットがどの物体を障害物として認識しているかを明確に知ることができる。 In this way, the human located around the robot, can be known clearly whether the robot is aware of which object as an obstacle.

また、制御コンピュータ120は、カメラ111,112より確認された外部の物体が、ロボットの予想される動作範囲内に位置している場合に、これらの物体を障害物と認識し、動作部としての腕部や移動部の動作を暫定的に停止する。 Further, the control computer 120 has been an external object check from camera 111, 112, when located within the expected operating range of the robot, recognize these objects and obstacles, as the operation portion to temporarily stop the operation of the arm portion and the moving portion. カメラ111,112により確認される物体とロボットとの相対位置は、物体とカメラとの相対位置(距離および方向)を三角測量の手法等を用いて算出することにより求められる。 The relative positions of the object and the robot is checked by the camera 111 and 112 is determined by calculating the relative position between the object and the camera (distance and direction) using the method of triangulation or the like.

このように、本実施形態においては、前記カメラ111,112および制御コンピュータ120により、本発明でいう環境認識部および障害物認識部が構成され、制御コンピュータおよびプロジェクタにより出力部が構成されている。 Thus, in the present embodiment, by the camera 111, 112 and control computer 120 is configured the environment recognition section and obstacle recognition unit referred to in the present invention, the output unit is constituted by a control computer and a projector. さらに、制御コンピュータは、認識した障害物が移動するか否かを判別する判別部としても作用する。 Further, the control computer, obstacle recognition also acts as a determination section for determining whether or not to move.

次に、このように構成された自律動作型のロボットが、認識した周囲の障害物を特定するための情報を外部に出力する手法について図7に示すフローチャートを用いて説明する。 Next, the thus constructed self-operation of the robot will be described with reference to the flowchart shown in FIG. 7 a technique of outputting information for specifying a surrounding obstacle recognized externally.

まず、制御コンピュータ120によって、ロボットの動作範囲、すなわち腕部を動かすことにより腕部が通過する領域や、移動部によりロボット本体が通過する領域(動作範囲)を、ロボットを中心として三次元的に特定する(STEP101)。 First, the control computer 120, the operation range of the robot, i.e. and regions arms passes by moving the arm portion, the area where the robot main body to pass through the moving part (operating range), three-dimensionally around the robot to identify (STEP101). この動作範囲の特定は、微小な時間間隔で連続して行われる。 Particular the operating range is carried out continuously in a small time interval.

次に、カメラ111,112により、周囲に位置する物体の情報(環境情報)を取得し(STEP102)、それらの物体が前記特定した動作範囲内に存在するか否か、すなわち前記物体が障害物であるか否かを判定する(STEP103)。 Then, the camera 111 acquires information of an object located around (environmental information) (STEP 102), whether those objects are present within the operating range of the identified, i.e. the object is an obstacle determines whether or not (STEP 103). カメラにより情報が取得された周囲の物体が動作範囲内に存在しない場合は、特に新たな処理を行わず、動作を継続しつつSTEP101に戻って動作範囲の特定を連続して行う。 If surrounding objects which information is acquired by the camera is not in the operating range, especially without a new process, it performs a specific operation range back to STEP101 while continuing the operation in succession.

一方、カメラが特定した動作範囲内に物体が存在する場合は、その物体を障害物とみなして一旦動作を停止し(STEP104)、その後に障害物と認識した物体が静止物か否かを判断する(STEP105)。 On the other hand, if the camera is an object exists within the specified operating range, to stop the operation once considers the object and obstacle (STEP 104), then determines the object recognizing an obstacle whether stationary to (STEP105). 障害物と認識した物体が静止物であるか否かは、停止したロボットに対して、その物体が相対的に所定時間移動するか否かなどの手法により判断する。 Whether or not the object which is recognized as the obstacle is a stationary object, based on the robot has stopped, it is determined by a technique such as whether the object is moving relatively a predetermined time.

障害物と認識された物体が静止物である場合は、その動作を停止したまま、障害物特定情報としての光を外部に対して照射する(STEP106)。 When an object recognized as the obstacle is a stationary object, hold stops its operation, irradiating light as an obstacle specific information to the outside (STEP 106). このとき、光を照射する方向は、障害物の位置に応じて適宜選択し、認識した障害物のロボットに対する相対位置に基づいて定められる。 At this time, the direction of irradiating light is suitably selected depending on the position of the obstacle is determined based on the relative position with respect to the robot of the recognized obstacles. そして、認識した障害物に対して光を照射し続けたまま、障害物を避けるための新たな経路を経路計画により探索し(STEP107)、新たな経路上を移動することで、認識した障害物がロボットの動作範囲内から外れるか否かを判断する(STEP108)。 Then, while continuing to irradiate light onto recognized obstacle, a new route to avoid the obstacle is searched by the route planning (STEP 107), by moving on the new route, the recognized obstacle It is equal to or deviates from the operating range of the robot (STEP 108). ロボットの動作範囲内から障害物が外れると判断された場合は、移動を含む動作を継続する(STEP109)。 If the within the operating range of the robot is determined that the obstacle is out, it continues operations including moving (STEP 109). またロボットの動作範囲内に障害物が存在する場合は、STEP107に戻って再度新たな経路を探索する。 Also when an obstacle in the operating range of the robot is present, searches again new route back to STEP 107.

その後、移動を含む動作を終了するか否かを判断し(STEP110)、終了しない場合はSTEP101に戻って動作範囲の特定を連続して行うとともに、終了する場合は所定の動作終了処理(STEP111)を行った後にその動作を完全に停止する。 Thereafter, it is determined whether to end the operations including moving (STEP 110), performs continuously a specific operating range back to STEP101 If not completed, a predetermined operation end process if terminated (STEP 111) a completely stops its operation after performing.

一方、障害物と認識した物体が静止物でない場合は、障害物と認識した物体が人間であると判断し、障害物特定情報としての文字情報を照射する(STEP206)。 Meanwhile, the object recognizing an obstacle may not be stationary, the object recognizing the obstacle is determined to be human, irradiating the character information as an obstacle identification information (STEP 206). このとき、文字情報に併せて、障害物が静止物である場合と同様に、円形の光を照射するようにしてもよい。 At this time, along with the character information, as in the case obstacle is a stationary object may be irradiated with circular light. そして、文字情報を所定時間(例えば数秒間)照射後、ロボットの動作範囲内から人間がいなくなったか否かを判断し(STEP207)、人間がまだ存在する場合は、動作を停止し続けたまま、STEP206に戻って文字情報を照射し続ける。 After the character information a predetermined time (e.g., several seconds) irradiation, it is determined whether no longer have a human from within the operating range of the robot (STEP 207), while human if still present, continued to stop the operation, continue to irradiate the character information back to STEP206. なお、文字情報を照射する際に、さらに音声情報を出力するなどの処理を加えてもよい。 Incidentally, when irradiating the character information may be added further processing such as outputting audio information. また、STEP207において人間がロボットの動作範囲に存在しなくなったと判断すると、STEP109に進み、動作を継続する。 Further, when it is determined that the human is no longer present in the operating range of the robot in STEP207, the process proceeds to STEP109, continues to operate.

このように、本実施形態に係る自律動作型ロボットおよび自律動作型ロボットの動作制御方法によれば、認識した周囲の障害物を特定するための情報を、認識した障害物の種類に応じて外部に出力することで、周囲の人間にロボットが障害物と認識している物体を伝達することができる。 Thus, according to the autonomous operation robot and the operation control method of an autonomous operation robot according to the present embodiment, the information for identifying the surrounding obstacles recognized, externally depending on the type of the recognized obstacle by outputting, it is possible to transmit an object robot around the person is recognized as an obstacle. その結果、ロボットが何故停止や経路変更などを行っているかを、周囲の人間が簡単に把握し、障害物となる静止物を除去するなどの作業を行ったり、障害物と認識された人間が場所を移動するなどの処置をとることが可能となる。 As a result, if the robot is performing like why stop or route change, people around is easily grasped, or perform operations such as removing the stationary object becomes an obstacle, the human being is recognized as an obstacle location it is possible to take action, such as to move.

なお、前述の実施形態においては、障害物と認識された物体が静止物でない(人間である)と判断された後に、その障害物がロボットの動作範囲から外れるまで文字情報を照射し続けているが、本発明はこれに限られるものではない。 In the embodiment described above, after it is determined that the object recognized as the obstacle is not stationary object (human and is), the obstacle continues to irradiate the character information to deviate from the operating range of the robot but the present invention is not limited thereto. 例えば、所定時間文字情報を照射し続けた後、障害物と認識された物体が移動しない場合は、この物体は静止物であると判断し、円形の光を照射するなどの静止物に対する障害物特定情報を出力するフローにより処理を行ってもよい。 For example, after continued irradiation with predetermined time text information, if the object recognized as the obstacle does not move, this object is determined to be a stationary object, obstacle against stationary objects such as illuminating a circular light processing may be performed by a flow of outputting the identification information.

また、前述の実施形態においては、認識する障害物の種類として、静止物か人間かの判断のみを行っているが、これに代えて、より詳細な障害物の種類を識別するようにしてもよい。 In the embodiment described above, as the type of recognizing obstacles is performed only stationary or human or judgment, instead of this, it is identify the type of more detailed obstacle good. 例えば、制御コンピュータ内部に予め種々の障害物の形状データを記憶させ、ロボットに備えられたカメラにより認識した外部の物体の形状と、記憶した形状データとをマッチングさせるなどの手法を用いることによって、より詳細な障害物の種類を識別させることができる。 For example, the control computer inside is previously stored shape data of various obstacles, by using a technique such as matching the shape of the external object recognized by a camera provided in the robot, and memorized shape data, it is possible to identify the type of more detailed obstacle.

また、前述の実施形態においては、所定時間の間静止しなかった物体を人間と判断しているが、これに代えて、カメラなどの撮像手段により認識する物体の特徴点抽出を行うことで、その物体が人間であるか否かの人物認識を行ってもよい。 Further, in the above embodiment, although it is determined that a human object that was not stationary during a predetermined time period, by performing Alternatively, the feature point extraction of the object recognized by the image pickup means such as a camera, the object may perform person recognition of whether a human.

さらに、前述の実施形態においては、ロボットの移動部に出力部としてのプロジェクタを設けているが、これに代えてロボットの胴体部や他の箇所に出力部を設けてもよい。 Further, in the embodiments described above, is provided with the projector as the output unit to the moving part of the robot may be provided with an output portion to the body portion and the other portions of the robot instead. この場合、出力部の回動範囲をできるだけ広く取り得る箇所を選択することで、少ない台数のプロジェクタで障害物特定情報を広範囲に出力することが可能となる。 In this case, by selecting only the wider the possible locations possible range of rotation of the output section, it is possible to output extensively obstacle specific information in projector small number. 例えば、前述の実施形態のようなヒューマノイド型のロボットの場合、出力部を動作部としての腕部先端(手首部など)に設けると、腕部の関節駆動量を調整することで、より広範囲に障害物特定情報を出力することが可能となる。 For example, if the humanoid robot, such as the embodiment described above, providing an output to the arm tip of a working unit (such as a wrist portion), by adjusting the joint drive of arms, more broadly it is possible to output the obstacle specific information.

また、外部に出力する障害物特定情報として、前述の実施形態においては、光(文字情報および略円形の光)を用いた例を開示しているが、本発明はこれに限られるものではない。 Further, as an obstacle specific information to be output to the outside, in the above embodiment discloses the example using the optical (character information and a substantially circular light), the present invention is not limited thereto . 例えば、これらの光による照射に加えて、音声情報を出力したり、腕部などの動作部を用いて認識した障害物を指し示すなどの動作を行うことで、障害物を特定することも可能である。 For example, in addition to irradiation with these lights, and outputs the audio information, by performing operations such as pointing operation portion obstacles recognized with such arms, it is also possible to identify an obstacle is there.

また、前述の実施形態においては、このような自律動作型ロボットとして、自律移動を行うタイプのロボットを用いて説明しているが、このような自律移動を行うことができるロボットを、建物内部を案内する案内ロボットや、家庭内に用いる家庭用ロボットなどとして利用する際に、本発明は有用となる。 In the embodiment described above, as such autonomous operation robot has been described with reference to the type of robot to perform the autonomous mobile, a robot capable of performing such an autonomous mobile, inside buildings and guiding robot guidance for, when utilized as household robots for use in the home, the present invention is useful. また、本発明は、前述のように自律的な移動を行うようなロボットに限られるものではなく、移動を行わず、手足の動作のみを行うものであってもよい。 Further, the present invention is not limited to the robot performs autonomous movement, as described above, without movement, may perform the limbs only work. このようなロボットとして、例えば自律的な動作と外部からの制御による動作とをともに含むような動作型ロボットであってもよい。 Such a robot, for example, an operation by the control from the autonomous operation and external may be operating robot as both contain. すなわち、外部からの指示によって移動する方向等が決定される一方、他の動作部のみが自律的に制御されるようなものであってもよい。 In other words, while the direction, etc. which is moved by an external instruction is determined, only the other operation section may be such as is autonomously controlled. また、このようなロボットの外観としては、必ずしもヒューマノイド型を備えていなくともよい。 As the appearance of such a robot may not necessarily comprise a humanoid.

以上、説明したように、本発明に係る自律動作型ロボットおよび自律動作型ロボットの動作制御方法よると、ロボットの認識した障害物が何であるかを、動作を行うロボットの周囲に位置する人間が容易に判断することが可能となる。 As described above, according the operation control method of an autonomous operation robot and autonomous operation robot according to the present invention, the human is located or recognized obstacle the robot is what, around the robot performing the operation it is possible to easily determine.

第1の実施の形態に係る自律動作型のロボットの外観を示す概略図である。 Is a schematic view showing an appearance of an autonomous operation type robot according to the first embodiment. 図1に示すロボットの胴体部に設けられた制御コンピュータが、頭部に設けられたカメラやマイクにより信号を受け、動作部を制御する様子を示すブロック図である。 Control computer provided in the body portion of the robot shown in FIG. 1, receives a signal by a camera and microphone installed in the head, is a block diagram showing a state of controlling the operation unit. 図1に示すロボットの移動部の内部構造を概略的に示すブロック図である。 It is a block diagram schematically showing the internal structure of the moving part of the robot shown in FIG. 図1に示すロボットの移動部にプロジェクタが設けられた様子を示す概略図である。 It is a schematic view showing a state in which the projector is provided in the mobile part of the robot shown in FIG. 図4に示すプロジェクタが、鉛直方向および水平方向について方向を変化可能である様子を説明する概略図である。 Projector shown in FIG. 4 is a schematic view describing a manner which can vary the direction for the vertical and horizontal directions. 本実施形態における、障害物特定情報データベースの内容の一例を示す図である。 In this embodiment, showing an example of the content of the obstacle specified information database. 図1に示す自律動作型のロボットが、認識した周囲の障害物を特定するための情報を外部に出力する手順を示すフローチャートである。 Autonomous operation type of the robot shown in FIG. 1 is a flowchart illustrating a procedure of outputting information for specifying a surrounding obstacle recognized externally.

符号の説明 DESCRIPTION OF SYMBOLS

10・・・ロボット(自律動作型ロボット) 10 ... robot (autonomous action robot)
11・・・頭部111,112・・・カメラ(環境認識部) 11 ... head 111, 112 ... camera (environment recognition unit)
114・・・スピーカ(出力部) 114 ... speaker (output section)
115,116・・・マイク12・・・胴体部120・・・制御コンピュータ(制御部) 115, 116 ... microphone 12 ... body portion 120 ... control computer (controller)
13・・・右腕部(動作部) 13 ... the right arm (working unit)
14・・・左腕部(動作部) 14 ... left arm (working unit)
15・・・腰部20・・・移動部(動作部) 15 ... waist 20 ... moving section (operating section)
21・・・車輪22・・・キャスタ23・・・モータ26・・・プロジェクタ(出力部) 21 ... the wheels 22 ... caster 23 ... motor 26 ... projector (output section)

Claims (14)

  1. 周囲の環境情報を取得する環境情報取得部と、 An environment information acquisition unit for acquiring environmental information around,
    前記環境情報取得部で取得した環境情報に基づいて自律動作を制御する制御部と、 A control unit for controlling the autonomous operation based on the acquired environmental information by the environmental information acquisition unit,
    前記制御部により動作を制御される動作部と、を備える自律動作型ロボットであって、 A self-operated robot and an operation unit which is controlled the operation by the control unit,
    取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部を正常に動作させる際に影響を及ぼす物体を障害物と認識する障害物認識部と、 Of the object existing around the grasped based on the acquired environmental information, and obstacle recognizing the obstacle recognition unit affecting objects in operating normally the operation portion,
    前記障害物認識部により認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する出力部と、を備えることを特徴とする自律動作型ロボット。 Autonomous operation robot, characterized in that it comprises an output unit for outputting visual obstacle identification information for identifying the external the recognized obstacle by the obstacle recognition unit.
  2. 前記障害物認識部が、前記動作部の動作範囲を含む所定の安全領域を特定し、該安全領域内に存在する物体を障害物と認識することを特徴とする請求項1に記載の自律動作型ロボット。 The obstacle recognition unit identifies the predetermined safety area including the operating range of the operation unit, the autonomous operation according to claim 1, characterized in that to recognize the object an obstacle present in the safety area type robot.
  3. 前記制御部が、前記障害物認識部により障害物が認識された際に、動作部の動作を一時的に停止することを特徴とする請求項1または2に記載の自律動作型ロボット。 Wherein the control unit is, when the obstacle is recognized by the obstacle recognition unit, autonomous operation robot according to claim 1 or 2, characterized in that temporarily stops the operation of the operation unit.
  4. 前記認識した障害物が移動するか否かを判別する判別部をさらに備えていることを特徴とする請求項1から3のいずれかに記載の自律動作型ロボット。 Autonomous operation robot according to any of claims 1 to 3, characterized in that obstacle the recognition is further provided with a discriminator for discriminating whether or not to move.
  5. 認識する障害物の種類ごとに対応する複数の特定情報を備えた特定情報データベースを予め記憶するとともに、前記出力部が、前記障害物認識部で認識した障害物に対応する特定情報を前記データベースから読み出し、出力することを特徴することを特徴とする請求項1から4のいずれかに記載の自律動作型ロボット。 As well as pre-stored specific information database having a plurality of identification information corresponding to each type of recognizing an obstacle, the output unit, the specific information corresponding to the obstacle recognized by the obstacle recognition unit from the database read, autonomous operation type robot according to any one of claims 1 to 4, characterized by being to output.
  6. 前記障害物認識部により認識された障害物の位置に基づいて、前記障害物特定情報を出力する方向を定めることを特徴とする請求項1から5のいずれかに記載の自律動作型ロボット。 On the basis of the position of the recognized obstacle by the obstacle recognition unit, autonomous operation robot according to any of claims 1 5, characterized in that to determine the direction of outputting the obstacle identification information.
  7. 前記認識された障害物の位置に向けて前記障害物特定情報を出力することを特徴とする請求項6に記載の自律動作型ロボット。 Autonomous operation robot according to claim 6, characterized in that outputs the obstacle specific information to the position of the recognized obstacles.
  8. 前記出力部が、ロボットの周囲全体に亘って前記障害物特定情報を出力できるように、複数配置されていることを特徴とする請求項1から7のいずれかに記載の自律動作型ロボット。 The output unit, so that it can output the obstacle specific information over the entire periphery of the robot, autonomous operation type robot according to any one of claims 1 to 7, characterized in that are arranged.
  9. 前記出力部が、出力する方向を変更可能に取り付けられたプロジェクタであることを特徴とする請求項1から8のいずれかに記載の自律動作型ロボット。 Autonomous operation robot according to any of claims 1 to 8, wherein the output unit, characterized in that a projector mounted for changing the direction of output.
  10. 前記出力部により出力する障害物特定情報が、文字情報であることを特徴とする請求項1から9のいずれかに記載の自律動作型ロボット。 Obstacle specific information output by said output unit, autonomous operation type robot according to any one of claims 1 to 9, characterized in that a text information.
  11. 前記動作部が、ロボットの位置を変更する移動手段を含むことを特徴とする請求項1から10のいずれかに記載の自律動作型ロボット。 The operation unit is autonomous operation type robot according to any of claims 1 to 10, characterized in that it comprises a moving means for changing the position of the robot.
  12. 前記動作部が、関節により駆動し、その姿勢を変形可能な関節駆動部を含むことを特徴とする請求項1から11のいずれかに記載の自律動作型ロボット。 The operation unit is driven by a joint, autonomous operation type robot according to any one of claims 1 to 11, characterized in that it comprises an articulation drive deformable its attitude.
  13. 前記関節駆動部が、多関節を有する腕部であり、前記出力部が該腕部に取り付けられていることを特徴とする請求項12に記載の自律動作型ロボット。 The articulation drive is a arm portion having an articulated, self-operated robot according to claim 12, wherein the output unit is characterized in that attached to the arm portion.
  14. 動作部の動作範囲を特定する動作範囲特定ステップと、 And operating range specifying step of specifying the operating range of the operation unit,
    周囲の環境情報を取得する環境情報取得ステップと、 An environment information acquiring step of acquiring environment information surrounding,
    前記環境情報取得ステップにおいて取得した環境情報に基づいて把握した周囲に存在する物体のうち、前記動作部の動作範囲に含まれる物体を障害物と認識する障害物認識ステップと、 Of the object existing around the grasped based on the acquired environment information in the environment information acquiring step, the obstacle recognizing the obstacle recognition step the object included in the operating range of the operation unit,
    前記障害物認識ステップにより認識された障害物を特定する障害物特定情報を外部に対して視覚的に出力する障害物特定情報出力ステップと、を備えることを特徴とする自律動作型ロボットの動作制御方法。 Operation control of the autonomous operation robot, characterized in that it comprises, an obstacle identification information output step of outputting visually obstacle identification information for identifying the external the recognized obstacle by the obstacle recognition step Method.
JP2007292443A 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot Pending JP2009113190A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007292443A JP2009113190A (en) 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007292443A JP2009113190A (en) 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot

Publications (1)

Publication Number Publication Date
JP2009113190A true JP2009113190A (en) 2009-05-28

Family

ID=40780891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007292443A Pending JP2009113190A (en) 2007-11-09 2007-11-09 Autonomous working robot and method of controlling operation of autonomous working robot

Country Status (1)

Country Link
JP (1) JP2009113190A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
CN104093527A (en) * 2012-02-03 2014-10-08 日本电气株式会社 Communication draw-in system, communication draw-in method, and communication draw-in program
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile human interface robot
WO2016080321A1 (en) * 2014-11-21 2016-05-26 シャープ株式会社 Display projection control device, display projection system, program for controlling display projection control device, computer-readable recording medium having control program recorded thereon, and method for controlling display projection control device
JP2016198839A (en) * 2015-04-08 2016-12-01 富士電機株式会社 Production line monitor system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011067941A (en) * 2009-09-22 2011-04-07 Gm Global Technology Operations Inc Visual perception system and method for humanoid robot
US8816874B2 (en) 2010-01-25 2014-08-26 Panasonic Corporation Danger presentation device, danger presentation system, danger presentation method and program
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile human interface robot
CN104093527A (en) * 2012-02-03 2014-10-08 日本电气株式会社 Communication draw-in system, communication draw-in method, and communication draw-in program
JPWO2013114493A1 (en) * 2012-02-03 2015-05-11 日本電気株式会社 Communication pull-system, communication pull method and communication draw program
US9662788B2 (en) 2012-02-03 2017-05-30 Nec Corporation Communication draw-in system, communication draw-in method, and communication draw-in program
WO2016080321A1 (en) * 2014-11-21 2016-05-26 シャープ株式会社 Display projection control device, display projection system, program for controlling display projection control device, computer-readable recording medium having control program recorded thereon, and method for controlling display projection control device
JPWO2016080321A1 (en) * 2014-11-21 2017-05-25 シャープ株式会社 Display projection control unit, a display projection system, the display projection control device control program, a computer readable recording medium recording the control program, and control method of the display projection control unit
JP2016198839A (en) * 2015-04-08 2016-12-01 富士電機株式会社 Production line monitor system

Similar Documents

Publication Publication Date Title
Yokoyama et al. Cooperative works by a human and a humanoid robot
US8930019B2 (en) Mobile human interface robot
US7551980B2 (en) Apparatus, process, and program for controlling movable robot control
Shoval et al. NavBelt and the Guide-Cane [obstacle-avoidance systems for the blind and visually impaired]
JP4821516B2 (en) Multi-joint structure
JP4245367B2 (en) Robot cleaner and its system and control method
US7778776B2 (en) Obstacle avoidance method and obstacle-avoidable mobile apparatus
US8918213B2 (en) Mobile human interface robot
US20060129276A1 (en) Autonomous mobile robot
US20040267442A1 (en) Computer-controlled power wheelchair navigation system
CN106660208B (en) Virtual security cover for the robotic device
CN103645733B (en) A robot automatically finding a charging station and a system and method for automatically finding a charging station thereof
KR100471643B1 (en) Man - a production plant equipped with machines for body jadongga cooperation
JP5832553B2 (en) Coverage robot navigation
JP4079792B2 (en) Teaching method of the robot and the teaching function with robot
EP2820498A1 (en) Mobile robot
CN100493856C (en) Moving object capable of recognizing image and moving-object directing system equipped with the same
JP2011138502A (en) System and method for area coverage using sector decomposition
US20080086236A1 (en) Mobile robot and controller for same
JP2006247368A (en) Robot cleaner
JP4864005B2 (en) Light laser guidance system apparatus and method
CN102448681B (en) Operating space presentation device, operating space presentation method, and program
US20120316680A1 (en) Tracking and following of moving objects by a mobile robot
EP2068275B1 (en) Communication robot
KR20060059006A (en) Method and apparatus of self-propelled mobile unit with obstacle avoidance during wall-following