JP4198676B2 - Robot, movement tracking method of the robot apparatus, and a program - Google Patents

Robot, movement tracking method of the robot apparatus, and a program Download PDF

Info

Publication number
JP4198676B2
JP4198676B2 JP2004378816A JP2004378816A JP4198676B2 JP 4198676 B2 JP4198676 B2 JP 4198676B2 JP 2004378816 A JP2004378816 A JP 2004378816A JP 2004378816 A JP2004378816 A JP 2004378816A JP 4198676 B2 JP4198676 B2 JP 4198676B2
Authority
JP
Japan
Prior art keywords
data
robot
robot apparatus
moving
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004378816A
Other languages
Japanese (ja)
Other versions
JP2006185239A (en
Inventor
卓 吉見
学 西山
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to JP2004378816A priority Critical patent/JP4198676B2/en
Publication of JP2006185239A publication Critical patent/JP2006185239A/en
Application granted granted Critical
Publication of JP4198676B2 publication Critical patent/JP4198676B2/en
Application status is Active legal-status Critical
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、室内や屋外環境内を動き回る人などの物体を認識し、それに追従する動作を行う、ロボット装置、ロボット装置の移動追従方法、および、プログラムに関する。 The present invention recognizes an object such as a human moving around a room or outdoor environment, performs an operation to follow it, the robot device, the mobile tracking method for a robot apparatus, and a program.

家庭にロボットが導入され、人に安全・安心を与える、あるいは人のお手伝いをする際には、人に付いて行く、即ち、お供する動作が必要である。 Household robot is introduced to, give the safety and peace of mind to people, or when to help people, keep up with the people, that is, there is a need for action to accompany. このお供する動作をロボットで実現するためには、対人追従機能が重要である。 In order to realize the operation of this accompany the robot, it is important interpersonal following function. 対人追従機能は、人がロボットに未知環境を教示する際にも有用な機能であり、細かな指示無しでロボットを簡単に誘導することが可能となる。 Interpersonal tracking function, people are also useful function in teaching an unknown environment to the robot, it is possible to induce the robot easily without fine instructions.

一般に、ロボットで対人追従機能を実現する第1の方法としては、非特許文献1に記載されているように、ロボットに搭載したカメラで追従対象の人物を認識し、その人物の方向や人物までの距離を計測してロボットをその方向へ誘導することで実現される。 Generally, as a first method of implementing the interpersonal following function in the robot, as described in Non-Patent Document 1, to recognize the following target person by a camera mounted on the robot, to the direction and the person of the person It is achieved by inducing a robot that direction the distance is measured. しかしながら、この対人追従方法では、ロボットは常に追従対象の人物に向かって動作することから、追従対象の人物に向かった直線軌道に沿った移動であった。 However, in this personal tracking method, the robot is always the operate towards the following target person was moved along a straight line trajectory towards the tracking target person.

また、対人追従機能として良く知られる第2の方法としては、非特許文献2に記載されているように、ロボットが人の通った空間を障害物が存在しない空間領域として認識し、そこを通って移動するロボットの動作軌道を生成することで、人に追従する方法がある。 As the second method, known as interpersonal following function, as described in Non-Patent Document 2, recognized as a space in which the robot is no obstacle exists a space through a human, through which by generating an operation trajectory of the robot to be moved Te, there is a method to follow the person. しかしながら、この対人追従方法では、ロボットは常に追従対象の人物が通った所と同じ場所を移動するものの、追従対象の人物の動きとは別に、ロボットの動作軌道を別途生成する必要があった。 However, in this personal tracking method, the robot but always move to the same location as the place where the person to be tracked is passed, the motion of the tracking target person separately, it is necessary to produce separately the operation trajectory of the robot.

上記の第1の方法で対人追従機能を実現する場合、ロボットは常に追従対象の人物に向かって直線軌道に沿って移動することから、追従対象の人物が障害物の周囲を回りこんで移動する場合などは、障害物を回避する動作がとれず、十分な追従性能を得ることが困難であった。 When implementing the interpersonal following function in the above-mentioned first method, the robot from moving along a straight line trajectory at all times towards the following subject person, the person to be tracked is moved crowded around the circumference of the obstacle such as when the operation to avoid the obstacle Torezu, it is difficult to obtain a sufficient following performance.

また、上記の第2の方法で対人追従機能を実現する場合、追従対象の人物の動きから障害物が存在しない空間領域を生成するだけでなく、ロボットの動作軌道を別途生成する必要があるため、ロボットの動きが必ずしも追従対象の人物の動きと一致しない、処理負荷が大きいなどの問題があった。 Also, when realizing the interpersonal following function in a second manner described above, but the motion to be tracked person only generate spatial region in which the obstacle does not exist, since it is necessary to produce separately the operation trajectory of the robot , the movement of the robot does not always coincide with the motion of the tracking target person, there is a problem such as processing load is large.

従って、本発明は上記問題点に鑑みなされたものであり、追従対象が障害物の周囲を回りこんで移動する場合でも、障害物を回避しながらの、スムーズで確実な追従性能を簡単に実現するロボット装置、ロボット装置の移動追従方法、および、プログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above problems, even when the tracking target moves crowded around the circumference of the obstacle, while avoiding an obstacle, easily realize a smooth reliable tracking performance robotic device for movement tracking method for a robot apparatus, and aims to provide a program.

本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、 前記対象物体を撮像するカメラと、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得する取得手段と、前記取得手段によって順次取得した複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備え、前記取得手段は、該カメラで撮像した画像データを用いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、前記生成手段は、前記取得手段が同一の前記画像データを用いて障害物の有無を The present invention, a target object moving on the floor, a robot apparatus that moves following, a camera for imaging the object, the interval defined data indicating the direction and distance of the target object relative to the robot device acquisition means for sequentially acquiring in the data indicating the position obtained before one of the most recent data to determine the destination from a plurality of data sequentially acquired by the acquisition unit, a movement command to the position generating means for generating, provided for the purpose of moving the robot apparatus itself, and a moving means for moving based on the movement command, which is the product, the acquisition means, the image data captured by the camera using the presence or absence of the acquired data indicating the direction and distance of the target object relative to the robot apparatus, said generating means, obstacle the acquisition unit using the same of the image data 出し、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成した。 However, if it is determined that there is the obstacle, to produce said movement command based on the direction and distance of the previous of the object to be determined that there is the obstacle.

また、本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、 前記対象物体を撮像するカメラと、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、前記出力手段によって出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備え、前記出力手段は、該カメラで撮像した画像データを Further, the present invention is that the target object moving on the floor, a robot apparatus that moves following, defined a camera for imaging the object, data indicating the direction and distance of the target object relative to the robot device and with sequentially obtained at intervals, to determine whether there is an obstacle between the robot apparatus and the target object, the direction of the target object relative to the robot device when it is determined that there is no obstacle distance and an output means for outputting data indicating the position indicated by the one data from among a plurality of data output by the output means determines that the destination, and generating means for generating a movement command to the position , provided for the purpose of moving the robot apparatus itself, and a moving means for moving based on the movement command, which is the product, and the output means, the image data captured by the camera いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、前記生成手段は、前記出力手段が同一の前記画像データを用いて該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成した。 There are, the acquired data indicating the direction and distance of the target object relative to the robot apparatus, said generating means, when the output unit determines that there is the obstacle by using the same of the image data, the disorder and generating the moving command based on the direction and distance of the previous of the object to be determined that there is an object.

また、本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、 前記対象物体を撮像するカメラと、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、前記出力手段によって出力された複数のデータの中から最新のデータが示す前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備え、前 Further, the present invention is that the target object moving on the floor, a robot apparatus that moves following, defined a camera for imaging the object, data indicating the direction and distance of the target object relative to the robot device and with sequentially obtained at intervals, to determine whether there is an obstacle between the robot apparatus and the target object, the direction of the target object relative to the robot device when it is determined that there is no obstacle and output means for outputting data indicating the distance, the position indicated by the data indicating the direction and distance of the target object indicated by the most recent data to determine the destination from a plurality of data output by said output means a generating means for generating a movement command to the position provided for the purpose of moving the robot apparatus itself, and a moving means for moving based on the movement command, which is the product, before 出力手段は、該カメラで撮像した画像データを用いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、前記生成手段は、前記出力手段が同一の前記画像データを用いて該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成した。 Output means, using the image data captured by the camera to obtain data indicating the direction and distance of the target object relative to the robot apparatus, said generating means, said output means using the same of the image data If it is determined that the obstacle Te, generating the movement command based on the direction and distance of the previous of the object to be determined that there is the obstacle.

また、本発明は、床上を移動する対象物体を、移動追従するロボット装置であって、 前記対象物体を撮像するカメラと、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、前記出力手段によって出力されたデータを上書き記憶する記憶手段と、前記記憶手段に記憶されたデータの組に含まれる前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、該ロボット装置自身を移動するためのものであって、該生成された移動指 Further, the present invention is that the target object moving on the floor, a robot apparatus that moves following, defined a camera for imaging the object, data indicating the direction and distance of the target object relative to the robot device and with sequentially obtained at intervals, to determine whether there is an obstacle between the robot apparatus and the target object, the direction of the target object relative to the robot device when it is determined that there is no obstacle distance and an output means for outputting data indicating a storage unit to overwrite storing data output by said output means, the direction and distance of the target object included in the set of data stored in said storage means moving finger destination and determining a position indicated by the data, a generation unit for generating a movement command to the position provided for the purpose of moving the robot apparatus itself, which is the product shown に基づいて移動する移動手段とを備え、前記出力手段は、該カメラで撮像した画像データを用いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、前記生成手段は、前記出力手段が同一の前記画像データを用いて該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成した。 And a moving means for moving, based on said output means, using the image data captured by the camera, the acquired data indicating the direction and distance of the target object relative to the robot apparatus, said generating means , if the output means determines that there is the obstacle by using the same of the image data to generate the movement command based on the direction and distance of the previous of the object to be determined that there is the obstacle It was.

また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得し、前記システム制御部によって、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成し、 前記移動指令を生成する際、前記画像データを用いて障害物の有無を検出し、該障害物があると判断した場合、該障害物があると判 Further, the present invention is that the target object moving on the floor, to move following, an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, a follow-up method for moving a robot apparatus and a moving sub-system for the movement of the robot apparatus, by the image processing subsystem, a defined data indicating the direction and distance of the target object relative to the robot device spacing in sequentially obtained, by the system control unit determines a destination of the data is shown positioned acquired before one of the latest data from a plurality of data to which the acquired sequentially, the movement command to the position generates, when generating the moving command, the image data was used to detect the presence or absence of an obstacle, if it is determined that there is the obstacle when there is the obstacle determine される以前の前記対象物の方向と距離に基づいて前記移動指令を生成し、前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにした。 Is the generating the movement command based on the direction and distance of the previous of the object, by the mobile subsystem, and to move on the basis of a motion command which is the product.

また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力し、前記システム制御部によって、該出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位 Further, the present invention is that the target object moving on the floor, to move following, an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, a follow-up method for moving a robot apparatus and a moving sub-system for the movement of the robot apparatus, by the image processing subsystem, a defined data indicating the direction and distance of the target object relative to the robot device spacing in conjunction with sequentially acquires, it determines whether there is an obstacle between the robot apparatus and the target object, the distance and direction of the target object relative to the robot device when it is determined that there is no obstacle outputs data indicating, by the system control unit determines the movement destination position indicated by one data from among a plurality of data the output, that position への移動指令を生成し、 前記移動指令を生成する際、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成し、前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにした。 Generates a movement command to, when generating the moving command, if it is determined that there is the obstacle, the movement command based on the direction and distance of the previous of the object to be determined that there is the obstacle It generates, by the mobile subsystem, and to move on the basis of a motion command which is the product.

また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するための第1プログラムコードと、前記システム制御部によって実行される、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成し、前記移動指令を生成する際、前記画像データを用いて障害物の有無 Further, the present invention is that the target object moving on the floor, to move following, an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, a program executed by a robot apparatus and a moving sub-system for the movement of the robot apparatus, the executed by the image processing subsystem, data indicating the direction and distance of the target object relative to the robot device shows a first program code for sequentially acquiring at a defined interval, the executed by the system controller, data obtained immediately before the latest data from a plurality of data to which the sequentially acquired position is determined as the destination, and generates a movement command to the position, when generating the moving command, the presence or absence of an obstacle by using the image data 検出し、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成するための第2プログラムコードと、前記移動サブシステムによって実行される、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えた。 Detecting, if it is determined that there is the obstacle, and a second program code for generating said movement command based on the direction and distance of the previous of the object to be determined that there is the obstacle, the moving executed by the subsystem, and a third program code for moving based on the movement command, which is the product.

また、本発明は、床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するための第1プログラムコードと、前記システム制御部によって実行される、該出力された複数のデ Further, the present invention is that the target object moving on the floor, to move following, an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, a program executed by a robot apparatus and a moving sub-system for the movement of the robot apparatus, the executed by the image processing subsystem, data indicating the direction and distance of the target object relative to the robot device with sequentially acquires in-determined intervals, to determine whether there is an obstacle between the robot apparatus and the target object, if it is determined that there is no obstruction of the target object relative to the robot device a first program code for outputting data indicating the direction and distance, is executed by the system control unit, a plurality of de which is the output タの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成し、前記移動指令を生成する際、前記画像データを用いて障害物の有無を検出し、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成するための第2プログラムコードと、前記移動サブシステムによって、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えた。 Determines that the destination of the position indicated by the one data among the data, and generates a movement command to the position, when generating the moving command, detects the presence or absence of an obstacle by using the image data, the If it is determined that there is an obstacle, and a second program code for generating said movement command based on the direction and distance of the previous of the object to be determined that there is the obstacle, by the mobile subsystem, and a third program code for moving based on the movement command, which is the product.

本発明によれば、追従対象の人物が障害物の周囲を回りこんで移動する場合でも、障害物を回避しながらの、スムーズで確実な追従性能が、別途動作軌道の生成を行わずに得られる。 According to the present invention, even if the person to be tracked is moved crowded around the circumference of the obstacle, while avoiding an obstacle, the smooth and reliable tracking performance obtained without separately generated operation trajectory It is.

以下、本発明に係るロボット装置の実施の形態を、図面を参照して説明する。 Hereinafter, an embodiment of a robot apparatus according to the present invention will be described with reference to the drawings.

図1は、本実施の形態のロボット装置の外観を示しており、(a)は正面から見た図であり、(b)が側面から見た図である。 Figure 1 shows the external appearance of the robot apparatus of the present embodiment, (a) is a view as seen from the front, a diagram (b) is viewed from the side. 本実施の形態のロボット装置は、人間と類似した形状であって、図1中、1は首を含む顔部、2は胴部、3はアーム部、4は移動部を示している。 Robot device according to the present embodiment, a human with similar shape, in FIG. 1, the face portion 1 including a neck, 2 barrel, 3 arm, 4 indicates the moving part.

顔部1は、音声を出力するスピーカ11を含む口部5と、音声を入力するマイク12を含む2つの耳部6と、外部の映像を入力するカメラ13を含む2つの目部7とを備えている。 Face portion 1 includes a mouth portion 5 including a speaker 11 for outputting audio, and two ears 6 including the microphone 12 for inputting a voice, and two eyes 7 including the camera 13 for inputting an external video It is provided. アーム部3は、手や、幾つかの関節を備え、人間の型、腕、手に相当する動きを行うものである。 Arm 3, hands and, with several joints is performed human type arm, the movement corresponding to the hand.

移動部4は、タイヤ8を4つ備えており、ロボット装置が移動する床面に対し、ロボット装置(の全体)を直進・後退したり左右へ方向を変えたりするもので、人間の足に相当する。 Moving unit 4 is provided with four tire 8, to the floor on which the robot device moves, as to changing the direction to the right or straight-backward robotic device (whole), the human foot Equivalent to.

胴部2は、ロボット装置の中心的な部位であり、顔部1(の首)、アーム部3、移動部4とそれぞれ回転機構を介して接続されており、また、胴部2の内部には、ロボット装置の動作や情報処理などの制御全般を行うロボットシステム10が内蔵されている。 Barrel 2 is the central part of the robot apparatus, face portion 1 (neck), the arm portion 3, are respectively connected via a rotating mechanism and the moving part 4, also in the interior of the barrel 2 the robotic system 10 for performing overall control of such operations and the information processing of the robot apparatus is incorporated.

図2は、ロボットシステム10のシステム構成を示している。 Figure 2 shows a system configuration of the robot system 10.

ロボットシステム10は、ロボット装置自身の動作や処理を決定するためのシステム制御部21と、システム制御部21で動作や処理を決定するための情報(以下、制御入力情報と称す)を入力したり、システム制御部21で決定された動作や処理の指示情報(以下、制御出力情報と称す)を受けて実行するための各種サブシステム22・・・27とに大別される。 Robot system 10 to input to the system control unit 21 for determining the operation and processing of the robot apparatus itself, the information for determining the operations and processes in the system control unit 21 (hereinafter, referred to as the control input information) instruction information behavior or processing determined by the system controller 21 (hereinafter, the control output information hereinafter) receiving and being classified into the various subsystems 22 ... 27 for execution.

音声処理サブシステム22は、A/D変換やD/A変換、音声認識、音声合成などの音声処理全般を行うものであって、マイク11を介して入力された外界の音声のうち、システム制御部21で必要とされる制御入力情報をシステム制御部21へ供給したり、システム制御部21や音声処理サブシステム22の内部で生成したロボット装置が外界へ発する言葉、等をスピーカ12を介して音声出力するための処理を行ったりするものである。 Audio processing subsystem 22, A / D conversion and D / A conversion, speech recognition, there is performing voice processing in general, such as voice synthesis, of the external voice input through the microphone 11, the system control and supplies the control input information to the system control unit 21 required in the parts 21, word robot apparatus generated within the system controller 21 and audio processing subsystem 22 is emitted to the outside world, and the like through the speaker 12 it is intended to or perform processing for audio output. また、音声処理サブシステム22は、例えば、入力した音声認識が上手く出来なかった時に、システム制御部21を介すことなく、音声合成を介して聞き返すといった音声出力を自動的に行う(音声処理サブシステム22の内部で閉じて処理される)ような処理を含んでいても良い。 Also, the audio processing subsystem 22, for example, when the voice recognition input could not work without the intervention of the system control unit 21 automatically performs the voice output such ask again through speech synthesis (voice processing sub are processed to close within the system 22) such processing may include.

画像処理サブシステム23は、カメラ13から入力された画像を画像認識し、画像認識された情報のうちシステム制御部21で必要とされる制御入力情報を全体制御部21へ供給するものである。 The image processing subsystem 23, an image inputted from the camera 13 and the image recognition, and supplies to the overall control section 21 controls input information required by the system control unit 21 of the image recognition information. また、画像処理サブシステム23は、二つのカメラ13を用いた三角測量法による撮像対象物の距離測定を行なう処理を含む。 The image processing subsystem 23 includes a processing for performing the distance measurement of the imaged object by triangulation using two cameras 13. 更に、画像処理サブシステム23は、撮像対象の方向を常に追跡しつつ、撮影対象を撮像し続ける、従来より良く知られるトラッキング機能を備える。 Furthermore, the image processing subsystem 23 includes while constantly track the direction of the imaging object, continue imaging the imaging target, a tracking function that are well known conventionally.

アームサブシステム24は、システム制御部21から制御出力情報を受け取って、アーム部3の各関節の物理駆動量を決定しアーム部3を動作させるものである。 Arm subsystem 24 receives the control output data from the system control section 21 for operating the arm section 3 determines the physical drive quantity of each joint of the arm 3. 胴回転サブシステム25は、システム制御部21から制御出力情報を受け取って、移動部4に対する胴部2の物理回転量を決定し胴部2を回転動作させるものである。 Cylinder rotational subsystem 25 receives the control output data from the system control unit 21 is a body portion 2 determines the physical amount of rotation of the barrel 2 to the mobile unit 4 to rotate operation. 首回転サブシステム26は、システム制御部21から制御出力情報を受け取って、胴部2に対する顔部1(の首)の物理回転駆動量を決定し、顔部1(の首)を回転動作させるものである。 Neck rotational subsystem 26 receives the control output data from the system control unit 21 determines a physical rotation drive amount of the face portion 1 (neck) with respect to the body portion 2 is rotated operating face portion 1 (neck) it is intended. 移動サブシステム27は、システム制御部21から制御出力情報を受け取って、各タイヤ8の回転量を決定(直進の場合は単一に決定しても良い)し、各タイヤ8を回転動作させるものである。 Mobile subsystem 27, one receives the control output data from the system control unit 21, the amount of rotation of each tire 8 determines (for straight may be determined in a single), for rotational operation of each tire 8 it is. なお、一定時間内における回転量を調整することによって、速度を調整することも可能である。 Incidentally, by adjusting the amount of rotation in a fixed time, it is also possible to adjust the speed.

システム制御部21は、ロボット装置自身の動作や処理を決定するものであり、外界の状態や内部の状態(例えば、ロボット装置の姿勢、バッテリー残量、等)を制御入力情報として受け取って、例えば、予め定めたルールなどに従って一以上の動作や処理を決定し、それら動作や処理が可能な一以上のサブシステムへ制御出力情報を出力する。 The system control unit 21, which determines the operation and processing of the robot apparatus itself, external conditions and internal state (e.g., the posture of the robot device, battery level, etc.) receive a control input information, e.g. to determine one or more operations and processes in accordance with such predetermined rules, and outputs the control output information to their operation and processing one or more subsystems as possible. なお、処理、例えば計算処理などの静的な処理は、サブシステムへさせることなくシステム制御部21で処理するようにしても良いことは勿論である。 The processing, for example, a static process such as calculation process, it is a matter of course that may be processed by the system control unit 21 without the subsystem.

なお、本実施の形態のロボット装置は、上記のサブシステム22〜27を備えるようにしたが、これらに限らず他に、例えば、無線機能や表示機能などが必要なロボット装置を提供する場合には、無線通信処理を行う無線サブシステムや、別途表示装置を取り付けるとともに表示制御を行う表示サブシステムなどを備えるようにすればよい。 Incidentally, the robot apparatus of the present embodiment has been so equipped with a subsystem 22 to 27 above, the other is not limited to, for example, in the case where such a radio function and a display function to provide a robotic device required is or radio subsystem that performs wireless communication processing may be to include a display subsystem for controlling the display is attached separately display device.

次に、本ロボット装置の追従動作について、図3の機能ブロック図、及び、図4のフローチャートで説明する。 Next, the follow-up operation of the robot apparatus, the functional block diagram of FIG. 3, and will be described with reference to a flowchart of FIG. なお、以下で説明する機能ブロック部31〜36は、図2のカメラ13、画像処理サブシステム23、システム制御部21、首回転サブシステム26、移動サブシステム27などで実現される。 The functional block portions 31 to 36 described below, the camera 13 of FIG. 2, the image processing subsystem 23, the system controller 21, the neck rotation subsystem 26 is realized by a mobile subsystem 27.

まず、追従の対象となる対象物体(例えば、人間)を撮像部31にて撮像された映像は、画像処理部32へ入力される(S101)。 First, image captured subject to object of follow-up (e.g., a human) a in the imaging section 31 is input to the image processing unit 32 (S101).

また、撮像したタイミングのロボット装置の姿勢を併せて求める(S102)。 Also, determine together the attitude of the timing of the robot apparatus captured (S102). ここで言うロボット装置の姿勢とは、所定方向に対するカメラの向きを示した角度のことを言い、本実施の形態のロボット装置においては、所定方向に対する移動部4の向き(角度)と、移動部4に対する胴部2の向き(角度)と、胴部2に対する顔部(首)の向き(角度)と、顔部1に対するカメラ13の取り付け方向(角度)との合計で求まる。 The posture of the robot device mentioned here, refers to the angle showing the direction of the camera with respect to a predetermined direction, the robot apparatus of the present embodiment, the direction of the moving part 4 (angle) for a given direction, movement unit the direction (angle) of the body portion 2 for 4, the face portion to the body portion 2 and the orientation (angle) of the (neck), obtained by the sum of the mounting direction of the camera 13 (an angle) with respect to the face portion 1. なお、これらの各角度は、例えば、ロボット装置の姿勢に係る各サブシステムから制御入力情報(内部状態)として得ればよい。 Incidentally, each of these angles may be, for example, Ere to a control input information from each sub-system according to the posture of the robot device (internal state).

画像処理部32は、撮像された画像の認識処理を行って対象物体を特定し、また、対象物体を常に画像の中心付近で撮像できるよう対象物体の動きを取得し、取得した対象物体の動きを追従するために、ここではロボット装置の顔部(首)1を回転制御する(S103)。 The image processing unit 32 identifies the target object by performing recognition processing of the captured image, also, obtains the movement of an object to be able to image the target object always near the center of the image, acquired motion of the target object to follow, where the rotation control face portion (neck) 1 of the robotic device (S103). この対象物体の映像で追う一連の処理は、一般にトラッキング機能と呼ばれる。 The series of processes follow the video of the target object is commonly referred to as tracking. 本実施の形態のロボット装置では、トラッキング機能の制御は、どのような方法で行われていても良い。 In the robot apparatus of the present embodiment, control of the tracking function may be performed by any method. なお、トラッキング機能は、追従動作のフローから見れば、独立して常時動作していれば良い。 Incidentally, tracking function, when viewed from the flow of tracking operation, it is sufficient to operate at all times independently.

画像処理部32は、撮像された画像を利用し、三角測量法などでロボット装置(撮像部31)と対象物体との距離を求める(S104)。 The image processing unit 32, using the captured image, obtains a distance of the robot unit (imaging unit 31) and the target object such as a triangulation method (S104). 以上のステップS102およびS104の処理から、ロボット装置の画像取得時の位置に対する対象物体の方向及び距離がわかる。 From the processing of steps S102 and S104 described above, it is understood the direction and distance of the target object relative to the position at the time of image acquisition of the robot apparatus.

次に、画像処理部32は、撮像された画像の認識処理を行うことにより、ロボット装置と対象物体との間に障害物があるか否かを検出する(S105)。 Next, the image processing unit 32, by performing the recognition processing of the captured image to detect whether there is an obstacle between the robot apparatus and the target object (S105). なお、ここでは障害物の有無の判断を画像によって行うこととしたが、これに代えて、超音波センサ等の近接覚センサを用いて行っても良い。 Here, it is assumed that performs determination as to the presence or absence of an obstacle by the image, instead of this, may be performed using the proximity sensor such as an ultrasonic sensor. また、ここで想定する障害物は、ロボット装置から対象物体を撮像する際に認識の妨げにならない高さ程度であることを前提としている。 Furthermore, obstacles assumed here is based on the assumption that the order of height not to interfere with recognition when imaging the object from the robot apparatus.

画像処理部32でロボット装置と対象物体との間に障害物がないと検出された場合には、ロボット装置(カメラ31)の画像取得時の位置と、ロボット装置に対する対象物体の方向及び距離(相対的な方向、距離)とを組とし、記憶部33へ記憶する(S106)。 When it is detected that there is no obstacle between the robot apparatus and the target object in the image processing unit 32, the position at the time of image acquisition of the robotic device (camera 31), the direction and distance of the target object relative to the robot ( relative direction, distance) and was a set, and stores in the storage unit 33 (S106). 記憶部33に既に記憶されているデータの組が有る場合には、上書き、つまり更新するようにする。 If the set of data in the storage unit 33 has already stored there is overwritten, that is, to update. 本フローでは、記憶部33へ記憶するデータの組は、一組だけとしたが、データの組の書き込み順序がわかればよく、例えば連番を付したり、記憶時刻(タイムスタンプ)を付したり、アドレス順(物理的に順)に追記書き込みしても良い。 In this flow, the set of data stored in the storage unit 33 are denoted was only one set may knowing the set of write order of the data, for example, or given the sequence number, stored time (time stamp) or it may be additional writing to the address order (physical order).

一方、ステップS105で、障害物が有ると検出された場合には、求められた距離や方向は破棄し、ステップS107へ進む。 On the other hand, in step S105, when it is detected that the obstacle is present, the the obtained distance and direction discarded, the process proceeds to step S107.

移動指令生成部34は、記憶部33に記憶されるデータの組を読み出し、そのデータの組をロボット装置の次の移動地点と決定し、その移動地点を含む移動指令を出力する(S107)。 Movement command generating unit 34 reads a set of data stored in the storage unit 33, a set of data to determine the next movement point of the robot apparatus, and outputs the movement command including the moving point (S107). ここで、移動指令生成部34で利用する移動地点は、ステップS105で障害物があると検出された場合には、現在撮像した時点より過去の撮像した時点のデータの組を利用することとなる点が重要である(詳細は、後記する)。 Here, moving the point to be used in the movement command generating unit 34, when it is detected that there is an obstacle in step S105, so that the use of a set of data of the time of the past imaging from the time that the current captured point is important (details will be described later).

移動制御部35は、移動指令生成部34から移動指令を受け取ると、現在のロボット装置の位置から、移動指令に含む移動地点への直線経路を決定し、直線経路を進行するよう物理量を移動部36へ与え、移動部36は、これに基づきタイヤなどを駆動し、ロボット装置が移動する(S108)。 Movement control unit 35 receives the movement command from the movement command generating unit 34, from the current position of the robot apparatus, determines the linear path to move the point containing the movement command, the mobile unit physical quantity to proceed straight path given to 36, the moving unit 36 ​​drives the like tires on this basis, the robot device moves (S108).

そして、追従動作が終了するか否かを判断し(S109)、追従動作を継続する場合には、ステップS101に戻り、以上の一連の処理が繰り返される。 Then, it is determined whether the following operation is completed (S109), the case of continuing the tracking operation, the process returns to step S101, to repeat a series of processes described above. なお、追従動作の終了は、例えば、追従の時間や、追従する距離など何らかの条件を設定しておけばよい。 Incidentally, the end of the follow-up operation, for example, the time and the follow-up, it is sufficient to set some conditions such as the distance to follow.

なお、以上説明してきた追従動作フローのうち、ステップS102およびS104の処理順は、反対でも良い。 Of the following operation flow has been described above, the processing order of the steps S102 and S104 may be reversed. また、ステップS105の処理をステップS102およびS104の処理の前に実現すれば、障害物があると判断した場合には、ステップS102およびS104の処理を行う必要がなくなるので、処理負荷も減少する。 Further, if realizing the processing in step S105 before the processing in steps S102 and S104, if it is determined that there is an obstacle, so there is no need to perform the processing of steps S102 and S104, the processing load is also reduced.

以上説明してきた本実施の形態のロボット装置の追従動作による動作結果の一例を図5に模式的に示す。 Schematically shown in FIG. 5 an example of the operation result by the following operation of the robot apparatus of the present embodiment has been described above.

同図中、41はロボット装置の位置、42は追従する対象物体の位置、43は障害物を示す。 In the figure, 41 is the position of the robot apparatus 42 is the position of the target object to follow, 43 denotes an obstacle. また、ロボット装置の位置41、及び、対象物体42の位置の左下の数値は、タイムスタンプであり、同じ値は同時刻を示す。 The position 41 of the robot apparatus and, the lower left of the numerical position of the target object 42 is a time stamp, the same value indicates the same time. 更に、上部の太字矢印44は、対象物体の移動方向を明示している。 Further, bold arrows 44 of the top is clearly a moving direction of the target object. つまり、図5の(a)、(b)、(c)、(d)は、この順に時間が経過している。 That is, in FIG. 5 (a), (b), (c), (d) is over time in this order.

また、ロボット装置から出ている実線の矢印45は、ロボット装置の現在の位置からロボット装置が目標とする移動地点(矢の部分)までの軌跡を示しており、例えば、(a)のタイムスタンプ“1”の際には、ロボット装置は、タイムスタンプ“1”の対象物体を移動地点としていることを意味する。 The arrow 45 in solid lines emanating from the robot device indicates the trajectory from the current position of the robot apparatus to move the point where the robot apparatus is a target (part of the arrow), for example, the time stamp of the (a) "1" when the robotic device means that you are moving point target object timestamp "1".

一方、ロボット装置から出ている点線の矢印46は、ロボット装置の現在の位置からロボット装置が、本来、目標とする移動地点(矢の部分)であるが、障害物があることにより採用しなかった移動地点までの軌跡を示している。 On the other hand, arrow 46 dotted line emanating from the robot apparatus, the robot apparatus from the current position of the robot apparatus, originally is a moving point that the target (the portion of the arrow), not adopted by an obstacle shows the trajectory to the mobile point was. 例えば、(b)のタイムスタンプ“2”の際には、ロボット装置は、タイムスタンプ“2”の対象物体を移動地点としたかったが、移動地点とできなかったことを意味する。 For example, when the time stamp "2" in (b), the robotic device, but wanted to a moving point of the object time stamp "2" means that could not be a mobile point.

まず、タイムスタンプ1の時点(a)で、タイムスタンプ1の位置にいるロボット装置は、タイムスタンプ1の対象物体の位置を移動地点として移動を行う。 First, at the time of the time stamp 1 (a), the robot apparatus in a position of the time stamp 1, to move the position of the target object timestamp 1 as the mobile point.

次に、タイムスタンプ2の時点(b)で、タイムスタンプ2の位置にいるロボット装置は、タイムスタンプ2の対象物体を撮像するが、障害物があるために移動地点とできず、その結果、引き続きタイムスタンプ1の対象物体を移動地点として移動を行う。 Then, at the time of the time stamp 2 (b), the robot apparatus in a position of the time stamp 2 is for imaging an object time stamp 2 can not a moving point because there is an obstacle, as a result, continue to move the target object of the time stamp 1 as a moving point. ここで、ロボット装置が、タイムスタンプ2の時点でタイムスタンプ1の対象物体を移動地点とできるのは、タイムスタンプ2のロボット装置の位置が、タイムスタンプ1の時点の移動地点までの軌跡の上に存在するからである。 Here, the robot device, to an object time stamp 1 at the time of the timestamp 2 can and move the point, the position of the robot apparatus timestamp 2, on a trajectory to the mobile point of time of the time stamp 1 This is because the present in. つまり、前記軌跡上に存在するということは、その軌跡上での移動は既に保証されている(障害物がない)からである。 In other words, the fact that present on the trajectory, the movement of a locus on is from already guaranteed (obstructions). しかも、保証済みの軌跡のうち最新のものを利用するから、さほど離されることなく追跡を継続できる。 In addition, since the use of the latest of the guarantee already locus, it can continue to track without being less isolated.

次に、タイムスタンプ3の時点(c)で、タイムスタンプ3の位置にいるロボット装置は、タイムスタンプ2の対象物体を撮像した結果、障害物がないからタイムスタンプ3の対象物体の位置を移動地点とし、移動を行う。 Then, at the time of the timestamp 3 (c), the robot apparatus in a position of the time stamp 3, the results obtained by imaging the object timestamp 2, the position of the target object timestamp 3 because there is no obstacle movement as a point, to move. 最後に、タイムスタンプ4の時点(d)も、タイムスタンプ3の時と同様で、タイムスタンプ4の位置にいるロボット装置は、タイムスタンプ4の対象物体を撮像した結果、障害物がないからタイムスタンプ43の対象物体の位置を移動地点とし、移動を行う。 Finally, the time of the time stamp 4 (d), similar to the case of the timestamp 3, the robot apparatus in a position of the time stamp 4, the results obtained by imaging the object timestamp 4, because there is no obstacle time the position of the target object of the stamp 43 and the moving point to move.

以上詳細に説明してきた本実施の形態のロボット装置は、追従対象が障害物の周囲を回りこんで移動する場合でも、既に障害物がないことが保証されている軌跡を利用して動作することにより、障害物を回避しながらの、スムーズで確実な追従性能を簡単に実現できる。 More detail the robot apparatus of the present embodiment has been described, even if the tracking target moves crowded around the circumference of the obstacle, it operates by utilizing the trajectory is guaranteed already there are no obstructions Accordingly, while avoiding an obstacle, it can be easily realized smoothly in a reliable follow-up performance.

次に、本実施の形態の変形例を説明する。 Next, a modified example of the embodiment.

図6は、本変形例のうち、上記で説明した図4との差分を示す部分的なフローチャートである。 6, of the present modification is a partial flow chart showing the difference between FIG. 4 described above.

図4との違いは、ステップS105の後に、通路幅より設定される閾値を予め備え、算出された移動地点との距離が該閾値を超えるか否かを判定している(S201)点が追加されたことにある。 The difference from FIG. 4, after step S105, previously provided a threshold value set than the passage width, the distance between the moving point which is calculated is determined whether more than the threshold value (S201) point add It is there to be had. このステップS201が閾値を越えない限り、記憶部33へのデータの組の記憶(更新)は行わない。 As long as the step S201 does not exceed the threshold, a set of stored data to the storage unit 33 (updated) is not performed. 従って、ステップS107では、移動地点を定めた後、閾値(通路幅)に到達するまでは、現在撮像した時点より過去である前記定められた移動地点のデータの組が利用されることになる。 Therefore, in step S107, after defining a moving point, the threshold value until it reaches the (passage width), so that the set of data of the mobile point the defined is now past than the time of the imaging is utilized. なお、図7は、本変形例のロボット装置の追従動作による動作結果の一例を模式的に示したものであり、ブロック矢印の順に変化していく。 Note that FIG. 7 is an example of the operation result by the following operation of the robot apparatus of the present modification have the meanings indicated schematically, will change the order of the block arrow. 図7の51がここでいう通路幅で、これを距離データとして表した閾値として設定している。 In 51 passages width here in Figure 7, is set as a threshold value representing it as distance data. このようにした変形例によれば、ロボット装置は、移動地点の変更(記憶部33の更新)の時点では、少なくともこの設定された閾値が示す距離(通路幅)分だけ、対象物体に遅れて追従できるようになる。 According to a variant which in this manner, the robot apparatus, at the time of change of the moving point (updating the storage unit 33), by at least a distance indicated by the set threshold value (passage width) fraction, with a delay to the target object It will be able to follow.

また、この変形例に対し更に変形した例として、開始から最初に閾値に到達するまでの時間を計測し、以後、この計測時間が経過するごとにステップS106の記憶部33への記憶(更新)を行うことにより、対象物体に対し、この計測時間分だけ遅れた位置を移動地点とした移動指令が生成できる。 Further, an example having the further modification to this modification, first measures the time to reach a threshold from the start, thereafter, stored in the storage unit 33 in step S106 every time the measured time has elapsed (update) the by performing, with respect to the target object, the movement command of the measuring time period delayed position was moved point can be generated. 即ち、ロボット装置は、移動地点の変更(記憶部33の更新)の時点では、少なくともこの計測時間分だけ、対象物体に遅れて追従できるようになる。 That is, the robot apparatus, at the time of change of the moving point (updating the storage unit 33), by at least the measured time period, it becomes possible to follow behind the object.

本実施の形態のロボット装置の外観を示す図。 View showing an appearance of a robot apparatus of the present embodiment. 本実施の形態のロボットシステム10のシステム構成図。 System configuration diagram of a robot system 10 of the present embodiment. 本実施の形態のロボット装置の追従動作に係る機能ブロック図。 Functional block diagram of the follow-up operation of the robot apparatus of the present embodiment. 本実施の形態のロボット装置の追従動作に係るフローチャート。 Flowchart relating to follow-up operation of the robot apparatus of the present embodiment. 本実施の形態のロボット装置の追従動作による動作結果の一例を模式的に示した図。 Diagram schematically showing an example of an operation result by the following operation of the robot apparatus of the present embodiment. 本実施の形態の変形例に係るロボット装置の、本実施の形態との差分を示した部分的なフローチャート。 Robot device according to a modification of the present embodiment, the partial flow chart showing the difference between the present embodiment. 本実施の形態の変形例に係るロボット装置の追従動作による動作結果の一例を模式的に示した図。 Diagram schematically showing an example of an operation result by the following operation of the robot apparatus according to a modification of the embodiment.

符号の説明 DESCRIPTION OF SYMBOLS

1・・・顔部 2・・・胴部 3・・・アーム部 4・・・移動部5・・・口部 6・・・耳部 7・・・目部 8・・・タイヤ10・・・ロボットシステム 11・・・スピーカ 12・・・マイク13・・・カメラ21・・・システム制御部 22・・・音声処理サブシステム23・・・画像処理サブシステム 24・・・アームサブシステム25・・・胴回転サブシステム 26・・・首回転サブシステム27・・・移動サブシステム31・・・撮像部 32・・・画像処理部 33・・・記憶部34・・・移動指令生成部 35・・・移動制御部 36・・・移動部41・・・ロボットの位置 42・・・対象物体の位置 43・・・障害物 1 ... face part 2 ... the body portion 3 ... arm 4 ... moving part 5 ... opening 6 ... ear portion 7 ... first section 8 ... tire 10 ... robot system 11 ... speaker 12 ... microphone 13 ... camera 21 ... system control unit 22 ... audio processing subsystem 23 ... image processing subsystem 24 ... arm subsystem 25, ... cylinder rotational subsystem 26 ... neck rotational subsystem 27 ... mobile subsystem 31 ... imaging unit 32 ... image processing unit 33 ... memory unit 34 ... movement command generating unit 35, · position 43 ... obstacle position 42 ... target object movement control unit 36 ​​... moving portion 41 ... robot

Claims (10)

  1. 床上を移動する対象物体を、移動追従するロボット装置であって、 The object to be moved on the floor, a robot device moving track,
    前記対象物体を撮像するカメラと、 A camera for imaging the object,
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得する取得手段と、 Acquisition means for sequentially acquiring at intervals determined by the data indicating the direction and distance of the target object relative to the robot apparatus,
    前記取得手段によって順次取得した複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、 A generating means for determining a moving destination on the latest position indicated by the obtained data before one data, and generates a movement command to the position from among a plurality of data sequentially acquired by the acquisition means,
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備え Been made in an effort to move the robot apparatus itself, and a moving means for moving based on the movement command, which is the product,
    前記取得手段は、該カメラで撮像した画像データを用いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、 The acquisition unit using the image data captured by the camera to obtain data indicating the direction and distance of the target object relative to the robot apparatus,
    前記生成手段は、前記取得手段が同一の前記画像データを用いて障害物の有無を検出し、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成することを特徴とするロボット装置。 Said generating means detects the presence or absence of an obstacle the acquisition unit using the same of the image data, if it is determined that there is the obstacle of the previous of the object to be determined that there is the obstacle robotic device and generates the motion command based on the direction and distance.
  2. 床上を移動する対象物体を、移動追従するロボット装置であって、 The object to be moved on the floor, a robot device moving track,
    前記対象物体を撮像するカメラと、 A camera for imaging the object,
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、 With sequentially obtained at intervals determined by the data indicating the direction and distance of the target object relative to the robot apparatus, it is determined whether there is an obstacle between the object and the robot apparatus, the obstacle and output means for outputting data indicating the direction and distance of the target object relative to the robot device when it is determined that there is no,
    前記出力手段によって出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、 The position indicated by the one data from among a plurality of data output by the output means determines that the destination, and generating means for generating a movement command to the position,
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備え Been made in an effort to move the robot apparatus itself, and a moving means for moving based on the movement command, which is the product,
    前記出力手段は、該カメラで撮像した画像データを用いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、 It said output means, using the image data captured by the camera to obtain data indicating the direction and distance of the target object relative to the robot apparatus,
    前記生成手段は、前記出力手段が同一の前記画像データを用いて該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成することを特徴とするロボット装置。 It said moving the generating means, when the output means determines that there is the obstacle by using the same of the image data, based on the direction and distance of the previous of the object to be determined that there is the obstacle robotic device and generates a command.
  3. 床上を移動する対象物体を、移動追従するロボット装置であって、 The object to be moved on the floor, a robot device moving track,
    前記対象物体を撮像するカメラと、 A camera for imaging the object,
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、 With sequentially obtained at intervals determined by the data indicating the direction and distance of the target object relative to the robot apparatus, it is determined whether there is an obstacle between the object and the robot apparatus, the obstacle and output means for outputting data indicating the direction and distance of the target object relative to the robot device when it is determined that there is no,
    前記出力手段によって出力された複数のデータの中から最新のデータが示す前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、 The position indicated by the data indicating the direction and distance of the target object indicated by the latest data from a plurality of data output by the output means determines that the destination, generating means for generating a movement command to the position When,
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備え Been made in an effort to move the robot apparatus itself, and a moving means for moving based on the movement command, which is the product,
    前記出力手段は、該カメラで撮像した画像データを用いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、 It said output means, using the image data captured by the camera to obtain data indicating the direction and distance of the target object relative to the robot apparatus,
    前記生成手段は、前記出力手段が同一の前記画像データを用いて該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成することを特徴とするロボット装置。 It said moving the generating means, when the output means determines that there is the obstacle by using the same of the image data, based on the direction and distance of the previous of the object to be determined that there is the obstacle robotic device and generates a command.
  4. 床上を移動する対象物体を、移動追従するロボット装置であって、 The object to be moved on the floor, a robot device moving track,
    前記対象物体を撮像するカメラと、 A camera for imaging the object,
    該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力する出力手段と、 With sequentially obtained at intervals determined by the data indicating the direction and distance of the target object relative to the robot apparatus, it is determined whether there is an obstacle between the object and the robot apparatus, the obstacle and output means for outputting data indicating the direction and distance of the target object relative to the robot device when it is determined that there is no,
    前記出力手段によって出力されたデータを上書き記憶する記憶手段と、 Storage means for overwriting storing data output by said output means,
    前記記憶手段に記憶されたデータの組に含まれる前記対象物体の方向と距離とを示すデータが示す位置を移動先と決定し、その位置への移動指令を生成する生成手段と、 The position indicated by the data indicating the direction and distance of the target object included in the set of data stored in said storage means to determine the destination, and generating means for generating a movement command to the position,
    該ロボット装置自身を移動するためのものであって、該生成された移動指令に基づいて移動する移動手段とを備え Been made in an effort to move the robot apparatus itself, and a moving means for moving based on the movement command, which is the product,
    前記出力手段は、該カメラで撮像した画像データを用いて、前記ロボット装置に対する前記対象物体の方向と距離とを示すデータを取得し、 It said output means, using the image data captured by the camera to obtain data indicating the direction and distance of the target object relative to the robot apparatus,
    前記生成手段は、前記出力手段が同一の前記画像データを用いて該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成することを特徴とするロボット装置。 It said moving the generating means, when the output means determines that there is the obstacle by using the same of the image data, based on the direction and distance of the previous of the object to be determined that there is the obstacle robotic device and generates a command.
  5. 前記出力手段は、ある距離を示す閾値を設定し、該ロボット装置に対する前記対象物体との距離が前記閾値以下となったときに、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するようにしたことを特徴とする請求項乃至請求項の何れかに記載のロボット装置。 Said output means sets a threshold value indicating a distance, when the distance between the target object relative to the robot apparatus is equal to or less than the threshold value, data indicating the direction and distance of the target object relative to the robot device robot device according to any one of claims 1 to 4, characterized in that to output.
  6. 前記出力手段は、ある距離を示す閾値を設定し、該ロボット装置に対する前記対象物体との距離が前記閾値以下となったときまでの該ロボット装置の最初に前記閾値以下となった以後の移動時間を計測し、計測以降は、前記計測された移動時間間隔で該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するようにしたことを特徴とする請求項乃至請求項の何れかに記載のロボット装置。 Said output means sets a threshold value indicating a distance, first the threshold value or less and subsequent movement time became of the robot apparatus until the distance between the target object relative to the robot apparatus is equal to or less than the threshold value It was measured, after measurement of claims 1 to 4, characterized in that in the measured moving time interval and to output data indicating the distance and direction of the target object relative to the robot device robot device according to any one.
  7. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、 The object to be moved on the floor, to move following performs an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, the movement of the robot device a follow-up method for moving a robot apparatus and a mobile subsystem,
    前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得し、 Wherein the image processing subsystem sequentially acquired at intervals determined by the data indicating the direction and distance of the target object relative to the robot apparatus,
    前記システム制御部によって、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成し、 By the system controller, the data indicating the position obtained before one of the latest data from a plurality of data to which the acquired sequentially determined as the destination, and generates a movement command to the position,
    前記移動指令を生成する際、前記画像データを用いて障害物の有無を検出し、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成し、 When generating the moving command, the image data was used to detect the presence or absence of an obstacle, if it is determined that there is the obstacle, the direction and distance of the previous of the object to be determined that there is the obstacle generating the moving command based on,
    前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにしたことを特徴とするロボット装置の移動追従方法。 Wherein the mobile subsystem, the mobile tracking method for a robot apparatus which is characterized in that so as to move on the basis of a motion command which is the product.
  8. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置の追従移動方法であって、 The object to be moved on the floor, to move following performs an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, the movement of the robot device a follow-up method for moving a robot apparatus and a mobile subsystem,
    前記画像処理サブシステムによって、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力し、 By the image processing subsystem, whether with sequentially obtained at intervals determined by the data indicating the direction and distance of the target object relative to the robot apparatus, there is an obstacle between the object and the robot device determine outputs data indicating the direction and distance of the target object relative to the robot device when it is determined that there is no obstacle,
    前記システム制御部によって、該出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成し、 By the system controller, the position indicated by the one data from among a plurality of data the output is determined as the destination, and generates a movement command to the position,
    前記移動指令を生成する際、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成し、 When generating the moving command, if it is determined that there is the obstacle, it generates the motion command based on the direction and distance of the previous of the object to be determined that there is the obstacle,
    前記移動サブシステムによって、該生成された移動指令に基づいて移動するようにしたことを特徴とするロボット装置の移動追従方法。 Wherein the mobile subsystem, the mobile tracking method for a robot apparatus which is characterized in that so as to move on the basis of a motion command which is the product.
  9. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、 The object to be moved on the floor, to move following performs an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, the movement of the robot device a program executed by a robot apparatus having a mobile subsystem,
    前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するための第1プログラムコードと、 The executed by the image processing subsystem, and a first program code for sequentially obtained at intervals determined by the data indicating the direction and distance of the target object relative to the robot apparatus,
    前記システム制御部によって実行される、前記順次取得された複数のデータの中から最新のデータの一つ前に取得されたデータが示す位置を移動先と決定し、その位置への移動指令を生成し、前記移動指令を生成する際、前記画像データを用いて障害物の有無を検出し、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成するための第2プログラムコードと、 The executed by the system control unit determines a destination of the data is shown positioned acquired before one of the latest data from a plurality of data to which the acquired sequentially, produce a movement command to the position and the directions of the time of generating a movement command, the image data was used to detect the presence or absence of an obstacle, if it is determined that there is the obstacle before the object is determined that there is the obstacle a second program code for generating said movement command based on the distance and,
    前記移動サブシステムによって実行される、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えたことを特徴とするプログラム。 Program, characterized in that the moving is performed by the subsystem, and a third program code for moving based on the movement command, which is the product.
  10. 床上を移動する対象物体を、移動追従するために、撮像した画像データ処理する画像処理サブシステムと、移動追従動作を行うための移動追従指令を生成するシステム制御部と、ロボット装置の移動を行う移動サブシステムとを備えたロボット装置で実行されるプログラムであって、 The object to be moved on the floor, to move following performs an image processing subsystem for image data processing and imaging, and a system controller for generating a movement tracking command for moving follow-up operation, the movement of the robot device a program executed by a robot apparatus having a mobile subsystem,
    前記画像処理サブシステムによって実行される、該ロボット装置に対する前記対象物体の方向と距離とを示すデータを定められた間隔で順次取得するとともに、該ロボット装置と前記対象物体との間に障害物があるか否かを判断し、障害物がないと判断された場合に該ロボット装置に対する前記対象物体の方向と距離とを示すデータを出力するための第1プログラムコードと、 The executed by the image processing subsystem, with successively obtained at the interval defined data indicating the direction and distance of the target object relative to the robot apparatus, an obstacle between the object and the robot apparatus determining whether a first program code for outputting data indicating if it is determined that there is no obstacle to the distance and direction of the target object relative to the robot apparatus,
    前記システム制御部によって実行される、該出力された複数のデータの中から一つのデータが示す位置を移動先と決定し、その位置への移動指令を生成し、前記移動指令を生成する際、前記画像データを用いて障害物の有無を検出し、該障害物があると判断した場合、該障害物があると判断される以前の前記対象物の方向と距離に基づいて前記移動指令を生成するための第2プログラムコードと、 When the executed by the system controller, the position indicated by the one data from among a plurality of data the output is determined as the destination, and generates a movement command to the position to generate the movement command, generating said movement command the image data was used to detect the presence or absence of an obstacle, if it is determined that there is the obstacle, based on the direction and distance of the previous of the object to be determined that there is the obstacle a second program code for,
    前記移動サブシステムによって、該生成された移動指令に基づいて移動するための第3プログラムコードとを備えたことを特徴とするプログラム。 Wherein the mobile subsystem, program characterized by comprising a third program code for moving based on the movement command, which is the product.
JP2004378816A 2004-12-28 2004-12-28 Robot, movement tracking method of the robot apparatus, and a program Active JP4198676B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004378816A JP4198676B2 (en) 2004-12-28 2004-12-28 Robot, movement tracking method of the robot apparatus, and a program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004378816A JP4198676B2 (en) 2004-12-28 2004-12-28 Robot, movement tracking method of the robot apparatus, and a program

Publications (2)

Publication Number Publication Date
JP2006185239A JP2006185239A (en) 2006-07-13
JP4198676B2 true JP4198676B2 (en) 2008-12-17

Family

ID=36738302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004378816A Active JP4198676B2 (en) 2004-12-28 2004-12-28 Robot, movement tracking method of the robot apparatus, and a program

Country Status (1)

Country Link
JP (1) JP4198676B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8244402B2 (en) * 2009-09-22 2012-08-14 GM Global Technology Operations LLC Visual perception system and method for a humanoid robot
JP6245012B2 (en) * 2014-03-20 2017-12-13 トヨタ自動車株式会社 The method of the moving body and the moving body, the control program

Also Published As

Publication number Publication date
JP2006185239A (en) 2006-07-13

Similar Documents

Publication Publication Date Title
Coombs et al. Real-time obstacle avoidance using central flow divergence, and peripheral flow
US7321853B2 (en) Speech recognition apparatus and speech recognition method
CN101432103B (en) Apparatus for controlling robot arm
US6708081B2 (en) Electronic equipment with an autonomous function
US20040267442A1 (en) Computer-controlled power wheelchair navigation system
US20100231509A1 (en) Sterile Networked Interface for Medical Systems
KR101797901B1 (en) Virtual safety cages for robotic devices
JP3945279B2 (en) Obstacle recognition device, obstacle recognition method, and an obstacle recognition program and a mobile robot system
JP4560078B2 (en) Communication Robot
US20040028260A1 (en) Posture recognition apparatus and autonomous robot
CN107638689A (en) Obtaining input for controlling execution of a game program
US7783076B2 (en) Moving-object tracking control apparatus, moving-object tracking system, moving-object tracking control method, and program
JP2012130977A (en) Robot control apparatus
EP1860515A3 (en) Mobile robot, and control method and program for the same
EP2172825B1 (en) Route planning device and method, cost evaluation device and mobile body
JP2004299025A (en) Mobile robot control device, mobile robot control method and mobile robot control program
JP3837505B2 (en) Register a gesture control device by gesture recognition
JP2013205983A (en) Information input apparatus, information input method, and computer program
US7554282B2 (en) Method of controlling movement of robot, mobile robot, and computer program product
JP2004258837A (en) Cursor operation device, method therefor and program therefor
JP4148276B2 (en) Position estimation device, a position estimating method and a program recording medium
US20170103574A1 (en) System and method for providing continuity between real world movement and movement in a virtual/augmented reality experience
JP3906743B2 (en) Guide robot
JP3714268B2 (en) Robotic device
US20110166737A1 (en) Route planning method, route planning device and autonomous mobile device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5