WO2007094420A1 - 移動型ロボット - Google Patents

移動型ロボット Download PDF

Info

Publication number
WO2007094420A1
WO2007094420A1 PCT/JP2007/052753 JP2007052753W WO2007094420A1 WO 2007094420 A1 WO2007094420 A1 WO 2007094420A1 JP 2007052753 W JP2007052753 W JP 2007052753W WO 2007094420 A1 WO2007094420 A1 WO 2007094420A1
Authority
WO
WIPO (PCT)
Prior art keywords
trunk
image
camera
robot
range
Prior art date
Application number
PCT/JP2007/052753
Other languages
English (en)
French (fr)
Inventor
Yuichiro Nakajima
Haeyeon Lee
Hideki Nomura
Original Assignee
Toyota Jidosha Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Jidosha Kabushiki Kaisha filed Critical Toyota Jidosha Kabushiki Kaisha
Priority to CN2007800057192A priority Critical patent/CN101384402B/zh
Priority to KR1020087022581A priority patent/KR101049266B1/ko
Priority to US12/279,561 priority patent/US8010232B2/en
Priority to EP07714283A priority patent/EP1985416B1/en
Publication of WO2007094420A1 publication Critical patent/WO2007094420A1/ja
Priority to US13/137,119 priority patent/US8234011B2/en

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • B25J5/007Manipulators mounted on wheels or on carriages mounted on wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/32Indexing scheme for image data processing or generation, in general involving image mosaicing

Definitions

  • the present invention relates to a robot that moves by its own power.
  • it relates to a robot that moves by recognizing the surrounding environment using a camera.
  • the mouth bot In the case of a mouth bot provided with a connection part connected to the trunk through a joint having a drive mechanism, depending on the position of the connection part such as an arm or a leg, the mouth bot is provided on the trunk of the robot.
  • Some parts of the camera's field of view are obstructed by the connection area, and some surrounding objects may not be imaged. That is, an unknown environment may exist behind the connection site. If there is an unknown environment behind the connection site, it will be impossible to plan the trunk movement route. Or, it will not be possible to plan the movement path of connecting parts such as arms and legs.
  • the target position cannot be recognized because the target position is in an unknown environment.
  • An object of the present invention is to realize a! / ⁇ mobile robot that does not generate an unknown environment.
  • a camera is also prepared at the connection site in order to capture an area that is blocked by the connection site and cannot be imaged. If a camera is also prepared at the connection site, it is possible to prevent the occurrence of a situation where it is impossible to capture an image at the connection site.
  • the robot created in the present invention includes a trunk, a connection part connected to the trunk through a joint having a driving mechanism, a trunk side camera provided in the trunk, and a connection part. Replace part of the trunk-side image obtained by imaging with the connected part-side camera and trunk-side camera with part of the connected part-side image obtained by imaging with the connected part-side camera. In this way, a composite image creating means for creating a composite image in which the connected part is removed from the trunk side image is provided.
  • the robot described above can obtain a wide range of environmental images by using the trunk side image captured by the trunk side camera.
  • the robot includes means for creating a composite image by compositing the trunk part image with the connection part side image captured by the connection part side camera. For this reason, the torso image captures the connected part, and the connected part side image can be combined with the environment image that becomes the unknown environment in the shadow. There is no unknown environment in the image.
  • One improved robot includes: a first specifying unit for specifying a range in which the composite image creating unit captures a connected part V in the trunk side image; In the connected part side image, the second specifying means for specifying the range corresponding to the range specified by the first specifying means, and the trunk side within the range specified by the first specifying means Means is provided for replacing the image with the connection site side image within the range specified by the second specifying means.
  • connection site side image if there is no connection site, the range that should be captured by the trunk side camera is captured. There are two types of means for identifying this range.
  • One method is that if there is no connection part in the connection part side image based on the positional relation of the connection part to the trunk (this is known to the robot) and the positional relation of the connection part camera to the connection part.
  • This is a method to calculate and obtain the range that should be captured by the trunk-side camera.
  • This method is particularly effective when the depth information is known. For example, in the case of operating a switch placed on a wall with an autonomous mobile robot, if the position of the robot relative to the wall is known, the imaging range of the wall by the trunk camera can be calculated. If the position of the connected part with respect to the trunk is known, the range of the wall that is a shadow of the connected part and cannot be imaged by the trunk camera can be calculated.
  • connection part position corresponding to the range of the wall surface that cannot be captured by the trunk camera in the shadow of the connection part can be calculated.
  • trunk side image image the connected part If the range is shaded by the connected part and cannot be captured by the trunk camera, it is equivalent to the case where the connected part does not exist if the connected part side image is replaced.
  • a composite image can be obtained. Since the existence positions of the trunk side camera and the connection site side camera are different, simply replacing them cannot obtain the same composite image as that captured by the trunk side camera when there is no connection site.
  • the camera on the connection site side is in a range that cannot be captured by the trunk side camera, and the viewpoints of the trunk side camera and the connection site side camera for the range that cannot be captured by the trunk side camera are largely different. No difference. Images are taken from almost the same direction. Therefore, only by adjusting and replacing the scale of the connected part side camera image, if there is no connected part, it is possible to obtain a composite image equivalent to that captured by the trunk side camera. If necessary, the connected part side camera image may be converted into an image captured at the position of the trunk side camera and synthesized. This will improve the quality of the composite image. Once this composite image is obtained, it becomes possible to recognize the position of the switches that are behind the connection site and cannot be captured by the trunk-side camera, and move the connection site toward the intended switch. It becomes possible. Alternatively, the trunk can be moved toward the intended switch.
  • the other method is a method of identifying a range corresponding to the range where the connection site is captured in the trunk side image from the connection site side image. If the image corresponding to the shape of the connected part is extracted by performing image processing on the trunk side image, it is possible to extract the feature points from the image existing around it. For example, if there is a connection part on the front of the box, and a part of the front of the box is obstructed by the connection part, it is hidden by the connection part. it can. If such a feature point is identified so that the connection part is imaged and goes around the range, the surrounding environment can be imaged by being blocked by the connection part, and the range including the range can be specified. . On the other hand, the feature point group is also captured in the connection site side image.
  • the surrounding part can be imaged by the trunk side camera by being blocked by the connected part, and the connected part corresponding to the range including the range.
  • a range in the side image can be specified. If the former range is replaced with the latter range, a composite image equivalent to that captured by the trunk-side camera can be obtained when there is no connection site.
  • the replacement range may be specified by calculation, or the replacement range may be specified by image processing.
  • One improved robot of the present invention includes a plurality of trunk side cameras.
  • the composite image creation means can create a composite image for the trunk side image captured by each trunk side camera.
  • multiple composite images captured from different viewpoints are obtained.For example, when the depth information is unknown, the 3D position of the feature point existing in the imaging range is specified. It becomes possible.
  • Another improved robot of the present invention uses a composite image to calculate the relative position of surrounding objects of the robot.
  • the position where the work target exists can be specified from one composite image. Even if depth information is unknown, the three-dimensional position of surrounding objects can be identified from multiple composite images taken from different viewpoints.
  • Another improved robot of the present invention includes means for adjusting the imaging direction of the connection site side camera in accordance with the position of the connection site with respect to the trunk side camera. Depending on the position of the connection site, the angle of the range to the connection site that cannot be captured by the trunk camera differs. By adjusting the imaging direction of the connection site camera according to the position of the connection site, it is possible to reliably capture the heel range that cannot be captured by the trunk camera, using the connection site camera. Generation of blind spots can be prevented.
  • useful information can be obtained by obtaining a single composite image itself. If depth information is unknown, it is useful to obtain multiple pieces of image information taken from different viewpoints and calculate the positions of surrounding objects from them.
  • a robot created in the present invention to meet this type of request is a trunk, a connection part connected to the trunk via a joint having a drive mechanism, and two or more provided in the trunk.
  • the upper trunk side camera, the connection site side camera provided at the connection site, and the moving mouth of the object existing within the imaging range from the two or more trunk side images captured by the two or more trunk side cameras The first calculation means to calculate the relative positional relationship with the bot, the trunk side image captured by at least one trunk side camera, and the connected part side image force captured by the connected part side camera are present within the imaging range.
  • Second measure to calculate the relative position of the moving object relative to the mobile robot Arithmetic means are provided. In this case, position information is calculated by processing image information. It is not always necessary to create a composite image.
  • trunk-side image information can be obtained by using two or more trunk-side cameras that are arranged at different positions, the two images are captured on both images, and the object is moved against the mobile robot. A relative positional relationship can be calculated. However, because it is a shadow of the connection site, the position of surrounding objects that are not captured in any trunk image cannot be identified.
  • the trunk side image captured by one of the trunk side cameras and the connection part side image captured by the connection part side camera are used in combination. These are also two or more pieces of image information taken from different viewpoints, and the relative positional relationship of surrounding objects with respect to the mobile robot can also be calculated from them. Even if it cannot be captured by both trunk cameras due to the shadow of the connected part, if it can be captured by either one of the trunk side cameras, it can be used by combining it with the connected part side image information.
  • the relative positional relationship with the mobile robot can be specified. This can narrow the scope of the unknown environment.
  • the improved robot of the present invention includes second calculation means for selecting and using the trunk trunk side image with the smallest range in which the connection site is imaged and used for the calculation.
  • this robot in addition to the above case, it is also possible to calculate by combining all the trunk side image information with the connection part side image information.
  • the mobile robot of the present invention it is possible to add a function as the second visual recognition unit to the connection site by providing a camera at the connection site.
  • the range of the unknown environment can be reduced or eliminated because the shadow of the connection part cannot be captured by the trunk-side camera, and the robot can be operated safely and quickly.
  • FIG. 1 is a perspective view showing a robot of Example 1 and an environment around the robot.
  • FIG. 2 is a diagram showing an outline of the robot mechanism of Example 1.
  • FIG. 3 is a diagram showing the field of view of the robot of Example 1.
  • FIG. 4 is a diagram showing an example of a trunk side image.
  • FIG. 5 is a diagram showing an example of a connection site side image.
  • FIG. 6 is a flowchart showing a processing process of the image composition processing device.
  • FIG. 7 is a diagram showing the trunk side image of FIG. 4 and the imaging range R of the connected part.
  • FIG. 8 is a diagram showing a connection site side image and a corresponding range S in FIG.
  • FIG. 9 is a diagram showing an example of the output result of step S613.
  • FIG. 10A is a diagram showing a trunk side image captured by a trunk side camera provided on the right side of the robot.
  • FIG. 10B is a diagram showing a trunk side image captured by the trunk side camera provided in the center of the robot.
  • FIG. 10C is a diagram showing a trunk side image captured by the trunk side camera provided on the left side of the robot.
  • FIG. 11 is a diagram showing an example of a connected part side image and a corresponding range s.
  • FIG. 12 is a perspective view showing the robot of Example 2 and the environment around the robot.
  • FIG. 13 is a diagram schematically showing a robot mechanism of Example 2.
  • FIG. 14 is a bird's eye view of the field of view of the robot of Example 2.
  • FIG. 15 is a flowchart showing a process up to an operation process of the robot according to the second embodiment.
  • FIG. 16 is a flowchart showing a stereo image acquisition process.
  • FIG. 17 is a diagram schematically showing a robot mechanism of Example 3.
  • the robot has a running mechanism on the trunk.
  • a force leg link which is a wheel may be used.
  • the robot calculates the movement locus of the connected part from the environmental map.
  • the robot calculates the trajectory of the trunk and the movement trajectory of the connected part from the environment map.
  • the robot has a joint angle control device, wheel rotation speed control device, and position information detection.
  • the posture of the robot and the imaging direction of each camera are controlled by the output device.
  • the imaging direction of the trunk side camera is calculated by the trunk side camera imaging direction calculation device, and the imaging direction of the connection site side camera is calculated by the connection site side camera imaging direction calculation device.
  • the robot creates a movement route based on the information obtained from the composite image. Based on the route, the joint angle control device, the wheel rotation number control device, and the position information detection device control the actuator to move the trunk and Z or the connection site along the created movement route.
  • the robot is equipped with a path correction device that modifies the trajectory created in the past in response to changes in the surrounding environment and changes the movement path.
  • FIG. 1 is a perspective view showing the robot 100 of this embodiment and the environment around the robot 100.
  • the robot 100 according to the present embodiment includes a trunk 103 and one connection portion (arm) 104 connected to the trunk 103 via a shoulder joint 203. Two or more connection parts 104 may exist.
  • the trunk 103 includes a torso 200, a neck joint 202, and a head 201, and a trunk-side camera 105 is fixed to the head 201.
  • the trunk-side camera 105 can change the imaging direction with respect to the torso 200 by the neck joint 202.
  • a pair of wheels are arranged below the trunk 200, and the trunk 103 is moved using the wheels 206.
  • the connection site 104 includes a shoulder joint 203, an elbow joint 204, and a wrist joint 205, and the side camera 106 is fixed to the palm.
  • the shoulder joint 203, the elbow joint 204, and the wrist joint 205 have a drive mechanism, and the connection site side camera 106 has an imaging direction with respect to the body 200 by the shoulder joint 203, the elbow joint 204, and the wrist joint 205. Can be changed. In addition, the camera position of the connection site side camera 106 with respect to the body 200 can be changed.
  • the robot 100 further includes means for measuring the position of the head 201 in the work environment, and recognizes the camera position and imaging direction of the trunk-side camera 105. Also, the camera position and imaging direction of the connection site side camera 106 with respect to the trunk 103 are recognized.
  • the robot 100 uses the wheel 206 to approach the switch panel 10 and connect the connection site 104.
  • the switch group 12a, 12b ' ⁇ arranged on the wall surface of the switch panel 10 is operated by using it.
  • the position of the wall surface of the switch panel 10 is known.
  • FIG. 2 is a diagram showing an outline of a mechanism 101 that recognizes the periphery of the robot 100.
  • the robot 100 of this embodiment has a control device 114.
  • the control device 114 includes a composite image creation device 110, a movement path creation device 113, a trunk side camera position imaging direction calculation device 111, and a connection part side camera position imaging direction calculation device 109.
  • the composite image creating apparatus 110 receives trunk side image information from the trunk side camera 105, inputs connection part side image information from the connected part side camera 106, and receives trunk information from the trunk side camera position imaging direction calculation unit 111.
  • the movement route creation device 113 creates a subsequent movement route from the created composite image information, and controls the actuator group 115 that rotates the wheel 206 and the joint group according to the created movement route information, and follows the created movement route. Accordingly, the wheel 206, the head 201, and the connection part 104 are moved.
  • the robot 100 detects a position of the torso 200 installed in the body 200 and a joint angle detector 117 to detect the joint angle of each wheel, a joint angle detector 117 to detect the joint angle of each joint.
  • the position information detection device 121 is provided, and information acquired by these devices is input to the trunk side camera position imaging direction calculation device 111 and the connected part side camera position imaging direction calculation device 109.
  • the robot has a moving path creation means 113 that creates a moving path by recognizing the surrounding environment for the image information force captured by a camera whose position and imaging direction are known, and after moving along the created moving path, the camera Recalculate the position and imaging direction, and then move autonomously while repeating the process of imaging again.
  • FIG. 3 shows a view showing the field of view of the robot 100. If the connection part 104 of the robot 100 falls within the field of view of the trunk-side camera 105, the environmental information behind it cannot be obtained. Specifically, in the trunk-side image captured from the trunk-side camera 105, points A and B on the switch panel in FIG. 3 are captured, but points C and D are not captured. As a result, the information on the surrounding objects at dot-dot and point-D becomes unknown, and recognition of the environmental situation and robot 10 Although it is impossible to grasp the relative positional relationship of surrounding objects with respect to 0, in this embodiment, the visible range is expanded by providing the connection site side camera 106, and an unknown environment including points C and D is included. Can be grasped.
  • the trunk side image and the connection site side image show examples of the trunk side image and the connection site side image, respectively.
  • the surface force of the panel is not captured while being hidden by the shadow of the connection site 104, but is captured in the connection site side image of FIG. This is because the positions of the head 201 and the connection part 104 are controlled by the joint angle detection device 117, and the imaging of the connection part side camera 106 is performed according to the relative positions of the trunk side camera 105 and the connection part side camera 106. This is possible by adjusting the direction.
  • the imaging direction of the connection site side camera 106 is adjusted so that the trunk side camera can capture an image of the direction that is hidden behind the shadow of the connection site 104 and cannot be imaged.
  • the trunk side camera position imaging direction calculation device 111 and the connected part side camera position imaging direction calculation device 109 are grasped by the trunk side camera position imaging direction calculation device 111 and the connected part side camera position imaging direction calculation device 109, and is included in the information at the time of synthesis. Since the image processing based on the image processing is performed, the imaging ranges of the respective images do not have to completely match.
  • the connection site side camera 106 is different from the trunk side camera 105 in the distance to the switch panel 10, and the connection portion 104 is inclined with respect to the head 201.
  • the part-side image is tilted with the magnification of the switch panel 10 taken larger than that of the trunk-side image in FIG.
  • FIG. 6 shows a flowchart of the image composition process.
  • the robot 100 and the switch panel 10 are in a positional relationship as shown in FIG.
  • the connection part 104 of the robot 100 is in the position shown in FIG. 4, and a similar image is taken by the trunk-side camera 105.
  • the robot 100 tries to move the connecting portion 104 to press the switch 12c (see FIG. 1) of the switch panel 10.
  • the switch 12c is within the unknown environment in the trunk image, the composite image creation process shown in FIG. 6 is started.
  • step S601 the trunk side image information is input to the composite image creating apparatus 110.
  • step S603 the feature point X of the part that is an unknown environment in the trunk image is extracted.
  • FIG. 7 shows an example of feature points of the trunk side image extracted in step S603. Since the shape of the connection part 104 of the robot 100 is already known, it is possible to specify the range in which the connection part is imaged from the trunk side image (ie, the imaging range of the connection part) ( First identification means). Points X to X in the figure are extracted so as to include the imaging range of the connected part.
  • step S605 the imaging range R of the connected region (that is, the range in which the surrounding surrounding object information is unknown) is specified from the feature points extracted in step S603. Feature points X to X in Fig. 7
  • the surrounding area is the approximate imaging range R of the connected part.
  • step S607 the connected part side image information is input to the composite image creating apparatus 110.
  • step S609 a point Z corresponding to the feature point of the imaging range R of the connected part of the trunk side image is extracted from the connected part side image information input in step S607.
  • FIG. 8 shows an example of the feature point Z of the connected part side image extracted in step S609.
  • points Z and Z are points corresponding to feature points X to X extracted from the trunk image.
  • step S611 the corresponding range S of the connected part side image (that is, the range that is unknown information in the trunk side image) is specified from the feature point Z extracted in step S609 (second specifying means).
  • step S613 the corresponding range S obtained from the connected part side image is matched with the imaging range R of the connected part obtained from the trunk side image. Based on the difference information added to the input image, processing such as size adjustment and tilt angle rotation adjustment is performed.
  • step S615 the imaging range R of the connected part of the trunk side image is replaced with the corresponding range S for which the preparation process for composition has been completed.
  • step S617 a composite image having no unknown range is output.
  • Fig. 9 shows an example of a composite image.
  • the imaging range R of the connected part indicated by the broken line V is replaced with the corresponding range S, and the connected part is imaged and a composite image can be obtained.
  • This embodiment may have a plurality of trunk-side cameras.
  • the imaging range R of the connected part is extracted from each trunk side image
  • the corresponding range S is extracted from the connected part side image for the imaging range R of each connected part
  • the imaging range R of the connected part is extracted.
  • FIG. 10 shows an example of a plurality of trunk-side images and connection region imaging ranges R.
  • the trunk side image TC shown in FIG. 10A is obtained from the trunk side camera provided on the right side.
  • the trunk-side image TC shown in Fig. 10B is obtained from the trunk-side camera provided in the center, and is prepared on the left side.
  • the trunk-side image TC shown in Fig. 10C is obtained from the obtained trunk-side camera.
  • the imaging ranges R, R, and R of the part are specified. 3 units fixed to the trunk 103
  • Fig. 11 shows an example of the connected part side image AC captured by the connected part side camera operating in conjunction with the above three trunk side cameras. Trunk image TC, TC and TC connection site
  • connection site side image AC is changed from step S607.
  • step S613 By processing from step S613 to step S617, the trunk image TC, TC and TC
  • the robot 100 of the present embodiment may have a plurality of connection site side cameras.
  • the robot 100 of the present embodiment can further calculate the relative position of the surrounding object with respect to the robot 100 using the composite image obtained by the above method.
  • the relative position of the surrounding object relative to the robot 100 is understood by converting the relative position coordinates of the object from the world coordinate system to a coordinate system centered on the robot.
  • FIG. 12 is a perspective view showing a robot using a stereo camera and the environment around the robot.
  • the robot 100 includes a trunk 103 and a single connection portion (arm) 104 connected to the trunk 103 via a shoulder joint 203. Two or more connecting parts 104 may exist.
  • the trunk 103 includes a torso 200, a neck joint 202, and a head 201, and the trunk-side cameras 105 (a) and 105 (b) are fixed to the head 201.
  • the trunk side cameras 105 (a) and 105 (b) can change the imaging direction with respect to the trunk 200 by the neck joint 202.
  • a pair of wheels 206 is arranged below the fuselage 200 and moves using the wheels 206.
  • the connection site 104 includes a shoulder joint 203, an elbow joint 204, and a wrist joint 205, and the connection site side camera 106 is fixed to the palm.
  • the shoulder joint 203, the elbow joint 204, and the wrist joint 205 have a drive mechanism, and the connection site side camera 106 uses the shoulder joint 203, the elbow joint 204, and the wrist joint 205 to image the body 200. Can be changed. Further, the camera position of the connection site side camera 106 with respect to the body 200 can be changed.
  • This robot has means for measuring the position of the head 201 in the work environment, and recognizes the camera positions and imaging directions of the trunk-side cameras 105 (a) and 105 (b). Further, the camera position and imaging direction of the connection site side camera 106 with respect to the body 200 are recognized.
  • the robot 100 according to the present embodiment visually recognizes the surrounding objects 30, 40, 50, and 60, creates a connection site trajectory that does not collide with them, and places the grasped object 20 in an empty space.
  • the trunk-side cameras 105 (a) and 105 (b) of the robot 100 normally function as stereo cameras, and points A, B, C, and D in the figure are the viewpoints of the robot 100.
  • FIG. 13 is a diagram showing an outline of a mechanism 101 that recognizes the surroundings of the robot 100 using the stereo camera of the present embodiment.
  • the robot 100 of this embodiment has a control device 114.
  • the control device 114 includes an image information processing device 116, an environmental map storage device 112, a movement path creation device 113, a trunk side camera position imaging direction calculation device 111, and a connected part side camera position imaging direction calculation device 109. I have.
  • the image information processing apparatus 116 inputs the trunk side image information from the trunk side cameras 105 (a) and 105 (b) provided on the trunk 103 and connects to the connection part provided in the connection part 104.
  • the connected part side image information is input from the side camera 106, and the trunk side cameras 105 (a) and 105 (b) Input the position and imaging direction, input the position and imaging direction of the connection-side camera 106 from the connection-site-side camera position imaging direction calculation device 109, and from these image information and information on the camera position and imaging direction, the environment A map is created and stored in the environmental map storage device 112.
  • the movement route creation device 113 creates a subsequent movement route based on the environmental map information, and controls and creates an actuator group 115 that rotates the joints having the wheels 206 and the drive mechanism according to the created movement route information.
  • the wheel 206, the head 201, and the connection portion 104 are moved along the travel path.
  • the robot 100 is installed in a body rotation detecting device 119 for detecting the rotation number of the wheel 206, a joint angle detecting device 123 for detecting the joint angle of each joint, and the body 200, and the position of the body 200 is determined.
  • Position information detection devices 121 for detection are provided, and information acquired by these devices is input to the trunk side camera position imaging direction calculation device 111 and the connected part side camera position imaging direction calculation device 109.
  • the robot 100 also calculates the movement path by recognizing the surrounding environment for the image information force captured by the camera whose position and imaging direction are known, and recalculates the camera position and imaging direction after moving according to the calculated movement path. Then, it moves autonomously while repeating the process of imaging again.
  • FIG. 14 shows a bird's-eye view of the robot 100 field of view. If the connection part 104 of the robot 100 and the grasped object 20 enter the field of view of the trunk-side cameras 105 (a) and 105 (b), it is impossible to obtain environmental information in the subsequent stage.
  • the point A and the point B can be imaged from both the trunk side cameras 105 (a) and 105 (b) as indicated by the solid arrows, so the trunk side image
  • the stereo image can be generated from the information, and the information can be acquired continuously in time series as the robot moves.
  • the trunk side cameras 105 (a) and 105 (b) were used only by the trunk side camera, depending on the movement position of the lower limbs or the movement of the connected part. Stereo vision becomes impossible and environmental information about the surroundings cannot be acquired.
  • the broken-line arrows indicate that an image having the same characteristic point cannot be taken because the connection site or the grasped object blocks the line of sight.
  • any of the trunk side cameras 105 functions satisfactorily as a stereo camera due to the presence or absence of an object that obstructs the field of view, such as the viewpoints of points C and D. If this is difficult, a stereo image can be obtained using any of the trunk side camera 105 and the connected part side camera 106.
  • connection site side camera 106 When binocular vision is performed using the connection site side camera 106, which of the multiple trunk side cameras is used to acquire a stereo image depends on the range in which the connection site 104 is imaged. You can choose to use the torso camera from which the torso image is acquired for the calculation. This selection is determined by the image information processing apparatus 116.
  • FIG. 15 is a flowchart showing an outline of the operation of the robot according to the present embodiment.
  • the robot 100 grips the gripping object 20, creates a connection part trajectory that does not collide with the objects 30, 40, 50, and 60, and installs the gripping object 20 in an empty space. I want to do it.
  • the connection site 104 of the robot 100 is located as shown in FIG. 14, and an image representing such a state is taken from the positions of the trunk side cameras 105 (a) and 105 (b)!
  • the object 50 and a part of the object 60 are unknown by the connecting portion 104 and the grasped object 20, and therefore the image information processing shown in FIG. 15 is started.
  • connection part 104 may determine whether to use the connection part side image, based on the size of the unknown range of the trunk side image, and the range that becomes the unknown range is more Ability to combine few images Has a means to obtain stereo images.
  • step S502 the relative positions of the surrounding objects of the robot 100 are calculated based on the stereo image selected and acquired in step S500.
  • the image data is converted into a coordinate system centered on the world coordinate system force robot, and the positional relationship between the surrounding objects is calculated and output as relative position information between the robot 100 and the surrounding objects.
  • a parallax image or a distance image may be used to obtain this relative position information.
  • the first calculation means and the second calculation are respectively provided. It is desirable to prepare different calculation means called means.
  • the trunk side cameras are parallel, the calculation means using the trunk side image and the connected part side image differ in the relative positions of the respective cameras. Coordinate system transformations such as calibration can be applied.
  • the relative position information calculated in the image processing device 116 is constructed as data representing the relative position of the surrounding objects in step S504, and is stored in the environment map storage device 112.
  • the environmental map refers to data that allows the robot 100 to grasp the relative positions of surrounding objects.
  • the environment map can be represented by an image parallax space (SDS space Spatial Disparity Space).
  • SDS space Spatial Disparity Space In the SDS space, surrounding objects 30, 40, 50, 60 with points A, B, C and D appear as curved surfaces with depth.
  • a movement path of the robot 100 is created based on the environmental map information.
  • the robot 100 of this embodiment recognizes the surrounding objects 30, 40, 50, 60 visually, creates a connection site trajectory that does not collide with them, and installs the grasped object 20 in an empty space. In this case, it is possible to create a trajectory of the connected part so that the surrounding object can be detected from the environmental map information and the grasped object 20 can be placed there. desirable.
  • the actual operation is realized by the actuator 115 along the created movement path.
  • FIG. 16 is a flowchart showing image information processing of the robot 100.
  • Step 15 in Fig. 15 There are two methods for acquiring the S500 stereo image: a method using multiple trunk-side images, and a method using a trunk-side image! There is a method.
  • step S160 a plurality of trunk-side images captured by the trunk-side cameras 105 (a) and 105 (b) and a connected part-side image captured by the connected part-side camera 106 are input to the image information processing device 116. Entered.
  • step S162 it is determined whether the connection site 104 is imaged in the trunk side image.
  • step S164 a stereo image is acquired from the trunk side images, and the first calculation means is executed.
  • step S166 a stereo image is acquired from one of the trunk side image and the connection part side image. 2 Perform the calculation means.
  • the trunk side image selected in step S166 has a smaller range when the connection site is imaged! It is a trunk side image of.
  • the case where the three-dimensional information of the surrounding object is obtained by using a total of three cameras for the trunk and the connection part is exemplified, but more cameras may be used, A method may be adopted in which a single connected site side camera moves to continuously capture images.
  • FIG. 17 shows a block diagram of the robot mechanism 101 that can deal with a dynamic surrounding object.
  • the route once issued can be corrected as appropriate by providing the robot mechanism of the second embodiment with a moving path correcting device 125 for correcting the activation of the connected portion.
  • the operation of the connected part and the surrounding environment Changes can be recognized simultaneously and continuously, and the trajectory can be modified accordingly.
  • connection site cameras can be rotated at each of a plurality of connection sites such as legs connected only by an arm, or at a different site of one connection site, the imaging range can be further expanded.
  • the force exemplified for stereo viewing with the trunk-side camera as the main focus enables stereo viewing using a plurality of connection site-side cameras, and stereo image processing for each of the trunk-side camera and the connection site-side camera. Equipped with a device, it can be used for a wider variety of purposes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】体幹に備えられているカメラとは別のカメラを関節を介して体幹に接続された接続部位に設けることで、ロボットの作動時に接続部位などの体の一部が視界に入ることで生じる未知環境をなくし、常時周囲の環境全域を認識できる技術を提供する。 【解決手段】本発明におけるロボットは、頭部および胴体からなる体幹と、駆動する肩関節を介して体幹に接続された少なくとも一本の接続部位と、体幹に少なくとも1つ設けられている体幹側カメラと、接続部位に少なくとも1つ設けられている接続部位側カメラを有している。さらに、体幹側カメラにより撮像した体幹側画像と接続部位側カメラにより撮像した接続部位側画像とを合成して合成画像を作成する合成画像作成手段と、合成画像より周囲物体の位置を認識する認識手段を備えている。

Description

明 細 書
移動型ロボット
技術分野
[0001] 本出願は、 2006年 2月 17日に出願された日本国特許出願第 2006— 041323号 に基づく優先権を主張する。その出願の全ての内容はこの明細書中に参照により援 用されている。
本発明は、自己の動力によって移動するロボットに関する。特に、カメラを利用して 周囲の環境を認識して移動するロボットに関する。
背景技術
[0002] 体幹と、駆動機構を有する関節部を介して体幹に接続されて!、る接続部位を備え ている移動型ロボットが開発されている。この種のロボットのなかには、体幹に設けら れて ヽる体幹側カメラで撮像された環境画像から環境地図を作成し、得られた環境 地図を元に目的位置までの移動経路を計画するものがある。特開 2005— 92820号 公報に開示される技術では、ロボットの頭部に設けられているカメラで撮像し、撮像し た画像から視差画像あるいは距離画像を計算し、計算した視差画像あるいは距離画 像から平面パラメータを算出し、算出した平面パラメータ力 床を含む複数の平面抽 出を行うことによって環境地図を作成し、作成した環境地図からロボットが移動可能 な範囲を認識し、認識した範囲に基づ!、てロボットの移動経路を計画して 、る。 発明の開示
発明が解決しょうとする課題
[0003] 駆動機構を有する関節部を介して体幹に接続されている接続部位を備えている口 ボットの場合、アームや脚などの接続部位の位置によっては、ロボットの体幹に設け られて 、るカメラの視野の一部が接続部位によって遮られ、一部の周囲物体を撮像 できないことがある。即ち、接続部位の背後に未知環境が存在することがある。 接続部位の背後に未知環境が存在すると、体幹の移動経路を計画することができ なくなってしまう。あるいは、アームや脚などの接続部位の移動経路を計画することが できなくなってしまう。特に、接続部位を目的位置に移動させる経路を計画する場合 には、目的位置が未知環境にあるために、目的位置が認識できない事態が発生しや すい。
[0004] 現状技術では、未知環境が発生する毎に、体幹または接続部位を移動させて未知 環境を撮像し、未知環境を未知環境でなくしてから移動経路を決定する処理を必要 としている。
し力しながら、上記の処理には本来的には必要とされない動作を要するば力りでな ぐ体幹を連続的に移動させるロボットや、周囲物体が移動する環境にある場合には 、対応することが難しい。
[0005] 本発明は、未知環境を発生させな!/ヽ移動型ロボットを実現することを目的とする。
課題を解決するための手段
[0006] 本発明では、接続部位によって遮られて撮像できない範囲を撮像するために、接 続部位にもカメラを用意する。接続部位にもカメラを用意すれば、接続部位によって 撮像できな 、と 、う事態の発生を防止することができる。
本発明で創作されたロボットは、体幹と、駆動機構を有する関節部を介して体幹に 接続されている接続部位と、体幹に設けられている体幹側カメラと、接続部位に設け られて ヽる接続部位側カメラと、体幹側カメラで撮像して得られた体幹側画像の一部 を、接続部位側カメラで撮像して得られた接続部位側画像の一部に置き換えることで 、体幹側画像中から接続部位を除去した合成画像を作成する合成画像作成手段を 備えている。
[0007] 上記のロボットは、体幹側カメラで撮像した体幹側画像を利用することによって、広 範囲の環境画像を得ることができる。ただし、体幹側画像には接続部位が撮像され ており、その影になって環境画像を得ることができない未知環境が残ることがある。 上記のロボットでは、体幹側画像に、接続部位側カメラで撮像した接続部位側画像 を合成することによって合成画像を作成する手段を備えている。このために、体幹側 画像では接続部位を撮像しており、その影になって未知環境となって ヽる環境画像 に、接続部位側画像を合成することができ、そうして得られる合成画像には未知環境 が残らない。
上記のロボットは、未知環境が残らない合成画像を得ながら、その後の体幹または 接続部位の移動経路を計算することができる。未知環境を残さな 、ようにするために 無駄な動作が必要とされることがない。また周囲物体が移動する環境にあっても、移 動経路を時々刻々に決定することができる。
[0008] 本発明の一つの改良されたロボットは、合成画像作成手段が、体幹側画像内にお Vヽて接続部位を撮像して!/ヽる範囲を特定する第 1特定手段と、接続部位側画像内に おいて、第 1特定手段で特定した範囲に対応する範囲を撮像している範囲を特定す る第 2特定手段と、第 1特定手段で特定した範囲内の体幹側画像を第 2特定手段で 特定した範囲内の接続部位側画像に置き換える手段を備えている。
[0009] 体幹側画像内にお!、て接続部位を撮像して 、る範囲を特定する手段には、大きく 分けて 2方式が可能である。一つの方式は、体幹側カメラに対する接続部位の位置 関係(これはロボットに既知である)から接続部位が撮像されて!、るはずの範囲を計 算して求める方式である。もう一つの方式は、体幹側画像を画像処理して接続部位 の形状 (これはロボットに既知である)に相当する部分を抽出し、それから接続部位が 撮像されて 、る範囲を特定する方式である。 V、ずれの方式であってもよ 、。
[0010] 接続部位側画像には、仮に接続部位がなければ体幹側カメラによって撮像される はずの範囲が撮像されている。この範囲を特定する手段にも大きく分けて 2種類が存 在する。
一つの方式は、体幹に対する接続部位の位置関係(これはロボットに既知である)と 接続部位に対する接続部位側カメラの位置関係から、接続部位側画像にぉ 、て仮 に接続部位がなければ体幹側カメラによって撮像されるはずの範囲を計算して求め る方式である。この方式は、奥行き情報が既知である場合に特に有効である。例えば 、壁面に配置されているスィッチ類を自立移動型ロボットで操作する動作を例にする と、壁面に対するロボットの位置が既知であれば、体幹カメラによる壁面の撮像範囲 は計算可能であり、体幹に対する接続部位の位置が既知であれば、接続部位の影 になって体幹カメラでは撮像できない壁面の範囲を計算することができる。体幹に対 する接続部位の位置と、接続部位に対する接続部位側カメラの位置が既知であれば 、接続部位の影になって体幹カメラでは撮像できな 、壁面の範囲に対応する接続部 位側画像内の範囲を計算することができる。体幹側画像では接続部位を撮像して ヽ る範囲を、接続部位の影になって体幹カメラでは撮像できな 、範囲の接続部位側画 像に置き換えれば、接続部位が存在しな 、場合に体幹側カメラで撮像したのと同等 な合成画像を得ることができる。体幹側カメラと接続部位側カメラの存在位置が相違 するために、単純に置き換えるだけでは、接続部位が存在しない場合に体幹側カメ ラで撮像したのと同じ合成画像を得ることはできない。し力しながら、接続部位側カメ ラは体幹側カメラで撮像できない方向の範囲内にあり、体幹側カメラでは撮像できな い範囲に対する体幹側カメラと接続部位側カメラの視点は大きくは相違しない。ほぼ 同じ方向から撮像している。従って、接続部位側カメラ画像の縮尺を調整して置き換 えるだけで、接続部位が存在しな 、場合に体幹側カメラで撮像したのと同等な合成 画像を得ることができる。必要であれば、接続部位側カメラ画像を、体幹側カメラの位 置で撮像した画像に変換してカゝら合成してもよい。このよう〖こすると、合成画像の質が 向上する。この合成画像が得られれば、接続部位の陰になって体幹側カメラでは撮 像できない範囲に存在するスィッチ類の位置を認識することが可能となり、意図した スィッチに向けて接続部位を移動させることが可能となる。あるいは、意図したスイツ チに向けて体幹を移動させることが可能となる。
もう一つの方式は、体幹側画像において接続部位が撮像されている範囲に対応す る範囲を接続部位側画像から特定する方式である。体幹側画像を画像処理して接 続部位の形状に相当する部分を抽出すれば、その周囲に存在する画像から特徴点 を抽出することが可能となる。例えば、箱の前面に接続部位が存在しているために、 箱の前面の一部が接続部位に遮られて 、る場合、接続部位に隠されて 、な 、箱の 頂点を特定することができる。このような特徴点を接続部位が撮像されて 、る範囲を 一巡するように特定すると、接続部位に遮られて周囲の環境を撮像できて 、な 、範 囲を含む範囲を特定することができる。一方、接続部位側画像でも、前記の特徴点 群を撮像している。そこで、接続部位側画像カゝら前記の特徴点群を抽出すれば、接 続部位に遮られて体幹側カメラでは周囲の環境を撮像できて 、な 、範囲を含む範囲 に対応する接続部位側画像内の範囲を特定することができる。前者の範囲を後者の 範囲に置き換えれば、接続部位が存在しな 、場合に体幹側カメラで撮像したのと同 等な合成画像を得ることができる。 ロボットが動作して 、る環境によって、計算することで置換範囲を特定できる場合も あれば、画像処理することで置換範囲を特定できる場合もある。
[0012] 本発明の一つの改良されたロボットは、体幹側カメラを複数備えている。この場合、 合成画像作成手段によって、それぞれの体幹側カメラで撮像した体幹側画像に対し て、合成画像を作成することができる。この場合、視点を変えて撮像した複数枚の合 成画像が得られ、例えば奥行き情報が未知な場合等に、撮像範囲内に存在する特 徴点の 3次元的位置を特定するといつたことが可能となる。
[0013] 本発明の他の一つの改良されたロボットは、合成画像を用いて、ロボットの周囲物 体の相対的な位置を計算する。前記したように、例えば、壁面に作業対象が配置さ れているような場合等、奥行き情報が既知であれば、 1枚の合成画像から、作業対象 の存在位置を特定することができる。奥行き情報が未知であっても、視点を変えて撮 像した複数枚の合成画像から、周囲物体の 3次元的位置を特定することができる。
[0014] 本発明の他の一つの改良されたロボットは、体幹側カメラに対する接続部位の位置 に応じて、接続部位側カメラの撮像方向を調整する手段を備えている。接続部位の 位置によって、体幹カメラでは撮像できな 、範囲の接続部位に対する角度が相違し てくる。接続部位の位置に応じて、接続部位側カメラの撮像方向を調整するようにす ると、体幹カメラでは撮像できな ヽ範囲を接続部位側カメラで確実に撮像するように することができ、死角の発生を防止することができる。
[0015] 例えば、奥行き情報が既知であるような場合には、 1枚の合成画像を得ること自体 で有用な情報が得られる。奥行き情報が未知であれば、視点を変えて撮像した複数 枚の画像情報を得、それらから周囲物体の位置を計算することが有用である。
この種の要請に応えるために本発明で創作されたロボットは、体幹と、駆動機構を 有する関節部を介して体幹に接続されている接続部位と、体幹に設けられている 2以 上の体幹側カメラと、接続部位に設けられている接続部位側カメラと、 2以上の体幹 側カメラで撮像した 2以上の体幹側画像から撮像範囲内に存在する物体の移動型口 ボットに対する相対的位置関係を計算する第 1計算手段と、体幹側カメラの少なくとも 1つで撮像した体幹側画像と接続部位側カメラで撮像した接続部位側画像力ゝら撮像 範囲内に存在する物体の移動型ロボットに対する相対的位置関係を計算する第 2計 算手段を備えている。この場合、画像情報を処理することによって位置情報を計算す る。合成画像を作成する必要は必ずしもない。
[0016] 異なる位置に配置されて 、る 2以上の体幹側カメラを利用して 2以上の体幹側画像 情報を得ることができれば、両画像に撮像されて 、る物体の移動型ロボットに対する 相対的位置関係を計算することができる。しかしながら、接続部位の影になっている ために、いずれかの体幹側画像では撮像されていない周囲物体については、位置を 特定することができない。
上記のロボットでは、体幹側カメラの 1つで撮像した体幹側画像と接続部位側カメラ で撮像した接続部位側画像を組み合わせて利用する。これらも、視点を変えて撮像 した 2以上の画像情報であり、これらからも周囲物体の移動型ロボットに対する相対 的位置関係を計算することができる。接続部位の影になって両方の体幹側カメラで は撮像できなくても、いずれか一方の体幹側カメラで撮像できれば、それと接続部位 側画像情報を組み合わせて利用することによって、周囲物体の移動型ロボットに対 する相対的位置関係を特定することができる。これにより、未知環境の範囲を狭める ことができる。
[0017] 本発明の改良されたロボットは、接続部位を撮像して ヽる範囲が最も少な ヽ体幹側 画像を選択して計算に用いる第 2計算手段を備えている。このロボットでは、前述の 場合に加えて、すべての体幹側画像情報に接続部位側画像情報を組み合わせて計 算することも可能である。
発明の効果
[0018] 本発明の移動型ロボットによれば、接続部位にカメラを設けることで、接続部位に第 2の視覚認識部としての機能を付加することが可能となる。この構成により、接続部位 の影になって体幹側カメラでは撮像できな 、未知環境の範囲を減少な 、しは無くす ことができ、ロボットを安全に迅速に動作させることが可能となる。
図面の簡単な説明
[0019] [図 1]実施例 1のロボットとロボットの周囲の環境を表わす斜視図である。
[図 2]実施例 1のロボット機構の概略を示す図である。
[図 3]実施例 1のロボットの視野を示す図である。 [図 4]体幹側画像の一例を示す図である。
[図 5]接続部位側画像の一例を示す図である。
[図 6]画像合成処理装置の処理過程を示すフローチャートである。
[図 7]図 4の体幹側画像と接続部位の撮像範囲 Rを示した図である。
[図 8]図 5の接続部位側画像と対応範囲 Sを示した図である。
[図 9]ステップ S613の出力結果の一例を示す図である。
[図 10A]ロボットの右側に備えられた体幹側カメラが撮像した体幹側画像を示す図で ある。
[図 10B]ロボットの中央に備えられた体幹側カメラが撮像した体幹側画像を示す図で ある。
[図 10C]ロボットの左側に備えられた体幹側カメラが撮像した体幹側画像を示す図で ある。
[図 11]接続部位側画像と対応範囲 sの一例を示す図である。
[図 12]実施例 2のロボットとロボットの周囲の環境を示す斜視図である。
[図 13]実施例 2のロボット機構の概略を示す図である。
[図 14]実施例 2のロボットの視野の鳥瞰図である。
[図 15]実施例 2のロボットの動作処理までの過程を示すフローチャートである。
[図 16]ステレオ画像の取得処理の過程を示すフローチャートである。
[図 17]実施例 3のロボット機構の概略を示す図である。
発明を実施するための最良の形態
最初に、以下に説明する実施例の主要な特徴を列記する。
(特徴 1) ロボットは、体幹に走行機構を備えている。本明細書で開示されている実 施例の場合は車輪である力 脚リンクでもよい。
(特徴 2) ロボットは、環境地図から体幹の走行軌跡を計算する。
(特徴 3) ロボットは、環境地図から接続部位の移動軌跡を計算する。
(特徴 3) ロボットは、環境地図から体幹の走行軌跡と接続部位の移動軌跡を計算 する。
(特徴 4) ロボットは、関節角度制御装置や車輪回転数制御装置および位置情報検 出装置により、ロボットの姿勢と各カメラの撮像方向を制御している。体幹側カメラの 撮像方向は、体幹側カメラ撮像方向計算装置で計算され、接続部位側カメラの撮像 方向は、接続部位側カメラ撮像方向計算装置で計算される。
(特徴 5) ロボットは合成画像から得られた情報に基づき、移動経路を作成する。そ の経路に基づいて、前記関節角度制御装置や車輪回転数制御装置および位置情 報検出装置がァクチユエータを制御し、体幹および Zまたは接続部位を作成された 移動経路に沿って移動させる。
(特徴 6) ロボットは周囲環境の変化に対応して過去に作成した軌道に修正を加え、 移動経路を変更する経路修正装置を備えて 、る。
実施例
以下、図面を参照しながら本発明の実施例について詳解する。
(実施例 1)
図 1に、本実施例のロボット 100とロボット 100の周囲の環境を表わす斜視図を示す 。本実施例のロボット 100は、体幹 103と、肩関節 203を介して体幹 103に接続され た 1本の接続部位 (アーム) 104を有している。接続部位 104は、 2本以上が存在して いてもよい。体幹 103は、胴体 200と、首関節 202と、頭部 201を備えており、頭部 2 01に体幹側カメラ 105が固定されている。体幹側カメラ 105は、首関節 202によって 、胴体 200に対する撮像方向を変えることができる。胴体 200の下方には 1対の車輪 が配置されており、車輪 206を利用して体幹 103を移動させる。
接続部位 104は、肩関節 203と、肘関節 204と、手首関節 205を備えており、掌に 側カメラ 106が固定されている。肩関節 203と、肘関節 204と、手首関節 205は駆動 機構を有しており、接続部位側カメラ 106は、肩関節 203と、肘関節 204と、手首関 節 205によって、胴体 200に対する撮像方向を変えることができる。また胴体 200に 対する接続部位側カメラ 106のカメラ位置を変えることもできる。
ロボット 100は、さらに、作業環境内における頭部 201の位置を計測する手段を備 えており、体幹側カメラ 105のカメラ位置と撮像方向を認識している。また、体幹 103 に対する接続部位側カメラ 106のカメラ位置と撮像方向を認識している。
ロボット 100は、車輪 206を利用してスィッチパネル 10に接近し、接続部位 104を 利用してスィッチパネル 10の壁面に配置されているスィッチ群 12a, 12b ' ·を操作す る。スィッチパネル 10の壁面の位置は既知である。
[0022] 図 2は、ロボット 100の周囲を認識する機構 101の概略を示す図である。本実施例 のロボット 100は、制御装置 114を有している。制御装置 114は、合成画像作成装置 110と、移動経路作成装置 113と、体幹側カメラ位置撮像方向計算装置 111と、接 続部位側カメラ位置撮像方向計算装置 109を備えて ヽる。合成画像作成装置 110 は、体幹側カメラ 105から体幹側画像情報を入力し、接続部位側カメラ 106から接続 部位側画像情報を入力し、体幹側カメラ位置撮像方向計算装置 111から体幹側カメ ラ 105の位置と撮像方向を入力し、接続部位側カメラ位置撮像方向計算装置 109か ら接続部位側カメラ 106の位置と撮像方向を入力し、体幹側画像情報と接続部位側 画像情報から合成画像情報を作成する。移動経路作成装置 113では作成した合成 画像情報からその後の移動経路を作成し、作成した移動経路情報にしたがって、車 輪 206と関節群を回転させるァクチユエータ群 115を制御し、作成した移動経路に沿 つて、車輪 206、頭部 201、接続部位 104を移動させる。ロボット 100は、車輪 206の 回転数を検出する車輪回転数検出装置 119と、各関節の関節角を検出する関節角 検出装置 117と、胴体 200内に設置されていて胴体 200の位置を検出する位置情 報検出装置 121を備えており、それらの装置で取得される情報が、体幹側カメラ位置 撮像方向計算装置 111と接続部位側カメラ位置撮像方向計算装置 109に入力され る。
ロボットは、位置と撮像方位が既知のカメラで撮影した画像情報力も周囲の環境を 認識して移動経路を作成する移動経路作成手段 113を有しており、作成した移動経 路に従って移動した後にカメラ位置と撮像方向を再計算し、その後に再度撮像する 処理を繰り返しながら、自律的に移動する。
[0023] 図 3に、ロボット 100の視野を示す図を示す。ロボット 100の接続部位 104が体幹側 カメラ 105の視野内に入ってしまうと、その後ろにある環境情報を得ることができない 。具体的には、体幹側カメラ 105から撮像する体幹側画像には、図 3のスィッチパネ ルの点 Aおよび点 Bは撮像されるのに対し、点 Cおよび点 Dは写らない。よって、点じ および点 Dにおける周囲物体の情報が未知となり、環境状況の認識およびロボット 10 0に対する周囲物体の相対的な位置関係の把握をすることができないが、本実施例 では、接続部位側カメラ 106を設けることで可視範囲が拡大され、点 Cおよび点 Dを 含む、未知の環境を把握することができる。
[0024] 図 4および図 5に、体幹側画像と接続部位側画像の例をそれぞれ示す。図 4の体幹 側画像では接続部位 104の影に隠れて撮像されな 、パネルの表面力 図 5の接続 部位側画像では撮像されている。これは、頭部 201と接続部位 104の位置が関節角 検出装置 117により制御されており、体幹側カメラ 105と接続部位側カメラ 106の相 対位置に応じて、接続部位側カメラ 106の撮像方向が調節されることにより可能とな る。接続部位側カメラ 106の撮像方向は、体幹側カメラでは接続部位 104の影に隠 れて撮像できな 、方向を撮影するように調整される。
それぞれのカメラの倍率や画像サイズなどの差異に関する情報は、体幹側カメラ位 置撮像方向計算装置 111および接続部位側カメラ位置撮像方向計算装置 109によ つて把握されており、合成時にはその情報に基づいた画像処理を行うため、それぞ れの画像の撮像範囲が完全に一致しなくてもよい。例えば、体幹側カメラ 105に対し 接続部位側カメラ 106はスィッチパネル 10までの距離が異なっており、かつ接続部 位 104が頭部 201に対して傾斜して 、ることから、図 5の接続部位側画像は図 4の体 幹側画像に比べて撮像されるスィッチパネル 10の倍率が大きぐまた傾 、て 、る。
[0025] 図 6に、画像合成処理のフローチャートを示す。このとき、ロボット 100とスィッチパ ネル 10は図 1に示すような位置関係にある。ロボット 100の接続部位 104は図 4に示 す位置にあり、同様の画像が体幹側カメラ 105により撮像されている。ロボット 100は スィッチパネル 10のスィッチ 12c (図 1参照)を押圧するために、接続部位 104を移動 させようとしている。し力しながら、スィッチ 12cは体幹側画像においては未知環境の 範囲内にあるため、図 6に示す合成画像作成処理を開始する。
ステップ S601では、合成画像作成装置 110に体幹側画像情報が入力される。ステ ップ S603では、体幹側画像において未知環境となっている部分の特徴点 Xの抽出 をする。図 7に、ステップ S603において抽出される体幹側画像の特徴点の一例を示 す。ロボット 100の接続部位 104の形状は既知であることから、体幹側画像から接続 部位を撮像して ヽる範囲 (すなわち、接続部位の撮像範囲)を特定することができる( 第 1特定手段)。図中の点 Xから Xは、接続部位の撮像範囲を包含するように抽出さ
1 6
れた特徴点である。本実施例では、直線で結ぶことが可能な 6個の特徴点を抽出し ているが、接続部位の輪郭に沿って特徴点 Xをとればよい。ステップ S605では、ス テツプ S603において抽出された特徴点から、接続部位の撮像範囲 R (すなわち、背 後の周囲物体情報が未知の範囲)を特定する。図 7の特徴点 Xから Xに囲まれた範
1 6
囲が、近似的な接続部位の撮像範囲 Rである。抽出する特徴点 Xの数を増やすこと で、特徴点によって取り囲まれる範囲 Rを接続部位の撮像範囲に正確に一致させる ことができる。
[0026] ステップ S607では、合成画像作成装置 110に接続部位側画像情報が入力される。
ステップ S609では、ステップ S607で入力された接続部位側画像情報から、体幹側 画像の接続部位の撮像範囲 Rの特徴点に対応する点 Zを抽出する。図 8に、ステツ プ S609において抽出される接続部位側画像の特徴点 Zの一例を示す。図 8中の点 Zカゝら Zは、体幹側画像カゝら抽出された特徴点 Xから Xに対応する点である。
1 6 1 6
ステップ S611では、ステップ S609で抽出された特徴点 Zから、接続部位側画像 の対応範囲 S (すなわち、体幹側画像では未知情報である範囲)を特定する (第 2特 定手段)。
[0027] ステップ S613では、接続部位側画像より得られた対応範囲 Sを、体幹側画像より得 られた接続部位の撮像範囲 Rに適合するように、体幹側カメラと接続部位側カメラの 入力画像に付加されている差異情報に基づき、サイズの調整、傾斜角の回転調整な どの処理を行う。
ステップ S615では、体幹側画像の接続部位の撮像範囲 Rを、合成のための準備 処理を終えた対応範囲 Sに置き換える。その結果、ステップ S617において、未知範 囲のない合成画像が出力される。図 9に、合成画像の一例を示す。破線で示されて V、る接続部位の撮像範囲 Rは対応範囲 Sに置き換えられ、接続部位が撮像されて ヽ な 、合成画像を得ることができる。
[0028] 本実施例は、複数の体幹側カメラを有して 、ても良 、。その場合は、それぞれの体 幹側画像より接続部位の撮像範囲 Rを抽出し、それぞれの接続部位の撮像範囲 R に対して接続部位側画像より対応範囲 Sを抽出し、接続部位の撮像範囲 Rを対応 範囲 sxと置き換える。
[0029] 図 10に、複数の体幹側画像と接続部位の撮像範囲 Rの一例を示す。ロボット 100 が体幹側カメラを体幹 103の左右両側と中央にそれぞれ 1つずつ備えている場合、 右側に備えられた体幹側カメラからは図 10Aに示す体幹側画像 TCが得られ、中央 に備えられた体幹側カメラからは図 10Bに示す体幹側画像 TCが得られ、左側に備
2
えられた体幹側カメラからは図 10Cに示す体幹側画像 TCが得られる。これらの体幹
3
側画像 TC、 TCおよび TCはステップ S601からステップ S605の処理を経て、接続
1 2 3
部位の撮像範囲 R、 Rおよび Rの特定を行っている。体幹 103に固定された 3台の
1 2 3
体幹側カメラの位置が異なるため、各画像の接続部位の撮像範囲の位置には差異 がある。
図 11に、上記の 3台の体幹側カメラと連動して作動する接続部位側カメラが撮像し た接続部位側画像 ACを例示する。体幹側画像 TC、 TCおよび TCの接続部位の
1 2 3
撮像範囲 R、 Rおよび Rをネ ΐうため、接続部位側画像 ACはステップ S607からステ
1 2 3
ップ S611の処理によって対応範囲 S、 Sおよび Sを特定する。
1 2 3
ステップ S613からステップ S617の処理により、体幹側画像 TC、 TCおよび TC
1 2 3 の接続部位の撮像範囲 R、 R
1 2および R
3は、接続部位側画像 ACの対応範囲 S、 S
1 2 および S
3により置き換えられ、未知範囲のない体幹側カメラ画像が作成される。
[0030] さらに、本実施例のロボット 100は、複数の接続部位側カメラを有していてもよい。こ の場合は、各体幹側画像の接続部位の撮像範囲 Rに対して対応範囲 Sが最も広範 囲に抽出可能な接続部位側画像を利用するような判断装置を設けることが好ましい
[0031] 本実施例のロボット 100はさらに、上記の方法で得られた合成画像を用いて、ロボ ット 100に対する周囲物体の相対的な位置を計算することができる。ここでいうロボッ ト 100に対する周囲物体の相対的な位置は、物体の相対的位置座標をワールド座 標系からロボットを中心とした座標系に変換して把握する。
[0032] (実施例 2)
実施例 1と実施例 2には、共通する部位があるため、共通する部位または装置につ いては同一番号を付して重複説明を省略する。 図 12は、ステレオカメラを用いたロボットとロボットの周囲の環境を示す斜視図であ る。本実施例のロボット 100は、体幹 103と、肩関節 203を介して体幹 103に接続さ れた一本の接続部位 (アーム) 104を有している。接続部位 104は、 2本以上が存在 していてもよい。体幹 103は、胴体 200と、首関節 202と、頭部 201を備えており、頭 部 201に体幹側カメラ 105 (a)および 105 (b)が固定されている。体幹側カメラ 105 (a )および 105 (b)は、首関節 202によって、胴体 200に対する撮像方向を変えることが できる。胴体 200の下方には 1対の車輪 206が配置されており、車輪 206を利用して 移動する。
接続部位 104は、肩関節 203と、肘関節 204と、手首関節 205を備えており、掌に 接続部位側カメラ 106が固定されている。肩関節 203と、肘関節 204と、手首関節 20 5は駆動機構を有しており、接続部位側カメラ 106は、肩関節 203と、肘関節 204と、 手首関節 205によって、胴体 200に対する撮像方向を変えることができる。また胴体 200に対する接続部位側カメラ 106のカメラ位置を変えることもできる。
このロボットは、作業環境内におえる頭部 201の位置を計測する手段を備えており 、体幹側カメラ 105 (a)および 105 (b)のカメラ位置と撮像方向を認識して 、る。また、 胴体 200に対する接続部位側カメラ 106のカメラ位置と撮像方向を認識している。 本実施例のロボット 100は、周囲物体 30, 40, 50, 60を視覚により認識し、それら に衝突しない接続部位軌道を作成し、把持物 20を空いたスペースに設置する。ロボ ット 100の体幹側カメラ 105 (a)および 105 (b)は通常、ステレオカメラとして機能して いて、図中の点 A、 B、 C、 Dは、ロボット 100の視点である。
図 13は、本実施例のステレオカメラを用いたロボット 100の周囲を認識する機構 10 1の概略を示す図である。本実施例のロボット 100は、制御装置 114を有している。 制御装置 114は、画像情報処理装置 116と、環境地図記憶装置 112と、移動経路作 成装置 113と、体幹側カメラ位置撮像方向計算装置 111と、接続部位側カメラ位置 撮像方向計算装置 109を備えている。画像情報処理装置 116は体幹 103に設けら れて ヽる体幹側カメラ 105 (a)および 105 (b)から体幹側画像情報を入力し、接続部 位 104に設けられている接続部位側カメラ 106から接続部位側画像情報を入力し、 体幹側カメラ位置撮像方向計算装置 111から体幹側カメラ 105 (a)および 105 (b)の 位置と撮像方向を入力し、接続部位側カメラ位置撮像方向計算装置 109から接続部 位側カメラ 106の位置と撮像方向を入力し、これらの画像情報およびカメラ位置と撮 像方向に関する情報から、環境地図を作成し、環境地図記憶装置 112に記憶する。 移動経路作成装置 113は、その環境地図情報に基づき、その後の移動経路を作成 し、作成した移動経路情報にしたがって、車輪 206と駆動機構を有する関節を回転さ せるァクチユエータ群 115を制御し、作成した移動経路に沿って、車輪 206、頭部 20 1、接続部位 104を移動させる。ロボット 100は、車輪 206の回転数を検出する車輪 回転数検出装置 119と、各関節の関節角を検出する関節角検出装置 123と、胴体 2 00内に設置されて 、て胴体 200の位置を検出する位置情報検出装置 121を備えて おり、それらの装置で取得される情報が、体幹側カメラ位置撮像方向計算装置 111と 接続部位側カメラ位置撮像方向計算装置 109に入力される。
ロボット 100は、位置と撮像方位が既知のカメラで撮像した画像情報力も周囲の環 境を認識して移動経路を計算し、計算した移動経路に従って移動した後にカメラ位 置と撮像方向を再計算し、その後に再度撮像するという処理を繰返しながら、自律的 に移動する。
図 14に、ロボット 100の視野の鳥瞰図を示す。ロボット 100の接続部位 104とその 把持物 20が体幹側カメラ 105 (a)および 105 (b)の視野内に入ってしまうと、その後 ろにある環境情報を得ることができな 、。
具体的には、図 14の例において、点 Aおよび点 Bは、実線矢印で示すように体幹 側カメラ 105 (a)および 105 (b)の両方より撮像可能であるため、体幹側画像からステ レオ画像が生成可能となっており、ロボットの移動に合わせてその情報を時系列上連 続して取得することができる。
それに対し、点 Cおよび点 Dに関しては、体幹側カメラだけでは下肢の移動位置も しくは接続部位の動作によって、それぞれの点の体幹側カメラ 105 (a)および 105 (b )を利用したステレオ視が不可能となり、その周囲についての環境情報を取得するこ とができない。破線矢印は、接続部位あるいは把持物体が視線を遮るため、同じ特 徴点を有する画像を撮像することができな 、ことを示して 、る。
ステレオカメラの場合、特に周囲物体の奥行きや高さなどの情報を必要とする場合 は、複数の位置情報が既知のカメラを利用する力、あるいは 1台のカメラが移動しな 力 撮像した場合のように、複数の画像力も視差情報が得られることが必須となる。こ のため、点 Cおよび点 Dは両眼視ができないことから、点 Cおよび点 D付近の物体の 位置関係を認識することができな 、。
[0035] このような場合、本実施例は、点 Cおよび点 Dの視点のように、視界を遮る物体の有 無等により、体幹側カメラ 105のいずれかがステレオカメラとして満足に機能すること が困難な場合には、いずれかの体幹側カメラ 105と接続部位側カメラ 106を用いてス テレオ画像を得ることができる。
具体的には、点 Aおよび点 Bの周辺など、接続部位 104などの視野を遮る物体が ない場合には体幹側カメラ 105 (a)および 105 (b)によりステレオ画像を取得し、周囲 物体のロボット 100に対する相対的な位置関係を計算することができる (第 1計算手 段)。その一方で、点 Cのような場合には体幹側カメラ 105 (b)と接続部位側カメラ 10 6により両眼視し、点 Dの場合には体幹側カメラ 105 (a)と接続部位側カメラ 106によ り両眼視をすることにより、周辺環境全域を認識するのに必要な情報を得、周囲物体 のロボット 100に対する相対的な位置関係を計算することができる (第 2計算手段)。
[0036] 接続部位側カメラ 106を使って両眼視をする場合、複数ある体幹側カメラのうち、ど のカメラを使ってステレオ画像を取得するかは、接続部位 104の撮像される範囲が最 も少ない体幹側画像が取得される体幹側カメラを計算に用いるよう選択することがで きる。この選択は、画像情報処理装置 116が判断する。
[0037] 図 15に、本実施例のロボットの動作概要を表わすフローチャートを示す。このとき、 ロボット 100は把持物 20を把持しており、それを物体 30, 40, 50および 60に衝突し な ヽ接続部位軌道を作成し、把持物 20を空 ヽたスペースに設置する作業を実行し たい。ロボット 100の接続部位 104は図 14に示すような位置にあり、このような状態を 表す画像が体幹側カメラ 105 (a)および 105 (b)の位置より撮像されて!、る。接続部 位 104の軌道を作成するにあたって、物体 50および物体 60の一部が接続部位 104 および把持物 20により未知となっているため、図 15に示す画像情報処理を開始する ステップ S500では、体幹側カメラ 105 (a)と 105 (b)および接続部位側カメラ 106に より撮像された複数の画像が画像情報処理装置 116へ入力され、ステレオ画像が取 得される。画像情報処理装置 116は、体幹側画像の未知範囲の大きさにより、接続 部位側画像を利用するかどうかを判断してもよぐ接続部位 104によって遮られ、未 知範囲となる範囲がより少ない画像の組み合わせ力 ステレオ画像を得る手段を有 している。
[0038] ステップ S502では、ステップ S500で選択され、取得されたステレオ画像に基づき ロボット 100の周囲物体の相対的な位置を計算する。画像データはワールド座標系 力 ロボットを中心とする座標系に変換され、周囲物体の位置関係が計算され、ロボ ット 100と周囲物体の相対的位置情報として出力される。例として、この相対的位置 情報の取得には、視差画像や距離画像を用いてもょ 、。
このとき、体幹側画像どうしからステレオ画像情報を得る場合と、体幹側画像と接続 部位側画像を利用してステレオ画像を得る場合とで、それぞれに第 1計算手段およ び第 2計算手段という、異なる計算手段を用意することが望ましい。体幹側カメラどう しは並行であるが、体幹側画像と接続部位側画像を利用した計算手段は、それぞれ のカメラの相対位置が異なるため、例えばステレオ画像の平行ィ匕ゃノヽンド 'アイ校正 のような座標系の変換などが適用できる。
[0039] 画像処理装置 116において算出された相対的位置情報は、ステップ S504におい て周囲物体の相対的位置を表わすデータとして構築され、環境地図記憶装置 112 に記憶される。環境地図とは、ロボット 100が周囲物体の相対的位置を把握できるよ うなデータを指す。例えば、画像情報処理装置 116において視差画像を算出するよ うな場合は、この環境地図は画像視差空間(SDS空間 Spacial Disparity Space)に より表わすことが可能である。 SDS空間においては、点 A、点 B、点 Cおよび点 Dを有 する周囲物体 30, 40, 50, 60は奥行きのある曲面として表れてくる。
[0040] ステップ S506では、環境地図情報に基づいてロボット 100の移動経路を作成する 。本実施例のロボット 100は、周囲物体 30, 40, 50, 60を視覚により認識し、それら に衝突しな ヽ接続部位軌道を作成し、把持物 20を空 、たスペースに設置することを 作業目的としているため、このような場合は環境地図情報より周囲物体が存在しない 平面を検出し、そこへ把持物 20を設置できるような接続部位の軌道を作成することが 望ましい。作成された移動経路に沿って、ステップ S508では、ァクチユエータ 115に より実際の動作が実現される。
[0041] 図 16に、ロボット 100の画像情報処理を表わすフローチャートを示す。図 15のステ ップ S500のスレテオ画像の取得方法は、複数の体幹側画像を使って取得する方法 と、体幹側画像の!ヽずれかと接続部位側画像を使って取得する方法の 2手法が存在 する。ステップ S160では、体幹側カメラ 105 (a)と 105 (b)により撮像された複数の体 幹側画像と、接続部位側カメラ 106により撮像された接続部位側画像が画像情報処 理装置 116に入力される。ステップ S162では、体幹側画像に接続部位 104が撮像 されているかを判断する。接続部位が撮像されていない場合 (NOの場合)はステツ プ S164に移行し、体幹側画像どうしからステレオ画像を取得し、第 1計算手段を実 行する。一方で、体幹側画像に接続部位が撮像されている場合は (YESの場合)は ステップ S 166に進み、 、ずれかの体幹側画像と接続部位側画像からステレオ画像 を取得し、第 2計算手段を実行する。ステップ S166で選択される体幹側画像は、接 続部位の撮像されて 、る範囲がより小さ!、方の体幹側画像である。
[0042] 本実施例では、体幹および接続部位に合計 3台のカメラを用いて周囲物体の 3次 元情報を得る場合を例示しているが、より多くのカメラを用いても良いし、 1台の接続 部位側カメラが移動することで連続して撮像するような手法を採っても良い。
[0043] 本実施例では静的な周囲物体を認識する場合について例示したが、移動経路作 成装置 113において作成された経路に沿って接続部位が動作を開始した後に、新 たな障害物となる周囲物体が移動経路上に出現した場合や、周囲物体とロボットの 位置が下肢の移動等により変化し、接続部位の軌道に修正が必要となった場合に対 応することができない。
[0044] (実施例 3)
図 17に、動的な周囲物体に対応することができるロボット機構 101のブロック図を 示す。このロボット機構 101は、実施例 2のロボット機構に、さらに接続部位の起動に 修正を加える移動経路修正装置 125を設けることで、一度発令された経路を適宜修 正することができる。
また、適宜周辺環境のデータを更新することで、接続部位の動作と周囲の環境の 変化を同時に、連続して認識し、それに応じて軌道を修正することができる。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の 範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した 具体例を様々に変形、変更したものが含まれる。
例えば、アームだけでなぐ脚などの複数の接続部位にそれぞれ、あるいは 1本の 接続部位の異なる部位に接続部位側カメラを回転可能に複数個装備すれば、撮像 可能な範囲がより拡大される。
また、実施例 2では体幹側カメラを主眼としたステレオ視について例示した力 複数 の接続部位側カメラを用いてステレオ視を可能にし、体幹側カメラと接続部位側カメ ラそれぞれのステレオ画像処理装置を装備することで、さらに多様な用途に利用する ことができる。
本明細書または図面に説明した技術要素は、単独である 、は各種の組み合わせ によって技術的有用性を発揮するものであり、出願時の請求項に記載の組み合わせ に限定されるものではない。また、本明細書または図面に例示した技術は複数目的 を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有 用性を持つものである。

Claims

請求の範囲
[1] 体幹と、
駆動機構を有する関節部を介して体幹に接続されている接続部位と、 体幹に設けられている体幹側カメラと、
接続部位に設けられている接続部位側カメラと、
体幹側カメラで撮像して得られた体幹側画像の一部を、接続部位側カメラで撮像し て得られた接続部位側画像の一部に置き換えることで、体幹側画像中から接続部位 を除去した合成画像を作成する合成画像作成手段と、
を備えて 、る移動型ロボット。
[2] 合成画像作成手段は、
体幹側画像内にお ヽて接続部位を撮像して ヽる範囲を特定する第 1特定手段と 接続部位側画像内において、第 1特定手段で特定した範囲に対応する範囲を撮 像して!/、る範囲を特定する第 2特定手段と、
第 1特定手段で特定した範囲内の体幹側画像を、第 2特定手段で特定した範囲 内の接続部位側画像に置き換える手段と、
を備えている請求項 1の移動型ロボット。
[3] 体幹側カメラが複数設けられており、
合成画像作成手段は、それぞれの体幹側カメラで撮像した体幹側画像に対して、 合成画像を作成する請求項 1の移動型ロボット。
[4] 合成画像作成手段で作成した合成画像を用いて、撮像範囲内に存在する物体の 移動型ロボットに対する相対的な位置関係を計算する手段、
をさらに備えて 、る請求項 1の移動型ロボット。
[5] 体幹側カメラの撮像範囲内に接続部位が入る場合に、接続部位側カメラが体幹側 カメラの撮像範囲内を撮像する方向を向くように、接続部位側カメラの向きを調整す る手段、
をさらに備えている請求項 1のいずれかの移動型ロボット。
[6] 体幹と、 駆動機構を有する関節部を介して体幹に接続されている接続部位と、
体幹に設けられている 2以上の体幹側カメラと、
接続部位に設けられている接続部位側カメラと、
2以上の体幹側カメラで撮像した 2以上の体幹側画像から、撮像範囲内に存在する 物体の移動型ロボットに対する相対的な位置関係を計算する第 1計算手段と、 体幹側カメラの少なくとも 1つで撮像した体幹側画像と接続部位側カメラで撮像した 接続部位側画像から、撮像範囲内に存在する物体の移動型ロボットに対する相対的 な位置関係を計算する第 2計算手段と、
を備えて 、る移動型ロボット。
前記第 2計算手段は、
接続部位を撮像して ヽる範囲が最も少な 、体幹側画像を選択して計算に用いる 請求項 6の移動型ロボット。
PCT/JP2007/052753 2006-02-17 2007-02-15 移動型ロボット WO2007094420A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN2007800057192A CN101384402B (zh) 2006-02-17 2007-02-15 可移动机器人
KR1020087022581A KR101049266B1 (ko) 2006-02-17 2007-02-15 이동형 로봇
US12/279,561 US8010232B2 (en) 2006-02-17 2007-02-15 Movable robot
EP07714283A EP1985416B1 (en) 2006-02-17 2007-02-15 Mobile robot
US13/137,119 US8234011B2 (en) 2006-02-17 2011-07-21 Movable robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006041323A JP4506685B2 (ja) 2006-02-17 2006-02-17 移動型ロボット
JP2006-041323 2006-02-17

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US12/279,561 A-371-Of-International US8010232B2 (en) 2006-02-17 2007-02-15 Movable robot
US13/137,119 Division US8234011B2 (en) 2006-02-17 2011-07-21 Movable robot

Publications (1)

Publication Number Publication Date
WO2007094420A1 true WO2007094420A1 (ja) 2007-08-23

Family

ID=38371597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/052753 WO2007094420A1 (ja) 2006-02-17 2007-02-15 移動型ロボット

Country Status (6)

Country Link
US (2) US8010232B2 (ja)
EP (3) EP2314429B1 (ja)
JP (1) JP4506685B2 (ja)
KR (1) KR101049266B1 (ja)
CN (1) CN101384402B (ja)
WO (1) WO2007094420A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8442661B1 (en) 2008-11-25 2013-05-14 Anybots 2.0, Inc. Remotely controlled self-balancing robot including a stabilized laser pointer
KR101581197B1 (ko) * 2009-01-06 2015-12-30 삼성전자주식회사 로봇 및 그 제어방법
US9020639B2 (en) * 2009-08-06 2015-04-28 The Regents Of The University Of California Multimodal dynamic robotic systems
JP5500926B2 (ja) * 2009-09-29 2014-05-21 キヤノン株式会社 物体把持制御方法及び装置
TWM382891U (en) * 2010-01-07 2010-06-21 Everprec Tech Co Ltd Angle adjustment structure of right-angle robot arm
US8306664B1 (en) * 2010-05-17 2012-11-06 Anybots 2.0, Inc. Self-balancing robot having a shaft-mounted head
EP2659320A2 (en) * 2010-12-30 2013-11-06 iRobot Corporation Mobile human interface robot
JP6499863B2 (ja) * 2011-04-06 2019-04-10 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ダイナミック3dヘルスケア環境における安全性
JP5609760B2 (ja) * 2011-04-27 2014-10-22 トヨタ自動車株式会社 ロボット、ロボットの動作方法、及びプログラム
CN102645932A (zh) * 2012-04-27 2012-08-22 北京智能佳科技有限公司 一种远程控制的导购机器人
KR101555823B1 (ko) 2012-07-18 2015-10-05 (주)브이아이피 로봇 제어 방법 및 장치
JP6036647B2 (ja) * 2013-11-01 2016-11-30 トヨタ自動車株式会社 ロボット
JP6278741B2 (ja) * 2014-02-27 2018-02-14 株式会社キーエンス 画像測定器
JP6290651B2 (ja) * 2014-02-27 2018-03-07 株式会社キーエンス 画像測定器
JP2015226963A (ja) * 2014-06-02 2015-12-17 セイコーエプソン株式会社 ロボット、ロボットシステム、制御装置、及び制御方法
JP6459227B2 (ja) 2014-06-02 2019-01-30 セイコーエプソン株式会社 ロボットシステム
JP6075343B2 (ja) * 2014-09-02 2017-02-08 トヨタ自動車株式会社 走行ロボット、その動作計画方法及びプログラム
JP6260509B2 (ja) * 2014-10-06 2018-01-17 トヨタ自動車株式会社 ロボット
US10189342B2 (en) 2015-02-09 2019-01-29 The Regents Of The University Of California Ball-balancing robot and drive assembly therefor
JP6594024B2 (ja) * 2015-05-07 2019-10-23 ヤマト科学株式会社 検体処理システム
JP2017041125A (ja) * 2015-08-20 2017-02-23 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11927965B2 (en) 2016-02-29 2024-03-12 AI Incorporated Obstacle recognition method for autonomous robots
US11449061B2 (en) 2016-02-29 2022-09-20 AI Incorporated Obstacle recognition method for autonomous robots
US10452071B1 (en) 2016-02-29 2019-10-22 AI Incorporated Obstacle recognition method for autonomous robots
US10788836B2 (en) * 2016-02-29 2020-09-29 AI Incorporated Obstacle recognition method for autonomous robots
CN107229274B (zh) * 2016-03-24 2022-06-28 松下电器(美国)知识产权公司 位置指示方法、终端装置、自行式装置以及程序
JP2018112775A (ja) * 2017-01-06 2018-07-19 富士ゼロックス株式会社 自律移動ロボット
CN106949891A (zh) * 2017-03-01 2017-07-14 深圳鹏锐信息技术股份有限公司 一种新型的室内定位系统以及基于陀螺仪和视频分析的室内双向二次校正定位方法
US11694254B2 (en) * 2017-06-15 2023-07-04 Microsoft Technology Licensing, Llc Interactive physical product browsing experience
JP6969278B2 (ja) * 2017-10-24 2021-11-24 トヨタ自動車株式会社 自律移動体
CN110605711B (zh) * 2018-06-14 2022-06-28 中瑞福宁机器人(沈阳)有限公司 一种控制协作机器人抓取物体的方法、装置及系统
JP6816070B2 (ja) 2018-08-24 2021-01-20 ファナック株式会社 干渉回避装置およびロボットシステム
CN109283850B (zh) * 2018-09-13 2021-08-13 广东美的制冷设备有限公司 家电设备、家电设备的控制方法及存储介质
JP6511681B1 (ja) 2018-10-15 2019-05-15 株式会社Mujin 形状情報生成装置、制御装置、積み降ろし装置、物流システム、プログラム、及び、制御方法
JP6920514B2 (ja) * 2018-11-08 2021-08-18 將洋 鈴木 自走式電気掃除装置、自走式電気掃除装置用プログラム及び掃除システム
JP6577687B1 (ja) * 2019-03-18 2019-09-18 株式会社Mujin 形状情報生成装置、制御装置、積み降ろし装置、物流システム、プログラム、及び、制御方法
CN110753207A (zh) * 2019-09-23 2020-02-04 国网辽宁省电力有限公司丹东供电公司 智能专责监护机器人
JP2022156506A (ja) * 2021-03-31 2022-10-14 Johnan株式会社 ロボット制御システム、および制御装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57194895A (en) * 1981-05-21 1982-11-30 Tokyo Shibaura Electric Co Monitoring device for manipulator
JPH0360989A (ja) * 1989-07-27 1991-03-15 Hitachi Ltd 画像表示方法及び画像表示装置並びに遠隔操作装置
JPH05126521A (ja) * 1991-11-08 1993-05-21 Toshiba Corp 遠隔操作マニピユレータ用位置測定装置
JP2003080488A (ja) * 2001-09-05 2003-03-18 National Institute Of Advanced Industrial & Technology 遠隔操作の監視装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6074983U (ja) 1983-10-26 1985-05-25 フアナツク株式会社 ロボツト制御装置
US5374830A (en) * 1984-10-12 1994-12-20 Sensor Adaptive Machines, Inc. Target based determination of robot and sensor alignment
US4789940A (en) * 1985-08-30 1988-12-06 Texas Instruments Incorporated Method and apparatus for filtering reflections from direct images for mobile robot navigation
US5400244A (en) * 1991-06-25 1995-03-21 Kabushiki Kaisha Toshiba Running control system for mobile robot provided with multiple sensor information integration system
US5531337A (en) * 1995-05-30 1996-07-02 Inco Limited Automated decoupler for rail cars
JP3060989B2 (ja) * 1997-04-18 2000-07-10 株式会社日立製作所 画像符号化方法及び装置
US6496754B2 (en) * 2000-11-17 2002-12-17 Samsung Kwangju Electronics Co., Ltd. Mobile robot and course adjusting method thereof
JP3781370B2 (ja) * 2002-11-19 2006-05-31 本田技研工業株式会社 移動装置
JP3994950B2 (ja) 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
JP2005103722A (ja) * 2003-09-30 2005-04-21 Toshiba Corp 協調ロボット装置、システム、およびナビゲーションロボット装置
EP1694821B1 (en) * 2003-12-11 2017-07-05 Strider Labs, Inc. Probable reconstruction of surfaces in occluded regions by computed symmetry
US7765780B2 (en) * 2003-12-12 2010-08-03 Vision Robotics Corporation Agricultural robot system and method
US7854108B2 (en) * 2003-12-12 2010-12-21 Vision Robotics Corporation Agricultural robot system and method
US7332890B2 (en) * 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
JP4086020B2 (ja) 2004-07-29 2008-05-14 松下電器産業株式会社 Led照明光源
WO2007035943A2 (en) * 2005-09-23 2007-03-29 Braintech Canada, Inc. System and method of visual tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57194895A (en) * 1981-05-21 1982-11-30 Tokyo Shibaura Electric Co Monitoring device for manipulator
JPH0360989A (ja) * 1989-07-27 1991-03-15 Hitachi Ltd 画像表示方法及び画像表示装置並びに遠隔操作装置
JPH05126521A (ja) * 1991-11-08 1993-05-21 Toshiba Corp 遠隔操作マニピユレータ用位置測定装置
JP2003080488A (ja) * 2001-09-05 2003-03-18 National Institute Of Advanced Industrial & Technology 遠隔操作の監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1985416A4 *

Also Published As

Publication number Publication date
US8234011B2 (en) 2012-07-31
KR101049266B1 (ko) 2011-07-13
US8010232B2 (en) 2011-08-30
EP1985416A1 (en) 2008-10-29
EP2314428A1 (en) 2011-04-27
EP2314428B1 (en) 2012-07-04
JP4506685B2 (ja) 2010-07-21
EP2314429A1 (en) 2011-04-27
US20100185327A1 (en) 2010-07-22
KR20080093460A (ko) 2008-10-21
EP2314429B1 (en) 2012-07-11
EP1985416B1 (en) 2011-08-03
EP1985416A4 (en) 2010-06-23
JP2007216350A (ja) 2007-08-30
CN101384402B (zh) 2010-11-03
CN101384402A (zh) 2009-03-11
US20120053727A1 (en) 2012-03-01

Similar Documents

Publication Publication Date Title
JP4506685B2 (ja) 移動型ロボット
CN113696186B (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
JP4004899B2 (ja) 物品の位置姿勢検出装置及び物品取出し装置
JP6180087B2 (ja) 情報処理装置及び情報処理方法
JP5852364B2 (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
EP2682711B1 (en) Apparatus and method for three-dimensional measurement and robot system comprising said apparatus
JP4849178B2 (ja) 移動型ロボット
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
JP4665857B2 (ja) アームを誘導可能な移動体およびアームを誘導する方法
JP7364773B2 (ja) 教示システム及びロボット制御装置
JP2008168372A (ja) ロボット装置及び形状認識方法
Yang et al. Visual servoing control of baxter robot arms with obstacle avoidance using kinematic redundancy
Pachidis et al. Vision-based path generation method for a robot-based arc welding system
WO2023013740A1 (ja) ロボット制御装置、ロボット制御システム、及びロボット制御方法
JP7093881B1 (ja) システム、及び自動搬送車
JP2005205519A (ja) ロボットハンド装置
WO2024048491A1 (ja) ロボットシステム、および、ロボットシステムの制御方法
US20220388174A1 (en) Autonomous and teleoperated sensor pointing on a mobile robot
JP2012022600A (ja) マスク画像作成システム
Mezouar Optimal Camera Trajectory under visibility constraint in visual servoing: a variational approach
Pachidis et al. Pseudo Stereovision-based Path Generation Method for a Robotic Arc Welding System
Yang et al. Visual Servoing Control of Baxter Robot with Obstacle Avoidance using Kinematic Redundancy

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2007714283

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200780005719.2

Country of ref document: CN

Ref document number: 12279561

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 1020087022581

Country of ref document: KR

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)