WO2015037222A1 - 三次元物体認識装置、三次元物体認識方法、及び移動体 - Google Patents

三次元物体認識装置、三次元物体認識方法、及び移動体 Download PDF

Info

Publication number
WO2015037222A1
WO2015037222A1 PCT/JP2014/004618 JP2014004618W WO2015037222A1 WO 2015037222 A1 WO2015037222 A1 WO 2015037222A1 JP 2014004618 W JP2014004618 W JP 2014004618W WO 2015037222 A1 WO2015037222 A1 WO 2015037222A1
Authority
WO
WIPO (PCT)
Prior art keywords
dimensional
dimensional shape
obstacle
shape
measurement
Prior art date
Application number
PCT/JP2014/004618
Other languages
English (en)
French (fr)
Inventor
和仁 田中
Original Assignee
トヨタ自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by トヨタ自動車株式会社 filed Critical トヨタ自動車株式会社
Priority to US14/888,184 priority Critical patent/US9633438B2/en
Priority to DE112014004163.7T priority patent/DE112014004163B4/de
Priority to KR1020157030923A priority patent/KR101971317B1/ko
Publication of WO2015037222A1 publication Critical patent/WO2015037222A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Definitions

  • the present invention relates to a three-dimensional object recognition device, a three-dimensional object recognition method, and a moving object.
  • Patent Document 1 discloses a vehicle equipped with an image recognition device for the purpose of accurately and quickly recognizing a pedestrian within a certain range ahead of the vehicle in a captured image of a camera.
  • This image recognition apparatus assigns identification information ID to a target detected beyond a predetermined pedestrian detectable area ahead of the host vehicle by laser radar exploration. Accordingly, the identification information ID is given to a target that is not a pedestrian and that absorbs less laser light, such as a vehicle or an electric pole of a roadside object.
  • this image recognition apparatus recognizes a pedestrian by performing the image recognition process of pattern matching only about the target which does not have identification information ID of the pedestrian detectable area of a camera. Accordingly, it is stated that the load of the image recognition processing is reduced, and a pedestrian in the pedestrian detectable region can be recognized accurately and quickly.
  • the three-dimensional shape of the obstacle is taken into consideration while recognizing the three-dimensional shape of the obstacle so that the moving body does not contact the obstacle. It is necessary to plan the movement route and move.
  • a method of mounting a sensor for measuring the three-dimensional shape of the surrounding obstacle on the moving body and measuring the three-dimensional shape of the obstacle using the sensor can be considered.
  • many sensors that measure a three-dimensional shape have a limited measurement range. Therefore, the obstacle that has entered the blind spot of the sensor cannot be measured.
  • the present invention has been made based on the above-described knowledge, and is capable of grasping a wide range of three-dimensional shapes of surrounding objects while suppressing cost, and a three-dimensional object recognition method,
  • the object is to provide a moving body.
  • An apparatus for recognizing a three-dimensional object is an omnidirectional sensor that measures peripheral objects in all directions and generates position information that can specify the position of the object as a measurement result;
  • a three-dimensional measurement device that measures an object within a certain measurement range and generates three-dimensional shape information that can specify the three-dimensional shape of the object as a measurement result, and the object is the third order
  • a control unit that updates the shape recognized as the three-dimensional shape of the object based on the three-dimensional shape information generated by the three-dimensional measurement device when within the measurement range of the original measurement device, and the control unit Is to track the object based on the position information generated by the omnidirectional sensor even when the object goes out of the measurement range of the three-dimensional measuring apparatus.
  • a three-dimensional object is measured by measuring a three-dimensional shape of an object within a certain measurement range of the three-dimensional measurement apparatus among peripheral objects. Based on the result, the step of updating the shape recognized as the three-dimensional shape of the object within the measurement range of the three-dimensional measuring device, and the position of the surrounding object in all directions by the omnidirectional sensor, And tracking an object that has come out of the measurement range of the three-dimensional measurement apparatus.
  • the moving body includes an omnidirectional sensor that measures peripheral objects in all directions and generates position information capable of specifying the position of the object as a measurement result, and the peripheral objects
  • a three-dimensional measuring device that measures an object within a certain measurement range and generates three-dimensional shape information capable of specifying the three-dimensional shape of the object as a measurement result, and the object is the three-dimensional measuring device If it is within the measurement range, the shape recognized as the three-dimensional shape of the object is updated based on the three-dimensional shape information generated by the three-dimensional measuring device, and the three-dimensional shape of the recognized object is updated.
  • control unit configured to plan a movement path so as not to contact the object and to move the planned movement path, and the control unit includes a measurement range of the three-dimensional measurement apparatus. Even when they go out, it is to track the object based on the position information the omnidirectional sensor is generated.
  • FIG. 1 is an external configuration diagram of an autonomous mobile body 1 according to the present embodiment.
  • FIG. 2 is a diagram illustrating an example of an object measurement state by the autonomous mobile body 1 according to the embodiment.
  • the autonomous mobile body 1 has a three-dimensional distance sensor 2, an omnidirectional sensor 3, a main body 4, and wheels 5a and 5b.
  • the autonomous mobile body 1 recognizes obstacles (objects) around it and moves autonomously while avoiding the obstacles.
  • the three-dimensional distance sensor 2 measures obstacles within a certain measurement range among obstacles around the autonomous mobile body 1, and uses the measurement surface (third order) of those obstacles as a measurement result.
  • Three-dimensional shape information that can specify the three-dimensional shape on the surface facing the original distance sensor 2 is generated.
  • the three-dimensional distance sensor 2 is disposed at the front part of the main body 4 so that an obstacle ahead of the autonomous mobile body 1 can be measured.
  • the three-dimensional distance sensor 2 is, for example, a sensor that measures the distance to an obstacle for each direction within the measurement range. That is, the three-dimensional distance sensor 2 is a sensor that generates distance information indicating the distance to each point on the measurement surface of the obstacle within the measurement range as the three-dimensional shape information. Note that the three-dimensional distance sensor may use an arbitrary one of various methods such as an optical method, an ultrasonic method, and a laser beam method.
  • the three-dimensional distance sensor 2 can measure only the three-dimensional shape of the obstacle within a certain measurement range, but can also measure the three-dimensional shape of the obstacle in all directions. It is cheap compared.
  • the device that measures the obstacle and generates the three-dimensional shape information that can specify the three-dimensional shape of the obstacle is not limited to the three-dimensional distance sensor 2.
  • a camera imaging device
  • an obstacle in a certain range may be imaged by a camera, and image information indicating an image in the imaged range may be generated as three-dimensional shape information. That is, as long as information that can identify the three-dimensional shape of the obstacle in the measurement range can be obtained from the contents, the format of the three-dimensional shape information and the device for generating the three-dimensional shape information adopt any one can do.
  • the three-dimensional shape information may be information indicating the three-dimensional shape of the obstacle as a distance like the distance information, and the three-dimensional shape of the obstacle is analyzed by analyzing the content like the image information. It may be information that can be derived.
  • the omnidirectional sensor 3 measures obstacles around the autonomous mobile body 1 in all directions, and generates obstacle position information that can identify the positions of these obstacles as measurement results. Sensor.
  • the omnidirectional sensor 3 is disposed on the upper part of the main body 4 so that the omnidirectional sensor 1 can measure all azimuths.
  • the omnidirectional sensor 3 is, for example, a sensor that measures the distance to obstacles around the autonomous mobile body 1 in all directions and generates distance information indicating the distance to each obstacle in all directions as obstacle position information. Good. In this case, the omnidirectional sensor 3 is an inexpensive distance sensor that can measure the distance to the obstacle in all directions, but cannot measure the three-dimensional shape. Further, the omnidirectional sensor 3 may be a sensor that images obstacles around the autonomous mobile body 1 in all directions and generates image information indicating the captured omnidirectional images as obstacle position information. That is, as long as information that can identify the position of each obstacle in all directions can be obtained from the contents, any type of obstacle position information format and all-direction sensor can be adopted. That is, the obstacle position information may be information indicating the distance to the obstacle like distance information, and the distance to the obstacle can be derived by analyzing the content like image information. Information that can be used.
  • the omnidirectional sensor 3 is inexpensive and cannot measure the three-dimensional shape of the surrounding obstacle, but can measure the position of the obstacle in a wide range. As described above, the omnidirectional sensor 3 cannot measure the three-dimensional shape of the obstacle, but the measurement range in the horizontal direction is wider than that of the three-dimensional distance sensor 2.
  • the main body 4 is provided with wheels 5a and 5b at the lower part thereof.
  • the autonomous mobile body 1 moves by driving the wheels 5a and 5b.
  • the autonomous mobile body 1 moves autonomously avoiding obstacles around the autonomous mobile body 1 using the measurement results of the three-dimensional distance sensor 2 and the omnidirectional sensor 3. Moreover, even if the measurement range of the three-dimensional distance sensor 2 that measures the three-dimensional shape is limited by combining the three-dimensional distance sensor 2 and the omnidirectional sensor 3 with the autonomous mobile body 1 according to the present embodiment. This makes it possible to grasp the three-dimensional shape of surrounding obstacles over a wide range.
  • FIG. 3 is an internal configuration diagram of the autonomous mobile body 1 according to the present embodiment.
  • the autonomous mobile body 1 includes a control unit 10 and actuators 14a and 14b.
  • the control unit 10 controls the autonomous mobile body 1 in an integrated manner.
  • the control unit 10 has a CPU (Central Processing Unit) and a storage unit (not shown), and the CPU executes various programs as the control unit 10 by executing a program stored in the storage unit. To do. That is, this program includes code for causing the CPU of the control unit 10 to execute various processes as the control unit 10.
  • the storage unit stores the program and various information used by the control unit 10.
  • the storage unit includes at least one storage device capable of storing the program and various types of information. For example, at least one of a memory and a hard disk may be arbitrarily used as the storage device.
  • the control unit 10 functions as a three-dimensional obstacle position storage unit 11, a route plan unit 12, and a moving body drive control unit 13.
  • the three-dimensional obstacle position storage unit 11 Based on the obstacle position information output from the omnidirectional sensor 3, the three-dimensional obstacle position storage unit 11 recognizes obstacles around the autonomous mobile body 1 and their positions, and for each recognized obstacle. Identification information.
  • the identification information is information that can uniquely identify each obstacle. For example, a unique integer may be assigned as identification information.
  • the three-dimensional obstacle position storage unit 11 tracks the current position of each recognized obstacle based on the position of each obstacle specified by the obstacle position information. This makes it possible to track the current position of the obstacle regardless of whether the obstacle is within the measurement range of the three-dimensional distance sensor 2.
  • the three-dimensional obstacle position storage unit 11 The obstacle position information indicating the position of the obstacle and the three-dimensional shape information indicating the three-dimensional shape of the obstacle specified based on the three-dimensional shape information output from the three-dimensional distance sensor 2 are stored in the storage unit in association with each other. . That is, for each obstacle, the obstacle position information and the three-dimensional shape information are associated with each other and stored in the storage unit. At this time, the format of the obstacle position information output from the omnidirectional sensor 3 and the format of the obstacle position information stored in the storage unit may be the same or different.
  • the information format may be converted and stored as in the case of specifying the position and three-dimensional shape from the image information.
  • the 3D obstacle position storage unit 11 outputs the 3D shape information of the obstacle from the 3D distance sensor 2 while the position of the obstacle is within the measurement range of the 3D distance sensor 2. It is updated by replacing it to indicate the latest three-dimensional shape specified based on the three-dimensional shape information.
  • the 3D obstacle position storage unit 11 stores, for each obstacle, a 3D shape in which all of the 3D shapes recognized so far are stored separately from the 3D shape information indicating the latest 3D shape. Is also stored in the storage unit.
  • the three-dimensional obstacle position storage unit 11 accumulates the three-dimensional shape of the obstacle with reference to the obstacle position. Thereby, when the obstacle operates like a human and the shape of the obstacle changes, the range in which the obstacle can move can be complemented sequentially as its three-dimensional shape.
  • the three-dimensional obstacle position storage unit 11 stores the storage indicated by the three-dimensional shape storage information of the obstacle stored in the storage unit. Based on the three-dimensional shape, the three-dimensional shape estimated as the range in which the obstacle can move is calculated according to a predetermined calculation method. The calculation method will be described in detail later.
  • the three-dimensional obstacle position storage unit 11 stores the three-dimensional shape information indicating the calculated three-dimensional shape as three-dimensional shape information indicating the latest three-dimensional shape of the obstacle. In this way, when an obstacle has gone out of the measurement range of the three-dimensional distance sensor 2, the three-dimensional shape of the obstacle is expanded to a three-dimensional shape that is estimated to be a range in which the obstacle can move. By recognizing the shape, the autonomous mobile body 1 and the obstacle are prevented from contacting each other.
  • the three-dimensional obstacle position storage unit 11 is based on the three-dimensional shape information output from the three-dimensional distance sensor 2. The updating of the 3D shape information indicating the latest 3D shape of the obstacle is resumed.
  • the obstacle is tracked based on the measurement result of the omnidirectional sensor 3, and the three-dimensional of the obstacle is detected. It is possible to keep track of the shape.
  • the route planning unit 12 plans a route along which the autonomous mobile body 1 moves so that the autonomous mobile body 1 does not contact the obstacle based on the obstacle position information and the three-dimensional shape information stored in the storage unit.
  • the mobile body drive control unit 13 calculates drive command values to the actuators 14a and 14b so that the autonomous mobile body 1 moves along the route planned by the route planning unit 12. Then, the moving body drive control unit 13 outputs the calculated drive command value to the actuators 14a and 14b.
  • Actuators 14a and 14b drive the wheels 5a and 5b of the autonomous mobile body 1.
  • the actuator 14a rotates the wheel 5a at a rotation speed corresponding to the drive command value from the moving body drive control unit 13.
  • the actuator 14b rotates the wheel 5b at a rotation speed according to the drive command value from the moving body drive control unit 13.
  • the wheels 5a and 5b correspond to the wheels attached to the lower part of the main body 4 described above.
  • the moving body drive control unit 13 controls the actuators 14a and 14b to rotate the wheels 5a and 5b, thereby moving the moving path planned so that the autonomous moving body 1 does not contact the obstacle. To do.
  • FIG. 4 is a flowchart showing processing of the autonomous mobile body 1 according to the present embodiment.
  • FIG. 5 is a flowchart showing the three-dimensional shape information providing process in step S13 of FIG.
  • FIG. 6 is a diagram illustrating a flow of data handled by the autonomous mobile body 1 according to the embodiment.
  • FIG. 7 is a diagram illustrating an example of correspondence between an obstacle position and a three-dimensional shape.
  • FIG. 8 is a diagram illustrating an example of accumulating the three-dimensional shape of the obstacle in the measurement range of the three-dimensional distance sensor.
  • FIG. 9 is a diagram illustrating an example of generating a three-dimensional shape of an obstacle outside the measurement range of the three-dimensional distance sensor. Note that S1 to S5 in FIGS. 4 and 5 correspond to S1 to S5 in FIG. Further, S2 and S3 in FIG. 5 correspond to FIGS. 7 and 8, and S4 and S5 in FIG. 5 correspond to FIG.
  • the autonomous mobile body 1 has started autonomous movement (S10).
  • the autonomous movement to the destination set by the user is started.
  • the autonomous mobile body 1 is not limited to the one for which the destination is set, and may be one that repeatedly moves and stops for an arbitrary purpose.
  • the autonomous mobile body 1 acquires information by the three-dimensional distance sensor 2 and the omnidirectional sensor 3 (S11). Specifically, as described above, the three-dimensional distance sensor 2 measures obstacles within a certain measurement range among obstacles around the autonomous mobile body 1, generates three-dimensional shape information, and performs tertiary The data is output to the original obstacle position storage unit 11. Further, as described above, the omnidirectional sensor 3 measures obstacles around the autonomous mobile body 1 in all directions, generates obstacle position information, and outputs the obstacle position information to the three-dimensional obstacle position storage unit 11. The three-dimensional obstacle position storage unit 11 acquires the three-dimensional shape information output from the three-dimensional distance sensor 2 and the obstacle position information output from the omnidirectional sensor 3.
  • the autonomous mobile body 1 identifies and tracks obstacles (S12). Specifically, the three-dimensional obstacle position storage unit 11 recognizes surrounding obstacles and their positions based on the obstacle position information output from the omnidirectional sensor 3, and identifies and tracks the obstacles. . The three-dimensional obstacle position storage unit 11 generates and assigns identification information for an obstacle recognized for the first time. Then, the three-dimensional obstacle position storage unit 11 associates the generated identification information with the obstacle position information indicating the position of the recognized obstacle and stores them in the storage unit (S1). Further, the three-dimensional obstacle position storage unit 11 tracks the position of an already recognized obstacle.
  • the three-dimensional obstacle position storage unit 11 determines the position indicated by the obstacle position information of the obstacle stored in the storage unit as the current position (omnidirectional sensor).
  • the position of the obstacle specified based on the obstacle position information output from 3 is updated (S1).
  • the position indicated by the obstacle position information of a certain obstacle is the position of the certain obstacle specified from the obstacle position information from the omnidirectional sensor 3 most. If they are close, it may be determined that these obstacles are the same obstacle.
  • the autonomous mobile body 1 gives the three-dimensional shape information of the obstacle to the recognized obstacle (S13). That is, for the obstacle recognized for the first time, its three-dimensional shape information is newly given, and for the recognized obstacle, the three-dimensional shape newly recognized is indicated as the three-dimensional shape information. By replacing, the shape recognized by the autonomous mobile body 1 as the three-dimensional shape of the obstacle is updated (S3). Thereby, as shown in FIG. 7, identification information, three-dimensional shape information, and obstacle position information are linked and stored in the storage unit for the identified obstacle. The process in step S13 will be described later in detail with reference to FIG.
  • the autonomous mobile body 1 plans a route along which the autonomous mobile body 1 moves, calculates a drive command value for driving the wheels 5a and 5b so as to move along the planned route, and drives the wheels 5a and 5b (S14). .
  • the route planning unit 12 determines that the autonomous mobile body 1 is an obstacle based on the obstacle position information and the three-dimensional shape information of each obstacle stored in the storage unit by the three-dimensional obstacle position storage unit 11. Plan a route to move so as not to touch the door.
  • information indicating the three-dimensional shape of the autonomous mobile body 1 is stored in advance in the storage unit, and when the autonomous mobile body 1 moves based on the information, the three-dimensional shape of the autonomous mobile body 1 is stored. And a route that does not overlap with the three-dimensional shape of each obstacle may be derived.
  • the moving body drive control unit 13 drives the actuators 14a and 14b by giving drive command values to the actuators 14a and 14b so that the autonomous moving body 1 moves along the route planned by the route planning unit 12. Thereby, the wheels 5a and 5b are driven, and the autonomous mobile body 1 moves along the route planned by the route planning unit 12.
  • the autonomous mobile body 1 determines whether or not the autonomous mobile body 1 has reached the goal of autonomous movement (S15). For example, the autonomous mobile body 1 determines that the goal has been reached when the destination set by the user is reached.
  • the autonomous mobile body 1 When it is determined that the autonomous mobile body 1 has reached the goal of autonomous movement (S15: Yes), the autonomous mobile body 1 ends the autonomous movement. When it is determined that the autonomous mobile body 1 has not reached the goal of autonomous movement (S15: No), the autonomous mobile body 1 returns to step S11.
  • FIG. 5 is a flowchart for explaining step S13 of FIG. 6 in detail.
  • the three-dimensional obstacle position storage unit 11 determines whether or not the identified obstacle is within the measurement range of the three-dimensional distance sensor 2 (S20).
  • the three-dimensional obstacle position storage unit 11 determines the obstacle from the measurement result of the three-dimensional distance sensor 2. Are acquired and stored (S21). Specifically, the three-dimensional obstacle position storage unit 11 cuts out a certain range of three-dimensional shape information including the obstacle from the three-dimensional shape information output from the three-dimensional distance sensor 2 to obtain three-dimensional shape accumulation information. (S2).
  • the three-dimensional shape information is accumulated at regular intervals. Specifically, as shown in FIG. 8, when the measured three-dimensional shape has already been accumulated as the three-dimensional shape of the obstacle, the three-dimensional shape newly acquired around the position of the obstacle. Are updated as the three-dimensional shape of the obstacle. In other words, the three-dimensional shape that is the range in which the obstacle can move is updated by complementing the shape newly found by measurement. According to this, for example, when the obstacle moves like a human, the posture change range (the range in which the arm or foot moves) can be recorded.
  • the three-dimensional obstacle position storage unit 11 stores the three-dimensional shape of the obstacle in association with the obstacle position from the measurement result of the three-dimensional distance sensor 2 (S22). Specifically, the three-dimensional obstacle position storage unit 11 stores the cut-out three-dimensional shape information as three-dimensional shape information indicating the latest three-dimensional shape in association with the obstacle position information of the identified obstacle. Save to the department.
  • the 3D shape information stored in the storage unit is not limited to the format of the cut out 3D shape information itself, and arbitrary format conversion may be performed. Thereby, as shown in FIG. 7, identification information, three-dimensional shape information, and obstacle position information are linked and stored in the storage unit for the identified obstacle (S3).
  • the obstacle position information and the three-dimensional shape information of the obstacle are displayed.
  • the position of the obstacle is tracked while being updated. If the obstacle is out of the measurement range of the three-dimensional distance sensor 2, the position of the obstacle can be traced. Cannot be measured or updated.
  • the three-dimensional obstacle position storage unit 11 Based on the shape recognized as the three-dimensional shape, the posture change range of the obstacle (the range in which the three-dimensional shape of the obstacle changes) is calculated (S23). Specifically, as shown in FIG. 9, the three-dimensional obstacle position storage unit 11 rotates the three-dimensional shape accumulated for the obstacle around an axis extending vertically upward from the position of the obstacle. A three-dimensional shape is calculated (S4). That is, a three-dimensional shape obtained by rotating the accumulated three-dimensional shape indicated by the three-dimensional shape accumulation information about the obstacle position axis is calculated.
  • the three-dimensional obstacle position storage unit 11 converts the calculated three-dimensional shape into the three-dimensional shape information indicating the three-dimensional shape, and the third order indicating the latest three-dimensional shape of the obstacle outside the measurement range.
  • the original shape information is stored in the storage unit in association with the obstacle position information of the obstacle (S24, S25, S5).
  • the three-dimensional shape information is continuously stored in the storage unit until the obstacle enters the measurement range of the three-dimensional distance sensor 2 again. Then, when the obstacle enters the measurement range of the three-dimensional distance sensor 2 again, the three-dimensional obstacle position storage unit 11 restores the original three-dimensional shape information. Or you may make it update 3D shape information by the process in said step S22, without forcibly returning to original 3D shape information.
  • an arbitrary position in the accumulated three-dimensional shape may be determined as the rotation axis of the three-dimensional shape.
  • the center of gravity of the three-dimensional shape may be determined as the accumulated rotation axis of the three-dimensional shape.
  • the center position of a predetermined characteristic part of the three-dimensional shape may be determined as the accumulated three-dimensional rotation axis.
  • the center position of the head may be determined as the rotation axis.
  • the position of the obstacle and the rotation axis are made to coincide. To do.
  • the three-dimensional shape obtained by rotating the accumulated three-dimensional shape becomes a three-dimensional shape in which the range in which the obstacle can move by its own posture change (for example, rotational motion) is estimated.
  • the obstacle is a human being
  • the three-dimensional distance sensor 2 can measure a three-dimensional shape with one arm raised, after the person goes out of the measurement range of the three-dimensional distance sensor 2,
  • the autonomous mobile body 1 does not recognize the protrusion of the arm as a three-dimensional shape, so autonomous movement
  • the body 1 may come into contact with humans.
  • the three-dimensional shape obtained by rotating the three-dimensional shape of the recognized obstacle is recognized as the three-dimensional shape of the obstacle, avoid contact even in such a case. Is possible.
  • the three-dimensional shape information calculated and stored as described above is used.
  • the three-dimensional shape including the posture change range is estimated and recognized as the three-dimensional shape of the obstacle.
  • the latest three-dimensional shape or the accumulated three-dimensional shape may be used as it is without estimating the three-dimensional shape. Even in such a case, it is possible to track an obstacle by the omnidirectional sensor 3 and perform interference determination in consideration of the three-dimensional shape of the obstacle. Therefore, the three-dimensional shape of the surrounding obstacle can be grasped in a wide range.
  • the obstacle operates and the three-dimensional shape is changed. Even if it changes, contact with the obstacle can be avoided.
  • the control unit 10 performs the tertiary when the obstacle (object) is within the measurement range of the three-dimensional distance sensor 2 (three-dimensional measurement device). Based on the three-dimensional shape information generated by the original distance sensor 2, the shape recognized as the three-dimensional shape of the obstacle is updated. In addition, the control unit 10 tracks the obstacle based on the obstacle position information generated by the omnidirectional sensor 3 even when the obstacle is out of the measurement range of the three-dimensional distance sensor 2. Yes.
  • the three-dimensional distance sensor 2 cannot measure a three-dimensional shape at a low cost. Although the measurement range is narrow, the blind spot of the three-dimensional distance sensor 2 that can measure a three-dimensional shape with high accuracy can be compensated. Therefore, according to the present embodiment, it is possible to continuously grasp a three-dimensional shape of surrounding obstacles while suppressing costs.
  • the control part 10 is based on the shape acquired as a three-dimensional shape of an obstacle about the obstacle which came out of the measurement range of the three-dimensional distance sensor 2.
  • FIG. the three-dimensional shape including the range in which the obstacle changes is estimated, and the estimated three-dimensional shape is recognized as the three-dimensional shape of the object outside the measurement range of the three-dimensional distance sensor 2.
  • the three-dimensional shape that the obstacle can take can be grasped more appropriately.
  • the three-dimensional shape of the obstacle can be suitably recognized in the autonomous mobile body 1 that moves while avoiding the obstacle.
  • the three-dimensional shape of the posture change range of the obstacle is estimated by rotating the accumulated three-dimensional shape, but is not limited thereto. For example, do not accumulate a separate 3D shape, and estimate the 3D shape of the obstacle's posture change range by rotating the latest 3D shape of the obstacle around the position of the obstacle. May be. However, preferably, the three-dimensional shape including all the obstacle posture change ranges is estimated by rotating the accumulated three-dimensional shape to estimate the three-dimensional shape of the obstacle posture change range. Therefore, contact with an obstacle can be avoided more.
  • the identified obstacle is categorized by analyzing the measurement result of at least one of the two sensors, and a detailed three-dimensional shape of the posture change range is designated according to the category of the obstacle. You may do it.
  • the failure of that category prepared in advance
  • the three-dimensional shape of the posture change range of the object may be used as the three-dimensional shape of the posture change range of the obstacle.
  • 3D shape information indicating the three-dimensional shape of the posture change range of the human stored in advance in the storage unit is stored in the obstacle.
  • the latest three-dimensional shape may be stored in the storage unit as three-dimensional shape information.
  • measurement pattern information indicating a measurement pattern possessed by the obstacle of the category and three-dimensional shape information of the obstacle of the category are stored in the storage unit in advance.
  • the three-dimensional obstacle position storage unit 11 stores in the storage unit at least one of the measurement results (obstacle position, latest three-dimensional shape, and accumulated three-dimensional shape) of the three-dimensional distance sensor 2 and the omnidirectional sensor 3.
  • the three-dimensional shape information corresponding to the measurement pattern information is used as the three-dimensional shape information indicating the three-dimensional shape of the obstacle. Identify.
  • the three-dimensional shape of the obstacle can be recognized more appropriately. Moreover, thereby, more accurate three-dimensional contact determination can be performed in the route plan, and autonomous movement with higher reliability and higher traveling performance is possible.
  • the latest three-dimensional shape is recognized by the three-dimensional distance sensor 2 as the latest three-dimensional shape, but is not limited thereto.
  • the accumulated three-dimensional shape may be recognized as the latest three-dimensional shape.
  • the three-dimensional shape recognition device is not limited to the autonomous mobile body 1 and is applied to various devices that perform arbitrary control using the three-dimensional shape of a surrounding obstacle (object) recognized by the three-dimensional shape recognition device. can do.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

 本発明に係る三次元物体認識装置は、全方位について周辺の物体を測定し、測定結果として物体の位置を特定することができる位置情報を生成する全方位センサと、周辺の物体のうち、一定の測定範囲内の物体を測定し、測定結果として物体の三次元形状を特定することができる三次元形状情報を生成する三次元測定装置と、物体が三次元測定装置の測定範囲内にある場合、三次元測定装置が生成した三次元形状情報に基づいて、物体の三次元形状として認識する形状を更新する制御部を備える。制御部は、物体が三次元測定装置の測定範囲外に出た場合であっても、全方位センサが生成した位置情報に基づいて物体を追跡する。

Description

三次元物体認識装置、三次元物体認識方法、及び移動体
 本発明は、三次元物体認識装置、三次元物体認識方法、及び移動体に関する。
 特許文献1には、カメラの撮影画像中の自車前方の一定範囲内の歩行者を精度よく迅速に認識することを目的とした画像認識装置が搭載された車両が開示されている。この画像認識装置は、レーザレーダの探査により自車前方の所定の歩行者検出可能領域以遠に検出される物標に識別情報IDを付与する。これにより、車両や路側物の電柱等のように、歩行者でなく、レーザ光の吸収が少ない物標に識別情報IDを付与するようにしている。そして、この画像認識装置は、カメラの歩行者検出可能領域の識別情報IDが付いていない物標についてのみパターンマッチングの画像認識処理を施して歩行者を認識するようにしている。これにより、画像認識処理の負荷が少なくなり、精度良く迅速に歩行者検出可能領域内の歩行者を認識できると述べられている。
特開2009-237898号公報
 本願出願人は、上述したように周辺の物体を認識する技術において、以下に説明する課題を見出した。以下、その課題について説明する。なお、以下に説明する内容は、本願出願人が新たに検討した内容であって、従来技術を説明するものではない。ここでは、センサによって周辺の障害物(物体)を認識しながら自律移動する移動体について考える。
 まず、移動体が障害物を回避して自律移動する手法として、単純には、周辺の障害物の三次元形状は考慮せずに、障害物の有無及び位置のみを考慮して、障害物を回避して移動経路を計画する手法が考えられる。しかしながら、この手法では、障害物の位置を追跡して認識できていても、移動体がオーバーハングな障害物等に接触してしまう可能性がある。通常、障害物は、その種類によって三次元的特徴が異なり、例えば、椅子の足のように特定部が突出しているものもあるからである。
 よって、移動体が障害物に接触しないように自律移動するためには、障害物の三次元形状を認識しながら、障害物の三次元形状を考慮して、移動体が障害物と接触しないように移動経路を計画して移動する必要がある。
 このような要件を満たす手法として、周辺の障害物の三次元形状を計測するセンサを移動体に搭載し、そのセンサによって障害物の三次元形状を計測する手法が考えられる。しかしながら、三次元形状を計測するセンサの多くは、その計測範囲が限られている。そのため、センサの死角に入ってしまった障害物は計測することができなくなってしまう。
 この問題に対する対策として、障害物がセンサの死角に入った位置を記憶するようにしたとしても、その位置を参考に移動経路を計画することはできるが、その後、障害物が移動したか否かは測定することができない。そのため、その位置の近くを移動経路として計画してしまった場合には、その位置から移動した障害物と接触してしまう可能性がある。それに対して、その位置を大きく迂回するように移動経路を計画するようにしてしまうと、実際には移動していなくなっている障害物を大きく迂回するような移動経路を計画してしまい、移動の効率を大きく損なってしまう可能性がある。
 また、別の対策として、計測範囲が制限されず、全方位について周辺の障害物の三次元形状を計測することができるセンサを搭載することも考えられる。しかしながら、センサの精度・計測範囲とコスト・搭載性はトレードオフの関係にある。すなわち、全方位について周辺の障害物の三次元形状を計測できるようにするためには、そのような機能を有する高価なセンサを搭載する、又は、一定の計測範囲で三次元形状を計測するセンサを全方位を計測可能となるように多数搭載する必要があり、非常に高コストとなってしまうという問題がある。
 本発明は、上述した知見に基づいてなされたものであって、コストを抑えつつ、周辺の物体の三次元形状を広範囲で把握することができる三次元物体認識装置、三次元物体認識方法、及び移動体を提供することを目的とする。
 本発明の第1の態様に係る三次元物体認識装置は、全方位について周辺の物体を測定し、測定結果として前記物体の位置を特定することができる位置情報を生成する全方位センサと、前記周辺の物体のうち、一定の測定範囲内の物体を測定し、測定結果として前記物体の三次元形状を特定することができる三次元形状情報を生成する三次元測定装置と、前記物体が前記三次元測定装置の測定範囲内にある場合、前記三次元測定装置が生成した三次元形状情報に基づいて、前記物体の三次元形状として認識する形状を更新する制御部と、を備え、前記制御部は、前記物体が前記三次元測定装置の測定範囲外に出た場合であっても、前記全方位センサが生成した位置情報に基づいて前記物体を追跡するものである。
 本発明の第2の態様に係る三次元物体認識方法は、三次元測定装置によって、周辺の物体のうち、前記三次元測定装置の一定の測定範囲内における物体について三次元形状を測定し、測定結果に基づいて前記三次元測定装置の測定範囲内にある物体の三次元形状として認識する形状を更新するステップと、全方位センサによって、全方位について周辺の物体の位置を測定し、測定結果に基づいて前記三次元測定装置の測定範囲外に出た物体を追跡するステップと、を備えたものである。
 本発明の第3の態様に係る移動体は、全方位について周辺の物体を測定し、測定結果として前記物体の位置を特定することができる位置情報を生成する全方位センサと、前記周辺の物体のうち、一定の測定範囲内の物体を測定し、測定結果として前記物体の三次元形状を特定することができる三次元形状情報を生成する三次元測定装置と、前記物体が前記三次元測定装置の測定範囲内にある場合、前記三次元測定装置が生成した三次元形状情報に基づいて、前記物体の三次元形状として認識する形状を更新するとともに、前記認識している物体の三次元形状に基づいて、前記物体と接触しないように移動経路を計画し、計画した移動経路を移動するように制御する制御部と、を備え、前記制御部は、前記物体が前記三次元測定装置の測定範囲外に出た場合であっても、前記全方位センサが生成した位置情報に基づいて前記物体を追跡するものである。
 上述した本発明の各態様によれば、コストを抑えつつ、周辺の物体の三次元形状を広範囲で把握することができる三次元物体認識装置、三次元物体認識方法、及び移動体を提供することができる。
実施の形態に係る自律移動体の外部構成図である。 実施の形態に係る自律移動体による物体の測定状況の一例を示す図である。 実施の形態に係る自律移動体の内部構成図である。 実施の形態に係る自律移動体の処理を示すフローチャートである。 図4のステップS13の三次元形状情報付与処理を示すフローチャートである。 実施の形態に係る自律移動体が扱うデータの流れを示す図である。 障害物位置と三次元形状との対応付けの一例を示す図である。 三次元距離センサの計測範囲内における障害物の三次元形状を蓄積する一例を示す図である。 三次元距離センサの計測範囲外における障害物の三次元形状を生成する一例を示す図である。 実施の形態の効果を説明するための図である。 実施の形態の効果を説明するための図である。
 以下に図面を参照しながら、本発明の好適な実施の形態について説明する。以下の実施の形態に示す具体的な数値等は、発明の理解を容易とするための例示にすぎず、特に断る場合を除き、それに限定されるものではない。また、以下の記載及び図面では、説明の明確化のため、当業者にとって自明な事項等については、適宜、省略及び簡略化がなされている。
<発明の実施の形態>
 まず、本実施の形態に係る自律移動体1について説明する。図1及び図2を参照して、本実施の形態に係る自律移動体1の外部構成について説明する。図1は、本実施の形態に係る自律移動体1の外部構成図である。図2は、実施の形態に係る自律移動体1による物体の測定状況の一例を示す図である。
 自律移動体1は、三次元距離センサ2、全方位センサ3、本体4、車輪5a、5bを有している。自律移動体1は、その周辺の障害物(物体)を認識し、障害物を回避しつつ自律的に移動する。
 三次元距離センサ2は、図2に示すように、自律移動体1の周辺の障害物のうち、一定の測定範囲内の障害物を測定し、測定結果としてそれらの障害物の測定面(三次元距離センサ2に対向する面)における三次元形状を特定することができる三次元形状情報を生成する。三次元距離センサ2は、自律移動体1の前方の障害物を計測することができるように、本体4の前部に配設されている。
 より具体的には、三次元距離センサ2は、例えば、その計測範囲内における各方位毎に障害物までの距離を測定するセンサである。すなわち、三次元距離センサ2は、三次元形状情報として、その計測範囲内の障害物の測定面における各点までの距離を示す距離情報を生成するセンサである。なお、三次元距離センサは、光学式、超音波式、及びレーザ光線式等の各種方式のうち、任意の方式のものを使用するようにしてよい。
 このように、三次元距離センサ2は、一定の測定範囲内の障害物のみの三次元形状しか計測することができないが、全方位について障害物の三次元形状までをも計測可能とするセンサと比較して安価である。
 ここで、障害物を測定し、障害物の三次元形状を特定することができる三次元形状情報を生成する装置(三次元測定装置)は、三次元距離センサ2に限定されない。例えば、三次元測定装置として、三次元距離センサ2に代えてカメラ(撮像装置)を備えるようにしてもよい。そして、カメラによって、一定の範囲の障害物を撮像し、撮像した範囲の画像を示す画像情報を三次元形状情報として生成するようにしてもよい。すなわち、その内容から計測範囲における障害物の三次元形状を特定することができる情報が得られるのであれば、三次元形状情報の形式及び三次元形状情報を生成する装置は、任意のものを採用することができる。つまり、三次元形状情報は、距離情報のように距離として障害物の三次元形状を示す情報であってもよく、画像情報のように、その内容を解析することで障害物の三次元形状を導出することができる情報であってもよい。
 全方位センサ3は、図2に示すように、全方位について自律移動体1の周辺の障害物を測定し、測定結果としてそれらの障害物の位置を特定することができる障害物位置情報を生成するセンサである。全方位センサ3は、自律移動体1の全方位を計測することができるように、本体4の上部に配設されている。
 全方位センサ3は、例えば、全方位について自律移動体1の周辺の障害物までの距離を計測し、全方位について各障害物までの距離を示す距離情報を障害物位置情報として生成するセンサとしてよい。この場合、全方位センサ3は、全方位について障害物までの距離を測定することができるが、三次元形状までは測定することができない安価な距離センサとする。また、全方位センサ3は、全方位について自律移動体1の周辺の障害物を撮像し、撮像した全方位の画像を示す画像情報を障害物位置情報として生成するセンサであってもよい。すなわち、その内容から全方位における障害物のそれぞれの位置を特定することができる情報が得られるのであれば、障害物位置情報の形式及び全方位センサは、任意のものを採用することができる。つまり、障害物位置情報は、距離情報のように障害物までの距離を示す情報であってもよく、画像情報のように、その内容を解析することで障害物までの距離を導出することができる情報であってもよい。
 このように、全方位センサ3は、安価で周辺の障害物の三次元形状までは計測することはできないが、広範囲における障害物の位置を計測することが可能である。また、このように、全方位センサ3は、障害物の三次元形状までは計測することはできないが、水平方向における測定範囲は、三次元距離センサ2よりも広範囲となる。
 本体4は、その下部に車輪5a、5bが設けられている。自律移動体1は、車輪5a、5bを駆動することで移動する。
 上述した構成により、自律移動体1は、三次元距離センサ2及び全方位センサ3の測定結果を利用して、自律移動体1の周辺の障害物を避けて自律的に移動する。また、本実施の形態に係る自律移動体1は、三次元距離センサ2と全方位センサ3を組み合わせることで、三次元形状を計測する三次元距離センサ2の計測範囲が限られていたとしても、周辺の障害物の三次元形状を広範囲で把握することを可能とする。
 続いて、図3を参照して、本実施の形態に係る自律移動体1の内部構成について説明する。図3は、本実施の形態に係る自律移動体1の内部構成図である。
 自律移動体1は、制御部10及びアクチュエータ14a、14bを有する。
 制御部10は、自律移動体1を統括的に制御する。制御部10は、CPU(Central Processing Unit)及び記憶部を有しており(図示せず)、そのCPUが記憶部に格納されたプログラムを実行することで、制御部10としての各種処理を実現する。すなわち、このプログラムは、制御部10が有するCPUに制御部10としての各種処理を実行させるためのコードを含んでいる。ここで、記憶部は、上記プログラムや、その他の制御部10が使用する各種情報が格納される。記憶部は、上記プログラムや各種情報を格納可能な記憶装置の少なくとも1つを含む。記憶装置として、例えば、メモリ及びハードディスク等の少なくとも1つを任意に使用してよい。制御部10は、三次元障害物位置保存部11、経路計画部12、及び移動体駆動制御部13として機能する。
 三次元障害物位置保存部11は、全方位センサ3から出力された障害物位置情報に基づいて、自律移動体1の周辺の障害物及びその位置を認識し、認識した障害物のそれぞれに対して識別情報を付与する。ここで、識別情報は、障害物のそれぞれを一意に特定することができる情報である。例えば、識別情報として、一意な整数を割り当てるようにしてもよい。また、三次元障害物位置保存部11は、障害物位置情報によって特定される障害物のそれぞれの位置に基づいて、認識した障害物のそれぞれの現在位置を追跡する。これにより、障害物が三次元距離センサ2の計測範囲内にあるか否かに関わらず、障害物の現在位置を追跡することが可能となっている。
 また、三次元障害物位置保存部11は、全方位センサ3から出力された障害物位置情報に基づいて特定した障害物の位置が三次元距離センサ2の計測範囲内である場合、その障害物の位置を示す障害物位置情報と、三次元距離センサ2から出力された三次元形状情報に基づいて特定したその障害物の三次元形状を示す三次元形状情報を対応付けて記憶部に保存する。すなわち、障害物毎に、障害物位置情報と三次元形状情報が対応付けられて記憶部に保存される。この際に、全方位センサ3から出力された障害物位置情報の形式と、記憶部に保存される障害物位置情報の形式は、同一であっても異なっていてもよい。三次元距離センサ2から出力された三次元形状情報の形式と、記憶部に保存される情報の形式についても同様である。つまり、三次元距離センサ2及び全方位センサ3から出力された障害物位置情報及び三次元形状情報から、障害物毎の情報を切り出す際には、切り出した情報がそのまま保存されるようにしてもよく、画像情報から位置や三次元形状を特定する場合のように情報の形式が変換されて保存されるようにしてもよい。
 以降も、三次元障害物位置保存部11は、障害物の位置が三次元距離センサ2の計測範囲内にある間は、その障害物の三次元形状情報を、三次元距離センサ2から出力された三次元形状情報に基づいて特定した最新の三次元形状を示すように置き換えることで更新していく。
 また、三次元障害物位置保存部11は、障害物毎に、上記の最新の三次元形状を示す三次元形状情報とは別に、それまでに認識した三次元形状の全てを蓄積した三次元形状を示す三次元形状蓄積情報も記憶部に保存する。三次元障害物位置保存部11は、障害物の三次元形状を障害物位置を基準として蓄積していく。これにより、障害物が人間のように動作するものであり、障害物の形状が変化している場合に、障害物が動きうる範囲を、その三次元形状として順次補完していくことができる。
 また、三次元障害物位置保存部11は、障害物の位置が三次元距離センサ2の計測範囲外に出た場合、記憶部に保存していたその障害物の三次元形状蓄積情報が示す蓄積した三次元形状に基づいて、その障害物が動きうる範囲と推定される三次元形状を、所定の算出方法に従って算出する。算出方法については、後に詳述する。そして、三次元障害物位置保存部11は、算出した三次元形状を示す三次元形状情報を、その障害物の最新の三次元形状を示す三次元形状情報として保存する。このように、障害物が三次元距離センサ2の計測範囲外に出てしまった場合には、その障害物の三次元形状として、その障害物が動きうる範囲と推定される三次元形状まで拡大した形状を認識することで自律移動体1と障害物とが接触しないようにする。
 さらに、三次元障害物位置保存部11は、再び障害物の位置が三次元距離センサ2の計測範囲内に戻ってきた場合には、三次元距離センサ2から出力された三次元形状情報に基づいたその障害物の最新の三次元形状を示す三次元形状情報の更新を再開する。
 このように、障害物が三次元距離センサ2の計測範囲外に出てしまった場合であっても、全方位センサ3の計測結果に基づいてその障害物を追跡し、その障害物の三次元形状を継続的に把握することを可能としている。
 経路計画部12は、記憶部に格納された障害物位置情報及び三次元形状情報に基づいて、自律移動体1が障害物と接触しないように自律移動体1が移動する経路を計画する。移動体駆動制御部13は、経路計画部12が計画した経路を自律移動体1が移動するようにアクチュエータ14a、14bへの駆動指令値を計算する。そして、移動体駆動制御部13は、計算した駆動指令値をアクチュエータ14a、14bに出力する。
 アクチュエータ14a、14bは、自律移動体1の車輪5a、5bを駆動する。アクチュエータ14aは、移動体駆動制御部13からの駆動指令値に応じた回転速度で車輪5aを回転させる。アクチュエータ14bは、移動体駆動制御部13からの駆動指令値に応じた回転速度で車輪5bを回転させる。
 車輪5a及び車輪5bは、上述した本体4の下部に取り付けられた車輪に該当する。このように、移動体駆動制御部13が、アクチュエータ14a、14bを制御して、車輪5a、5bを回転させることで、自律移動体1が障害物と接触しないように計画された移動経路を移動する。
 続いて、図4~図9を参照して、本実施の形態に係る自律移動体1の処理について説明する。図4は、本実施の形態に係る自律移動体1の処理を示すフローチャートである。図5は、図4のステップS13の三次元形状情報付与処理を示すフローチャートである。図6は、実施の形態に係る自律移動体1が扱うデータの流れを示す図である。図7は、障害物位置と三次元形状との対応付けの一例を示す図である。図8は、三次元距離センサの計測範囲内における障害物の三次元形状を蓄積する一例を示す図である。図9は、三次元距離センサの計測範囲外における障害物の三次元形状を生成する一例を示す図である。なお、図4及び図5におけるS1~S5は、図6におけるS1~S5と対応する。また、図5におけるS2、S3は、図7及び図8と対応し、図5におけるS4、S5は、図9と対応する。
 まず、図4、図6、及び図7を参照して、本実施の形態に係る自律移動体1の処理について説明する。
 まず、自律移動体1が自律移動を開始したものとする(S10)。例えば、ユーザによって設定された目的地までの自律移動を開始する。しかしながら、自律移動体1は、目的地が設定されるものに限られず、任意の目的で移動・停止を繰り返すものであってもよい。
 自律移動体1は、三次元距離センサ2及び全方位センサ3によって情報を取得する(S11)。具体的には、上述したように、三次元距離センサ2は、自律移動体1の周辺の障害物のうち、一定の測定範囲内の障害物を測定し、三次元形状情報を生成して三次元障害物位置保存部11に出力する。また、上述したように、全方位センサ3は、全方位について自律移動体1の周辺の障害物を測定し、障害物位置情報を生成して三次元障害物位置保存部11に出力する。三次元障害物位置保存部11は、三次元距離センサ2から出力された三次元形状情報と、全方位センサ3から出力された障害物位置情報を取得する。
 自律移動体1は、障害物の識別・追跡を行う(S12)。具体的には、三次元障害物位置保存部11は、全方位センサ3から出力された障害物位置情報に基づいて、周辺の障害物及びその位置を認識し、障害物の識別・追跡を行う。三次元障害物位置保存部11は、初めて認識する障害物については、識別情報を生成して付与する。そして、三次元障害物位置保存部11は、生成した識別情報と、認識した障害物の位置を示す障害物位置情報とを対応付けて記憶部に格納する(S1)。また、三次元障害物位置保存部11は、既に認識済みの障害物については、その位置の追跡を行う。すなわち、三次元障害物位置保存部11は、障害物の位置が変化している場合には、記憶部に格納されたその障害物の障害物位置情報が示す位置を、現在位置(全方位センサ3から出力された障害物位置情報に基づいて特定した障害物の位置)に更新する(S1)。
 ここで、障害物の位置を追跡する際に、全方位センサ3からの障害物位置情報から特定される障害物と、認識済みの障害物とが同一か否かの判定は、どのような手法によって実施してもよい。例えば、記憶部に格納された障害物位置情報のうち、ある障害物の障害物位置情報が示す位置が、全方位センサ3からの障害物位置情報から特定されるある障害物の位置とが最も近い場合、それらの障害物が同一の障害物であると判定するようにしてもよい。
 自律移動体1は、認識した障害物に対して、その障害物の三次元形状情報を付与する(S13)。すなわち、初めて認識した障害物に対しては、その三次元形状情報が新規に付与され、認識済みの障害物に対しては、その三次元形状情報を新たに認識した三次元形状を示すように置き換えることで、自律移動体1が障害物の三次元形状として認識する形状を更新する(S3)。これにより、図7に示すように、識別した障害物について、識別情報と、三次元形状情報と、障害物位置情報とが紐付けられて記憶部に保存される。なお、このステップS13における処理については、図5を参照して詳細に後述する。
 自律移動体1は、自律移動体1が移動する経路を計画し、計画した経路を移動するように車輪5a、5bを駆動する駆動指令値を計算し、車輪5a、5bを駆動する(S14)。具体的には、経路計画部12は、三次元障害物位置保存部11によって記憶部に格納された各障害物の障害物位置情報及び三次元形状情報に基づいて、自律移動体1が障害物に接触しないように移動する経路を計画する。具体的には、例えば、記憶部に予め自律移動体1の三次元形状を示す情報を格納しておき、その情報に基づいて自律移動体1が移動した際に自律移動体1の三次元形状と各障害物の三次元形状と重複しない経路を導出するようにすればよい。
 移動体駆動制御部13は、経路計画部12が計画した経路を自律移動体1が移動するようにアクチュエータ14a、14bへの駆動指令値し、アクチュエータ14a、14bを駆動する。これによって、車輪5a、5bが駆動され、経路計画部12が計画した経路を自律移動体1が移動する。
 自律移動体1は、自律移動体1が自律移動のゴールに到達したか否かを判定する(S15)。例えば、自律移動体1は、上述のユーザによって設定された目的地に到達した場合に、ゴールに到達したと判定する。
 自律移動体1が自律移動のゴールに到達したと判定した場合(S15:Yes)、自律移動体1は、自律移動を終了する。自律移動体1が自律移動のゴールに到達していないと判定した場合(S15:No)、自律移動体1は、ステップS11に戻る。
 続いて、図5及び図6~図9を参照して、本実施の形態に係る自律移動体1の三次元形状情報付与処理について説明する。図5は、図6のステップS13を詳細に説明するフローチャートとなる。
 三次元障害物位置保存部11は、識別した障害物が三次元距離センサ2の計測範囲内にあるか否かを判定する(S20)。
 識別した障害物が三次元距離センサ2の計測範囲内にあると判定した場合(S20:範囲内)、三次元障害物位置保存部11は、三次元距離センサ2の計測結果から、その障害物の三次元形状を取得し、蓄積する(S21)。具体的には、三次元障害物位置保存部11は、三次元距離センサ2から出力された三次元形状情報から、その障害物を含む一定範囲の三次元形状情報を切り出し、三次元形状蓄積情報に対して蓄積する(S2)。
 これにより、障害物が三次元距離センサ2の計測範囲内にいる間は、三次元形状情報が一定周期毎に蓄積されていくことになる。具体的には、図8に示すように、障害物の三次元形状として、既に測定した三次元形状が蓄積されている場合には、その障害物の位置を中心として新たに取得した三次元形状を重ね合せることで、その障害物の三次元形状として更新する。すなわち、障害物が動きうる範囲となる三次元形状を、計測によって新たに判明した形状を補完することで更新する。これによれば、例えば、障害物が人間のように動作するものである場合に、その姿勢変化範囲(腕や足の動作する範囲)を記録していくことができる。
 三次元障害物位置保存部11は、三次元距離センサ2の計測結果から、その障害物の三次元形状を障害物位置と対応付けて保存する(S22)。具体的には、三次元障害物位置保存部11は、切り出した三次元形状情報を、最新の三次元形状を示す三次元形状情報として、識別した障害物の障害物位置情報と対応付けて記憶部に保存する。ここで、上述したように、記憶部に保存する三次元形状情報は、切り出した三次元形状情報の形式そのものに限られず、任意の形式変換が行われていてもよい。これにより、図7に示すように、識別した障害物について、識別情報と、三次元形状情報と、障害物位置情報とが紐付けられて記憶部に保存される(S3)。
 ここで、識別された障害物が、三次元距離センサ2と全方位センサ3との共通計測範囲内にある間は、上述したように、その障害物の障害物位置情報及び三次元形状情報を更新しながら、その障害物の位置の追跡を行うが、障害物が三次元距離センサ2の計測範囲外に外れた場合には、障害物の位置の追跡を行うことができるが、三次元形状の計測・更新は行うことができなくなる。
 そこで、識別した障害物が三次元距離センサ2の計測範囲内にない(計測範囲外にある)と判定した場合(S20:範囲外)、三次元障害物位置保存部11は、その障害物の三次元形状として認識した形状に基づいて、障害物の姿勢変化範囲(障害物の三次元形状が変化する範囲)を計算する(S23)。具体的には、図9に示すように、三次元障害物位置保存部11は、障害物について蓄積された三次元形状をその障害物の位置から鉛直上方に伸びた軸を中心として回転させた三次元形状を計算する(S4)。すなわち、三次元形状蓄積情報が示す蓄積した三次元形状を障害物の位置の軸を中心として回転させた三次元形状を計算する。三次元障害物位置保存部11は、計算した三次元形状を、その三次元形状を示す三次元形状情報に変換して、その計測範囲外に出た障害物の最新の三次元形状を示す三次元形状情報として、その障害物の障害物位置情報と対応付けて記憶部に保存する(S24、S25、S5)。この三次元形状情報は、その障害物が再び三次元距離センサ2の計測範囲内に入るまで記憶部に保存し続ける。そして、三次元障害物位置保存部11は、障害物が再び三次元距離センサ2の計測範囲内に入ったときには、元の三次元形状情報に戻す。または、元の三次元形状情報に強制的には戻さず、上記のステップS22における処理によって三次元形状情報を更新するようにしてもよい。
 ここで、三次元形状の回転軸として、蓄積した三次元形状における任意の位置を定めるようにしてよい。例えば、蓄積した三次元形状の回転軸として、その三次元形状の重心を定めるようにしてもよい。この場合、蓄積した三次元形状の重心と障害物の位置が一致するように三次元形状を蓄積していくことで、障害物の位置と回転軸とを一致させるようにする。また、例えば、蓄積した三次元形状の回転軸として、その三次元形状の所定の特徴的部分の中心位置を定めるようにしてもよい。例えば、障害物が人間である場合、頭の中心位置を回転軸として定めるようにしてもよい。この場合も、蓄積した三次元形状の特徴的部分の中心位置と障害物の位置が一致するように三次元形状を蓄積していくことで、障害物の位置と回転軸とを一致させるようにする。
 蓄積した三次元形状を回転された三次元形状は、障害物が自身の姿勢変化(例えば回転運動)によって動きうる範囲を推定した三次元形状となる。例えば、障害物が人間である場合、三次元距離センサ2によって片方の腕を上げた三次元形状を計測できていたとしても、その人間が三次元距離センサ2の計測範囲外に出てから、他方の腕を上げてしまったとき、又は、180度反転してその片方の腕を上げてしまったときには、自律移動体1はその腕の突出を三次元形状として認識していないため、自律移動体1が人間と接触してしまう可能性がある。それに対して、認識している障害物の三次元形状を回転された三次元形状を、障害物の三次元形状として認識しているため、このようなケースであっても、接触を回避することが可能となる。
 このように、自律移動体1が三次元距離センサ2の死角(計測範囲外)の方向に進みだすような経路を計画した場合に、上記のようにして計算・保存した三次元形状情報を用いることで、経路計画において、大まかにではあるが三次元形状を考慮した干渉判定(接触判定)を行うことができる。そのため、信頼性、走破性の高い自律移動が可能となる。
 なお、以上の説明では、障害物が三次元距離センサ2の計測範囲外に出た場合には、姿勢変化範囲を含む三次元形状を推定して、その障害物の三次元形状として認識するようにしているが、三次元形状の推定を行わず、最新の三次元形状もしくは蓄積した三次元形状をそのまま使用するようにしてもよい。そのようにしても、全方位センサ3によって障害物を追跡し、その障害物の三次元形状を考慮した干渉判定を行うことができる。そのため、周辺の障害物の三次元形状を広範囲で把握することができる。しかしながら、好ましくは、上述したように、姿勢変化範囲を含む三次元形状を推定して、その障害物の三次元形状として認識するようにすることで、その障害物が動作して三次元形状が変化するものであったとしても、その障害物との接触を回避することができる。
 以上に説明したように、本実施の形態に係る自律移動体1では、制御部10は、障害物(物体)が三次元距離センサ2(三次元測定装置)の測定範囲内にある場合、三次元距離センサ2が生成した三次元形状情報に基づいて、障害物の三次元形状として認識する形状を更新するようにしている。また、制御部10は、障害物が三次元距離センサ2の測定範囲外に出た場合であっても、全方位センサ3が生成した障害物位置情報に基づいて障害物を追跡するようにしている。
 すなわち、三次元距離センサ2に対して、安価で三次元形状まで計測することはできないが、広範囲の障害物の位置を計測することができる全方位センサ3を組み合わせることで、安価とするために計測範囲は狭いが高い精度で三次元形状を計測できる三次元距離センサ2の死角を補うことができるようにしている。したがって、本実施の形態によれば、コストを抑えつつ、周辺の障害物を三次元形状を広範囲で継続的に把握することができる。
 例えば、図10に示すように、三次元形状を考慮せずに、障害物の有無及び位置のみを考慮して、障害物を回避して移動経路を計画する場合には、オーバーハングな障害物等に接触してしまう可能性や、自律移動体が通過できる場合であっても通過できないと判定して大きく迂回してしまう可能性がある。しかしながら、本実施の形態によれば、図11に示すように、三次元距離センサ2の死角の障害物の近くを移動する場合であっても、その障害物の三次元形状を追跡把握しているため、自律移動体1が通過できるか否かを高い精度で判定することができる。例えば、自律移動体1がロボットアームを有しており、ロボットアームが突出している場合であっても、障害物の三次元形状を考慮して、ロボットアームと障害物とが接触しないように適切かつ移動効率の良い移動経路を計画することができる。
 また、本実施の形態に係る自律移動体1では、制御部10は、三次元距離センサ2の測定範囲外に出た障害物については、障害物の三次元形状として得られている形状に基づいて障害物が変化する範囲を含む三次元形状を推定し、推定した三次元形状を三次元距離センサ2の測定範囲外に出た物体の三次元形状として認識するようにしている。
 これによれば、障害物が動作し、その三次元形状が変化するものであっても、その障害物のとり得る三次元形状を、より適切に把握することができる。例えば、上述したように、障害物が三次元距離センサ2の計測範囲外に出た後に、その三次元形状を変化させた場合に対応することができる。よって、障害物を回避しながら移動する自律移動体1において好適に障害物の三次元形状を認識することができる。
 なお、本実施の形態では、蓄積した三次元形状を回転させることで障害物の姿勢変化範囲の三次元形状を推定するようにしているが、これに限られない。例えば、別途の三次元形状を蓄積は行わないようにし、障害物の最新の三次元形状を障害物の位置を中心として回転させることで障害物の姿勢変化範囲の三次元形状を推定するようにしてもよい。しかしながら、好ましくは、蓄積した三次元形状を回転させることで障害物の姿勢変化範囲の三次元形状を推定するようにすることで、障害物の姿勢変化範囲をもれなく含んだ三次元形状を推定することができるため、より障害物との接触を回避することができる。
<発明の他の実施の形態>
 上記の実施の形態では、障害物の姿勢変化範囲が未知であると仮定して、障害物の三次元形状を計測結果に基づいて随時更新するとともに、2つのセンサ(三次元距離センサ2、全方位センサ3)の共通計測範囲外に出た障害物については、その三次元形状を回転させることで姿勢変化範囲を推定し、利用するようにしていた。
 しかしながら、識別された障害物が2つのセンサのうち、少なくとも1つのセンサの計測結果を解析することで、カテゴライズし、その障害物のカテゴリーに応じて詳細な姿勢変化範囲の三次元形状を指定するようにしてもよい。
 すなわち、センサの計測結果(最新の三次元形状もしくは蓄積した三次元形状)から特徴的な計測パターンが得られ、障害物があるカテゴリーであると判定できる場合には、予め用意したそのカテゴリーの障害物の姿勢変化範囲の三次元形状を、その障害物の姿勢変化範囲の三次元形状として利用するようにしてもよい。
 例えば、センサの計測結果から障害物が人間であるとカテゴライズされた場合には、予め記憶部に格納しておいた人間の姿勢変化範囲の三次元形状を示す三次元形状情報を、その障害物の最新の三次元形状を示す三次元形状情報として記憶部に保存するようにしてもよい。具体的には、各種カテゴリーについて、そのカテゴリーの障害物が有する計測パターンを示す計測パターン情報と、そのカテゴリーの障害物の三次元形状情報を予め記憶部に格納しておく。三次元障害物位置保存部11は、三次元距離センサ2及び全方位センサ3の計測結果(障害物位置、最新の三次元形状、及び蓄積した三次元形状)の少なくとも1つにおいて、記憶部に格納された計測パターン情報が示す計測パターンと一致又は類似する計測パターンが検出された場合、その計測パターン情報に対応する三次元形状情報を、その障害物の三次元形状を示す三次元形状情報として特定する。
 このようにすることで、障害物の三次元形状を、より適切に認識することができる。また、それにより、経路計画において、より正確な三次元接触判定を行うことができ、より信頼性、走破性の高い自律移動が可能となる。
 なお、本発明は上記の実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
 上記実施の形態では、最新の三次元形状として、三次元距離センサ2によって最新に取得している三次元形状を認識するようにしているが、これに限られない。例えば、蓄積した三次元形状を、最新の三次元形状として認識するようにしてもよい。しかしながら、好ましくは、上記実施の形態のように、最新の三次元形状として、三次元距離センサ2によって最新に取得している三次元形状を認識するようにするとよい。そのようにすることで、三次元距離センサ2の測定範囲内に障害物がある場合には、その障害物について実際に見えている三次元形状のみを考慮して経路設計を行うことができる。そのため、自律移動体1が余分な遠回りをすることなく、移動効率の良い移動経路を計画することができる。
 また、上記の三次元距離センサ2、全方位センサ3、及び三次元障害物位置保存部11(制御部10)を含んで三次元形状認識装置を構成することも可能である。そして、その三次元形状認識装置は、自律移動体1に限られず、その三次元形状認識装置によって認識した周辺の障害物(物体)の三次元形状を用いて任意の制御を行う各種装置に適用することができる。
 この出願は、2013年9月11日に出願された日本出願特願2013-188267を基礎とする優先権を主張し、その開示の全てをここに取り込む。
1 自律移動体
2 三次元距離センサ
3 全方位センサ
4 本体
5a、5b 車輪
10 制御部
11 三次元障害物位置保存部
12 経路計画部
13 移動体駆動制御部
14a、14b アクチュエータ

Claims (7)

  1.  全方位について周辺の物体を測定し、測定結果として前記物体の位置を特定することができる位置情報を生成する全方位センサと、
     前記周辺の物体のうち、一定の測定範囲内の物体を測定し、測定結果として前記物体の三次元形状を特定することができる三次元形状情報を生成する三次元測定装置と、
     前記物体が前記三次元測定装置の測定範囲内にある場合、前記三次元測定装置が生成した三次元形状情報に基づいて、前記物体の三次元形状として認識する形状を更新する制御部と、を備え、
     前記制御部は、前記物体が前記三次元測定装置の測定範囲外に出た場合であっても、前記全方位センサが生成した位置情報に基づいて前記物体を追跡する、
     三次元物体認識装置。
  2.  前記制御部は、前記三次元測定装置の測定範囲外に出た物体については、前記物体の三次元形状として認識した形状に基づいて前記物体が変化する範囲を含む三次元形状を推定し、推定した三次元形状を前記三次元測定装置の測定範囲外に出た物体の三次元形状として認識する、
     請求項1に記載の三次元物体認識装置。
  3.  前記制御部は、前記物体が変化する範囲を含む形状として、前記物体の形状として認識した三次元形状を回転させた形状を算出する、
     請求項2に記載の三次元物体認識装置。
  4.  前記物体の形状として認識した三次元形状は、前記三次元測定装置が生成した三次元形状情報に基づいて特定した前記物体の三次元形状を蓄積した形状である、
     請求項2又は3に記載の三次元物体認識装置。
  5.  前記三次元物体認識装置は、さらに、前記物体の三次元形状として認識する形状を示す三次元形状情報と、前記物体の位置を示す位置情報とが対応付けて格納される記憶部を備え、
     前記制御部は、前記物体の三次元形状として認識する形状の更新として、前記三次元測定装置が生成した三次元形状情報に基づいて前記記憶部に格納された三次元形状情報が示す三次元形状を更新するとともに、前記物体の追跡として、前記全方位センサが生成した位置情報に基づいて前記記憶部に格納された位置情報が示す前記物体の位置を更新する、
     請求項1乃至4のいずれか1項に記載の三次元物体認識装置。
  6.  三次元測定装置によって、周辺の物体のうち、前記三次元測定装置の一定の測定範囲内における物体について三次元形状を測定し、測定結果に基づいて前記三次元測定装置の測定範囲内にある物体の三次元形状として認識する形状を更新するステップと、
     全方位センサによって、全方位について周辺の物体の位置を測定し、測定結果に基づいて前記三次元測定装置の測定範囲外に出た物体を追跡するステップと、
     を備えた三次元物体認識方法。
  7.  全方位について周辺の物体を測定し、測定結果として前記物体の位置を特定することができる位置情報を生成する全方位センサと、
     前記周辺の物体のうち、一定の測定範囲内の物体を測定し、測定結果として前記物体の三次元形状を特定することができる三次元形状情報を生成する三次元測定装置と、
     前記物体が前記三次元測定装置の測定範囲内にある場合、前記三次元測定装置が生成した三次元形状情報に基づいて、前記物体の三次元形状として認識する形状を更新するとともに、前記認識している物体の三次元形状に基づいて、前記物体と接触しないように移動経路を計画し、計画した移動経路を移動するように制御する制御部と、を備え、
     前記制御部は、前記物体が前記三次元測定装置の測定範囲外に出た場合であっても、前記全方位センサが生成した位置情報に基づいて前記物体を追跡する、
     移動体。
PCT/JP2014/004618 2013-09-11 2014-09-09 三次元物体認識装置、三次元物体認識方法、及び移動体 WO2015037222A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/888,184 US9633438B2 (en) 2013-09-11 2014-09-09 Three-dimensional object recognition apparatus, three-dimensional object recognition method, and vehicle
DE112014004163.7T DE112014004163B4 (de) 2013-09-11 2014-09-09 Vorrichtung zur Erkennung eines dreidimensionalen Objekts, Verfahren zur Erkennung eines dreidimensionalen Objekts und Fahrzeug
KR1020157030923A KR101971317B1 (ko) 2013-09-11 2014-09-09 삼차원 물체 인식 장치, 삼차원 물체 인식 방법 및, 이동체

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013188267A JP6032163B2 (ja) 2013-09-11 2013-09-11 三次元物体認識装置、三次元物体認識方法、及び移動体
JP2013-188267 2013-09-11

Publications (1)

Publication Number Publication Date
WO2015037222A1 true WO2015037222A1 (ja) 2015-03-19

Family

ID=52665353

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/004618 WO2015037222A1 (ja) 2013-09-11 2014-09-09 三次元物体認識装置、三次元物体認識方法、及び移動体

Country Status (5)

Country Link
US (1) US9633438B2 (ja)
JP (1) JP6032163B2 (ja)
KR (1) KR101971317B1 (ja)
DE (1) DE112014004163B4 (ja)
WO (1) WO2015037222A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021504715A (ja) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. 領域輪郭作成の方法、装置及びコンピュータ読取可能な記憶媒体

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US9888174B2 (en) 2015-10-15 2018-02-06 Microsoft Technology Licensing, Llc Omnidirectional camera with movement detection
US10277858B2 (en) * 2015-10-29 2019-04-30 Microsoft Technology Licensing, Llc Tracking object of interest in an omnidirectional video
JP6473685B2 (ja) * 2015-11-19 2019-02-20 日立建機株式会社 車両制御装置及び作業機械
US10204274B2 (en) * 2016-06-29 2019-02-12 Cellular South, Inc. Video to data
JP2018045482A (ja) * 2016-09-15 2018-03-22 ソニー株式会社 撮像装置、信号処理装置、及び、車両制御システム
JP6773503B2 (ja) * 2016-09-27 2020-10-21 株式会社トプコン レーザスキャナシステム及び点群データのレジストレーション方法
US10386856B2 (en) 2017-06-29 2019-08-20 Uber Technologies, Inc. Autonomous vehicle collision mitigation systems and methods
US10065638B1 (en) 2017-08-03 2018-09-04 Uber Technologies, Inc. Multi-model switching on a collision mitigation system
DE102018114293A1 (de) * 2018-06-14 2019-12-19 Helga Sommer Computerimplementiertes Verfahren für die Erstellung einer Route für Transport und Durchführung von Transport
JP7199984B2 (ja) * 2019-02-01 2023-01-06 株式会社小松製作所 作業車両の制御システム及び作業車両の制御方法
DE102019202511A1 (de) * 2019-02-25 2020-08-27 Kuka Deutschland Gmbh Autonomes Fahrzeug mit einer Sensoreinrichtung
CN110108231B (zh) * 2019-05-08 2020-10-27 广东嘉腾机器人自动化有限公司 基于角点检测的钜体箱体三维尺寸测量方法及存储介质
EP3748393A1 (en) 2019-06-04 2020-12-09 Jabil Optics Germany GmbH Surround-view imaging system
US20240139945A1 (en) * 2022-10-31 2024-05-02 Omron Corporation Method and apparatus for dynamically modifying a representation of an autonomous robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248817A (ja) * 1994-03-12 1995-09-26 Nec Corp 水中走行機
JP2006039760A (ja) * 2004-07-23 2006-02-09 Victor Co Of Japan Ltd 移動ロボット
JP2013057541A (ja) * 2011-09-07 2013-03-28 Ihi Corp 対象物との相対位置計測方法と装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09331520A (ja) * 1996-06-13 1997-12-22 Nippon Telegr & Teleph Corp <Ntt> 自動追跡システム
JPH11296229A (ja) * 1998-02-13 1999-10-29 Komatsu Ltd 車両の誘導装置
DE10242852A1 (de) * 2002-09-14 2004-03-25 Technische Universität Ilmenau Abteilung Forschungsförderung und Technologietransfer Verfahren zur Minimierung des Einflusses von Störsignalen bei der Formelementeberechnung aus Koordinatenpunkten
JP3760918B2 (ja) * 2003-01-21 2006-03-29 株式会社日立製作所 セキュリティシステム
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
JP2009092383A (ja) * 2007-10-03 2009-04-30 Toyota Motor Corp 障害物検知センサ搭載シミュレーション装置、障害物検知センサ搭載シミュレーション方法及び障害物検知センサ搭載シミュレーションプログラム
KR20090062881A (ko) * 2007-12-13 2009-06-17 삼성전자주식회사 이동 로봇 및 그 이동 객체 검출 방법
JP5178276B2 (ja) 2008-03-27 2013-04-10 ダイハツ工業株式会社 画像認識装置
US9740921B2 (en) * 2009-02-26 2017-08-22 Tko Enterprises, Inc. Image processing sensor systems
JP5462597B2 (ja) 2009-11-12 2014-04-02 株式会社日立情報通信エンジニアリング 物体測定システム及びその方法
JP5430456B2 (ja) * 2010-03-16 2014-02-26 キヤノン株式会社 幾何特徴抽出装置、幾何特徴抽出方法、及びプログラム、三次元計測装置、物体認識装置
JP2011209019A (ja) * 2010-03-29 2011-10-20 Sony Corp ロボット装置及びロボット装置の制御方法
JP5872818B2 (ja) * 2010-08-20 2016-03-01 パナソニック株式会社 測位処理装置、測位処理方法、および画像処理装置
JP5770486B2 (ja) * 2011-02-21 2015-08-26 株式会社トプコン 全周画像計測装置
JP5810296B2 (ja) * 2011-06-07 2015-11-11 パナソニックIpマネジメント株式会社 画像表示装置及び画像表示方法
JP5906028B2 (ja) * 2011-06-22 2016-04-20 キヤノン株式会社 画像処理装置、画像処理方法
JP5636014B2 (ja) 2012-03-12 2014-12-03 株式会社三共 遊技機

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07248817A (ja) * 1994-03-12 1995-09-26 Nec Corp 水中走行機
JP2006039760A (ja) * 2004-07-23 2006-02-09 Victor Co Of Japan Ltd 移動ロボット
JP2013057541A (ja) * 2011-09-07 2013-03-28 Ihi Corp 対象物との相対位置計測方法と装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021504715A (ja) * 2017-11-28 2021-02-15 深▲せん▼市杉川机器人有限公司Shenzhen 3Irobotix Co., Ltd. 領域輪郭作成の方法、装置及びコンピュータ読取可能な記憶媒体
US11275178B2 (en) 2017-11-28 2022-03-15 Shenzhen 3Irobotix Co., Ltd. Method and device for drawing region outline and computer readable storage medium

Also Published As

Publication number Publication date
US9633438B2 (en) 2017-04-25
JP2015055974A (ja) 2015-03-23
DE112014004163B4 (de) 2021-10-07
US20160063710A1 (en) 2016-03-03
KR20150135505A (ko) 2015-12-02
KR101971317B1 (ko) 2019-04-22
DE112014004163T5 (de) 2016-05-25
JP6032163B2 (ja) 2016-11-24

Similar Documents

Publication Publication Date Title
JP6032163B2 (ja) 三次元物体認識装置、三次元物体認識方法、及び移動体
JP6849330B2 (ja) 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
JP6762148B2 (ja) 地図生成方法、移動ロボット及び地図生成システム
JP5112666B2 (ja) 移動装置
JP4467534B2 (ja) 障害物のある環境下で自律移動する移動ロボットおよび移動ロボットの制御方法。
US8515612B2 (en) Route planning method, route planning device and autonomous mobile device
KR101439921B1 (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
JP6539125B2 (ja) 移動ロボットシステム及び移動ロボットの制御方法
KR20170088228A (ko) 다중로봇의 자기위치인식에 기반한 지도작성 시스템 및 그 방법
JP5276931B2 (ja) 移動体および移動体の位置推定誤り状態からの復帰方法
JP2009093308A (ja) ロボットシステム
JP2009031884A (ja) 自律移動体、自律移動体におけるマップ情報作成方法および自律移動体における移動経路特定方法
KR101990878B1 (ko) 시간상태 영역에서의 온라인 양방향 경로 계획 방법, 이를 구현하기 위한 프로그램이 저장된 기록매체 및 이를 구현하기 위해 매체에 저장된 컴퓨터프로그램
US20090143932A1 (en) Mobile apparatus and control program therefor
KR101341204B1 (ko) 레이저 스캐너 및 구조물을 이용한 모바일 로봇의 위치추정장치 및 방법
JP2008059218A (ja) 自律走行ロボットの自己位置回復方法
JP5287060B2 (ja) 経路計画装置及び自律移動装置
JP2009136933A (ja) ロボットおよびタスク実行システム
JP2018185767A (ja) 環境整備ロボットおよびその制御プログラム
KR20150020900A (ko) 레이저 스캐너를 이용한 위치인식 및 맵핑 시스템을 이용한 위치인식 방법
WO2017038012A1 (ja) 地図生成方法、自己位置推定方法、ロボットシステム、およびロボット
KR20200080421A (ko) 재난 구조 로봇 및 이의 동작 방법
JP5287050B2 (ja) 経路計画方法、経路計画装置、及び自律移動装置
US20220019224A1 (en) Mobile body, method of controlling mobile body, and program
JP2014203144A (ja) 自律移動装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14844799

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20157030923

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14888184

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120140041637

Country of ref document: DE

Ref document number: 112014004163

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14844799

Country of ref document: EP

Kind code of ref document: A1