WO2021166656A1 - 物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法 - Google Patents

物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法 Download PDF

Info

Publication number
WO2021166656A1
WO2021166656A1 PCT/JP2021/004065 JP2021004065W WO2021166656A1 WO 2021166656 A1 WO2021166656 A1 WO 2021166656A1 JP 2021004065 W JP2021004065 W JP 2021004065W WO 2021166656 A1 WO2021166656 A1 WO 2021166656A1
Authority
WO
WIPO (PCT)
Prior art keywords
position vector
dimensional position
dimensional
object detection
coordinate system
Prior art date
Application number
PCT/JP2021/004065
Other languages
English (en)
French (fr)
Inventor
森 利宏
メレーズ 栗須藤
Original Assignee
北陽電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 北陽電機株式会社 filed Critical 北陽電機株式会社
Publication of WO2021166656A1 publication Critical patent/WO2021166656A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems

Definitions

  • the present invention relates to an object detection device, an object detection system, an object detection program, and an object detection method for detecting an object existing in a three-dimensional space.
  • Patent Document 1 describes a non-contact type distance measuring device attached to an unmanned transport vehicle and measuring the distance to a detection object for each predetermined angle range whose circumference is divided radially, and measurement of the distance measuring device.
  • a detection area registration means for registering a plurality of patterns of detection areas partitioned by a line connecting a plurality of designated boundary points in a range, and a plurality of detection areas registered in the detection area registration means for each traveling section of an unmanned carrier.
  • the distance to the detection object measured by the distance measuring device for each predetermined angle range while the unmanned carrier is traveling is the current distance between the usage pattern setting means for selecting and setting the pattern to be used from the patterns of.
  • An obstacle detection sensor including a determination means for generating an obstacle detection output when it is within the range of the detection area set in the traveling section is shown.
  • a first deflection mechanism including a movable portion swingable around a first axis and a drive portion for swinging the movable portion, and the first deflection mechanism being referred to as the first axis.
  • a non-contact power feeding unit that includes a second coil and a first coil that is arranged so as to face each other on the axis common to the second coil, and supplies power from the first coil to the second coil by an electromagnetic induction method.
  • a deflector comprising the above is disclosed.
  • the obstacle detection sensor disclosed in Patent Document 1 includes a distance measuring device that measures the distance to an object in a two-dimensional space based on the measurement light radially scanned in the two-dimensional space and the reflected light from the object, and the distance.
  • the distance measured by the measuring instrument is a distance within the detection area defined in the two-dimensional space, the object corresponding to the distance is determined to be an obstacle.
  • the obstacle detection sensor By mounting the obstacle detection sensor on an automatic guided vehicle, for example, it is used to detect an obstacle located in front of the automatic guided vehicle in the traveling direction and automatically decelerate or stop the automatic guided vehicle.
  • the obstacle detection sensor scans the measurement light in the two-dimensional space, it cannot detect the object even if the object exists at a position lower or higher than the scanned two-dimensional space. There was an inconvenience.
  • the position information of an object existing in the three-dimensional space is detected by scanning the measurement light two-dimensionally using a deflection device as disclosed in Patent Document 2, and the position information of the detected object is set in advance.
  • An object detection device corresponding to a three-dimensional space can be configured by providing an object determination device for determining whether or not the object exists in the three-dimensional object detection area.
  • the number of position information of the object detected by the two-dimensionally scanned measurement light is very large, and the original determination is made by reflecting rain fog, dust, insects, floor surface, ceiling, etc. that are not the detection target. Information that should be excluded from the target is also included. Therefore, based on the attributes of the object to be measured obtained from the three-dimensional position information, it is determined whether the object is a determination object or a non-determination object, and the individual position information determined to be the determination object is three-dimensional. When individually determining whether or not the object exists in the object detection area, there is a problem that the calculation load becomes very high.
  • the reference points for defining the area are considerably increased as compared with the case where the two-dimensional object detection area is set, so that the work itself becomes complicated. rice field.
  • an object of the present invention is a three-dimensional object detection device, an object detection system, an object detection program, which can realize real-time performance without using an expensive CPU and can easily set an object detection area.
  • the point is to provide an object detection method.
  • the first characteristic configuration of the object detection device is that the measurement light emitted from the light emitting element is two-dimensionally scanned and the reflected light from the object irradiated with the measurement light.
  • the distance from a predetermined start point in the three-dimensional coordinate system to the irradiation position of the object based on the physical relationship between the measurement light and the reflected light obtained from the optical scanning device that guides the light to the light receiving element and the scanning direction of the measurement light.
  • a first position vector generation unit that generates a three-dimensional position vector indicating the direction and a two-dimensional position vector obtained by projecting the three-dimensional position vector onto a predetermined two-dimensional coordinate system serving as a reference plane are generated, and the reference is also generated.
  • a second position vector generation unit that calculates the vertical distance from the start point to the end point of the three-dimensional position vector projected on the vertical axis orthogonal to the plane, and an object detection region generation unit that generates an object detection region on the reference plane. The point is that the object determination unit for determining that an object exists when the end point of the two-dimensional position vector is located inside the object detection region is provided.
  • the object detection device includes a first position vector generation unit, a second position vector generation unit, an object detection area generation unit, and an object determination unit.
  • a three-dimensional position vector is generated by the first position vector generation unit based on the physical relationship between the measurement light and the reflected light obtained from the optical scanning device and the scanning direction of the measurement light.
  • the three-dimensional position vector specifies the distance and direction from a predetermined start point in the three-dimensional coordinate system to the irradiation position of the object.
  • the second position vector generator generates a two-dimensional position vector by projecting the three-dimensional position vector onto a predetermined two-dimensional coordinate system serving as a reference plane, and projects the three-dimensional position vector onto a vertical axis orthogonal to the reference plane.
  • the object detection area generation unit defines the object detection area on the reference plane, and the object determination unit determines that the object exists when the end point of the two-dimensional position vector is located inside the object detection area.
  • the number of data can be significantly reduced by converting the three-dimensional position vector into the two-dimensional position vector, and whether or not the end point of the two-dimensional position vector is located in the object detection region defined in the two-dimensional coordinate system. Since it is sufficient to determine the presence or absence of an object, the calculation load can be significantly reduced, and an object detection device capable of realizing real-time performance can be realized without using an expensive CPU.
  • the object detection region is a region obtained by projecting a three-dimensional object detection region defined in the three-dimensional coordinate system onto the reference plane. It is in the point that it is.
  • the three-dimensional position vector generated by the first position vector generation unit includes many objects that should be excluded, such as a floor surface, a road surface, a ceiling surface, or a side wall surface existing in the three-dimensional space. Even in such a case, the area obtained by projecting the three-dimensional object detection area that does not originally include the object to be excluded on the reference plane can be used as the object detection area.
  • the two-dimensional position vector generated by the second position vector generation unit is the optical scanning device in the three-dimensional coordinate system. Is provided with a calibration processing unit that calibrates based on the attitude information of the optical scanning device obtained from the attitude detection unit so that is a two-dimensional position vector obtained when is installed in a predetermined reference posture. ..
  • the three-dimensional coordinate system including the reference plane and the optical scanning device scan two-dimensionally in order to accurately detect the object. It is necessary to match the coordinates with the coordinate system of the measurement light to be measured, and if both coordinate systems are out of alignment, a coordinate conversion process for matching is required. For example, coordinate transformation processing such as translation processing and rotation processing.
  • the calibration process is a calibration process in which the coordinates are converted into a two-dimensional position vector obtained when the optical scanning device is installed in a predetermined reference posture based on the attitude information of the optical scanning device obtained from the attitude detection unit. Performed by the department.
  • the predetermined reference posture is a posture in which the relationship between the three-dimensional coordinate system and the local coordinate system of the optical scanning device is uniquely determined.
  • the first position vector generation unit is provided with the calibration processing unit, and the three-dimensional position vector obtained based on the coordinate system of the measurement light is calibrated (coordinate conversion) to obtain the three-dimensional position vector of the three-dimensional coordinate system. It may be generated and output to the second position vector generation unit.
  • the second position vector generation unit is provided with the calibration processing unit, and the coordinates of the measurement light output from the first position vector generation unit. Calibration (coordinate conversion) may be performed when generating a two-dimensional position vector projected from a three-dimensional position vector based on the system onto a predetermined two-dimensional coordinate system serving as a reference plane.
  • the posture information includes static posture information and / or dynamic posture information
  • the calibration processing unit scans the optical scanning device. The point is to calibrate in synchronization with the cycle.
  • Static posture information refers to information indicating the mounting posture of the optical scanning device with respect to the three-dimensional coordinate system and the posture of the device to which the optical scanning device is mounted.
  • Dynamic attitude information refers to information indicating a posture that changes with time due to the movement of the optical scanning device itself or the movement of the device to which the optical scanning device is attached. For example, when the optical scanning device is attached to an unmanned carrier. It refers to attitude information that changes due to pitching, rolling, etc. that occurs as the unmanned transport vehicle travels.
  • the calibration processing unit has the posture information, a predetermined measurement target surface obtained based on the three-dimensional position vector, and the above. The point is to calibrate based on both the relative posture with the optical scanning device.
  • the presence or absence of an object on the predetermined measurement target surface is determined. It may be difficult to do. For example, when an automated guided vehicle equipped with an optical scanning device switches from running on a flat road surface to running on a sloping road surface as the measurement target surface, if calibration processing is performed based only on the attitude information, the object detection area is reached. It becomes difficult to accurately judge the object due to the deviation. In preparation for such a case, accurate object determination becomes possible by performing calibration processing in consideration of the relative posture between the predetermined measurement target surface obtained based on the three-dimensional position vector and the optical scanning device.
  • the difference between rolling and pitching of an automated guided vehicle with respect to the traveling road surface and the inclination of the traveling road surface itself it is possible to determine the difference between rolling and pitching of an automated guided vehicle with respect to the traveling road surface and the inclination of the traveling road surface itself. That is, when rolling or pitching occurs, the change in the detection position of the traveling road surface obtained based on the three-dimensional position vector coincides with the change in the attitude information of the optical scanning device obtained from the attitude detection unit.
  • the traveling road surface is inclined, the detection position of the traveling road surface obtained based on the three-dimensional position vector does not change, but the attitude information of the optical scanning device obtained from the attitude detection unit changes.
  • the reference plane is defined along the traveling road surface, accurate object determination becomes possible by avoiding the calibration process only due to the inclination of the traveling road surface.
  • the first declination ⁇ and the second declination ⁇ are represented by a spherical coordinate system (r 3 , ⁇ , ⁇ ) corresponding to the scanning direction of the measurement light scanned by the optical scanning device, and the above.
  • the second position vector generator the spherical coordinate system (r 3, ⁇ , ⁇ ) in said three-dimensional position vector polar coordinate system (r 2, ⁇ ) lies in being configured to convert the two-dimensional position vector represented by represented.
  • the three-dimensional position vector, the first deviation angle ⁇ and the second deviation angle ⁇ corresponds to the scanning direction of the measuring light scanned by the optical scanning device, the distance radius r 3 from a predetermined starting point to the irradiation position of the object
  • the calculation load is reduced by expressing in the spherical coordinate system (r 3 , ⁇ , ⁇ ), and expressing the two-dimensional position vector projected on the two-dimensional coordinate system in the polar coordinate system (r 2, ⁇ ). become able to. It is preferable to set a predetermined start point as the installation position of the optical scanning device, but it is not necessary to limit the starting point to the installation position of the optical scanning device as long as the end point position of the three-dimensional position vector is determined.
  • the declination ⁇ of the spherical coordinate system (r 3 , ⁇ , ⁇ ) and the declination ⁇ of the polar coordinate system (r 2 , ⁇ ) are the declinations on the same plane, but the declinations on different planes. It may be.
  • the object determination unit determines whether or not the end point of the two-dimensional position vector is located inside the object detection region. It is configured to be determined by the pitch ⁇ , and the second position vector generation unit rounds the declination of each two-dimensional position vector in association with the declination determination pitch ⁇ based on a preset rule. It is in the point that it is composed of.
  • the double object determination unit represented by polar coordinates (r 2, eta) It is necessary to determine whether or not the end point of the dimensional position vector is located inside the object detection area according to its resolution.
  • the object determination unit is configured to determine with a predetermined argument determination pitch ⁇ having a resolution lower than the resolution of the argument ⁇ of the two-dimensional position vector, the calculation load required for the determination can be reduced. .. Therefore, it is preferable to perform the rounding process by associating the declination of each two-dimensional position vector with the declination determination pitch ⁇ based on a preset rule.
  • the preset rule refers to a rule for rounding processing, and is a rule that can be set as appropriate and is not particularly limited.
  • the object determination unit includes the second feature based on the total number of the two-dimensional position vectors rounded to the same declination. The point is to determine whether or not the dimensional position vector is to be determined.
  • the total number of two-dimensional position vectors rounded to the same deviation angle is large, it can be determined that there are many measurement points detected during the corresponding deviation angle determination pitch ⁇ , that is, the physical size of the object is large, and conversely. If the total number of two-dimensional position vectors rounded to the same deviation angle is small, the physical size of the object is small and it can be determined as noise. For example, by performing filter processing such as grouping based on the scalar amount of the two-dimensional position vector and setting the representative vector, it is possible to reduce the calculation load by reducing the number of data to be determined.
  • the second position vector generation unit is represented by the spherical coordinate system (r 3 , ⁇ , ⁇ ). includes a coordinate conversion table for converting the three-dimensional position vector the polar coordinate system (r 2, eta) to the two-dimensional position vector represented by the two-dimensional position the three-dimensional position vector on the basis of the coordinate conversion table It is at the point of converting to a vector.
  • the moving diameter r of the two-dimensional position vector existing in the adjacent deviation angle ⁇ or the same deviation angle ⁇ can be treated as the same object to be determined, and a representative vector obtained from the group of two-dimensional position vectors can be determined by the object determination unit. By doing so, the calculation load can be greatly reduced.
  • two-dimensional position vector two-dimensional position vector radius r 2 is minimized, the two-dimensional position vector radius r 2 is the maximum radius vector r 2 represents the median radius r 2
  • a position vector indicating an average value, a position vector serving as the center of gravity of a group of two-dimensional position vectors, and the like can be adopted.
  • the deviation of the radius r 2 of the two-dimensional position vector existing in the adjacent declination ⁇ or the same declination ⁇ is second.
  • the point is that the two-dimensional position vector larger than the predetermined value of is removed from the object to be determined as an isolated point.
  • the moving diameter r of the two-dimensional position vector existing in the adjacent deviation angle ⁇ or the same deviation angle ⁇ . 2 of deviation can be determined as different objects the two-dimensional position vector of the larger than a second predetermined value, determines the target object determined by the object and can not be handled as the same determination target object as isolated point By removing from, the calculation load can be further reduced.
  • the first predetermined value and the second predetermined value may be the same value.
  • the twelfth feature configuration includes the vertical distances corresponding to a plurality of two-dimensional position vectors existing at the same deviation angle ⁇ .
  • a group of two-dimensional position vectors having a relationship in which the deviation is equal to or less than the third predetermined value is extracted as the same judgment target object, and the representative vector obtained from the group of two-dimensional position vectors is used as the judgment target of the object judgment unit. There is a point to do.
  • the vertical distance is the distance from the start point to the end point when the three-dimensional position vector is projected on the vertical axis orthogonal to the reference plane, which is obtained for each two-dimensional position vector generated by the second position vector generator. ..
  • a group of two-dimensional position vectors in which the deviation of the vertical distance corresponding to each of the plurality of two-dimensional position vectors existing in the same deviation angle ⁇ is equal to or less than the third predetermined value can be treated as the same judgment target object. Therefore, the calculation load can be greatly reduced by using the representative vector obtained from the two-dimensional position vector of the group as the determination target of the object determination unit.
  • two-dimensional position vector two-dimensional position vector radius r 2 is minimized, the two-dimensional position vector radius r 2 is the maximum radius vector r 2 represents the median radius r 2
  • a position vector indicating an average value, a position vector serving as the center of gravity of a group of two-dimensional position vectors, and the like can be adopted.
  • the deviation of the vertical distance corresponding to each of the plurality of two-dimensional position vectors existing at the same deviation angle ⁇ is a fourth predetermined value.
  • the point is to remove the two-dimensional position vector larger than the value from the object to be determined as an isolated point.
  • two-dimensional position vectors in which the deviation of the vertical distance corresponding to each of the plurality of two-dimensional position vectors existing in the same deviation angle ⁇ is larger than the fourth predetermined value can be determined as different objects.
  • the calculation load can be further reduced by removing the object determined to be unhandled as the same determination target object as an isolated point from the determination target object.
  • the third predetermined value and the fourth predetermined value may be the same value.
  • the second position vector generation unit has a plurality of the two-dimensional position vectors based on the vertical distance. It is configured to be divided into groups, the object detection area generation unit is configured to generate the object detection area corresponding to each group, and the object determination unit is configured to generate the two-dimensional position vector for each group. The point is to determine that an object exists when the end point is located inside the corresponding object detection area.
  • the two-dimensional position vector is divided into multiple groups based on the vertical distance.
  • the two-dimensional position vector is divided into multiple groups based on the vertical distance.
  • the second position vector generation unit has the vertical distance equal to or greater than the first threshold value and the first feature configuration. The point is that a two-dimensional position vector having a value larger than the threshold value of and equal to or lower than the second threshold value is selectively generated.
  • the second position vector generator selectively generates a two-dimensional position vector having a vertical distance equal to or greater than the first threshold value and greater than or equal to the first threshold value and less than or equal to the second threshold value from each three-dimensional position vector. , An object that clearly exists outside the object detection area defined in three dimensions can be excluded from the object to be determined, and the calculation load can be reduced.
  • the first characteristic configuration of the object detection system according to the present invention is an optical scanning device that two-dimensionally scans the measurement light emitted from the light emitting element and guides the reflected light from the object irradiated with the measurement light to the light receiving element. And an object detection device having any of the above-mentioned first to fifteenth characteristic configurations.
  • the first characteristic configuration of the object detection program according to the present invention is that the measurement light emitted from the light emitting element is scanned two-dimensionally by the computer, and the reflected light from the object irradiated with the measurement light is guided to the light receiving element.
  • a first position vector generator that generates an original position vector and a two-dimensional position vector obtained by projecting the three-dimensional position vector onto a predetermined two-dimensional coordinate system serving as a reference plane are generated, and a vertical position orthogonal to the reference plane is generated.
  • a second position vector generation unit that calculates the vertical distance from the start point to the end point of the three-dimensional position vector projected on the axis, an object detection area generation unit that generates an object detection area on the reference plane, and the two-dimensional position. The point is that it functions as an object determination unit that determines that an object exists when the end point of the vector is located inside the object detection area.
  • the first characteristic configuration of the object detection method according to the present invention is an optical scanning device that two-dimensionally scans the measurement light emitted from the light emitting element and guides the reflected light from the object irradiated with the measurement light to the light receiving element.
  • a first position vector generation step for generating A second position vector generation step for calculating the vertical distance from the start point to the end point of the three-dimensional position vector, an object detection area generation step for generating an object detection area on the reference plane, and an end point of the two-dimensional position vector. Is provided with an object determination step of determining that an object exists when the object is located inside the object detection area.
  • a three-dimensional object detection device As described above, according to the present invention, a three-dimensional object detection device, an object detection system, an object detection program, and an object detection that can realize real-time performance and can easily set an object detection area without using an expensive CPU. It has become possible to provide a method.
  • FIG. 1A is an explanatory diagram showing the appearance of a three-dimensional ranging device incorporating an optical scanning device used in the object detection device according to the present invention
  • FIG. 1B is an explanatory diagram of a scanning locus of measurement light.
  • FIG. 2 is an explanatory diagram showing the internal structure of the three-dimensional ranging device.
  • FIG. 3 is an explanatory diagram showing the relationship between the three-dimensional distance measuring device, the scanning locus of the measurement light, and the three-dimensional object detection region.
  • FIG. 4 is a functional block configuration diagram of the object detection device.
  • FIG. 5A is an explanatory diagram of a spherical coordinate system
  • FIG. 5B is an explanatory diagram of a polar coordinate system.
  • FIG. 5A is an explanatory diagram of a spherical coordinate system
  • FIG. 5B is an explanatory diagram of a polar coordinate system.
  • FIG. 6 is a flowchart showing an object detection procedure executed by the object detection device.
  • FIG. 7 is an explanation of rounding the deviation angle ⁇ of the two-dimensional position vector according to the determination pitch ⁇ of the object determination unit for the second deviation angle ⁇ of the three-dimensional position vector when converting the three-dimensional position vector into the two-dimensional position vector. It is a figure.
  • FIG. 8A shows an explanatory diagram of the positional relationship between the optical scanning device and the rectangular parallelepiped-shaped detection object placed between the floor surface and the wall surface
  • FIG. 8B shows a point group of the trajectory of the reflected light.
  • FIGS. 1 The perspective views, FIGS.
  • FIG. 8 (c) and 8 (d), are explanatory views of the two-dimensional position vector P 2 (r 2 , ⁇ ) and the two-dimensional object detection regions R 2 and R 2'.
  • FIG. 9A is an explanatory diagram of a plurality of object detection regions defined on the reference plane
  • FIG. 9B is an explanatory diagram of object detection regions defined in different shapes based on the vertical distance.
  • 10 (a) to 10 (d) are explanatory views of calibration processing for an optical scanning device mounted on an automatic guided vehicle.
  • the object detection device the object detection system, the object detection program, and the object detection method according to the present invention will be described.
  • FIG. 1A shows the appearance of the three-dimensional ranging device 1 in which the optical scanning device 10 is incorporated.
  • the three-dimensional distance measuring device 1 adopts a TOF method, and includes a casing 2 provided with a substantially spherical semitransparent optical window 3 and an optical scanning device 10 housed in the casing 2.
  • the pulsed measurement light is two-dimensionally scanned into the external space to be measured from the deflection mirror 12 provided in the optical scanning device 10.
  • FIG. 2 shows the internal structure of the three-dimensional ranging device 1.
  • the three-dimensional distance measuring device 1 includes a light emitting element 4, a light receiving element 5, and an optical scanning device 10.
  • a laser diode having an emission wavelength region in the near infrared region is used, and as the light receiving element 5, an avalanche photodiode is used.
  • the optical scanning device 10 two-dimensionally scans the measurement light emitted from the light emitting element 4 and guides the reflected light from the object 100 (see FIG. 1A) irradiated with the measurement light to the light receiving element 5. It is configured in.
  • the optical scanning device 10 includes a deflection mirror 12, a first deflection mechanism 20 that swings and drives the deflection mirror 12 around the horizontal axis P1, and a second deflection mechanism 25 that rotationally drives the deflection mirror 12 around the vertical axis P2.
  • a non-contact power feeding unit 27 for supplying electric power to the first deflection mechanism 20 and the second deflection mechanism 25 is provided.
  • the first deflection mechanism 20 includes a coil substrate arranged on the back side of the deflection mirror 12 and a pair of permanent magnets 23 installed on both ends of the deflection mirror 12, and the alternating current flowing through the coil of the coil substrate.
  • the Lorentz force acting on the coil due to the magnetic field formed by the permanent magnet 23 is configured to repeatedly swing the deflection mirror 12 supported by the pair of left and right beam portions 24, 24.
  • the measurement light is oscillated and scanned in the vertical direction by the first deflection mechanism 20.
  • the second deflection mechanism 25 includes a motor M installed on the upper part of the base 8 and a rotating body 26 rotatably connected to the rotating shaft of the motor M, and the first deflection mechanism 25 is provided on the upper part of the rotating body 26. 20 is attached. The measurement light is rotationally scanned in the horizontal direction by the second deflection mechanism 25.
  • an inner rotor type DC brushless motor or stepping motor equipped with a rotor in which a permanent magnet is arranged inside a stator in which a coil is wound is used.
  • the non-contact power feeding portion 27 includes a pair of annular coil support portions 28 made of silicon steel arranged on the outer periphery of each of the motor M and the rotating body 26 described above, and each coil support.
  • the portion 28 is provided with a coil of copper wires wound so as to face each other with a slight gap, and is arranged from a coil arranged on the motor M side to a coil arranged on the rotating body 26 side by an electromagnetic induction method. It is configured so that power is supplied to the coil in a non-contact manner.
  • the laser light emitted from the light emitting element 4 is waveform-shaped into parallel light via the condensing optical system, then enters the deflection mirror 12 via the guide optical path 41 and is two-dimensionally scanned in the external space.
  • the reflected light is incident on the deflection mirror 12 and deflected toward the condenser lens 7, and further incident on the light receiving unit 5 via the deflection mirror 6.
  • the three-dimensional distance measuring device 1 includes an encoder that detects the rotation speed of the motor M, a motor control unit that controls the rotation speed of the motor M based on the output of the encoder, and a coil arranged on the back side of the deflection mirror 12. It is provided with a swing control unit that controls the swing cycle of the deflection mirror 12 by the first deflection mechanism 20 by adjusting the frequency and current value of the alternating current applied to the coil of the substrate. Further, it is provided with a light emitting control unit or the like that controls blinking of the light emitting element 4 in synchronization with the output of the encoder.
  • FIG. 1B exemplifies the trajectory 29 of the pulse-shaped measurement light scanned from the three-dimensional distance measuring device 1.
  • the three-dimensional distance measuring device 1 has a range of -5 degrees downward and +35 degrees upward with respect to the horizontal direction by the first deflection mechanism 20. That is, the measurement light is reciprocally scanned in the vertical direction at a range of ⁇ 20 degrees with respect to the vertical scanning center), an accuracy of ⁇ 2 degrees, and a scanning speed of 1200 Hz.
  • the second deflection mechanism 25 scans the measurement light in the horizontal direction in a range of 210 degrees, an accuracy of ⁇ 0.125 degrees, and a scanning speed of 20 Hz.
  • the resolution can be improved by driving the measurement light by an interlace method that shifts the emission timing of the measurement light for each scanning cycle in the horizontal direction.
  • the three-dimensional distance measuring device 1 scans the pulsed measurement light having an infrared wavelength region from the optical scanning device 10 installed inside the casing 2 through the spherical optical window 3 toward the three-dimensional space.
  • a device for determining the distance and direction from the optical scanning device 10 to the object 100 based on the physical relationship between the measurement light and the reflected light obtained from the optical scanning device 10 and the scanning direction of the measurement light. Since the TOF method is adopted in this embodiment, the physical relationship between the measurement light and the reflected light is based on the time difference between the time when the measurement light is emitted from the light emitting element 4 and the time when the reflected light is detected by the light receiving element 5. The distance can be calculated. It is also possible to adopt a phase difference method in which the measurement light is AM (amplitude) modulated continuous light and the distance is calculated by using the phase difference as the physical relationship between the measurement light and the reflected light.
  • AM amplitude
  • the object detection apparatus 30 As shown in FIG. 3, the object detection apparatus 30 according to the present invention, based on the output from the three-dimensional distance measuring device 1 described above, present in certain measurement object detection of three-dimensional defined in the target spatial region R 3 It is a device for detecting an object.
  • the above-mentioned three-dimensional distance measuring device 1 outputs measurement data of thousands to hundreds of thousands of points in one scanning cycle. Such a large amount of measurement data is scanned in one scanning cycle, for example, 50 msec at 20 Hz.
  • a very high-speed and expensive CPU is required.
  • the object detection device 30 according to the present invention is configured so that even a relatively inexpensive CPU can complete arithmetic processing in one scanning cycle and can ensure real-time performance. It will be described in detail below.
  • the object detection device 30 includes a first position vector generation unit 31, a second position vector generation unit 32, an object detection area setting unit 33, an object detection area generation unit 34, and an object.
  • a determination unit 35 is provided.
  • the first position vector generation unit 31 is obtained from an optical scanning device 10 that two-dimensionally scans the measurement light emitted from the light emitting element 4 and guides the reflected light from the object irradiated with the measurement light to the light receiving element 5.
  • An arithmetic processing circuit that generates a three-dimensional position vector indicating the distance and direction from a predetermined start point to an irradiation position of an object in a three-dimensional coordinate system based on the physical relationship between the measured light and the reflected light and the scanning direction of the measured light. Is.
  • the second position vector generation unit 32 generates a two-dimensional position vector obtained by projecting the three-dimensional position vector onto a predetermined two-dimensional coordinate system serving as a reference plane, and generates a two-dimensional position vector on a vertical axis orthogonal to the reference plane. It is an arithmetic processing circuit that calculates the vertical distance projected from the start point to the end point.
  • the object detection area setting unit 33 is an arithmetic processing circuit in which a single or a plurality of object detection areas are defined in advance on a reference plane, stored in a storage unit, and managed.
  • the object detection region may be a region obtained by projecting a three-dimensional object detection region defined in a three-dimensional coordinate system, which is a measurement target space, onto a reference plane.
  • the existence area of an object that is not a detection target such as a fixed structure that originally exists in the measurement target space is defined as an exclusion area, and the area other than the exclusion area is used as a three-dimensional object detection area. May be good.
  • the two-dimensional object detection area defined on the reference plane is simply referred to as an object detection area.
  • the object detection area setting unit 33 reads the object detection area previously stored in the portable memory or the like via the memory interface, or connects it to an external computer or the like via a communication cable or a wireless communication interface and inputs the object detection area from the external computer. It may have such a configuration.
  • the object detection area generation unit 34 generates a two-dimensional object detection area defined on the reference plane based on the three-dimensional object detection area set by the object detection area setting unit 33, or the object detection area setting unit. This is an arithmetic processing circuit that selects an object detection area to be an object of object determination from a plurality of object detection areas set by 33 and generates boundary information of the object detection area.
  • the object determination unit 35 determines whether or not the end point of the two-dimensional position vector is located inside the object detection area based on the boundary information of the object detection area, and if it is located inside, it is set to the three-dimensional detection area. It is an arithmetic processing circuit that determines that an object exists.
  • the object detection area is an area obtained by projecting a three-dimensional object detection area defined in the three-dimensional coordinate system onto a reference plane
  • the determination result by the object determination unit 35 is in the three-dimensional object detection area. It can be regarded as substantially equal to the result when determining whether or not an object exists.
  • the object detection device 30 is configured to include a CPU, a storage unit, and peripheral circuits including an input / output interface, and the CPU reads and executes an object detection program stored in the storage unit to perform calculations having each of the above-mentioned functions.
  • the processing circuit is embodied.
  • FIG. 5 (a) a spherical coordinate system (r 3, ⁇ , ⁇ ) X centered and the origin O of, Y, coordinate system superimposed and Z three-dimensional orthogonal coordinate system is shown.
  • the three-dimensional position vector generated by the first position vector generation unit 31 has a radius r 3 , a first declination ⁇ which is an inclination angle from the Z axis, and a projection vector of the three-dimensional position vector on the XY plane and the X axis. It is defined by the second argument ⁇ , which is the angle between and.
  • a spherical coordinate system (r 3 , ⁇ , ⁇ ) corresponding to the scanning direction of the measurement light scanned by the optical scanning apparatus 10 using the first declination ⁇ and the second declination ⁇ is represented.
  • Area indicated by two-dot chain line in FIG. 5 (a) is an object detection area R 3 defined in a three-dimensional coordinate system.
  • the moving diameter r 3 indicates the distance from the origin O to the reflection point P 3 on the surface of the object, and the elevation angle ( ⁇ / 2- ⁇ ) from the X and Y planes to the reflection point P is indicated by using the first line segment ⁇ .
  • the second deviation angle ⁇ indicates the angle formed by the line segment obtained by orientally projecting the line segment from the origin O to the reflection point P on the X and Y planes and the X axis.
  • the X and Y coordinate systems are predetermined two-dimensional coordinate systems that serve as reference planes.
  • two-dimensional position vector generated by the second position vector generation unit 32 is represented by a polar coordinate system defined by the radius vector r 2, declination eta (r 2, eta) NS.
  • the second position vector generation unit 32 converts the three-dimensional position vector represented by the spherical coordinate system (r 3 , ⁇ , ⁇ ) into the two-dimensional position vector represented by the polar coordinate system (r 2, ⁇ ). It is configured.
  • Area indicated by two-dot chain line in FIG. 5 (a) is an object detection region R 2 that has been converted into a two-dimensional coordinate system.
  • the two-dimensional position vector P 2 (r 2 , ⁇ ) is generated by projecting the three-dimensional position vector P 3 (r 3 , ⁇ , ⁇ ) onto the XY plane as the two-dimensional coordinate system.
  • the moving diameter r 2 indicates the distance from the origin O to the projection point P 2 on the XY plane of the object surface
  • the declination ⁇ indicates the angle from the X axis with respect to the line segment connecting the origin O and the projection point P 2.
  • the second position vector generation unit 32 further projects a vertical distance h obtained by projecting the three-dimensional position vector P 3 (r 3 , ⁇ , ⁇ ) from the start point to the end point on the vertical axis orthogonal to the XY plane which is the reference plane. calculate.
  • the two-dimensional coordinate system is the XY Cartesian coordinate system
  • the vertical axis is the Z axis.
  • the object detection area generation unit 34 determines the object detection area R 3 Is projected onto a two-dimensional coordinate system serving as a reference plane to generate a two-dimensional object detection region R 2.
  • the object determination unit 35 detects an object whose end point of the two-dimensional position vector P 2 (r 2 , ⁇ ) is on the reference plane. When it is located inside the region R 2 , it is determined that an object exists in the three-dimensional detection region R 3.
  • the three-dimensional position vector has an elevation angle ( ⁇ / 2- ⁇ ) defined using the first deviation angle ⁇ and a second deviation angle ⁇ corresponding to the scanning direction of the measurement light scanned by the optical scanning device, and the moving diameter.
  • R 3 is represented by a spherical coordinate system (r 3 , ⁇ , ⁇ ) that is the distance from a predetermined start point to the irradiation position of an object, and a two-dimensional position vector projected onto a two-dimensional coordinate system is a polar coordinate system. (r 2, ⁇ ) will be able to reduce the computational load by representing in.
  • object detection area generator 34 is an object detection region R 2 of the two-dimensional Is used as it is to generate boundary information in the XY two-dimensional coordinate system which is the reference plane, so that the calculation load is reduced.
  • the object detection area generation unit 34 does not necessarily have to project the three-dimensional object detection area R 3 onto the XY two-dimensional coordinate system as the reference plane to generate the two-dimensional object detection area R 2, and the object detection area R 2 does not necessarily have to generate the two-dimensional object detection area R 2.
  • a two-dimensional object detection region R 2 may be newly generated on the reference plane so as to be located inside the detection region R 3. If the two-dimensional object detection region R 2 is set, it is possible to detect an object that substantially provides a three-dimensional object detection region.
  • the three-dimensional position vector generated by the first position vector generation unit 31 is based on reflected light from many objects that should be excluded, such as a floor surface, a road surface, a ceiling surface, or a side wall surface existing in the three-dimensional space. Is included. Even in such a case, the object detection area setting unit 33 may define a three-dimensional object detection area that does not include an object that should be excluded.
  • projection used in the above explanation is used to mean “orthographic projection”, but it may be a projection with an inclination angle instead of an orthographic projection, and in that case, a dimensional error due to the inclination angle. It is also possible to perform correction processing.
  • the predetermined start point is the installation position of the optical scanning device 10 (three-dimensional distance measuring device 1), but as long as the end position of the three-dimensional position vector P 3 (r 3 , ⁇ , ⁇ ) is determined, the start point is determined. It is not necessary to limit the position to the installation position of the optical scanning device.
  • the declination ⁇ of the spherical coordinate system (r 3 , ⁇ , ⁇ ) and the declination ⁇ of the polar coordinate system (r 2 , ⁇ ) are the declinations on the same plane, but the declinations on different planes. It may be. That is, the second position vector generation unit 32 generates a two-dimensional position vector obtained by projecting the three-dimensional position vector onto an arbitrary two-dimensional coordinate system serving as a reference plane, and at the same time, generates a three-dimensional position on a vertical axis orthogonal to the reference plane. It may be configured to project a vector and calculate the vertical distance, which is the distance from the start point to the end point.
  • the X, Y, Z three-dimensional Cartesian coordinate system shown in FIGS. 5 (a) and 5 (b) is merely an illustrated coordinate system for easy understanding, and the two-dimensional coordinate system is an XY Cartesian coordinate system. It does not have to be the XY plane that constitutes the above, and may be a plane that is inclined by a certain angle with respect to the XY plane.
  • the three-dimensional position vector is defined in the spherical coordinate system (r 3 , ⁇ , ⁇ ), and the two-dimensional position vector is defined in the polar coordinate system (r 2 , ⁇ ). It goes without saying that both the vector and the two-dimensional position vector may be defined in the X, Y, Z three-dimensional Cartesian coordinate system.
  • the optical scanning device 10 (three-dimensional ranging device 1) is XY to the origin O of the X, Y, Z three-dimensional Cartesian coordinate system, which is a local coordinate system in which the origin of the world coordinate system is simply translated.
  • the description has been made on the assumption that the optical scanning device 10 (three-dimensional ranging device 1) is installed horizontally on a flat surface, but when the optical scanning device 10 (three-dimensional ranging device 1) is mounted on a moving body such as an unmanned carrier (AGV), the optical scanning device 10
  • the mounting posture of the (three-dimensional distance measuring device 1) is not always horizontal to the XY plane, and the posture may fluctuate due to the influence of the pitch angle and roll angle caused by the running of the vehicle. be.
  • the two-dimensional position vector generated by the second position vector generation unit 32 becomes the two-dimensional position vector obtained when the optical scanning device 10 is installed in a predetermined reference posture in the three-dimensional coordinate system.
  • a calibration processing unit 37 that calibrates based on the attitude information of the optical scanning device 10 obtained from the attitude detection unit 36 is provided.
  • the three-dimensional coordinate system including the reference plane and the optical scanning device scan two-dimensionally in order to accurately detect the object. It is necessary to match the coordinates with the coordinate system of the measurement light to be measured, and if both coordinate systems are out of alignment, a coordinate conversion process for matching is required. For example, coordinate transformation processing such as translation processing and rotation processing.
  • a calibration process of performing coordinate conversion so as to be a two-dimensional position vector obtained when the optical scanning device 10 is installed in a predetermined reference posture Is executed by the calibration processing unit 37.
  • the predetermined reference posture is a posture in which the relationship between the three-dimensional coordinate system and the local coordinate system of the optical scanning device is uniquely determined.
  • the calibration processing unit 37 may be provided in the first position vector generation unit 31 or in the second position vector generation unit 32.
  • the first position vector generation unit 31 is provided with the calibration processing unit 37, and the three-dimensional position vector obtained based on the coordinate system of the measurement light is calibrated (coordinate conversion) to perform the three-dimensional position of the three-dimensional coordinate system.
  • a vector may be generated and output to the second position vector generation unit.
  • the second position vector generation unit 32 is provided with the calibration processing unit 37 and is output from the first position vector generation unit 31. You may calibrate (coordinate conversion) when generating a two-dimensional position vector projected onto a predetermined two-dimensional coordinate system serving as a reference plane from a three-dimensional position vector based on the coordinate system of the measurement light.
  • the posture information includes static posture information and / or dynamic posture information
  • the calibration processing unit 37 is configured to calibrate in synchronization with the scanning cycle of the optical scanning apparatus.
  • Static posture information refers to information indicating the mounting posture of the optical scanning device 10 with respect to the three-dimensional coordinate system and the posture of the device to which the optical scanning device 10 is mounted.
  • the dynamic posture information refers to information indicating a posture that changes with time due to the movement of the optical scanning device 10 itself or the movement of the device to which the optical scanning device 10 is attached.
  • the optical scanning device is attached to an unmanned transport trolley. This refers to attitude information that changes due to pitching, rolling, etc. that occurs as the unmanned transport vehicle travels.
  • the calibration processing unit 37 performs calibration processing based on these posture information in synchronization with the scanning cycle of the optical scanning device 10, so that substantially real-time calibration processing becomes possible. Synchronizing with the scanning cycle of the optical scanning device 10 means that the calibration process is performed every scanning cycle of the optical scanning device 10 or the calibration process is performed every integral multiple of the scanning cycle of the optical scanning device 10. include.
  • the calibration processing unit 37 is configured to calibrate based on both the attitude information and the relative attitude between the predetermined measurement target surface and the optical scanning device 10 obtained based on the three-dimensional position vector.
  • the presence or absence of an object on a predetermined measurement target surface using the optical scanning device 10 if the calibration process is executed based only on the above-mentioned attitude information, the presence or absence of an object on the predetermined measurement target surface is determined. It may be difficult to determine.
  • the difference between rolling and pitching of an automated guided vehicle with respect to the traveling road surface and the inclination of the traveling road surface itself it is possible to determine the difference between rolling and pitching of an automated guided vehicle with respect to the traveling road surface and the inclination of the traveling road surface itself. That is, when rolling or pitching occurs, the change in the detection position of the traveling road surface obtained based on the three-dimensional position vector coincides with the change in the attitude information of the optical scanning device obtained from the attitude detection unit.
  • the traveling road surface is inclined, the detection position of the traveling road surface obtained based on the three-dimensional position vector does not change, but the attitude information of the optical scanning device obtained from the attitude detection unit changes.
  • the reference plane is defined along the traveling road surface, accurate object determination becomes possible by avoiding the calibration process only due to the inclination of the traveling road surface.
  • An acceleration sensor and a gyro sensor can be preferably used as the attitude detection unit 36, and the attitude of the optical scanning device 10 in the three-dimensional coordinate system can be grasped based on the attitude detection signals obtained from the acceleration sensor and the gyro sensor.
  • the first position vector generation unit 31 will generate a three-dimensional position vector when the optical scanning device is in a predetermined reference posture.
  • the predetermined reference posture is a posture in which the relationship between the three-dimensional coordinate system and the local coordinate system of the optical scanning device is uniquely determined, and the two-dimensional coordinate system and the optical scanning which are the reference planes constructed in the three-dimensional coordinate system. It is also a posture in which the relationship of the local coordinate system of the device is uniquely determined.
  • the posture detection unit 36 may be incorporated in the three-dimensional distance measuring device 1, or may be mounted in the device on which the three-dimensional distance measuring device 1 is mounted.
  • the coordinate value of the new coordinate system (X, Y, Z) obtained by arbitrary rotation is represented by the coordinate value of the old coordinate system (x, y, z), it can be converted by the following formula. ..
  • the old coordinate system (x, y, z) is rotated about the x-axis by an angle ⁇ (x, Y', Z'), and then rotated about the Y'axis by an angle ⁇ (X).
  • the new coordinate system (X, Y, Z) and the old coordinate system (x, y, z) are set to', Y', Z) and further rotated by an angle ⁇ around the Z axis, the following formulas (numbers) are used. It can be converted in 1).
  • Such a coordinate conversion formula is known not only in the X, Y, Z three-dimensional Cartesian coordinate system but also in the spherical coordinate system and the polar coordinate system, and can be easily converted by using such a conversion formula.
  • each data is coordinate-converted based on the attitude detection signal obtained from the attitude detection unit 36. Just do it.
  • the attitude change of the optical scanning device coincides with the directions of the first argument ⁇ and the second argument ⁇ that define the three-dimensional position vector in the three-dimensional coordinate system (that is, the first argument ⁇ is ⁇ H. change, in this case) the second deviation angle phi is changed phi H, converting the new coordinate system (R, theta, [phi) and old coordinate system (r, theta, phi) the following equation (equation 2) can.
  • FIG. 6 shows a procedure of the object determination process executed by the object detection device 30.
  • the first position vector generation unit 31 receives data indicating the physical relationship (delay time) between the measurement light and the reflected light for one cycle and the scanning direction ( ⁇ , ⁇ ) of the measurement light obtained from the optical scanning device 10. Then, it is stored in the memory each time (S2).
  • the data in the local three-dimensional coordinate system in which the object detection device 30 is installed is converted into the data in the local three-dimensional coordinate system in which the object detection device 30 is installed in the three-dimensional coordinate system based on the attitude detection signal.
  • the three-dimensional position vector P 3 (r 3 , ⁇ , ⁇ ) converted into data is generated and stored in the memory (S3).
  • Second position vector generation unit 32 is a three-dimensional position vector P 3 from the memory (r 3, ⁇ , ⁇ ) reads the three-dimensional position vector P 3 (r 3, ⁇ , ⁇ ) two-dimensional as a reference plane
  • the two-dimensional position vector P 2 (r 2 , ⁇ ) projected on the coordinate system is generated (S4), and the three-dimensional position vector P 3 (r 3 , ⁇ , ⁇ ) is projected on the vertical axis orthogonal to the reference plane.
  • the vertical distance h which is the distance from the start point to the end point, is calculated, and the pair of the two-dimensional position vector P 2 (r 2 , ⁇ ) and the vertical distance h are stored in the memory (S5).
  • Object detection area generator 34 is a region set in advance by the object detection region setting unit 33, a three-used after being stored in the memory a plurality of three-dimensional object detection area R 3 or two-dimensional object detecting area R 2 to the current object determination order It reads the original or two-dimensional object detecting area, and generates and stores in the memory the object detection region R 2 of the two-dimensional two-dimensional coordinate system (S6).
  • Object determination unit 35 a two-dimensional stored in the memory position vector P 2 (r 2, ⁇ ) and reads sequentially, two-dimensional position vector P 2 (r 2, ⁇ ) endpoint dimensional object detection area R whether the attribution determination are included in the 2 performed for all the data of the period (S7, S8), when the determination for all data ends (S8, Y), the two-dimensional object detection region R 2 even two-dimensional position in a single vector P 2 (r 2, ⁇ ) outputs determined object Yes If the end point is present, the two-dimensional object detection region R 2 in one even two-dimensional position vector P 2 (r 2, ⁇ ) When the end point does not exist, it is determined and output as having an object (S9).
  • Both the second argument ⁇ of the three-dimensional position vector P 3 (r 3 , ⁇ , ⁇ ) and the argument ⁇ of the two-dimensional position vector P 2 (r 2 , ⁇ ) are, for example, X, Y, Z three-dimensional orthogonal.
  • the second argument ⁇ in the spherical coordinate system (r 3 , ⁇ , ⁇ ) corresponds to the argument ⁇ in the polar coordinate system (r 2, ⁇ ).
  • the object determination unit 35 is represented by a polar coordinate system (r 2, eta) It is necessary to determine whether or not the end point of the two-dimensional position vector is located inside the object detection area according to the resolution, which increases the calculation load.
  • the object determination unit 35 is configured to determine whether or not the end point of the two-dimensional position vector is located inside the object detection region with a predetermined declination determination pitch ⁇ , and the second position vector generation unit 32 The declination of each two-dimensional position vector is associated with the declination determination pitch ⁇ based on a preset rule and rounded.
  • the preset rule refers to a rule for rounding processing, and is a rule that can be set as appropriate and is not particularly limited.
  • the argument of the two-dimensional position vector existing between the argument ⁇ n and the argument ⁇ n + 1 is uniformly rounded to the argument ⁇ n + 1
  • the argument existing between the argument ⁇ n and the argument ⁇ n + 1 is two-dimensional.
  • the argument ⁇ of the position vector is less than ⁇ n + ⁇ / 2 , the argument ⁇ n can be rounded, and if the argument ⁇ is ⁇ n + ⁇ / 2 or more, the argument ⁇ n + 1 can be rounded.
  • the second position vector generation unit 32 converts a three-dimensional position vector represented by the spherical coordinate system (r 3 , ⁇ , ⁇ ) into a two-dimensional position vector represented by the polar coordinate system (r 2, ⁇ ). It is preferable that the table is provided and the three-dimensional position vector is converted into the two-dimensional position vector based on the coordinate conversion table.
  • the one-cycle data output from the optical scanning device 10 includes a first declination ⁇ / 2- ⁇ indicating the vertical scanning direction and a second declination ⁇ indicating the horizontal scanning direction in advance. Therefore, since the polarization angle information ⁇ / 2- ⁇ except radius r 3 of the first position vector, phi are known, numbering argument information ⁇ / 2- ⁇ , the phi serial number from the start point of one period Once you have, the three-dimensional position vector r 3, n (n is a positive integer serial number) can be expressed by.
  • the term of the trigonometric function of [Equation 1] described above can be calculated in advance based on the declination information ⁇ and ⁇ determined by each serial number n, and a coordinate conversion table is created in which the calculation result is used as table data. This can greatly reduce the calculation load.
  • spherical coordinate system (r 3, ⁇ , ⁇ ) be previously determined deviation angle determined pitch ⁇ described above with pitch ⁇ of the second deviation angle phi in, radial two-dimensional position vector from the formula B mentioned above It is possible to perform possible calculations in advance to calculate r 2 and create a coordinate conversion table using the calculation results as table data, which makes it possible to reduce the calculation load.
  • the spherical coordinate system (r 3 , ⁇ , ⁇ ) is converted into an X, Y, Z three-dimensional Cartesian coordinate system, and the X, Y, Z three-dimensional Cartesian coordinate system is further converted into a polar coordinate system (r 2 , It is not limited to the mode of conversion to ⁇ ), and may be directly converted from the spherical coordinate system (r 3 , ⁇ , ⁇ ) to the polar coordinate system (r 2, ⁇ ).
  • the object determination unit 35 is configured to determine whether or not the two-dimensional position vector included in the declination is to be determined based on the total number of the two-dimensional position vectors rounded to the same declination. ..
  • the total number of two-dimensional position vectors rounded to the same deviation angle is large, it can be determined that there are many measurement points detected during the corresponding deviation angle determination pitch ⁇ , that is, the physical size of the object is large, and conversely. If the total number of two-dimensional position vectors rounded to the same deviation angle is small, the physical size of the object is small and it can be determined as noise. For example, by performing filter processing such as grouping based on the scalar amount of the two-dimensional position vector and setting the representative vector, it is possible to reduce the calculation load by reducing the number of data to be determined.
  • a group of two-dimensional position vectors having a relationship in which the deviation of the moving diameter r 2 of the two-dimensional position vectors existing in the adjacent declination ⁇ or the same declination ⁇ is equal to or less than the first predetermined value is the same determination target object. It is preferable that the representative vector obtained from the two-dimensional position vector of the group is used as the determination target of the object determination unit.
  • a group of two-dimensional position vectors in which the deviation of the moving diameter r 2 of the two-dimensional position vector is equal to or less than the first predetermined value can be treated as the same determination target object.
  • the calculation load can be greatly reduced.
  • representative vector for example, two-dimensional position vector two-dimensional position vector radius r 2 is minimized, the two-dimensional position vector radius r 2 is the maximum radius vector r 2 represents the median radius r 2
  • a position vector indicating an average value, a position vector serving as the center of gravity of a group of two-dimensional position vectors, and the like can be adopted.
  • the object to be determined is a two-dimensional position vector in which the deviation of the radius r 2 of the two-dimensional position vectors existing in the adjacent declination ⁇ or the same declination ⁇ is larger than the second predetermined value as an isolated point. It is preferable to remove from.
  • the two-dimensional position vectors in which the deviation of the moving diameter r 2 of the two-dimensional position vector is larger than the second predetermined value can be determined to be different objects from each other and cannot be treated as the same object to be determined.
  • the first predetermined value and the second predetermined value may be the same value.
  • a group of two-dimensional position vectors having a relationship in which the deviation of the vertical distance h corresponding to each of the plurality of two-dimensional position vectors existing in the same deviation angle ⁇ is equal to or less than the third predetermined value is the same determination target. It is more preferable that the representative vector extracted as an object and obtained from the two-dimensional position vector of the group is used as the determination target of the object determination unit.
  • the vertical distance h is obtained for each two-dimensional position vector P 2 (r 2 , ⁇ ) obtained by projecting the three-dimensional position vector P 3 (r 3 , ⁇ , ⁇ ) onto the two-dimensional coordinate system serving as the reference plane, and is a reference. It is the distance projected from the start point to the end point of the three-dimensional position vector P 3 (r 3, ⁇ , ⁇ ) on the vertical axis orthogonal to the plane. For example, by setting a third predetermined value based on the vertical distance h associated with the two-dimensional position vector, the vertical distance h corresponding to each of a plurality of two-dimensional position vectors existing in the same deviation angle ⁇ . A group of two-dimensional position vectors having a deviation of 3 By doing so, the calculation load can be greatly reduced.
  • two-dimensional position vector two-dimensional position vector radius r 2 is minimized, the two-dimensional position vector radius r 2 is the maximum radius vector r 2 represents the median radius r 2
  • a position vector indicating an average value, a position vector serving as the center of gravity of a group of two-dimensional position vectors, and the like can be adopted.
  • the two-dimensional position vector in which the deviation of the vertical distance h corresponding to each of the plurality of two-dimensional position vectors existing in the same declination ⁇ is larger than the fourth predetermined value is removed from the object to be determined as an isolated point. It is preferable to do so.
  • a fourth predetermined value based on the vertical distance h associated with the two-dimensional position vector P 2 (r 2 , ⁇ )
  • a plurality of two-dimensional position vectors existing at the same deviation angle ⁇ Two-dimensional position vectors in which the deviation of the projection distance corresponding to each of them is larger than the fourth predetermined value can be determined as different objects, and the objects determined to be unable to be treated as the same determination target object are defined as objects.
  • the third predetermined value and the fourth predetermined value may be the same value.
  • the second position vector generation unit 32 divides the two-dimensional position vector into a plurality of groups based on the vertical distance h, and the object detection area generation unit 34 vertically divides the three-dimensional object detection area defined in the three-dimensional coordinate system. Based on the distance h, a two-dimensional object detection region projected onto the two-dimensional coordinate system is generated for each group, and the object determination unit 35 corresponds to the end point of each two-dimensional position vector for each group. When it is located inside the three-dimensional object detection area, it is preferable to determine that the object exists in the three-dimensional detection area.
  • the vertical distance h The two-dimensional position vector is divided into a plurality of groups based on the above, and the two-dimensional object detection area defined in the three-dimensional coordinate system is projected onto the reference plane based on the vertical distance h.
  • the two-dimensional position vectors may be grouped into the same group to determine the object in the range.
  • the three-dimensional object detection area is defined in advance, and the two-dimensional object detection area is defined on the reference plane for each group in which the two-dimensional position vector is divided based on the vertical distance h. It may be configured.
  • the second position vector generation unit 32 may divide the two-dimensional position vector into a plurality of groups based on the first declination (elevation angle) ( ⁇ / 2- ⁇ ), and the second position vector generation unit 32 may divide each group into two dimensions on the reference plane. It may be configured to define the object detection area of.
  • the two-dimensional position vector may be divided into a plurality of groups based on the second argument ⁇ , or the two-dimensional object detection region may be defined on the reference plane for each group. It becomes possible to efficiently detect an object existing in a specific direction in a three-dimensional space.
  • the second position vector generation unit 32 has any two or three of the three elements of the vertical distance h, the first argument ( ⁇ / 2- ⁇ ), and the second argument ⁇ .
  • the two-dimensional position vector may be divided into a plurality of groups by combining all of them, and the two-dimensional object detection region may be defined on the reference plane for each group.
  • the first two-dimensional coordinate system based on the shape of the three-dimensional object detection region. Select a coordinate system in which the three-dimensional object detection area projected on the first two-dimensional coordinate system does not change along the height direction along the second two-dimensional coordinate system, or a coordinate system with little change. Is preferable.
  • the second position vector generation unit selectively generates a two-dimensional position vector having a vertical distance h equal to or greater than the first threshold value and greater than or equal to the first threshold value and equal to or less than the second threshold value.
  • the second position vector generation unit 32 selectively generates a two-dimensional position vector having a vertical distance h equal to or greater than the first threshold value and greater than or equal to the first threshold value and less than or equal to the second threshold value from each of the three-dimensional position vectors. Therefore, it is possible to exclude an object that clearly exists outside the object detection area defined in three dimensions from the object to be determined, and it becomes possible to reduce the calculation load.
  • the two-dimensional distance h is equal to or higher than the first threshold value and equal to or lower than the second threshold value assuming the ceiling surface.
  • FIGS. 8A to 8D Based on FIGS. 8A to 8D, an example of a procedure for detecting an object by the object detection system according to the present invention will be described.
  • the optical scanning device 10 with respect to the origin O of the three-dimensional coordinate system, the floor surface F, the wall surface W perpendicular to the floor surface F, and the intersection of the floor surface F and the wall surface W are installed.
  • the positional relationship between the rectangular parallelepiped shape and the detection target OJT is shown.
  • the optical scanning device 10 is installed at the origin O.
  • reference numeral R 2 and R 2 ' represents the object detection region defined in association with a predetermined vertical distance h.
  • FIG. 8B shows a group of reflection points of the measurement light scanned by the optical scanning device 10, that is, distances indicating end points of a plurality of three-dimensional position vectors generated by the first position vector generation unit 31. The image is shown.
  • FIG. 8 (c) generated by the second position vector generation unit 32 two-dimensional position vector P 2 (r 2, eta), the projected in XY two-dimensional coordinate system with the reference plane A group of dots indicating the end point position of the two-dimensional position vector P 2 (r 2 , ⁇ ) of the above, and an object detection region R 2 defined on the reference plane are shown.
  • FIG. 8D shows a group of dots showing the end points of a plurality of two-dimensional position vectors P 2 (r 2 , ⁇ ) projected on the XY two-dimensional coordinate system serving as the reference plane, and the reference plane.
  • object detection region defined R 2 ' is shown in.
  • the object detection region R 2 has a two-dimensional position vector P 2 (which is the height in the Z-axis direction in this embodiment) in the range of 0 ⁇ h ⁇ h1.
  • r 2, eta) is a object detecting area for detecting the object detected object detection region R 2 'is to detect the vertical distance h is present in the range of h2 ⁇ h two-dimensional position vector P 2 (r 2, ⁇ ) a region, each object on the reference plane detection region R 2 and R 2 'are defined in the same shape and size.
  • FIG. 8 (a) and FIG. 8 (b) for ease of understanding, are shown respectively moved upward away from the reference plane of the object detection region R 2 and R 2 ' , To be exact, the area defined on the reference plane.
  • Each object detection regions R 2 and R 2 'area of the triangle whose vertices origin produced by the object detection area generator 34, region 3 in order in a direction away from the origin, region 2, the sub-region of the region 1 is defined Has been done.
  • the object detection device is mounted on a moving body such as an automatic guided vehicle, it is meaningful to define a sub-region when different measures are required depending on the relative distance between the detected object and the moving body. For example, when an object is detected in the region 1 which is a position far from the moving body, the speed is gradually decelerated, and when an object is detected in the region 2 which is an intermediate position, the speed is rapidly decelerated. It is possible to take measures such as stopping immediately when an object is detected in 3.
  • the front surface A of the detection object OJT is relatively close to the optical scanning device 10 installed at the origin O of the three-dimensional coordinate system. As shown, the density of the reflection point cloud on the front surface A is higher than the density of the reflection point cloud on the wall surface W located far from the detection object OJT.
  • the two-dimensional vertical distance h is in the range of 0 ⁇ h ⁇ h1 position vector P 2 (r 2, ⁇ ) , a plurality of two-dimensional position vector projected onto the object detection region R 2
  • the end point of P 2 (r 2 , ⁇ ) is shown as a point cloud.
  • the object determination unit 35 detects the front surface A of the object to be detected OJT as a two-dimensional position vector P 2 (r 2 , ⁇ ) projected onto the region 2 partitioned within the object detection region R 2.
  • FIG. 8D a plurality of two- dimensional position vectors P 2 (r 2 , ⁇ ) whose vertical distance h is in the range of h2 ⁇ h are projected onto the object detection region R 2'.
  • the end points of 2 (r 2 , ⁇ ) are shown as a point cloud.
  • the wall surface W is detected by the object determination unit 35 as a two-dimensional position vector P 2 (r 2, ⁇ ) projected on the region 1.
  • the object detection region generation unit 34 defines the object detection regions R 21 , R 22 , and R 23 having different shapes and sizes according to the vertical distance h on the reference plane.
  • An example is shown.
  • the object determination region R 21 corresponding to the two-dimensional vector in which the vertical distance h is grouped in the region hB ⁇ h ⁇ hA, and the two-dimensional vector in which the vertical distance h is grouped in the region hC ⁇ h ⁇ hB.
  • the object determination region R 22 is the object determination region R 23 corresponding to the two-dimensional vector grouped in the region where the vertical distance h is h ⁇ hC.
  • the object detection areas R 21 and R 22 are moved upward from R 23 on the reference plane for easy understanding, but they are shown accurately. Is a region defined on the reference plane.
  • the three-dimensional vectors P 31 , P 32 , P 33 , and P 34 generated by the first position vector generation unit 31 have vertical distances h of h 31 , h 32 , and h, respectively, by the second position vector generation unit 32. It is converted into a two-dimensional vector of 33 and h 34.
  • the three-dimensional vectors P 32 and P 33 are grouped into two-dimensional vectors of the same group, and P 31 and P 34 are grouped into different groups.
  • the object determination unit 35 determines whether or not an object exists depending on whether or not the end point of the two-dimensional vector of each group is located in the object detection areas R 21 , R 22 , and R 23 of the corresponding group.
  • the object corresponding to the three-dimensional vector P 31 exists in the object detection region R 21
  • the object corresponding to the three-dimensional vector P 32 exists in the object detection region R 22
  • the object determination unit 35 is configured to generate each of them, and determines that an object exists when the end point of the two-dimensional position vector is located inside the corresponding object detection region for each group.
  • the object detection device 30 can be configured with an inexpensive arithmetic circuit having a low arithmetic processing capacity.
  • 10 (a) to 10 (d) show an example in which an object detection system including an optical scanning device 10 and any of the above-mentioned object detection devices 30 is mounted on an automatic guided vehicle, and the above-mentioned calibration processing unit functions. It is shown.
  • FIG. 10A shows a case where the measurement light is unilaterally scanned only in the horizontal direction from the optical scanning device 10 mounted on the automatic guided vehicle AGV traveling on a horizontal floor surface.
  • FIG. 10B shows a case where the measurement light is two-dimensionally scanned from the optical scanning device 10 in the horizontal direction and the vertical direction.
  • FIG. 10A when the measurement light is unilaterally scanned only in the horizontal direction, a person included in the XY plane, which is the scanning plane, can be detected, but is located above or below the XY plane. An object (a rectangular parallelepiped object in FIG. 10A) cannot be detected. However, as shown in FIG. 10B, when the measurement light is scanned two-dimensionally, both the person in front of the automatic guided vehicle and the rectangular parallelepiped object can be detected.
  • the optical scanning device 10 is equipped with an acceleration sensor in the X, Y, Z3 axis directions and a gyro sensor capable of detecting the rotation angle acceleration in the X, Y, Z directions as the attitude detection unit 36, and is used for traveling the unmanned transport vehicle AGV. Even if the posture of the optical scanning device 10 fluctuates accordingly, a calibration process for matching the posture of the optical scanning device 10 with the three-dimensional coordinate system used for object determination based on the posture detection signals obtained from the acceleration sensor and the gyro sensor. A part is provided.
  • the object detection device 30 described in the present embodiment appropriately sets a plurality of two-dimensional object detection regions R according to the distance in the Z-axis direction, that is, the vertical distance h, according to the characteristics of the object to be detected. It is configured in. For example, an appropriate vertical distance for detecting a small foreign object such as a floor-mounted object, an appropriate vertical distance for detecting a person invading a traveling path, and the like. Further, the three-dimensional position vector corresponding to the floor surface and the ceiling surface can be excluded based on the vertical distance h corresponding to the floor surface and the ceiling surface.
  • FIG. 10C shows an example in which the optical scanning device 10 is attached to the automatic guided vehicle AGV with an angle ⁇ tilted from the horizontal direction to the vertical direction as an initial setting.
  • the object can be detected from a position closer to the automatic guided vehicle AGV than in the above case with respect to the floor surface.
  • the three-dimensional position vector generated by the first position vector generation unit 31 has an inclination angle ⁇ with respect to the automatic guided vehicle AGV and the XY plane and the horizontal floor surface. Therefore, in order to set the object detection region on the reference plane with the XY plane which is the horizontal plane as the reference plane, the object detection device uses the posture detection signal corresponding to the tilt angle ⁇ which is the posture information obtained from the acceleration sensor and the gyro sensor. Based on this, the calibration process is performed so as to generate a two-dimensional position vector projected onto a horizontal XY plane by the calibration processing unit. Even when a posture change such as rolling or pitching occurs with respect to the running surface, the calibration process is performed so as to generate a two-dimensional position vector projected on a horizontal XY plane by the calibration processing unit.
  • FIG. 10D shows a case where the automatic guided vehicle AGV described in FIG. 10C travels on a floor surface inclined downward by an angle ⁇ with respect to a horizontal plane.
  • the attitude detection unit 36 detects the inclination angle which is the sum of the angle ⁇ of the inclined surface and the attachment angle ⁇ to the automatic guided vehicle AGV.
  • the XY plane itself is tilted at the tilt angle ⁇ .
  • the calibration processing unit is configured to calibrate based on both the attitude information and the relative attitude between the predetermined measurement target surface and the optical scanning device obtained based on the three-dimensional position vector.
  • the presence or absence of an object on the predetermined measurement target surface is determined. It may be difficult to determine. For example, when an automated guided vehicle equipped with an optical scanning device switches from running on a flat road surface to running on a sloping road surface as the measurement target surface, if calibration processing is performed based only on the attitude information, the object detection area is reached. It becomes difficult to accurately judge the object due to the deviation. In preparation for such a case, accurate object determination becomes possible by performing calibration processing in consideration of the relative posture between the predetermined measurement target surface obtained based on the three-dimensional position vector and the optical scanning device.
  • the change in the detection position of the traveling road surface obtained based on the three-dimensional position vector coincides with the change in the attitude information of the optical scanning device obtained from the attitude detection unit.
  • the traveling road surface is inclined upward or downward at a substantially constant angle, the detection position of the traveling road surface obtained based on the three-dimensional position vector does not change, but the attitude information of the optical scanning device obtained from the attitude detection unit. Changes.
  • the reference plane is defined along the traveling road surface, accurate object determination becomes possible by avoiding the calibration process only due to the inclination of the traveling road surface.
  • the reference plane is a plane parallel to the traveling road surface starting from the optical scanning device 10, but the installation height from the traveling road surface to the optical scanning device 10 is used as an offset. It is also possible to calculate the vertical distance and use the traveling road surface as a reference plane.
  • the object detection device can be realized by appropriately combining various modes described above based on the shape of the object detection region, the characteristics of the object detection space, the size of the object to be detected, and the like.
  • the object detection system includes an optical scanning device 10 that two-dimensionally scans the measurement light emitted from the light emitting element 4 and guides the reflected light from the object irradiated with the measurement light to the light receiving element 5. It is preferable to include an object detection device 30 in any or a combination of various aspects.
  • Data exchange between the three-dimensional distance measuring device 1 and the object detection device 30 can be realized by using a known communication standard such as Ethernet.
  • the object detection program is a measurement obtained from an optical scanning device that two-dimensionally scans the measurement light emitted from the light emitting element to the computer and guides the reflected light from the object irradiated with the measurement light to the light receiving element.
  • a first position vector that generates a three-dimensional position vector indicating the distance and direction from a predetermined start point to the irradiation position of an object in a three-dimensional coordinate system based on the physical relationship between light and reflected light and the scanning direction of the measured light.
  • a generation unit and a two-dimensional position vector projected on a predetermined two-dimensional coordinate system serving as a reference plane are generated, and from the start point to the end point of the three-dimensional position vector projected on a vertical axis orthogonal to the reference plane.
  • a second position vector generation unit that calculates the vertical distance of the object, an object detection area generation unit that generates an object detection area on the reference plane, and an object when the end point of the two-dimensional position vector is located inside the object detection area. It is configured to function as an object determination unit that determines that it exists.
  • the part that realizes each function includes a program that realizes various aspects of the object detection device 30 described above.
  • the object detection method scans the measurement light emitted from the light emitting element in two dimensions and guides the reflected light from the object irradiated with the measurement light to the light receiving element.
  • a first position vector generation step that generates a three-dimensional position vector indicating the distance and direction from a predetermined start point to an irradiation position of an object in a three-dimensional coordinate system based on the physical relationship with light and the scanning direction of the measured light. , Generates a two-dimensional position vector by projecting the three-dimensional position vector onto a predetermined two-dimensional coordinate system as the reference plane, and the vertical distance from the start point to the end point of the three-dimensional position vector projected on the vertical axis orthogonal to the reference plane.
  • Three-dimensional distance measuring device 2 Casing 3: Optical window 4: Light emitting element 5: Light receiving element 10: Optical scanning device 12: Deflection mirror 20: First deflection mechanism 25: Second deflection mechanism 30: Non-contact power feeding unit 31 : First position vector generation unit 32: Second position vector generation unit 33: Object detection area setting unit 34: Object detection area generation unit 35: Object determination unit 36: Attitude detection unit 37: Calibration processing unit

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Mechanical Optical Scanning Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

高価なCPUを用いることなく、リアルタイム性を実現でき、物体検知領域の設定が容易な三次元の物体検出装置を提供する。 光走査装置10から得られる測定光と反射光との物理関係及び測定光の走査方向に基づいて、三次元座標系における所定の始点から物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成部31と、三次元位置ベクトルを基準平面となる二次元座標系に投影した二次元位置ベクトルを生成するとともに基準平面と直交する鉛直軸に投影した三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成部32と、基準平面に物体検知領域を生成する物体検知領域生成部34と、二次元位置ベクトルの終点が物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定部35と、を備えている。

Description

物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法
 本発明は、三次元空間に存在する物体を検出する物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法に関する。
 特許文献1には、無人搬送車に取り付けられ、その周囲を放射状に分割した所定の角度範囲毎に、検出物体までの距離を測定する非接触式の距離測定器と、前記距離測定器の測定範囲に、指定した複数の境界点を結ぶ線により区画される検出エリアを複数パターン登録する検出エリア登録手段と、無人搬送車の走行区間毎に、検出エリア登録手段に登録された複数の検出エリアのパターンの中から使用するパターンを選択して設定する使用パターン設定手段と、無人搬送車の走行中に、距離測定器で所定の角度範囲毎に測定された検出物体までの距離が、現在の走行区間に設定された検出エリアの範囲内にあるとき、障害物検出の出力を発生する判定手段と、を備えた障害物検出センサが示されている。
 特許文献2には、第1軸心周りに揺動可能な可動部と前記可動部を揺動駆動する駆動部を備えた第1偏向機構と、前記第1偏向機構を前記第1軸心とは異なる第2軸心周りに回転駆動する第2偏向機構と、前記駆動部と電気的に接続され、前記第2偏向機構の回転に伴って前記第2軸心周りに回転するように配置された第2コイルと、前記第2コイルと共通の軸心上で対向配置された第1コイルとを備え、電磁誘導方式により前記第1コイルから前記第2コイルに給電する非接触給電部と、を備えている偏向装置が開示されている。
特開2002-215238号公報 特開2014-109686号公報
 特許文献1に開示された障害物検出センサは、二次元空間に放射状に走査した測定光と物体からの反射光に基づいて物体までの距離を二次元空間において測定する距離測定器と、当該距離測定器で測定された距離が当該二次元空間に画定された検出エリア内の距離であるときに当該距離に対応する物体が障害物であると判定する判定手段を備えて構成されている。
 当該障害物検出センサを無人搬送車に搭載することにより、例えば無人搬送車の進行方向前方に位置する障害物を検知して無人搬送車が自動減速または自動停止するために用いられる。
 しかし、当該障害物検出センサは測定光が二次元空間に走査されるものであったため、走査される二次元空間より低い位置や高い位置に物体が存在してもその物体を検出することができないという不都合があった。
 そこで、特許文献2に開示されたような偏向装置を用いて測定光を二次元的に走査することで三次元空間に存在する物体の位置情報を検出し、検出した物体の位置情報が予め設定された三次元の物体検知領域に存在するか否かを判定する物体判定装置を設けることで三次元空間に対応した物体検出装置を構成することができる。
 しかしながら、二次元的に走査された測定光により検出される物体の位置情報の数は非常に多く、また検出対象ではない雨霧やゴミ・虫、さらには床面や天井などから反射された本来判定対象から除外すべき情報も含まれる。そのため、三次元の位置情報より得られる被測定物の属性に基づいて、判定対象物であるか非判定対象物であるかを判別し、判定対象物と判別した個々の位置情報が三次元の物体検知領域に存在するか否かを個別に判定する場合には、演算負荷が非常に高くなるという課題があった。
 また、三次元の物体検知領域を予め設定する場合は、二次元の物体検知領域を設定する場合に比べて領域を画定する基準点がかなり増えるため、その作業自体が煩雑になるという課題があった。
 例えば、二次元的に測定光を走査する障害物検出センサを無人搬送車に搭載する場合には、無人搬送車が走行する床面だけでなく天井面および側壁面などでの反射があるので、測定光により検出される位置情報の数が非常に多くなる。そのため、走行方向に存在する障害物を検出するには、少なくとも床面、天井面および側壁面を物体検知領域から除くように物体検知領域を設定する作業が非常に煩雑となっていた。
 このような課題に対応するためには、演算処理能力の高いCPUを採用することが必要になるが、費用対効果の観点でそのような演算処理能力の高い高価なCPUを採用することは非常に困難である。一方で安価なCPUを用いると演算時間が非常に長くなり、測定光の走査周期内で演算処理を完結できず、リアルタイム性が損なわれるという問題があった。
 本発明の目的は、上述した問題点に鑑み、高価なCPUを用いることなく、リアルタイム性を実現でき、物体検知領域の設定が容易な三次元の物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法を提供する点にある。
 上述の目的を達成するため、本発明による物体検出装置の第一の特徴構成は、発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる前記測定光と前記反射光との物理関係および前記測定光の走査方向に基づいて、三次元座標系における所定の始点から前記物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成部と、前記三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、前記基準平面と直交する鉛直軸に投影した前記三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成部と、前記基準平面に物体検知領域を生成する物体検知領域生成部と、前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定部と、を備えている点にある。
 物体検出装置は、第1の位置ベクトル生成部と第2の位置ベクトル生成部と物体検知領域生成部と物体判定部を備えている。光走査装置から得られる測定光と反射光との物理関係および測定光の走査方向に基づいて第1の位置ベクトル生成部によって三次元位置ベクトルが生成される。当該三次元位置ベクトルによって三次元座標系における所定の始点から物体の照射位置までの距離および方向が特定される。第2の位置ベクトル生成部によって当該三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルが生成され、当該三次元位置ベクトルを基準平面と直交する鉛直軸に投影してその始点から終点までの距離である鉛直距離が算出される。物体検知領域生成部によって基準平面に物体検知領域が画定され、物体判定部によって二次元位置ベクトルの終点が物体検知領域の内部に位置する場合に物体が存在すると判定される。
 つまり、三次元位置ベクトルを二次元位置ベクトルに変換することによりデータ数を大幅に減少させることができ、二次元位置ベクトルの終点が二次元座標系に画定された物体検知領域に位置するか否かにより物体の有無を判定すればよいため、大幅に演算負荷が低減できるようになり、高価なCPUを用いることなく、リアルタイム性を実現できる物体検出装置を実現できるようになる。
 同第二の特徴構成は、上述した第一の特徴構成に加えて、前記物体検知領域は、前記三次元座標系に画定された三次元物体検知領域を前記基準平面に投影して得られる領域である点にある。
 第1の位置ベクトル生成部によって生成される三次元位置ベクトルは、三次元空間に存在する床面、路面、天井面または側壁面など、本来除外すべき多くの物体が含まれる。そのような場合であっても、本来除外すべき物体が含まれないような三次元物体検知領域を基準平面に投影して得られる領域を物体検知領域とすることができる。
 同第三の特徴構成は、上述した第一または第二の特徴構成に加えて、前記第2の位置ベクトル生成部により生成された二次元位置ベクトルが、前記三次元座標系において前記光走査装置が所定の基準姿勢で設置された場合に得られる二次元位置ベクトルとなるように、姿勢検知部から得られる前記光走査装置の姿勢情報に基づいて校正する校正処理部を備えている点にある。
 三次元座標系としてワールド座標系またはローカル座標系の何れを採用する場合であっても、正確に物体を検知するためには基準平面を含む三次元座標系と光走査装置が二次元的に走査する測定光の座標系との間で座標の整合を図る必要があり、双方の座標系がずれている場合には整合を図るための座標変換処理が必要となる。例えば、平行移動処理や回転処理などの座標変換処理である。
 そのために姿勢検知部から得られる光走査装置の姿勢情報に基づいて、光走査装置が所定の基準姿勢で設置された場合に得られる二次元位置ベクトルとなるように座標変換する校正処理が校正処理部によって実行される。所定の基準姿勢とは三次元座標系と光走査装置のローカルな座標系の関係が一義的に定まった姿勢をいう。
 例えば第1の位置ベクトル生成部に当該校正処理部を備えて、測定光の座標系に基づいて得られる三次元位置ベクトルを校正(座標変換)して当該三次元座標系の三次元位置ベクトルを生成して第2の位置ベクトル生成部に出力してもよいし、例えば第2の位置ベクトル生成部に当該校正処理部を備えて、第1の位置ベクトル生成部から出力される測定光の座標系に基づく三次元位置ベクトルから基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成する際に校正(座標変換)してもよい。
 同第四の特徴構成は、上述した第三の特徴構成に加えて、前記姿勢情報は静的な姿勢情報および/または動的な姿勢情報を含み、前記校正処理部は前記光走査装置の走査周期に同期して校正する点にある。
 静的な姿勢情報とは三次元座標系に対する光走査装置の取付姿勢や光走査装置が取り付けられた機器の姿勢を示す情報をいう。動的な姿勢情報とは光走査装置自体の動きや光走査装置が取り付けられた機器の動きにより時間的に変化する姿勢を示す情報をいい、例えば光走査装置が無人搬送台車に取り付けられた場合に無人搬送台車の走行に伴って発生するピッチングやローリングなどで変化する姿勢情報をいう。校正処理部は光走査装置の走査周期に同期してこれらの姿勢情報に基づいて校正処理を行なうことで、実質的にはリアルタイムな校正処理が可能になる。
 同第五の特徴構成は、上述した第三または第四の特徴構成に加えて、前記校正処理部は、前記姿勢情報と、前記三次元位置ベクトルに基づいて得られる所定の測定対象面と前記光走査装置との相対姿勢と、の双方に基づいて校正する点にある。
 光走査装置を用いて所定の測定対象面上の物体の有無を判定する場合に、上述の姿勢情報のみに基づいて校正処理が実行されると、所定の測定対象面上の物体の有無を判定することが困難となる場合が生じる。例えば、光走査装置を設置した無人搬送車が測定対象面として平坦な路面の走行から傾斜した路面の走行に切り替わったような場合に姿勢情報のみに基づいて校正処理すると、物体検知領域との間でずれが生じて正確な物体判定が困難になる。そのような場合に備えて、三次元位置ベクトルに基づいて得られる所定の測定対象面と前記光走査装置との相対姿勢を加味して校正処理することで、正確な物体判定が可能になる。
 例えば、走行路面に対して無人搬送車に生じるローリングやピッチングと、走行路面自体が傾斜していることの差異を判別することが可能になる。すなわちローリングやピッチングが生じた場合は三次元位置ベクトルに基づいて得られる走行路面の検出位置の変化と、姿勢検知部から得られる光走査装置の姿勢情報の変化とが一致するのに対して、走行路面が傾斜している場合は三次元位置ベクトルに基づいて得られる走行路面の検出位置は変化しないが、姿勢検知部から得られる光走査装置の姿勢情報は変化する。走行路面に沿って基準平面が画定されるような場合に、走行路面が傾斜していることのみによる校正処理を回避することで、正確な物体判定が可能になる。
 同第六の特徴構成は、上述した第一から第五の何れかの特徴構成に加えて、前記三次元位置ベクトルは動径r、第1偏角θ、第2偏角φで定義され、前記第1偏角θおよび前記第2偏角φが前記光走査装置により走査される前記測定光の走査方向に対応する球面座標系(r,θ,φ)で表されるとともに、前記二次元位置ベクトルは動径r、偏角ηで定義される極座標系(r,η)で表され、前記第2の位置ベクトル生成部は前記球面座標系(r,θ,φ)で表される前記三次元位置ベクトルを前記極座標系(r,η)で表される前記二次元位置ベクトルに変換するように構成されている点にある。
 三次元位置ベクトルを、第1偏角θおよび第2偏角φが光走査装置により走査される測定光の走査方向に対応し、動径rが所定の始点から物体の照射位置までの距離となる球面座標系(r,θ,φ)で表わし、三次元位置ベクトルが二次元座標系に投影された二次元位置ベクトルを極座標系(r,η)で表わすことにより演算負荷を軽減できるようになる。なお、所定の始点を光走査装置の設置位置とすることが好ましいが、三次元位置ベクトルの終点位置が定まる限り、始点を光走査装置の設置位置に限定する必要はない。また、球面座標系(r,θ,φ)の偏角φと極座標系(r,η)の偏角ηが同一平面上の偏角であることが好ましいが、異なる平面上の偏角であってもよい。
 同第七の特徴構成は、上述した第六の特徴構成に加えて、前記物体判定部は前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置するか否かを所定の偏角判定ピッチΔηで判定するように構成され、前記第2の位置ベクトル生成部は各二次元位置ベクトルの偏角を予め設定された規則に基づいて前記偏角判定ピッチΔηに対応付けて丸め込み処理するように構成されている点にある。
 第2の位置ベクトル生成部により各三次元位置ベクトルから生成される各二次元位置ベクトルの偏角ηの分解能が高い場合には、物体判定部は極座標系(r,η)で表わされる二次元位置ベクトルの終点が物体検知領域の内部に位置するか否かの判定をその分解能に応じて実行する必要がある。しかし、物体判定部を二次元位置ベクトルの偏角ηの分解能より低い分解能となる所定の偏角判定ピッチΔηで判定するように構成する場合には、判定に要する演算負荷を低減できるようになる。そのため、各二次元位置ベクトルの偏角を予め設定された規則に基づいて偏角判定ピッチΔηに対応付けて丸め込み処理することが好ましい。予め設定された規則とは丸め込み処理のための規則をいい、適宜設定することができる規則であり特に限定されるものではない。
 同第八の特徴構成は、上述した第七の特徴構成に加えて、前記物体判定部は同一の偏角に丸め込み処理した前記二次元位置ベクトルの総数に基づいて当該偏角に含まれる前記二次元位置ベクトルを判定対象とするか否かを決定する点にある。
 同一の偏角に丸め込み処理した二次元位置ベクトルの総数が多いと、対応する偏角判定ピッチΔηの間に検出された測定点が多い、つまり物体の物理的サイズが大きいと判定でき、逆に同一の偏角に丸め込み処理した二次元位置ベクトルの総数が少ないと、物体の物理的サイズが小さくノイズとして判定することができる。例えば、二次元位置ベクトルのスカラー量に基づいてグループ化して代表ベクトルを設定するなどのフィルタ処理を行なうことで、判定対象となるデータ数の削減による演算負荷の低減を図ることができる。
 同第九の特徴構成は、上述した第六から第八の何れかの特徴構成に加えて、前記第2の位置ベクトル生成部は前記球面座標系(r,θ,φ)で表される前記三次元位置ベクトルを前記極座標系(r,η)で表される前記二次元位置ベクトルに変換する座標変換テーブルを備え、前記座標変換テーブルに基づいて前記三次元位置ベクトルを前記二次元位置ベクトルに変換する点にある。
 球面座標系(r,θ,φ)で表される三次元位置ベクトルを極座標系(r,η)で表される二次元位置ベクトルに変換するために、個々に座標変換演算を行なう必要はなく、予め座標変換演算を行なった結果を備えた座標変換テーブル上のデータを参照することにより座標変換することができるようになり、演算負荷を大きく軽減できるようになる。
 同第十の特徴構成は、上述した第六から第九の何れかの特徴構成に加えて、隣接する偏角ηまたは同一偏角ηに存在する前記二次元位置ベクトルの動径rの偏差が第1の所定値以下となる関係を有する一群の二次元位置ベクトルを同一の判定対象物体として抽出し、当該一群の二次元位置ベクトルから求めた代表ベクトルを前記物体判定部の判定対象とする点にある。
 例えば、二次元位置ベクトルの向きに沿う検出対象物体の厚みに基づいて第1の所定値を設定することにより、隣接する偏角ηまたは同一偏角ηに存在する二次元位置ベクトルの動径rの偏差が第1の所定値以下となる一群の二次元位置ベクトルを同一の判定対象物体として取り扱うことができ、当該一群の二次元位置ベクトルから求めた代表ベクトルを前記物体判定部の判定対象とすることで演算負荷を大きく低減できるようになる。代表ベクトルとして、例えば、動径rが最小となる二次元位置ベクトル、動径rが最大となる二次元位置ベクトル、動径rが中央値を示す二次元位置ベクトル、動径rが平均値を示す位置ベクトル、一群の二次元位置ベクトルの重心となる位置ベクトルなどを採用することができる。
 同第十一の特徴構成は、上述した第十の特徴構成に加えて、隣接する偏角ηまたは同一偏角ηに其々存在する前記二次元位置ベクトルの動径rの偏差が第2の所定値より大となる二次元位置ベクトルを孤立点として判定対象物体から除去する点にある。
 例えば、二次元位置ベクトルの向きに沿う検出対象物体の厚みに基づいて第2の所定値を設定することにより、隣接する偏角ηまたは同一偏角ηに存在する二次元位置ベクトルの動径rの偏差が第2の所定値より大となる二次元位置ベクトルを互いに異なる物体と判定することができ、同一の判定対象物体として取り扱うことができないと判定された物体を孤立点として判定対象物体から除去することによりさらに演算負荷を軽減できるようになる。なお、第1の所定値と第2の所定値が同じ値であってもよい。
 同第十二の特徴構成は、上述した第六から第十一の何れかの特徴構成に加えて、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する前記鉛直距離の偏差が第3の所定値以下となる関係を有する一群の二次元位置ベクトルを同一の判定対象物体として抽出し、当該一群の二次元位置ベクトルから求めた代表ベクトルを前記物体判定部の判定対象とする点にある。
 鉛直距離とは第2の位置ベクトル生成部によって生成された二次元位置ベクトル毎に求められ、基準平面と直交する鉛直軸に三次元位置ベクトルを投影した際のその始点から終点までの距離である。例えば、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する鉛直距離の偏差が第3の所定値以下となる一群の二次元位置ベクトルを同一の判定対象物体として取り扱うことができ、当該一群の二次元位置ベクトルから求めた代表ベクトルを前記物体判定部の判定対象とすることで演算負荷を大きく低減できるようになる。代表ベクトルとして、例えば、動径rが最小となる二次元位置ベクトル、動径rが最大となる二次元位置ベクトル、動径rが中央値を示す二次元位置ベクトル、動径rが平均値を示す位置ベクトル、一群の二次元位置ベクトルの重心となる位置ベクトルなどを採用することができる。
 同第十三の特徴構成は、上述した第十二の特徴構成に加えて、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する前記鉛直距離の偏差が第4の所定値より大となる二次元位置ベクトルを孤立点として判定対象物体から除去する点にある。
 例えば、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する鉛直距離の偏差が第4の所定値より大となる二次元位置ベクトルを互いに異なる物体と判定することができ、同一の判定対象物体として取り扱うことができないと判定された物体を孤立点として判定対象物体から除去することによりさらに演算負荷を軽減できるようになる。なお、第3の所定値と第4の所定値が同じ値であってもよい。
 同第十四の特徴構成は、上述した第一から第十三の何れかの特徴構成に加えて、前記第2の位置ベクトル生成部は前記鉛直距離に基づいて前記二次元位置ベクトルを複数のグループに分割するように構成され、物体検知領域生成部は各グループに対応して前記物体検知領域を其々生成するように構成され、前記物体判定部は前記グループ毎に前記二次元位置ベクトルの終点が対応する物体検知領域の内部に位置する場合に物体が存在すると判定する点にある。
 三次元の物体検知領域を画定する必要がある場合など、鉛直距離に応じて異なる物体検知領域を画定する必要があるような場合に、鉛直距離に基づいて二次元位置ベクトルを複数のグループに分割し、グループ毎に異なる物体検知領域を画定することで、様々な三次元の物体検知領域に柔軟に対応した物体判定が可能になる。
 同第十五の特徴構成は、上述した第一から第十四の何れかの特徴構成に加えて、前記第2の位置ベクトル生成部は前記鉛直距離が第1の閾値以上でかつ前記第1の閾値より大きい第2の閾値以下の値となる二次元位置ベクトルを選択的に生成する点にある。
 第2の位置ベクトル生成部によって、個々の三次元位置ベクトルから鉛直距離が第1の閾値以上でかつ第1の閾値より大きい第2の閾値以下の二次元位置ベクトルが選択的に生成されるので、明らかに三次元で画定される物体検知領域の外部に存在するような物体を判定対象物体から排除することができ、演算負荷を軽減できるようになる。
 本発明による物体検出システムの第一の特徴構成は、発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置と、上述した第一から第十五の何れかの特徴構成を備えた物体検出装置と、を備えている点にある。
 本発明による物体検出プログラムの第一の特徴構成は、コンピュータに、発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる前記測定光と前記反射光との物理関係および前記測定光の走査方向に基づいて、三次元座標系における所定の始点から前記物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成部と、前記三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、前記基準平面と直交する鉛直軸に投影した前記三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成部と、前記基準平面に物体検知領域を生成する物体検知領域生成部と、前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定部と、して機能させる点にある。
 本発明による物体検出方法の第一の特徴構成は、発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる前記測定光と前記反射光との物理関係および前記測定光の走査方向に基づいて、三次元座標系における所定の始点から前記物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成ステップと、前記三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、前記基準平面と直交する鉛直軸に投影した前記三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成ステップと、前記基準平面に物体検知領域を生成する物体検知領域生成ステップと、前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定ステップと、を備えている点にある。
 以上説明した通り、本発明によれば、高価なCPUを用いることなく、リアルタイム性を実現でき、物体検知領域の設定が容易な三次元の物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法を提供することができるようになった。
図1(a)は本発明による物体検出装置に用いられる光走査装置が組み込まれた三次元測距装置の外観を示す説明図、図1(b)は測定光の走査軌跡の説明図である。 図2は三次元測距装置の内部構造を示す説明図である。 図3は三次元測距装置と測定光の走査軌跡と三次元の物体検知領域との関係を示す説明図である。 図4は物体検出装置の機能ブロック構成図である。 図5(a)は球面座標系の説明図、図5(b)は極座標系の説明図である。 図6は物体検出装置により実行される物体検出手順を示すフローチャートである。 図7は三次元位置ベクトルを二次元位置ベクトルに変換する際に、三次元位置ベクトルの第2偏角φを物体判定部の判定ピッチΔηに従って二次元位置ベクトルの偏角ηを丸め込み処理する説明図である。 図8(a)は光走査装置と床面と壁面との際に置かれた直方体状の検出対象物との位置関係の説明図、図8(b)は反射光の軌跡の点群を示した斜視図、図8(c)および図8(d)は二次元位置ベクトルP(r,η)と二次元物体検知領域RおよびR’の説明図である。 図9(a)は基準平面に画定される複数の物体検出領域の説明図、図9(b)は鉛直距離に基づいて異なる形状に画定される物体検出領域の説明図である。 図10(a)から図10(d)は無人搬送車に搭載された光走査装置に対する校正処理の説明図である。
 以下、本発明による物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法を説明する。
[三次元測距装置の構成]
 図1(a)には、光走査装置10が組み込まれた三次元測距装置1の外観が示されている。当該三次元測距装置1は、TOF方式が採用され、略球面状の半透明の光学窓3を備えたケーシング2と、ケーシング2に収容された光走査装置10を備えている。光走査装置10に備えた偏向ミラー12からパルス状の測定光が測定対象となる外部空間に二次元的に走査される。
 図2には、三次元測距装置1の内部構造が示されている。三次元測距装置1は発光素子4と、受光素子5と、光走査装置10を備えている。発光素子4として、発光波長領域が近赤外域のレーザダイオードが用いられ、受光素子5としてアバランシェフォトダイオードが用いられる。
 光走査装置10は、発光素子4から出射された測定光を二次元的に走査して測定光が照射された物体100(図1(a)参照)からの反射光を受光素子5に導くように構成されている。
 光走査装置10は、偏向ミラー12と、偏向ミラー12を横軸心P1周りに揺動駆動する第1偏向機構20と、偏向ミラー12を縦軸心P2周りに回転駆動する第2偏向機構25と、第1偏向機構20および第2偏向機構25に電力を給電する非接触給電部27を備えている。
 第1偏向機構20は偏向ミラー12の背面側に配置されたコイル基板と、偏向ミラー12の両端側に設置された一対の永久磁石23を備えて構成され、コイル基板のコイルに流れる交流電流と永久磁石23により形成される磁界とによってコイルに作用するローレンツ力により、左右一対の梁部24,24で支持した偏向ミラー12を繰り返し揺動するように構成されている。第1偏向機構20によって測定光は垂直方向に揺動走査される。
 第2偏向機構25は基台8の上部に設置されたモータMと、モータMの回転軸に回転可能に連結された回転体26を備えて構成され、回転体26の上部に第1偏向機構20が取り付けられている。第2偏向機構25によって測定光は水平方向に回転走査される。
 モータMとしてコイルが巻回されたステータの内側に永久磁石が配されたロータを備えたインナーロータ型のDCブラシレスモータやステッピングモータが用いられている。
 図2には明示されていないが、非接触給電部27は、上述したモータMおよび回転体26のそれぞれの外周に配置された珪素鋼製の一対の環状のコイル支持部28と、各コイル支持部28に僅かな隙間を隔てて互いに対向するように巻回された銅線のコイルを備えて構成され、電磁誘導方式によりモータM側に配されたコイルから回転体26側に配されたコイルに電力が非接触で給電されるように構成されている。
 発光素子4から出射されたレーザ光は集光光学系を介して平行光に波形整形された後に案内光路41を介して偏向ミラー12に入射して外部空間に二次元的に走査される。外部空間に存在する物体に測定光が照射されると、その反射光が偏向ミラー12に入射して集光レンズ7に向けて偏向され、さらに偏向ミラー6を介して受光部5に入射する。
 三次元測距装置1には、モータMの回転速度を検出するエンコーダと、エンコーダの出力に基づいてモータMの回転速度を制御するモータ制御部や、偏向ミラー12の背面側に配置されたコイル基板のコイルに印加する交流電流の周波数や電流値を調節して第1偏向機構20による偏向ミラー12の揺動周期を制御する揺動制御部を備えている。さらにエンコーダの出力に同期して発光素子4を点滅制御する発光制御部などを備えている。
 図1(b)には、三次元測距装置1から走査されるパルス状の測定光の軌跡29が例示されている。本実施形態では、三次元測距装置1は基台8が水平姿勢に設置された場合に、第1偏向機構20によって水平方向に対して下側に-5度、上側に+35度の範囲(つまり垂直走査中心に対して±20度の範囲)、精度±2度、走査速度1200Hzで測定光が垂直方向に往復走査される。また、第2偏向機構25によって水平方向に210度の範囲、精度±0.125度、走査速度20Hzで測定光が走査される。その結果、図1(b)に示すような測定光の軌跡29となる。なお、水平方向への走査周期ごとに測定光の出射タイミングをずらせるようなインターレース方式で測定光を駆動すれば分解能を上げることができる。
 三次元測距装置1は、ケーシング2の内部に設置された光走査装置10から球面状の光学窓3を介して波長領域が赤外域のパルス状の測定光を三次元空間に向けて走査し、光走査装置10から得られる測定光と反射光との物理関係および測定光の走査方向に基づいて、光走査装置10から物体100までの距離および方向を求めるための装置である。本実施形態では、TOF方式を採用しているので、測定光と反射光との物理関係として発光素子4からの測定光の出射時期と受光素子5による反射光の検出時期との時間差に基づいて距離を算出することができる。なお、測定光をAM(振幅)変調された連続光として、測定光と反射光との物理関係として位相差を用いて距離を算出する位相差方式を採用することも可能である。
[物体検出装置の説明]
 図3に示すように、本発明による物体検出装置30は、上述した三次元測距装置1からの出力に基づいて、ある測定対象空間に画定された三次元の物体検知領域Rに存在する物体を検知するための装置である。
 上述した三次元測距装置1から一走査周期で数千点から数十万点の測定データが出力される。そのような大容量の測定データを一走査周期、例えば20Hzであれば50msec.で演算処理するためには、非常に高速で高価なCPUが必要になる。しかし、本発明による物体検出装置30は、比較的安価なCPUであっても一走査周期で演算処理を完結でき、リアルタイム性を確保できるように構成されている。以下に詳述する。
 図4に示すように、物体検出装置30は、第1の位置ベクトル生成部31と、第2の位置ベクトル生成部32と、物体検知領域設定部33と、物体検知領域生成部34と、物体判定部35を備えている。
 第1の位置ベクトル生成部31は、発光素子4から出射された測定光を二次元的に走査して測定光が照射された物体からの反射光を受光素子5に導く光走査装置10から得られる測定光と反射光との物理関係および測定光の走査方向に基づいて、三次元座標系における所定の始点から物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する演算処理回路である。
 第2の位置ベクトル生成部32は、三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、基準平面と直交する鉛直軸に三次元位置ベクトルの始点から終点まで投影した鉛直距離を算出する演算処理回路である。
 物体検知領域設定部33は、予め基準平面に単一または複数の物体検知領域を画定して記憶部に記憶するとともに管理する演算処理回路である。物体検知領域は、測定対象空間である三次元座標系に画定した三次元の物体検知領域を基準平面に投影して得られる領域であってもよい。三次元の物体検知領域は測定対象空間に本来的に存在する固定構造物など検出対象とはならない物体の存在領域を除外領域として画定し、当該除外領域以外の領域を三次元の物体検知領域としてもよい。以下、基準平面に画定された二次元の物体検知領域を、単に物体検知領域と表記する。
 予め可搬性メモリなどに格納された物体検知領域を、メモリインタフェースを介して物体検知領域設定部33が読み込み、あるいは外部コンピュータなどと通信ケーブルまたは無線通信インタフェースを介して接続し、外部コンピュータから入力するような構成であてもよい。
 物体検知領域生成部34は、物体検知領域設定部33により設定された三次元の物体検知領域に基づいて基準平面に画定される二次元の物体検知領域を生成し、または、物体検知領域設定部33により設定された複数の物体検知領域から物体判定の対象とすべき物体検知領域を選択して物体検知領域の境界情報を生成する演算処理回路である。
 物体判定部35は、二次元位置ベクトルの終点が物体検知領域の境界情報に基づいて物体検知領域の内部に位置するか否かを判断して、内部に位置する場合に三次元の検知領域に物体が存在すると判定する演算処理回路である。物体検知領域が三次元座標系に画定した三次元の物体検知領域を基準平面に投影して得られる領域である場合には、物体判定部35での判定結果は、三次元の物体検知領域において物体が存在するか否かを判定した場合の結果と実質的に等しいとみなすことができる。
 物体検出装置30は、CPUと記憶部および入出力インタフェースを含む周辺回路を備えて構成され、記憶部に格納された物体検出プログラムをCPUが読み出して実行することにより上述した各機能を備えた演算処理回路が具現化される。
[物体検出装置により実行される物体判定処理の説明]
 図5(a)には、球面座標系(r,θ,φ)の中心と原点OとするX,Y,Z三次元直交座標系とを重ねた座標系が示されている。第1の位置ベクトル生成部31により生成される三次元位置ベクトルは動径r、Z軸からの傾斜角度である第1偏角θ、三次元位置ベクトルのXY平面への投影ベクトルとX軸とのなす角度である第2偏角φで定義される。
 つまり、第1偏角θおよび第2偏角φを用いて光走査装置10により走査される測定光の走査方向に対応する球面座標系(r,θ,φ)が表される。図5(a)に二点鎖線で示された領域は三次元座標系に画定された物体検知領域Rである。
 動径rは原点Oから物体表面の反射点Pまでの距離を示し、第1偏角θを用いてX,Y平面から反射点Pまでの仰角(π/2-θ)を示し、第2偏角φは原点Oから反射点Pまでの線分をX,Y平面上へ正射影した線分とX軸とのなす角度を示す。この図では、X,Y座標系が基準平面となる所定の二次元座標系となる。
 球面座標系(r,θ,φ)のX,Y,Z三次元直交座標系への変換式は以下の数式Aの通りである。
X=r×cos(π/2-θ)×cos(φ)
 =r×sin(θ)×cos(φ)
Y=r×cos(π/2-θ)×sin(φ)
 =r×sin(θ)×sin(φ)
Z=r×sin(π/2-θ)=r×cos(θ)
 図5(b)に示すように、第2の位置ベクトル生成部32により生成される二次元位置ベクトルは動径r、偏角ηで定義される極座標系(r,η)で表される。第2の位置ベクトル生成部32は球面座標系(r,θ,φ)で表される三次元位置ベクトルを極座標系(r,η)で表される二次元位置ベクトルに変換するように構成されている。図5(a)に二点鎖線で示された領域は二次元座標系に変換された物体検知領域Rである。
 つまり、三次元位置ベクトルP(r,θ,φ)を二次元座標系としてのXY平面に投影した二次元位置ベクトルP(r,η)を生成する。動径rは原点Oから物体表面のXY平面への投影点Pまでの距離を示し、偏角ηは原点Oと投影点Pを結ぶ線分に対するX軸からの角度を示す。
 第2の位置ベクトル生成部32は、さらに、基準平面であるXY平面と直交する鉛直軸に三次元位置ベクトルP(r,θ,φ)の始点から終点までを投影した鉛直距離hを算出する。この例では、二次元座標系がXY直交座標系となり、鉛直軸がZ軸となる。
 球面座標系(r,θ,φ)の第2偏角φと極座標系の偏角ηが等しい場合には、球面座標系(r,θ,φ)のX,Y二次元直交座標系への変換式は以下の数式Bの通りである。
X=r×sin(θ)×cos(φ)=r×cos(η)
Y=r×sin(θ)×sin(φ)=r×sin(η)
h=r×cos(θ)
 この数式を逆変換することによりr,ηおよびhを算出することができる。
 物体検知領域設定部33により設定された三次元の物体検知領域Rが、例えば図3に示すような筒状の領域である場合には、物体検知領域生成部34は、物体検知領域Rを基準平面となる二次元座標系に投影した二次元の物体検知領域Rを生成する。
 三次元の物体検知領域Rの高さが鉛直距離hより十分に高い場合には、物体判定部35は、二次元位置ベクトルP(r,η)の終点が基準平面上の物体検知領域Rの内部に位置する場合に三次元の検知領域Rに物体が存在すると判定する。
 つまり、第1の位置ベクトル生成部31によって三次元位置ベクトルP(r,θ,φ)の終点が三次元空間に画定された三次元の物体検知領域Rに位置するか否かが、三次元位置ベクトルP(r,θ,φ)が二次元座標系に投影された二次元位置ベクトルP(r,η)の終点が同じく二次元座標系に投影された二次元の物体検知領域Rに位置するか否かにより判定することができるため、大幅に演算負荷が低減できるようになり、高価なCPUを用いることなく、リアルタイム性を実現できる物体検出装置を実現できるようになる。
 三次元位置ベクトルを、第1偏角θを用いて定義される仰角(π/2-θ)および第2偏角φが光走査装置により走査される測定光の走査方向に対応し、動径rが所定の始点から物体の照射位置までの距離となる球面座標系(r,θ,φ)で表わし、三次元位置ベクトルが二次元座標系に投影された二次元位置ベクトルを極座標系(r,η)で表わすことにより演算負荷を軽減できるようになる。
 なお、物体検知領域設定部33によって設定された物体検知領域が三次元ではなく二次元の物体検知領域Rである場合には、物体検知領域生成部34は当該二次元の物体検知領域Rをそのまま用いて基準平面となるXY二次元座標系に境界情報を生成すればよいので、演算負荷が低減する。
 物体検知領域生成部34は、三次元の物体検知領域Rを基準平面となるXY二次元座標系に投影して二次元の物体検知領域Rを生成する必要は必ずしもなく、三次元の物体検知領域Rの内側に位置するように二次元の物体検知領域Rを基準平面上に新たに生成してもよい。二次元の物体検知領域Rを設定すれば、実質的に三次元の物体検知領域を設けるような物体の検知が可能になる。
 第1の位置ベクトル生成部31によって生成される三次元位置ベクトルは、三次元空間に存在する床面、路面、天井面または側壁面など、本来除外すべき多くの物体からの反射光に基づくものが含まれる。そのような場合であっても、物体検知領域設定部33は本来除外すべき物体が含まれないような三次元の物体検知領域を画定してもよい。
 以上の説明で用いた「投影」との用語は「正射影」の意義で用いたものであるが、正射影でなく傾斜角を持った射影でもよく、その場合に傾斜角に起因する寸法誤差を補正処理することも可能である。
 また、所定の始点を光走査装置10(三次元測距装置1)の設置位置とすることが好ましいが、三次元位置ベクトルP(r,θ,φ)の終端位置が定まる限り、始点を光走査装置の設置位置に限定する必要はない。
 さらに、球面座標系(r,θ,φ)の偏角φと極座標系(r,η)の偏角ηが同一平面上の偏角であることが好ましいが、異なる平面上の偏角であってもよい。つまり、第2の位置ベクトル生成部32は、三次元位置ベクトルを基準平面となる任意の二次元座標系に投影した二次元位置ベクトルを生成するとともに当該基準平面と直交する鉛直軸に三次元位置ベクトルを投影してその始点から終点までの距離である鉛直距離を算出するように構成されていればよい。換言すると、図5(a),(b)に示したX,Y,Z三次元直交座標系は理解を容易にするために例示した座標系に過ぎず、二次元座標系はXY直交座標系を構成するXY平面でなくてもよく、XY平面に対してある角度だけ傾斜した平面であってもよい。
 上述した例では、三次元位置ベクトルを球面座標系(r,θ,φ)で定義し、二次元位置ベクトルを極座標系(r,η)で定義した例を説明したが、三次元位置ベクトルおよび二次元位置ベクトルの双方をX,Y,Z三次元直交座標系で定義してもよいことはいうまでもない。
 上述の例では、ワールド座標系の原点を単に平行移動しただけのローカル座標系であるX,Y,Z三次元直交座標系の原点Oに光走査装置10(三次元測距装置1)がXY平面に水平に設置された状態を想定して説明したが、光走査装置10(三次元測距装置1)を無人搬送車(AGV)などの移動体に搭載する場合には、光走査装置10(三次元測距装置1)の取付姿勢がXY平面に水平な姿勢で設置されるとは限らず、また、車両の走行によって生じるピッチ角やロール角の影響を受けて姿勢が変動する場合がある。
 そのため単に光走査装置10(三次元測距装置1)から出力される測定光と反射光の物理関係および測定光の走査方向のみに基づいて三次元位置ベクトルを生成すると、取付姿勢やピッチ角やロール角の影響により正確な物体判定処理ができなくなる。
 そこで、第2の位置ベクトル生成部32により生成された二次元位置ベクトルが、三次元座標系において光走査装置10が所定の基準姿勢で設置された場合に得られる二次元位置ベクトルとなるように、姿勢検知部36から得られる光走査装置10の姿勢情報に基づいて校正する校正処理部37を備えている。
 三次元座標系としてワールド座標系またはローカル座標系の何れを採用する場合であっても、正確に物体を検知するためには基準平面を含む三次元座標系と光走査装置が二次元的に走査する測定光の座標系との間で座標の整合を図る必要があり、双方の座標系がずれている場合には整合を図るための座標変換処理が必要となる。例えば、平行移動処理や回転処理などの座標変換処理である。
 そのために姿勢検知部36から得られる光走査装置10の姿勢情報に基づいて、光走査装置10が所定の基準姿勢で設置された場合に得られる二次元位置ベクトルとなるように座標変換する校正処理が校正処理部37によって実行される。所定の基準姿勢とは三次元座標系と光走査装置のローカルな座標系の関係が一義的に定まった姿勢をいう。校正処理部37は第1の位置ベクトル生成部31に備えてもよいし第2の位置ベクトル生成部32に備えてもよい。
 例えば第1の位置ベクトル生成部31に当該校正処理部37を備えて、測定光の座標系に基づいて得られる三次元位置ベクトルを校正(座標変換)して当該三次元座標系の三次元位置ベクトルを生成して第2の位置ベクトル生成部に出力してもよいし、例えば第2の位置ベクトル生成部32に当該校正処理部37を備えて、第1の位置ベクトル生成部31から出力される測定光の座標系に基づく三次元位置ベクトルから基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成する際に校正(座標変換)してもよい。
 姿勢情報は静的な姿勢情報および/または動的な姿勢情報を含み、校正処理部37は光走査装置の走査周期に同期して校正するように構成することが好ましい。
 静的な姿勢情報とは三次元座標系に対する光走査装置10の取付姿勢や光走査装置10が取り付けられた機器の姿勢を示す情報をいう。動的な姿勢情報とは光走査装置10自体の動きや光走査装置10が取り付けられた機器の動きにより時間的に変化する姿勢を示す情報をいい、例えば光走査装置が無人搬送台車に取り付けられた場合に無人搬送台車の走行に伴って発生するピッチングやローリングなどで変化する姿勢情報をいう。
 校正処理部37は光走査装置10の走査周期に同期してこれらの姿勢情報に基づいて校正処理を行なうことで、実質的にはリアルタイムな校正処理が可能になる。光走査装置10の走査周期に同期するとは、光走査装置10の走査周期の度に校正処理を行なう場合や、光走査装置10の走査周期の整数倍の周期の度に校正処理を行なう場合を含む。
 校正処理部37は、姿勢情報と、三次元位置ベクトルに基づいて得られる所定の測定対象面と光走査装置10との相対姿勢と、の双方に基づいて校正するように構成することが好ましい。
 光走査装置10を用いて所定の測定対象面上の物体の有無を判定する場合に、上述の姿勢情報のみに基づいて校正処理が実行されると、所定の測定対象面上の物体の有無を判定することが困難となる場合が生じる。
 例えば、光走査装置を設置した無人搬送車が測定対象面として平坦な路面の走行から傾斜した路面の走行に切り替わったような場合に姿勢情報のみに基づいて校正処理すると、物体検知領域との間でずれが生じて正確な物体判定が困難になる。そのような場合に備えて、三次元位置ベクトルに基づいて得られる所定の測定対象面と前記光走査装置との相対姿勢を加味して校正処理することで、正確な物体判定が可能になる。
 例えば、走行路面に対して無人搬送車に生じるローリングやピッチングと、走行路面自体が傾斜していることの差異を判別することが可能になる。すなわちローリングやピッチングが生じた場合は三次元位置ベクトルに基づいて得られる走行路面の検出位置の変化と、姿勢検知部から得られる光走査装置の姿勢情報の変化とが一致するのに対して、走行路面が傾斜している場合は三次元位置ベクトルに基づいて得られる走行路面の検出位置は変化しないが、姿勢検知部から得られる光走査装置の姿勢情報は変化する。走行路面に沿って基準平面が画定されるような場合に、走行路面が傾斜していることのみによる校正処理を回避することで、正確な物体判定が可能になる。
 姿勢検知部36として加速度センサおよびジャイロセンサを好適に用いることができ、加速度センサおよびジャイロセンサから得られる姿勢検知信号に基づいて三次元座標系における光走査装置10の姿勢を把握することができるので、第1の位置ベクトル生成部31により光走査装置が所定の基準姿勢にあるときの三次元位置ベクトルが生成されるようになる。
 所定の基準姿勢とは三次元座標系と光走査装置のローカルな座標系の関係が一義的に定まった姿勢をいい、三次元座標系に構築される基準平面となる二次元座標系と光走査装置のローカルな座標系の関係が一義的に定まった姿勢でもある。姿勢検知部36は三次元測距装置1に組み込まれていてもよいし、三次元測距装置1が搭載される機器に搭載されていてもよい。
 例えば、任意の回転で得られる新座標系(X,Y,Z)の座標値を旧座標系(x,y,z)の座標値で表す場合には、以下の数式で変換することができる。旧座標系(x,y,z)をx軸の周りに角度αだけ回転させて(x,Y’,Z’)とし、それをさらにY’軸の周りに角度βだけ回転させて(X’,Y’,Z)とし、さらにZ軸の周りに角度γだけ回転させる場合、新座標系(X,Y,Z)と旧座標系(x,y,z)は、以下の数式(数1)で変換できる。
Figure JPOXMLDOC01-appb-M000001
 このような座標の変換式はX,Y,Z三次元直交座標系のみならず、球面座標系や極座標系でも公知であり、そのような変換式を用いることにより容易に変換できる。例えば、第1の位置ベクトル生成部31は、光走査装置10から出力される一走査周期のデータを受信する度に、姿勢検知部36から得られる姿勢検知信号に基づいて各データを座標変換すればよい。
 例えば、光走査装置の姿勢変化が、三次元座標系における三次元位置ベクトルを規定する第1偏角θ及び第2偏角φの方向に一致する場合(つまり、第1偏角θがθ変化し、第2偏角φがφ変化する場合)には、新座標系(R,Θ,Φ)と旧座標系(r,θ,φ)は、以下の数式(数2)で変換できる。
Figure JPOXMLDOC01-appb-M000002
 図6には、物体検出装置30により実行される物体判定処理の手順が示されている。
 第1の位置ベクトル生成部31は光走査装置10から得られた一周期分の測定光と反射光との物理関係(遅延時間)および測定光の走査方向(θ,φ)を示すデータを受信するとその都度メモリに格納する(S2)。
 その後に姿勢検知部36から姿勢検知信号を受信すると、当該姿勢検知信号に基づいて、物体検出装置30が設置されたローカルな三次元座標系におけるデータを、物体判定処理を行なう三次元座標系におけるデータに変換した三次元位置ベクトルP(r,θ,φ)を生成してメモリに格納する(S3)。
 第2の位置ベクトル生成部32はメモリから三次元位置ベクトルP(r,θ,φ)を読み出して、三次元位置ベクトルP(r,θ,φ)を基準面となる二次元座標系に投影した二次元位置ベクトルP(r,η)を生成するとともに(S4)、基準平面と直交する鉛直軸に三次元位置ベクトルP(r,θ,φ)を投影して、その始点から終点までの距離である鉛直距離hを算出して、二次元位置ベクトルP(r,η)および鉛直距離hの対をそれぞれメモリに格納する(S5)。
 物体検知領域生成部34は、予め物体検知領域設定部33により領域設定され、メモリに格納された複数の三次元物体検知領域Rまたは二次元物体検知領域Rから今回の物体判定に用いる三次元または二次元の物体検知領域を読み出して、二次元座標系に二次元の物体検知領域Rを生成してメモリに格納する(S6)。
 物体判定部35は、メモリに格納された二次元位置ベクトルP(r,η)を順番に読み出して、二次元位置ベクトルP(r,η)の終点が二次元物体検知領域Rに含まれるか否かの属否判定を当該周期の全てのデータに対して行ない(S7,S8)、全てのデータに対する判定が終了すると(S8,Y)、二次元物体検知領域Rに一つでも二次元位置ベクトルP(r,η)の終点が存在すると物体有と判定出力し、二次元物体検知領域Rに一つも二次元位置ベクトルP(r,η)の終点が存在しない場合に物体有と判定出力する(S9)。
[物体判定処理の態様]
 三次元位置ベクトルP(r,θ,φ)の第2偏角φと二次元位置ベクトルP(r,η)の偏角ηの双方が、例えばX,Y,Z三次元直交座標系のXY平面上のX軸からの角度である場合、球面座標系(r,θ,φ)における第2偏角φと極座標系(r,η)における偏角ηが対応する。
 第2の位置ベクトル生成部32により各三次元位置ベクトルから生成される各二次元位置ベクトルの偏角ηの分解能が高い場合には、物体判定部35は極座標系(r,η)で表わされる二次元位置ベクトルの終点が物体検知領域の内部に位置するか否かの判定をその分解能に応じて実行する必要があり、演算負荷が大きくなる。
 そこで、物体判定部35は二次元位置ベクトルの終点が物体検知領域の内部に位置するか否かを所定の偏角判定ピッチΔηで判定するように構成され、第2の位置ベクトル生成部32は各二次元位置ベクトルの偏角を予め設定された規則に基づいて偏角判定ピッチΔηに対応付けて丸め込み処理するように構成されている。
 物体判定部35を二次元位置ベクトルの偏角ηの分解能より低い分解能となる所定の偏角判定ピッチΔηで判定するように構成することにより、判定に要する演算負荷を低減できるようになる。予め設定された規則とは丸め込み処理のための規則をいい、適宜設定することができる規則であり特に限定されるものではない。例えば、偏角ηと偏角ηn+1の間に存在する二次元位置ベクトルの偏角を一律に偏角ηn+1に丸め込んだり、偏角ηと偏角ηn+1の間に存在する二次元位置ベクトルの偏角ηがη+Δη/2未満であれば偏角η丸め込み、偏角ηがη+Δη/2以上であれば偏角ηn+1丸め込んだりすることができる。
 例えば、図7に示すように、2・Δφ=Δηという関係がある場合に、三次元位置ベクトルP31,P32が二次元位置ベクトルP21に、三次元位置ベクトルP33,P34がP22に変換されることにより、データ量は1/2になる。極座標系(r,η)における偏角ηのピッチΔηは、データの削減により検出対象物体が排除されることが無いように検出対象物体の大きさに基づいて適宜決定すればよい。
 第2の位置ベクトル生成部32は球面座標系(r,θ,φ)で表される三次元位置ベクトルを極座標系(r,η)で表される二次元位置ベクトルに変換する座標変換テーブルを備え、座標変換テーブルに基づいて三次元位置ベクトルを二次元位置ベクトルに変換するように構成することが好ましい。
 球面座標系(r,θ,φ)で表される三次元位置ベクトルを極座標系(r,η)で表される二次元位置ベクトルに変換するために、個々に座標変換演算を行なう必要はなく、予め座標変換演算を行なった結果を備えた座標変換テーブル上のデータを参照することにより座標変換することができるようになり、演算負荷を大きく軽減できるようになる。
 例えば、光走査装置10から出力される一周期のデータには、予め垂直走査方向を示す第1偏角π/2-θと水平走査方向を示す第2偏角φが含まれる。そのため、第1の位置ベクトルの動径rを除く偏角情報π/2-θ,φは既知であるため、一周期の始点から偏角情報π/2-θ,φをシリアル番号でナンバリングしておけば、三次元位置ベクトルをr、n(nは正整数のシリアル番号)で表わすことができる。
 そこで、上述した[数1]の三角関数の項は各シリアル番号nにより定まる偏角情報θ,φに基づいて予め演算することができその演算結果をテーブルデータとする座標変換テーブルを作成しておくことができ、これにより演算負荷を大きく軽減できる。
 また、球面座標系(r,θ,φ)における第2偏角φのピッチΔφと上述した偏角判定ピッチΔηを予め決定しておけば、上述した数式Bから二次元位置ベクトルの動径rを算出するために可能な演算を予め行い、その演算結果をテーブルデータとする座標変換テーブルを作成しておくことができ、これにより演算負荷を軽減ですることも可能になる。
 座標変換テーブルとしては、球面座標系(r,θ,φ)をX,Y,Z三次元直交座標系に変換し、さらにX,Y,Z三次元直交座標系から極座標系(r,η)に変換するような態様に限るものではなく、球面座標系(r,θ,φ)から極座標系(r,η)に直接変換するものであってもよい。
 物体判定部35は同一の偏角に丸め込み処理した二次元位置ベクトルの総数に基づいて当該偏角に含まれる二次元位置ベクトルを判定対象とするか否かを決定するように構成することが好ましい。
 同一の偏角に丸め込み処理した二次元位置ベクトルの総数が多いと、対応する偏角判定ピッチΔηの間に検出された測定点が多い、つまり物体の物理的サイズが大きいと判定でき、逆に同一の偏角に丸め込み処理した二次元位置ベクトルの総数が少ないと、物体の物理的サイズが小さくノイズとして判定することができる。例えば、二次元位置ベクトルのスカラー量に基づいてグループ化して代表ベクトルを設定するなどのフィルタ処理を行なうことで、判定対象となるデータ数の削減による演算負荷の低減を図ることができる。
 さらに、隣接する偏角ηまたは同一偏角ηに存在する二次元位置ベクトルの動径rの偏差が第1の所定値以下となる関係を有する一群の二次元位置ベクトルを同一の判定対象物体として抽出し、当該一群の二次元位置ベクトルから求めた代表ベクトルを物体判定部の判定対象とすることが好ましい。
 例えば、二次元位置ベクトルP(r,η)の向きに沿う検出対象物体の厚みに基づいて第1の所定値を設定することにより、隣接する偏角ηまたは同一偏角ηに存在する二次元位置ベクトルの動径rの偏差が第1の所定値以下となる一群の二次元位置ベクトルを同一の判定対象物体として取り扱うことができる。
 当該一群の二次元位置ベクトルから求めた代表ベクトルを物体判定部35の判定対象とすることで演算負荷を大きく低減できるようになる。代表ベクトルとして、例えば、動径rが最小となる二次元位置ベクトル、動径rが最大となる二次元位置ベクトル、動径rが中央値を示す二次元位置ベクトル、動径rが平均値を示す位置ベクトル、一群の二次元位置ベクトルの重心となる位置ベクトルなどを採用することができる。
 このとき、隣接する偏角ηまたは同一偏角ηに其々存在する二次元位置ベクトルの動径rの偏差が第2の所定値より大となる二次元位置ベクトルを孤立点として判定対象物体から除去することが好ましい。
 例えば、二次元位置ベクトルP(r,η)の向きに沿う検出対象物体の厚みに基づいて第2の所定値を設定することにより、隣接する偏角ηまたは同一偏角ηに存在する二次元位置ベクトルの動径rの偏差が第2の所定値より大となる二次元位置ベクトルを互いに異なる物体と判定することができ、同一の判定対象物体として取り扱うことができないと判定された物体を孤立点として判定対象物体から除去することにより、さらに演算負荷を軽減できるようになる。なお、第1の所定値と第2の所定値が同じ値であってもよい。
 同様に、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する鉛直距離hの偏差が第3の所定値以下となる関係を有する一群の二次元位置ベクトルを同一の判定対象物体として抽出し、当該一群の二次元位置ベクトルから求めた代表ベクトルを物体判定部の判定対象とすることがさらに好ましい。
 鉛直距離hとは、三次元位置ベクトルP(r,θ,φ)を基準平面となる二次元座標系に投影した二次元位置ベクトルP(r,η)毎に求められ、基準平面と直交する鉛直軸に三次元位置ベクトルP(r,θ,φ)の始点から終点まで投影した距離である。例えば、二次元位置ベクトルに対応付けられた鉛直距離hに基づいて第3の所定値を設定することにより、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する鉛直距離hの偏差が第3の所定値以下となる一群の二次元位置ベクトルを同一の判定対象物体として取り扱うことができ、当該一群の二次元位置ベクトルから求めた代表ベクトルを前記物体判定部の判定対象とすることで演算負荷を大きく低減できるようになる。
 代表ベクトルとして、例えば、動径rが最小となる二次元位置ベクトル、動径rが最大となる二次元位置ベクトル、動径rが中央値を示す二次元位置ベクトル、動径rが平均値を示す位置ベクトル、一群の二次元位置ベクトルの重心となる位置ベクトルなどを採用することができる。
 このとき、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する鉛直距離hの偏差が第4の所定値より大となる二次元位置ベクトルを孤立点として判定対象物体から除去することが好ましい。
 例えば、二次元位置ベクトルP(r,η)に対応付けられた鉛直距離hに基づいて第4の所定値を設定することにより、同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する投影距離の偏差が第4の所定値より大となる二次元位置ベクトルを互いに異なる物体と判定することができ、同一の判定対象物体として取り扱うことができないと判定された物体を孤立点として判定対象物体から除去することによりさらに演算負荷を軽減できるようになる。なお、第3の所定値と第4の所定値が同じ値であってもよい。
 第2の位置ベクトル生成部32は鉛直距離hに基づいて二次元位置ベクトルを複数のグループに分割し、物体検知領域生成部34は三次元座標系に画定された三次元の物体検知領域を鉛直距離hに基づいて、二次元座標系に投影した二次元の物体検知領域を各グループに対応して其々生成し、物体判定部35はグループ毎に各二次元位置ベクトルの終点が対応する二次元の物体検知領域の内部に位置する場合に、三次元の検知領域に物体が存在すると判定することが好ましい。
 三次元の物体検知領域を二次元座標系に投影した形状が、基準平面に対する鉛直軸の方向に沿って異なる形状となるように三次元の物体検知領域が画定されるような場合でも鉛直距離hに基づいて二次元位置ベクトルを複数のグループに分割し、三次元座標系に画定された三次元の物体検知領域を鉛直距離hに基づいて、基準平面に投影した二次元の物体検知領域を各グループに対応して複数生成することで、様々な三次元の物体検知領域に柔軟に対応した物体判定が可能になる。
 同様に、三次元の物体検知領域を二次元座標系に投影した形状が同一形状となる範囲では、当該範囲で二次元位置ベクトルを同一グループにまとめて物体判定してもよい。
 なお、三次元の物体検知領域が予め画定されていることは必須ではなく、鉛直距離hに基づいて二次元位置ベクトルを分割したグループごとに基準平面に二次元の物体検知領域を画定するように構成してもよい。
 第2の位置ベクトル生成部32は、第1偏角(仰角)(π/2-θ)に基づいて二次元位置ベクトルを複数のグループに分割してもよく、グループごとに基準平面に二次元の物体検知領域を画定するように構成してもよい。
 同様に第2偏角φに基づいて二次元位置ベクトルを複数のグループに分割してもよく、グループごとに基準平面に二次元の物体検知領域を画定するように構成してもよい。三次元空間の特定の方向に存在する物体を効率的に検出することができるようになる。
 さらには、第2の位置ベクトル生成部32は、鉛直距離hと、第1偏角(π/2-θ)と、第2偏角φの三つの要素のうちの何れか二つまたは三つ全てを組み合わせて二次元位置ベクトルを複数のグループに分割し、グループごとに基準平面に二次元の物体検知領域を画定するように構成してもよい。
 三次元の物体検知領域の形状に基づいて第1の二次元座標系を決定することが好ましい。第1の二次元座標系に投影される三次元の物体検知領域が第2の二次元座標系に沿う高さ方向に沿って変化することがない座標系、または変化が少ない座標系を選択することが好ましい。
 第2の位置ベクトル生成部は鉛直距離hが第1の閾値以上でかつ第1の閾値より大きい第2の閾値以下の値となる二次元位置ベクトルを選択的に生成することが好ましい。
 第2の位置ベクトル生成部32によって、個々の三次元位置ベクトルから鉛直距離hが第1の閾値以上でかつ第1の閾値より大きい第2の閾値以下の二次元位置ベクトルが選択的に生成されるので、明らかに三次元で画定される物体検知領域の外部に存在するような物体を判定対象物体から排除することができ、演算負荷を軽減できるようになる。
 例えば、建屋の床面に平行な二次元座標系を想定する場合、床面から第1の閾値以上の高さで、且つ、天井を想定した第2の閾値以下の鉛直距離hとなる二次元位置ベクトルを抽出すると、床面や天井面を物体判定対象から除去でき、演算負荷を低減できるばかりでなく、誤判定を防ぐことができる。
 図8(a)から(d)に基づいて、本発明による物体検出システムにより物体を検出する手順の一例を説明する。図8(a)には、三次元座標系の原点Oに対する光走査装置10と、床面Fと、床面Fに垂直な壁面Wと、床面Fと壁面Wとの交差部に設置された直方体形状の検出対象物OJTとの位置関係が示されている。光走査装置10は原点Oに設置されている。後述するが、符号RおよびR’は所定の鉛直距離hに対応付けて画定された物体検知領域を示している。
 また、図8(b)には、光走査装置10により走査された測定光の反射点群、つまり第1の位置ベクトル生成部31により生成された複数の三次元位置ベクトルの終点位置を示す距離画像が示されている。
 さらに、図8(c)には、第2の位置ベクトル生成部32により生成された二次元位置ベクトルP(r,η)で、基準平面となるXY二次元座標系に投影された複数の二次元位置ベクトルP(r,η)の終点位置を示すドット群と、当該基準平面に画定された物体検知領域Rが示されている。
 同様に、図8(d)には、基準平面となるXY二次元座標系に投影された複数の二次元位置ベクトルP(r,η)の終点位置を示すドット群と、当該基準平面に画定された物体検知領域R’が示されている。
 図8(a)に示すように、物体検知領域Rは鉛直距離h(この実施形態ではZ軸方向の高さとなる)が0≦h≦h1の範囲に存在する二次元位置ベクトルP(r,η)を検出する物体検知領域であり、物体検知領域R’は鉛直距離hがh2≦hの範囲に存在する二次元位置ベクトルP(r,η)を検出する物体検知領域であり、基準平面上で各物体検知領域RおよびR’は同じ形状および大きさで画定されている。なお、図8(a)および図8(b)では、理解を容易にするために、物体検知領域RおよびR’を基準平面とは離してそれぞれ上方側に移動させて示しているが、正確には基準平面上に画定される領域である。
 各物体検知領域RおよびR’は物体検知領域生成部34により生成された原点を頂点とする三角形の領域で、原点から遠ざかる方向に順に領域3、領域2、領域1のサブ領域が画定されている。例えば、物体検出装置が無人搬送車などの移動体に搭載される場合に、検出物体と移動体との相対距離に応じて異なる対処が必要な場合にサブ領域を画定する意義がある。例えば、移動体から遠い位置である領域1に物体が検知されると緩やかに減速し、中間の位置である領域2に物体が検知されると速やかに減速し、移動体の直近位置である領域3に物体が検知されると直ちに停止するなどといった対応が可能になる。
 図8(a)に示すように、検出対象物OJTの正面Aは、三次元座標系の原点Oに設置された光走査装置10から比較的に近い距離にあるので、図8(b)に示すように正面Aにおける反射点群の密度は、検出対象物OJTより遠い位置となる壁面Wにおける反射点群の密度より高くなっている。
 図8(c)には、鉛直距離hが0≦h≦h1の範囲となる二次元位置ベクトルP(r,η)で、物体検知領域Rに投影される複数の二次元位置ベクトルP(r,η)の終点が点群として示されている。物体判定部35により検出対象物OJTの正面Aが、物体検知領域R内で区画された領域2に投影される二次元位置ベクトルP(r,η)として検出される。
 図8(d)には、鉛直距離hがh2≦hの範囲となる二次元位置ベクトルP(r,η)で、物体検知領域R’に投影される複数の二次元位置ベクトルP(r,η)の終点が点群として示されている。物体判定部35により壁面Wが領域1に投影される二次元位置ベクトルP(r,η)として検出される。
 このように、鉛直距離hに応じて二次元位置ベクトルをグループ化し、其々に適切な物体検知領域を画定することにより、三次元空間に存在する物体を効率的に検出することが可能になる。
 図9(a),(b)には、物体検知領域生成部34によって基準平面上に鉛直距離hに応じて異なる形状および異なる大きさの物体検知領域R21,R22,R23を画定する例が示されている。鉛直距離hがhB≦h<hAの領域にグループ化される二次元ベクトルに対応する物体判定領域R21、鉛直距離hがhC≦h<hBの領域にグループ化される二次元ベクトルに対応する物体判定領域R22、鉛直距離hがh<hCの領域にグループ化される二次元ベクトルに対応する物体判定領域R23となる。なお、図9(b)では、理解を容易にするために、物体検知領域R21およびR22を基準平面上のR23とは離してそれぞれ上方側に移動させて示しているが、正確には基準平面上に画定される領域である。
 第1の位置ベクトル生成部31により生成された三次元ベクトルP31,P32,P33,P34は、第2の位置ベクトル生成部32により其々鉛直距離hがh31,h32,h33,h34の二次元ベクトルに変換される。三次元ベクトルP32,P33が同一グループの二次元ベクトルにグループ化され、P31,P34は互いに異なるグループにグループ化される。
 物体判定部35によって各グループの二次元ベクトルの終点が対応するグループの物体検知領域R21,R22,R23に位置するか否かにより物体が存在するか否かが判定される。この例では、三次元ベクトルP31に対応する物体が物体検知領域R21に存在し、三次元ベクトルP32に対応する物体が物体検知領域R22に存在し、三次元ベクトルP34に対応する物体が物体検知領域R23に存在すると判定される。つまり、第2の位置ベクトル生成部32は鉛直距離hに基づいて二次元位置ベクトルを複数のグループに分割するように構成され、物体検知領域生成部34は各グループに対応して物体検知領域を其々生成するように構成され、物体判定部35はグループ毎に二次元位置ベクトルの終点が対応する物体検知領域の内部に位置する場合に物体が存在すると判定するように構成される。
 このようにして、三次元空間に画定された複雑な形状の三次元の物体検知領域に物体が存在するか否かを判定する場合でも、二次元の物体検知領域の判定に変換することで、演算負荷を低減することで演算処理能力の低い安価な演算回路で物体検出装置30を構成することができる。
 図10(a)から(d)には、光走査装置10と上述した何れかの物体検出装置30とを備えた物体検出システムが無人搬送車に搭載され、上述した校正処理部が機能する例が示されている。
 図10(a)には、水平な床面を走行する無人搬送車AGVに搭載された光走査装置10から測定光が水平方向のみ一次元的に走査される場合が示されている。図10(b)には、光走査装置10から測定光が水平方向および垂直方向に二次元的に走査される場合が示されている。
 図10(a)に示すように、測定光を一次元的に水平方向のみに走査すると、走査面であるXY平面に含まれる人物は検出可能であるが、XY平面より上方または下方に位置する物体(図10(a)では直方体形状の物体)を検出することができない。しかし、図10(b)に示すように、測定光を二次元的に走査すると、無人搬送車の前方の人物と直方体状の物体とがともに検出可能になる。
 さらに光走査装置10には姿勢検知部36としてX,Y,Z3軸方向の加速度センサおよびX,Y,Z方向の回転角加速度を検出可能なジャイロセンサが取り付けられ、無人搬送車AGVの走行に伴って光走査装置10の姿勢が変動する場合でも、加速度センサおよびジャイロセンサから得られる姿勢検知信号に基づいて光走査装置10の姿勢と物体判定に用いられる三次元座標系とを整合する校正処理部が設けられている。
 本実施形態で説明する物体検出装置30は、Z軸方向の距離つまり鉛直距離hに応じて複数の二次元の物体検知領域Rを、検出対象となる物体の特性に応じて適切に設定するように構成している。例えば床に設置されるような小さな異物を検出するために適切な鉛直距離、走行経路上に侵入する人間を検出するために適切な鉛直距離などである。また、床面および天井面に対応する三次元位置ベクトルは床面および天井面に対応する鉛直距離hを基準にして除外することが可能になる。
 図10(c)には、初期設定として光走査装置10を無人搬送車AGVに対して水平方向から鉛直方向に角度β傾斜させて取り付けた例が示されている。この場合には、床面に対して上述の場合よりも無人搬送車AGVに近接した位置から物体検知が可能になる。
 この例では、第1の位置ベクトル生成部31により生成される三次元位置ベクトルは、無人搬送車AGVとXY平面並びに水平な床面に対して角度βの傾斜角度をもつ。そこで、水平面であるXY平面を基準平面として、基準平面に物体検知領域を設定するために、物体検出装置は加速度センサおよびジャイロセンサから得られる姿勢情報である傾斜角度βに対応する姿勢検知信号に基づいて、校正処理部によって水平なXY平面に投影した二次元位置ベクトルを生成するように校正処理される。走行面に対して生じるローリングやピッチングといった姿勢変化が生じる場合にも校正処理部によって水平なXY平面に投影した二次元位置ベクトルを生成するように校正処理される。
 図10(d)は図10(c)で説明した無人搬送車AGVが水平面に対して角度α下向きに傾斜した床面を走行する場合が示されている。無人搬送車AGVが傾斜床面を走行し始めると、姿勢検知部36は傾斜面の角度αと無人搬送車AGVへの取付角度βとを合わせた傾斜角を検知する。しかし、光走査装置10を基準にすると、XY平面自体が傾斜角度αで傾斜していることになる。
 傾斜床面に位置する直方体形状の物体を検出するには、傾斜したXY平面を基準平面として物体検知領域を設定することが好ましい。そこで、校正処理部は、姿勢情報と、三次元位置ベクトルに基づいて得られる所定の測定対象面と光走査装置との相対姿勢と、の双方に基づいて校正するように構成されている。
 光走査装置10を用いて所定の測定対象面上の物体の有無を判定する場合に、上述の姿勢情報のみに基づいて校正処理が実行されると、所定の測定対象面上の物体の有無を判定することが困難となる場合が生じる。例えば、光走査装置を設置した無人搬送車が測定対象面として平坦な路面の走行から傾斜した路面の走行に切り替わったような場合に姿勢情報のみに基づいて校正処理すると、物体検知領域との間でずれが生じて正確な物体判定が困難になる。そのような場合に備えて、三次元位置ベクトルに基づいて得られる所定の測定対象面と前記光走査装置との相対姿勢を加味して校正処理することで、正確な物体判定が可能になる。
 上述の例では、床面に対して無人搬送車に生じるローリングやピッチングと、床面自体が傾斜していることの差異を判別することが可能になる。すなわちローリングやピッチングが生じた場合は三次元位置ベクトルに基づいて得られる走行路面の検出位置の変化と、姿勢検知部から得られる光走査装置の姿勢情報の変化とが一致するのに対して、走行路面がほぼ一定角度で上方または下方に向けて傾斜している場合は三次元位置ベクトルに基づいて得られる走行路面の検出位置は変化しないが、姿勢検知部から得られる光走査装置の姿勢情報は変化する。走行路面に沿って基準平面が画定されるような場合に、走行路面が傾斜していることのみによる校正処理を回避することで、正確な物体判定が可能になる。
 なお、図10(a)から(d)では、基準平面を、光走査装置10を起点とした走行路面に平行な平面としているが、走行路面から光走査装置10までの設置高さをオフセットとして鉛直距離を算出し、走行路面を基準平面とすることも可能である。
 本発明による物体検知装置は、物体検知領域の形状、物体検知空間の特性、検出対象物体の大きさなどに基づいて、上述した種々の態様を適宜組み合わせて実現することができる。
 本発明による物体検出システムは、発光素子4から出射された測定光を二次元的に走査して測定光が照射された物体からの反射光を受光素子5に導く光走査装置10と、上述した種々の態様の何れかまたは組み合わせた物体検出装置30と、を備えていることが好ましい。
 光走査装置10が組み込まれた三次元測距装置1の筐体内部に物体検出装置30を構成する制御基板が組み込まれた態様、三次元測距装置1と物体検出装置30を構成する制御基板がそれぞれ異なる筐体に組み込まれた態様の何れであってもよい。三次元測距装置1と物体検出装置30との間のデータのやり取りはイーサネットなどの公知の通信規格を用いて実現することができる。
 本発明による物体検出プログラムは、コンピュータに、発光素子から出射された測定光を二次元的に走査して測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる測定光と反射光との物理関係および測定光の走査方向に基づいて、三次元座標系における所定の始点から物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成部と、三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、基準平面と直交する鉛直軸に投影した三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成部と、基準平面に物体検知領域を生成する物体検知領域生成部と、二次元位置ベクトルの終点が物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定部と、して機能させるように構成されている。そして各機能を実現する部位は上述した物体検出装置30の種々の態様を実現させるプログラムが含まれる。
 本発明による物体検出方法は、発光素子から出射された測定光を二次元的に走査して測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる測定光と反射光との物理関係および測定光の走査方向に基づいて、三次元座標系における所定の始点から物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成ステップと、三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、基準平面と直交する鉛直軸に投影した三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成ステップと、基準平面に物体検知領域を生成する物体検知領域生成ステップと、二次元位置ベクトルの終点が物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定ステップと、を備えている。
 以上説明した実施形態は、本発明の一例であり、実施形態の記載により本発明の範囲が限定されるものではない。
1:三次元測距装置
2:ケーシング
3:光学窓
4:発光素子
5:受光素子
10:光走査装置
12:偏向ミラー
20:第1偏向機構
25:第2偏向機構
30:非接触給電部
31:第1の位置ベクトル生成部
32:第2の位置ベクトル生成部
33:物体検知領域設定部
34:物体検知領域生成部
35:物体判定部
36:姿勢検知部
37:校正処理部
 

Claims (18)

  1.  発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる前記測定光と前記反射光との物理関係および前記測定光の走査方向に基づいて、三次元座標系における所定の始点から前記物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成部と、
     前記三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、前記基準平面と直交する鉛直軸に投影した前記三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成部と、
     前記基準平面に物体検知領域を生成する物体検知領域生成部と、
     前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定部と、
    を備えている物体検出装置。
  2.  前記物体検知領域は、前記三次元座標系に画定された三次元物体検知領域を前記基準平面に投影して得られる領域である請求項1記載の物体検出装置。
  3.  前記第2の位置ベクトル生成部により生成された二次元位置ベクトルが、前記三次元座標系において前記光走査装置が所定の基準姿勢で設置された場合に得られる二次元位置ベクトルとなるように、姿勢検知部から得られる前記光走査装置の姿勢情報に基づいて校正する校正処理部を備えている請求項1または2記載の物体検出装置。
  4.  前記姿勢情報は静的な姿勢情報および/または動的な姿勢情報を含み、前記校正処理部は前記光走査装置の走査周期に同期して校正する請求項3記載の物体検出装置。
  5.  前記校正処理部は、前記姿勢情報と、前記三次元位置ベクトルに基づいて得られる所定の測定対象面と前記光走査装置との相対姿勢と、の双方に基づいて校正する請求項3または4記載の物体検出装置。
  6.  前記三次元位置ベクトルは動径r、第1偏角θ、第2偏角φで定義され、前記第1偏角θおよび前記第2偏角φが前記光走査装置により走査される前記測定光の走査方向に対応する球面座標系(r,θ,φ)で表されるとともに、前記二次元位置ベクトルは動径r、偏角ηで定義される極座標系(r,η)で表され、
     前記第2の位置ベクトル生成部は前記球面座標系(r,θ,φ)で表される前記三次元位置ベクトルを前記極座標系(r,η)で表される前記二次元位置ベクトルに変換するように構成されている請求項1から5の何れかに記載の物体検出装置。
  7.  前記物体判定部は前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置するか否かを所定の偏角判定ピッチΔηで判定するように構成され、前記第2の位置ベクトル生成部は各二次元位置ベクトルの偏角を予め設定された規則に基づいて前記偏角判定ピッチΔηに対応付けて丸め込み処理するように構成されている請求項6記載の物体検出装置。
  8.  前記物体判定部は同一の偏角に丸め込み処理した前記二次元位置ベクトルの総数に基づいて当該偏角に含まれる前記二次元位置ベクトルを判定対象とするか否かを決定する請求項7記載の物体検出装置。
  9.  前記第2の位置ベクトル生成部は前記球面座標系(r,θ,φ)で表される前記三次元位置ベクトルを前記極座標系(r,η)で表される前記二次元位置ベクトルに変換する座標変換テーブルを備え、前記座標変換テーブルに基づいて前記三次元位置ベクトルを前記二次元位置ベクトルに変換する請求項6から8の何れかに記載の物体検出装置。
  10.  隣接する偏角ηまたは同一偏角ηに存在する前記二次元位置ベクトルの動径rの偏差が第1の所定値以下となる関係を有する一群の二次元位置ベクトルを同一の判定対象物体として抽出し、当該一群の二次元位置ベクトルから求めた代表ベクトルを前記物体判定部の判定対象とする請求項6から9の何れかに記載の物体検出装置。
  11.  隣接する偏角ηまたは同一偏角ηに其々存在する前記二次元位置ベクトルの動径rの偏差が第2の所定値より大となる二次元位置ベクトルを孤立点として判定対象物体から除去する請求項10記載の物体検出装置。
  12.  同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する前記鉛直距離の偏差が第3の所定値以下となる関係を有する一群の二次元位置ベクトルを同一の判定対象物体として抽出し、当該一群の二次元位置ベクトルから求めた代表ベクトルを前記物体判定部の判定対象とする請求項6から11の何れかに記載の物体検出装置。
  13.  同一の偏角ηに存在する複数の二次元位置ベクトルに其々対応する前記鉛直距離の偏差が第4の所定値より大となる二次元位置ベクトルを孤立点として判定対象物体から除去する請求項12記載の物体検出装置。
  14.  前記第2の位置ベクトル生成部は前記鉛直距離に基づいて前記二次元位置ベクトルを複数のグループに分割するように構成され、
     物体検知領域生成部は各グループに対応して前記物体検知領域を其々生成するように構成され、
     前記物体判定部は前記グループ毎に前記二次元位置ベクトルの終点が対応する物体検知領域の内部に位置する場合に物体が存在すると判定する請求項1から13の何れかに記載の物体検出装置。
  15.  前記第2の位置ベクトル生成部は前記鉛直距離が第1の閾値以上でかつ前記第1の閾値より大きい第2の閾値以下の値となる二次元位置ベクトルを選択的に生成する請求項1から14の何れかに記載の物体検出装置。
  16.  発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置と、
     請求項1から15の何れかに記載の物体検出装置と、
    を備えている物体検出システム。
  17.  コンピュータに、
     発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる前記測定光と前記反射光との物理関係および前記測定光の走査方向に基づいて、三次元座標系における所定の始点から前記物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成部と、
     前記三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、前記基準平面と直交する鉛直軸に投影した前記三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成部と、
     前記基準平面に物体検知領域を生成する物体検知領域生成部と、
     前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定部と、
    して機能させる物体検出プログラム。
  18.  発光素子から出射された測定光を二次元的に走査して前記測定光が照射された物体からの反射光を受光素子に導く光走査装置から得られる前記測定光と前記反射光との物理関係および前記測定光の走査方向に基づいて、三次元座標系における所定の始点から前記物体の照射位置までの距離および方向を示す三次元位置ベクトルを生成する第1の位置ベクトル生成ステップと、
     前記三次元位置ベクトルを基準平面となる所定の二次元座標系に投影した二次元位置ベクトルを生成するとともに、前記基準平面と直交する鉛直軸に投影した前記三次元位置ベクトルの始点から終点までの鉛直距離を算出する第2の位置ベクトル生成ステップと、
     前記基準平面に物体検知領域を生成する物体検知領域生成ステップと、
     前記二次元位置ベクトルの終点が前記物体検知領域の内部に位置する場合に物体が存在すると判定する物体判定ステップと、
    を備えている物体検出方法。
     
PCT/JP2021/004065 2020-02-19 2021-02-04 物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法 WO2021166656A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020025873A JP7477139B2 (ja) 2020-02-19 2020-02-19 物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法
JP2020-025873 2020-02-19

Publications (1)

Publication Number Publication Date
WO2021166656A1 true WO2021166656A1 (ja) 2021-08-26

Family

ID=77392060

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/004065 WO2021166656A1 (ja) 2020-02-19 2021-02-04 物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法

Country Status (2)

Country Link
JP (1) JP7477139B2 (ja)
WO (1) WO2021166656A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023152870A1 (ja) * 2022-02-10 2023-08-17 パイオニア株式会社 情報処理装置、制御方法、プログラム及び記憶媒体

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005024370A (ja) * 2003-07-01 2005-01-27 Tokyo Denki Univ 測量データの処理方法
WO2013051382A1 (ja) * 2011-10-04 2013-04-11 コニカミノルタアドバンストレイヤー株式会社 形状測定装置及び形状測定方法
JP2015158772A (ja) * 2014-02-24 2015-09-03 アジア航測株式会社 スタンドアロン型点群データ表示システム、サーバ/クライアント型の点群データ表示システム及び点群データ表示プログラム
CN106530380A (zh) * 2016-09-20 2017-03-22 长安大学 一种基于三维激光雷达的地面点云分割方法
CN109085608A (zh) * 2018-09-12 2018-12-25 奇瑞汽车股份有限公司 车辆周围障碍物检测方法及装置
CN110008941A (zh) * 2019-06-05 2019-07-12 长沙智能驾驶研究院有限公司 可行驶区域检测方法、装置、计算机设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005024370A (ja) * 2003-07-01 2005-01-27 Tokyo Denki Univ 測量データの処理方法
WO2013051382A1 (ja) * 2011-10-04 2013-04-11 コニカミノルタアドバンストレイヤー株式会社 形状測定装置及び形状測定方法
JP2015158772A (ja) * 2014-02-24 2015-09-03 アジア航測株式会社 スタンドアロン型点群データ表示システム、サーバ/クライアント型の点群データ表示システム及び点群データ表示プログラム
CN106530380A (zh) * 2016-09-20 2017-03-22 长安大学 一种基于三维激光雷达的地面点云分割方法
CN109085608A (zh) * 2018-09-12 2018-12-25 奇瑞汽车股份有限公司 车辆周围障碍物检测方法及装置
CN110008941A (zh) * 2019-06-05 2019-07-12 长沙智能驾驶研究院有限公司 可行驶区域检测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
JP7477139B2 (ja) 2024-05-01
JP2021131280A (ja) 2021-09-09

Similar Documents

Publication Publication Date Title
US9322646B2 (en) Adaptive mechanism control and scanner positioning for improved three-dimensional laser scanning
JP6938846B2 (ja) 物体認識装置
US9182763B2 (en) Apparatus and method for generating three-dimensional map using structured light
JP5361421B2 (ja) 計測装置、計測装置のレーザー位置姿勢値補正方法およびレーザー位置姿勢値補正プログラム
JP3561473B2 (ja) 物体位置の追跡・検知方法及びビークル
CN110893085B (zh) 清洁机器人及其充电路径决定方法
JP2958456B1 (ja) 走行車両の距離測定装置
CN103698769A (zh) 测量六个自由度的装置和方法
Kang et al. A robust obstacle detection method for robotic vacuum cleaners
WO2021166656A1 (ja) 物体検出装置、物体検出システム、物体検出プログラムおよび物体検出方法
KR20150039483A (ko) 스캔 레이다
CN112068152A (zh) 使用3d扫描仪同时进行2d定位和2d地图创建的方法和系统
WO2018179960A1 (ja) 移動体および自己位置推定装置
US20090153881A1 (en) Method and apparatus for measuring 3-dimensional position and orientation of reflective mirror package
US20220206123A1 (en) Light scanning device and distance measuring device
JP2018165657A (ja) レーザ式測距装置を使用した物体エッジの検出方法
JP2010256179A (ja) 測距方法及び車載測距装置
JP3997639B2 (ja) 無人搬送車位置検出方式
JP6811656B2 (ja) レーザ式測距装置のノイズデータの特定方法
US20230135740A1 (en) Distance measurement device, and mounting orientation sensing method and mounting orientation sensing program for same
CN111679099A (zh) 基于相干光视觉光流检测的加速度计标定方法及装置
JP2002189518A (ja) 無人車位置計測方式
JP5187068B2 (ja) 3次元形状測定装置および3次元形状測定方法
JP2002328014A (ja) 三次元形状測定システム及び三次元形状測定方法
JP4051883B2 (ja) 無人車位置計測方式

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21756187

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21756187

Country of ref document: EP

Kind code of ref document: A1