WO2016181733A1 - フォークリフト - Google Patents

フォークリフト Download PDF

Info

Publication number
WO2016181733A1
WO2016181733A1 PCT/JP2016/061596 JP2016061596W WO2016181733A1 WO 2016181733 A1 WO2016181733 A1 WO 2016181733A1 JP 2016061596 W JP2016061596 W JP 2016061596W WO 2016181733 A1 WO2016181733 A1 WO 2016181733A1
Authority
WO
WIPO (PCT)
Prior art keywords
pallet
fork
laser sensor
forklift
laser beam
Prior art date
Application number
PCT/JP2016/061596
Other languages
English (en)
French (fr)
Inventor
田中 稔
亮暢 藤井
祐司 津坂
誠 一瀬
早川 誠
Original Assignee
株式会社豊田自動織機
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社豊田自動織機 filed Critical 株式会社豊田自動織機
Priority to US15/572,809 priority Critical patent/US10850961B2/en
Priority to CN201680027308.2A priority patent/CN107531469B/zh
Priority to EP16792458.8A priority patent/EP3296250B1/en
Publication of WO2016181733A1 publication Critical patent/WO2016181733A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/12Platforms; Forks; Other load supporting or gripping members
    • B66F9/16Platforms; Forks; Other load supporting or gripping members inclinable relative to mast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/063Automatically guided
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/0755Position control; Position detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66FHOISTING, LIFTING, HAULING OR PUSHING, NOT OTHERWISE PROVIDED FOR, e.g. DEVICES WHICH APPLY A LIFTING OR PUSHING FORCE DIRECTLY TO THE SURFACE OF A LOAD
    • B66F9/00Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes
    • B66F9/06Devices for lifting or lowering bulky or heavy goods for loading or unloading purposes movable, with their loads, on wheels or the like, e.g. fork-lift trucks
    • B66F9/075Constructional features or details
    • B66F9/20Means for actuating or controlling masts, platforms, or forks
    • B66F9/24Electrical devices or systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser

Definitions

  • ⁇ It is necessary to avoid interference between the fork and the pallet during the forklift truck.
  • the upper and lower ends of the pallet opening are detected by a reflection type optical sensor. Then, calculate the clearance between the upper surface of the fork and the upper end of the pallet opening, and the clearance between the lower surface of the fork and the lower end of the pallet opening, and adjust the position of the fork so that these clearances have appropriate values. Yes.
  • This specification discloses a forklift that can detect a lateral displacement of a pallet and a rotational displacement with a simple configuration.
  • the forklift disclosed in the present specification is attached to the fork, a moving mechanism for moving the fork in the first direction, and is mounted on the fork, and scans the laser light in a second direction intersecting the first direction.
  • a laser sensor that measures the distance to the surrounding object from the reflected light of the scanned laser beam, and a laser that scans the laser beam in the second direction while driving the moving mechanism to move the fork in the first direction.
  • an arithmetic unit that generates a three-dimensional distance image of a range irradiated with the laser beam based on distance data acquired by the sensor.
  • the laser sensor since the laser sensor is attached to the fork, when the fork moves in the first direction, the laser sensor also moves in the first direction accordingly. Therefore, even if the laser sensor is a one-dimensional scanning type laser sensor that scans the laser beam in the second direction, the laser beam is moved in the first direction and the second direction by the movement of the fork in the first direction. Can be scanned. Thereby, a three-dimensional distance image can be acquired by the laser sensor. Since this forklift can acquire a three-dimensional distance image, it is possible to detect a positional deviation in the lateral direction of the pallet and a deviation related to rotation.
  • the perspective view which shows schematic structure of the forklift which concerns on an Example.
  • the block diagram which shows the control structure of the forklift which concerns on an Example.
  • the flowchart which shows the procedure of the process which acquires a 3-dimensional distance image with a laser sensor.
  • the flowchart which shows the procedure of the process which specifies the position of a pallet, a direction, and a width
  • the figure which matches and shows the pallet and the coordinate axis set to the pallet The figure which shows typically the state which is scanning the laser beam using the tilt mechanism which tilts a fork.
  • the moving mechanism includes at least an elevating mechanism that elevates and lowers the fork in the vertical direction. May be. According to such a configuration, the light emitted from the laser sensor can be scanned in the vertical direction using the lifting mechanism that lifts and lowers the fork in the vertical direction.
  • the moving mechanism includes at least a tilt mechanism that tilts the tip of the fork with respect to the base end, and the laser sensor when the tip of the fork tilts with respect to the base end.
  • the laser beam irradiated from the above may be scanned in the vertical direction. According to such a configuration, the light emitted from the laser sensor can be scanned in the vertical direction using the tilt mechanism that tilts the fork.
  • the arithmetic device may specify the position, direction, and width of the pallet from the three-dimensional distance image. Good. According to such a configuration, in order to identify the three-dimensional position, direction, and width of the pallet based on the three-dimensional distance image generated from the distance data obtained by the laser sensor, , It is possible to accurately detect a shift related to rotation.
  • the arithmetic unit extracts only the distance data obtained from the front surface of the pallet from the 3D distance image. Then, the position, direction, and width of the pallet may be specified from the front surface of the pallet specified from the extracted distance data. In such a configuration, the three-dimensional position, direction and width of the pallet are specified based on the distance data obtained from the pallet front surface extracted from the three-dimensional distance image generated from the distance data obtained by the laser sensor. . Since the position information of the pallet is specified from the distance data obtained from the front surface of the pallet, the lateral displacement of the pallet and the displacement related to the rotation can be detected with high accuracy.
  • the forklift 10 is an unmanned forklift, and includes a vehicle body 12, a mast 24, a fork 22, a lift chain 26, a laser sensor 20, and a control device 30.
  • the vehicle body 12 includes a front wheel 28 and a rear wheel 29 on each of both side surfaces thereof.
  • the front wheel 28 and the rear wheel 29 are respectively supported so as to be rotatable with respect to the vehicle body 12.
  • One of the rear wheels 29 is connected to a drive motor (not shown) and is driven to rotate by the drive motor.
  • the rear wheel 29 connected to the drive motor is also connected to a steering device (not shown), and the direction of the wheels is adjusted by the steering device.
  • the other of the rear wheels 29 is a caster wheel that rotates and steers following the travel of the vehicle body 12.
  • the mast 24 is a column attached to the front surface of the vehicle body 12, and its axis extends in the vertical direction.
  • the fork 22 is attached to the mast 24 so as to be movable in the vertical direction. Further, the fork 22 can swing with respect to the mast 24 by a tilt mechanism (not shown).
  • the fork 22 has a pair of claws 22a and 22b. The claws 22a and 22b are disposed at positions separated from each other in the left-right direction of the vehicle body 12, and extend from the mast 24 side toward the front of the vehicle body 12.
  • the lift chain 26 is installed on the mast 24 and is engaged with the fork 22. When the lift chain 26 is driven by a fork lifting device 40 (shown in FIG. 3), the fork 22 is lifted and lowered.
  • the vertical position of the fork 22 can be specified by the drive amount of the fork lifting device 40.
  • the laser sensor 20 is attached to the fork 22 and moves up and down integrally with the fork 22.
  • the position where the laser sensor 20 is attached is between the claws 22a and 22b and is located on the back side (the vehicle body 12 side) from the backrest surface of the fork 22.
  • the laser sensor 20 is a one-dimensional scanning type laser sensor that scans laser light in one direction (horizontal direction in this embodiment).
  • the laser sensor 20 irradiates laser light and measures the distance from the reflected light of the irradiated laser light to a peripheral object.
  • the laser sensor 20 also moves up and down, so that the position in the height direction of the laser light emitted from the laser sensor 20 also changes. In the present embodiment, as shown in FIG.
  • the laser sensor 20 irradiates a region 50 (see FIG. 1) in a predetermined angular range ahead of the forklift 10 while moving up and down in the vertical direction. Thereby, the laser light emitted from the laser sensor 20 is scanned in the horizontal direction and the height direction (two-dimensional), and distance data 41 in front of the forklift 10 is acquired. The distance data 41 acquired by the laser sensor 20 is input to the control device 30 (shown in FIG. 3).
  • the laser sensor 20 for example, UTM-30LX manufactured by Hokuyo Electric or LMS100 manufactured by SICK can be used.
  • the control device 30 is constituted by a microprocessor having a CPU and the like.
  • the control device 30 is mounted on the vehicle body 12.
  • the control device 30 includes the laser sensor 20 described above, a drive motor that drives one of the rear wheels 29, a steering device that adjusts the steering angle of the rear wheel 29 connected to the drive motor, and a fork that moves the fork 22 up and down. It is connected to a lifting device or the like and controls these operations.
  • control device 30 executes a program stored in the memory, thereby moving the laser sensor 20 up and down, converting the distance data into coordinates, and storing coordinate-converted three-dimensional distance data to store a three-dimensional distance image. Process to generate. In addition, the control device 30 performs processing for specifying the position, direction, and width of the pallet 100 based on the three-dimensional distance image. That is, as shown in FIG. 3, the control device 30 functions as a coordinate conversion unit 32, a calculation / accumulation unit 34, a palette recognition unit 36, a sensor movement control unit 38, and a sensor position detection unit 39.
  • the control device 30 functions as the above-described units 32 to 39, so that a three-dimensional distance image 44 of a peripheral object in front of the forklift 10 is generated, and the position of the pallet 100 from the generated three-dimensional distance image 44, Direction and width are specified. Details of the units 32 to 39 will be described together with processing performed by the control device 30 described below.
  • the three-dimensional distance data generation process is executed in a state where the forklift 10 is stopped near the pallet 100 to be loaded. That is, as shown in FIG. 4, the control device 30 first drives one rear wheel 29 so that the pallet 100 is positioned in front of the vehicle body 12, and brings the forklift 10 closer to the pallet 100. That is, in order to observe the pallet 100 with the laser sensor 20, the forklift 10 is moved to the initial position in front of the pallet (S10). For example, in the forklift 10 that transports luggage in a factory, the position on which the luggage (pallet 100) is placed is predetermined.
  • the initial position for stopping the forklift 10 is determined in advance from the approximate position of the pallet 100. For this reason, the control apparatus 30 moves the forklift 10 automatically to the preset initial position. In addition, when the forklift 10 is driven by the driver, the forklift 10 may be moved to the initial position by the driver, and thereafter, the three-dimensional distance data generation process may be started by a switch operation of the driver of the forklift 10.
  • the control device 30 moves the laser sensor 20 by the fork lifting / lowering device 40 so that the laser beam is irradiated to the upper limit of the observation target region 60 (shown in FIG. 5) (S12).
  • the observation target area 60 is an area where the pallet 100 may exist. For example, as shown in FIG. 5, if the luggage 130 is placed on the pallet 100 and the pallet 100 is placed on the pedestal 120, an area (height, where the pallet 100 may exist) (Width) is determined by the dimensions of the pedestal 120 and the pallet 100.
  • the laser sensor 20 is moved to the upper limit of the area where the pallet 100 may exist, so that the pallet 100 is reliably detected.
  • the control device 30 acquires the distance data 41 with the laser sensor 20 while lowering the fork 22 with the fork lifting device 40 (S14). That is, the laser sensor 20 irradiates the laser beam while scanning in the horizontal direction and detects reflected light of the irradiated laser beam.
  • the fork lifting device 40 moves the fork 22 up and down
  • the laser sensor 20 moves in the vertical direction. For this reason, the laser beam emitted from the laser sensor 20 is also scanned in the vertical direction. Therefore, the laser beam from the laser sensor 20 is scanned in the horizontal direction and the vertical direction by the processing in step S14, and the observation point group of the observation target region 60 can be acquired by detecting the reflected light.
  • the function of the control device 30 realized by the process of raising and lowering the fork in steps S12 and S14 corresponds to the sensor movement control unit 38 shown in FIG.
  • the control device 30 converts the acquired distance data 41 into three-dimensional distance data 42 reflecting the height of the laser sensor 20 (S16). That is, since the control device 30 controls the fork elevating device 40 to elevate and lower the fork 22, it is possible to know the vertical position of the fork 22 (the height direction position of the laser sensor 20). For this reason, when the reflected light is received by the laser sensor 20, the control device 30 reflects the height information of the laser sensor 20 at the time of light reception in the distance data 41 (observation point) and converts it into three-dimensional distance data. . Thereby, the three-dimensional distance data 42 to the object existing in the region 50 in the predetermined angle range irradiated with the laser light can be acquired. Note that the function of the control device 30 realized by the processing in step S16 corresponds to the coordinate conversion unit 32 and the sensor position detection unit 39 shown in FIG.
  • control device 30 extracts only the observation point group in the observation target region 60 from the obtained three-dimensional distance data 42 and stores it in the memory (S18). Since the three-dimensional distance data 42 reflects the height of the laser sensor 20, the observation point group in the observation target region 60 at the height is accumulated in the memory. Note that the function of the control device 30 realized by the processing in step S18 corresponds to the calculation / accumulation unit 34 shown in FIG.
  • control device 30 determines whether or not the current observation position (height) by the laser sensor 20 is the lower limit of the observation target region 60 (S20). When the current observation position is not the lower limit of the observation target region (NO in S20), the control device 30 repeats the processes in steps S14 to S18. When the current observation position is the lower limit of the observation target region (YES in S20), the control device 30 ends the process.
  • the observation point group (three-dimensional distance data 42) for the entire observation target region 60 can be stored in the memory, and thereby the three-dimensional distance image 44 in the observation target region 60. Can be generated.
  • the control device 30 drives one rear wheel 29 so that the pallet 100 is positioned in front of the vehicle body 12, and causes the forklift 10 to approach the pallet 100. That is, in order to observe the pallet 100 with the laser sensor 20, the forklift 10 is moved to the initial position in front of the pallet (S22). Next, the control device 30 moves the laser sensor 20 by the fork lifting / lowering device 40 so that the upper limit of the observation target region 60 (shown in FIG. 5) is irradiated with the laser light (S24). Next, the control device 30 acquires the distance data 41 with the laser sensor 20 while lowering the fork 22 with the fork lifting device 40 (S26).
  • control device 30 converts the acquired distance data 41 into three-dimensional distance data 42 reflecting the height of the laser sensor 20 (S28). Note that the processing in steps S22 to S28 is the same as the processing in steps S10 to S16 described above, and thus detailed description thereof is omitted here.
  • the control device 30 extracts only the observation point group of the observation target region 60 from the three-dimensional distance data 42, and extracts a straight line extending in the substantially horizontal direction from the extracted observation point group (S30).
  • the observation point group by the reflected light reflected from the front surface of the pallet 100 is located on the same plane. That is, in step S30, a straight line resulting from scanning the front surface of the pallet 100 is extracted from the observation point group.
  • a known algorithm called robust estimation such as RANSAC can be used for the extraction of a straight line.
  • the control device 30 clusters the point groups constituting the extracted straight line (matching the straight line) with the Euclidean distance (S32).
  • two openings 110 are formed on the front surface of the pallet 100.
  • the straight line extracted from the front surface of the pallet 100 may be divided by the opening 110 on the front surface of the pallet 100.
  • a known method such as the k-means method or the kd-tree method can be used.
  • the control device 30 performs the process of step S34. Specifically, first, the control device 30 counts the number of clustered straight line groups (that is, the number of clusters), and determines whether or not the counted number of clusters is 3 (S34). As described above, at the position (height) where the opening 110 is formed on the front surface of the pallet 100, the straight line (observation point group) extending in the substantially horizontal direction by the horizontal scanning of the laser beam is 3 by the opening 110. It is divided into two (YES in FIG. 7). Therefore, in step S34, it can be determined whether or not the extracted straight line corresponds to the front surface of the pallet 100 by determining whether or not the number of clusters is three.
  • the control device 30 determines whether or not the length of the point group constituting the straight line extracted in step S30 is substantially equal to the width of the pallet 100 (S34).
  • the standard of the pallet 100 is usually known. Therefore, it is possible to determine whether or not the straight line on the front surface of the pallet 100 has been extracted by comparing the length of the point group constituting the straight line with the set value (value determined from the standard of the pallet 100).
  • a point group constituting the linear length W p for example, maximum and minimum values of the x direction of the point group, by using an observation point with the maximum value and the minimum value of the y-direction Can be sought.
  • the control device 30 determines whether or not it is equal to the width of the pallet 100 by comparing the obtained length with the width (set value) of the pallet 100.
  • control device 30 stops the process for the point group constituting the extracted straight line, and the process of step S38. Proceed to When all the conditions in the process of step S34 are satisfied (YES in S34), the control device 30 accumulates the point group constituting the straight line as data obtained by observing the front surface of the pallet 100 (S36).
  • the control device 30 determines whether or not the current observation position (height) of the laser sensor 20 is the lower limit of the observation target region 60 (S38). Since the control device 30 controls the fork elevating device 40 to elevate and lower the fork 22, it is possible to know the vertical position of the fork 22. Since the laser sensor 20 is attached to the fork 22, the control device 30 (sensor position detection unit 39 shown in FIG. 3) can know the position of the laser sensor 20 in the height direction.
  • the position of the pallet 100 from the accumulated observation point group three-dimensional distance image 44, hereinafter also referred to as a superimposed point group). The direction and the width are specified (S40).
  • step S40 the position, direction, and width of the pallet 100 are specified using the data of the observation point groups that form these straight line groups. The process of step S40 will be described in detail below.
  • the control device 30 returns to the process of step S24.
  • x bar, y bar, and z bar are the average of the coordinates of N points x i , y i , and z i , respectively, and mean the center of the front surface of the pallet 100.
  • an eigenvector in a three-dimensional space is calculated from this matrix.
  • the first principal axis of this eigenvector corresponds to a vector in the side direction of the pallet (y-axis in FIG. 9)
  • the second principal axis corresponds to a vector in the direction of the top surface of the pallet (z-axis in FIG. 9)
  • the third principal axis Corresponds to the normal vector of the front surface of (x axis in FIG. 9).
  • the position and direction of the pallet with the center of the pallet front as the origin of the coordinate system is specified.
  • the direction of the eigenvector representing the main axis may be reversed in some cases, it is preferable to adjust the sign from the relative relationship with the laser sensor 20.
  • the size and width of the pallet 100 can be obtained by projecting the overlapping point group onto the plane represented by the first and second principal axes of the eigenvector.
  • the difference between the maximum value and the minimum value of the projection onto the first principal axis (y-axis) corresponds to the width of the pallet 100
  • the difference between the maximum value and the minimum value of the projection onto the second principal axis (z-axis) corresponds to the height dimension of the opening 110 of the pallet 100. That is, the size and width of the pallet 100 can be specified. Thereby, the position, direction, and width of the pallet 100 can be specified.
  • the average value of the maximum value and the minimum value of each projection of the overlapping point group on each plane represented by the first, second, and third principal axes can also be used as the center point of the pallet 100.
  • the function of the control device 30 realized by the processing in step S40 corresponds to the pallet recognition unit 36 shown in FIG.
  • the laser sensor 20 is attached to the fork 22. For this reason, when the fork 22 moves up and down, the laser sensor 20 also moves up and down accordingly. Therefore, the three-dimensional distance image of the pallet 100 can be acquired simply by the laser sensor 20 scanning the laser beam in the horizontal direction while raising and lowering the fork 22. Further, in order to identify the position, direction, and width of the pallet 100 from the three-dimensional distance image of the pallet 100, it is possible to detect a lateral positional shift of the pallet 100 and a shift related to rotation. As a result, interference between the fork 22 and the pallet 100 can be prevented, and a smooth loading operation can be performed.
  • the forklift 10 of the present embodiment it is possible to determine whether or not a load is placed on the pallet 100 by the laser sensor 20, and to know the position of the load on the pallet 100. Accordingly, since it can be determined in advance that the load is placed at a biased position on the pallet 100, it is possible to prevent the load from dropping from the pallet 100 in advance. Further, since the shape of the luggage on the pallet 100 is known, the type of the luggage can be specified.
  • the fork lifting device 40 is an example of a “moving mechanism” in the claims, and the calculation / accumulation unit 34 and the pallet recognition unit 36 are examples of the “calculation device” in the claims.
  • the laser beam is scanned in the vertical direction by moving the fork up and down in the vertical direction, but the technology disclosed in the present specification is not limited to such a configuration.
  • the laser beam emitted from the laser sensor 20 may be scanned in the vertical direction using a tilt mechanism that tilts the tip of the fork with respect to the base end.
  • the pallet 100 is detected by extracting a straight line from the observation point group obtained by the laser sensor 20, but the technique disclosed in this specification is based on the observation point group obtained by the laser sensor 20.
  • the front plane of the pallet 100 may be directly extracted.
  • the front surface (plane 1) of the luggage 130 is The front surface (plane 2) and the floor surface G (plane 3) of the pallet 100 are extracted.
  • the position, direction, and width of the pallet 100 can be specified by performing the process of step S40 shown in FIG. 6 on the observation point group constituting the front surface (plane 2) of the pallet 100.
  • the RANSAC algorithm can be used for extracting the plane, similarly to the extraction of the straight line in step S30 of FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Structural Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Geology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Civil Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Combustion & Propulsion (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Forklifts And Lifting Vehicles (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

フォークリフト(10)は、フォーク(22)と、フォーク(22)を第1の方向に移動させる移動機構(40)と、フォーク(22)に取付けられており、レーザ光を第1の方向と交差する第2の方向に走査すると共に、走査したレーザ光の反射光から周辺物体との距離を計測するレーザセンサ(20)と、移動機構(40)を駆動してフォーク(22)を第1の方向に移動させながらレーザ光を第2の方向に走査したときにレーザセンサ(20)で取得される距離データに基づいて、レーザ光が照射された範囲の3次元距離画像を生成する演算装置(34、36)と、を備える。

Description

フォークリフト
 本出願は、2015年5月12日に出願された日本国特許出願第2015-097487号に基づく優先権を主張する。その出願の全ての内容はこの明細書中に参照により援用される。本明細書に開示の技術は、フォークリフトに関する。
 フォークリフトによる荷取り作業の際、フォークとパレットとの干渉を避ける必要がある。日本国特許公開公報第2005-89013号に開示のフォークリフトでは、反射型光センサによって、パレットの開口の上端および下端を検出する。そして、フォークの上面とパレットの開口の上端とのクリアランス、および、フォークの下面とパレットの開口の下端とのクリアランスを算出し、これらクリアランスが適切な値となるようにフォークの位置を調整している。
 フォークリフトにより正確な荷取り作業を行うためには、パレット位置の認識精度を向上させる必要がある。しかし、従来の技術では、パレットの高さ方向のずれを検出できるものの、横方向のずれや、回転に関するずれを検出することはできない。
 本明細書は、簡易な構成でパレットの横方向の位置ずれや、回転に関するずれを検出することが可能となるフォークリフトを開示する。
 本明細書に開示するフォークリフトは、フォークと、フォークを第1の方向に移動させる移動機構と、フォークに取付けられており、レーザ光を第1の方向と交差する第2の方向に走査すると共に、走査したレーザ光の反射光から周辺物体との距離を計測するレーザセンサと、移動機構を駆動してフォークを第1の方向に移動させながらレーザ光を第2の方向に走査したときにレーザセンサで取得される距離データに基づいて、レーザ光が照射された範囲の3次元距離画像を生成する演算装置とを備える。
 上記のフォークリフトでは、レーザセンサがフォークに取付けられているため、フォークが第1の方向に移動すると、それに応じてレーザセンサも第1の方向に移動する。このため、レーザセンサは第2の方向にレーザ光を走査する1次元走査型のレーザセンサであっても、フォークの第1の方向への移動によりレーザ光を第1の方向及び第2の方向に走査することができる。これによって、レーザセンサによって3次元距離画像を取得することができる。このフォークリフトでは、3次元距離画像を取得できるため、パレットの横方向の位置ずれや、回転に関するずれを検出することができる。
実施例に係るフォークリフトの概略構成を示す斜視図。 実施例に係るフォークリフトによりレーザ光を走査している状態を模式的に示す図。 実施例に係るフォークリフトの制御構成を示すブロック図。 レーザセンサにより3次元距離画像を取得する処理の手順を示すフローチャート。 レーザセンサによりパレットまでの距離データを取得している状態を示す図。 パレットの位置、方向及び幅を特定する処理の手順を示すフローチャート。 パレットの開口を検出する方法を説明するための図。 取得した3次元距離データから抽出された直線を構成する点群の長さを算出する方法を説明するための図。 パレットと、パレットに設定した座標軸とを合わせて示す図。 フォークをティルトさせるティルト機構を利用してレーザ光を走査している状態を模式的に示す図。 3次元距離画像からパレットの前面を特定する処理を説明するための図。
 以下に説明する実施例の主要な特徴を列記しておく。なお、以下に記載する技術要素は、それぞれ独立した技術要素であって、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。
(特徴1) 本明細書に開示するフォークリフトにおいて、移動機構は、フォークを上下方向に昇降させる昇降機構を少なくとも備えており、フォークが上下方向に昇降すると、レーザセンサも上下方向に昇降するようにしてもよい。このような構成によると、フォークを上下方向に昇降させる昇降機構を利用して、レーザセンサから照射される光を上下方向に走査することができる。
(特徴2) 本明細書に開示するフォークリフトにおいて、移動機構は、フォークの先端を基端に対して傾動させるティルト機構を少なくとも備えており、フォークの先端が基端に対して傾動すると、レーザセンサから照射されるレーザ光が上下方向に走査されてもよい。このような構成によると、フォークを傾動させるティルト機構を利用して、レーザセンサから照射される光を上下方向に走査することができる。
(特徴3) 本明細書に開示するフォークリフトにおいて、演算装置は、生成した3次元距離画像にパレットが含まれている場合、当該3次元距離画像からパレットの位置、方向及び幅を特定してもよい。このような構成によると、レーザセンサで得られた距離データから生成した3次元距離画像に基づいて、パレットの3次元的な位置、方向及び幅を特定するため、パレットの横方向の位置ずれや、回転に関するずれを精度良く検出することができる。
(特徴4) 本明細書に開示するフォークリフトにおいて、演算装置は、生成した3次元距離画像にパレットが含まれている場合、当該3次元距離画像からパレットの前面から得られた距離データのみを抽出し、その抽出された距離データから特定されるパレットの前面の平面から、パレットの位置、方向及び幅を特定してもよい。このような構成では、レーザセンサで得られた距離データから生成した3次元距離画像から抽出したパレット前面から得られた距離データに基づいて、パレットの3次元的な位置、方向及び幅を特定する。パレットの前面から得られた距離データからパレットの位置情報を特定するため、パレットの横方向の位置ずれや、回転に関するずれを精度良く検出することができる。
 本実施例のフォークリフト10について、図面を参照しながら説明する。図1に示すように、フォークリフト10は、無人フォークリフトであり、車体12と、マスト24と、フォーク22と、リフトチェーン26と、レーザセンサ20と、制御装置30を備えている。
 車体12は、その両側面のそれぞれに前輪28及び後輪29を備えている。前輪28及び後輪29は、それぞれ車体12に対して回転可能に支持されている。後輪29の一方は、図示しない駆動モータが接続されており、駆動モータによって回転駆動されるようになっている。また、駆動モータに接続された後輪29は、図示しない操舵装置にも接続されており、操舵装置によって車輪の向きが調整される。後輪29の他方は、キャスタ輪であり、車体12の走行に追従して回転及び操舵する。制御装置30が駆動モータ及び操舵装置を制御することで、車体12は路面を走行すると共に、車体12の進行方向を変えることができる。
 マスト24は、車体12の前面に取付けられている支柱であり、その軸線は上下方向に伸びている。フォーク22は、マスト24に上下方向に移動可能に取付けられている。また、フォーク22は、図示しないティルト機構によって、マスト24に対して揺動可能となっている。フォーク22は、一対のツメ22a,22bを有している。ツメ22a,22bは、車体12の左右方向に互いに離間した位置に配置されており、マスト24側から車体12の前方に向かって伸びている。リフトチェーン26は、マスト24に設置されており、フォーク22と係合している。リフトチェーン26がフォーク昇降装置40(図3に図示)により駆動されると、それによってフォーク22が昇降される。フォーク22の上下方向の位置は、フォーク昇降装置40の駆動量によって特定可能となっている。
 レーザセンサ20は、フォーク22に取付けられ、フォーク22と一体となって上下方向に昇降する。レーザセンサ20が取付けられる位置は、ツメ22a、22bの間であって、フォーク22のバックレスト面より奥側(車体12側)に配置されている。レーザセンサ20は、1方向(本実施例では水平方向)にレーザ光を走査する1次元走査型のレーザセンサである。レーザセンサ20は、レーザ光を照射するとともにその照射したレーザ光の反射光から周辺物体までの距離を計測する。フォーク22が昇降すると、レーザセンサ20も昇降するため、レーザセンサ20から照射されるレーザ光の高さ方向の位置も変化する。本実施例では、図2に示すように、レーザセンサ20は、上下方向に昇降しながら、フォークリフト10の前方の所定の角度範囲の領域50(図1参照)にレーザ光を照射する。これにより、レーザセンサ20から照射されるレーザ光は水平方向及び高さ方向(2次元)に走査され、フォークリフト10の前方の距離データ41が取得される。レーザセンサ20で取得される距離データ41は、制御装置30(図3に図示)に入力される。
 なお、レーザセンサ20としては、例えば、北陽電機製のUTM-30LXやSICK社製LMS100等を用いることができる。
 制御装置30は、CPU等を備えたマイクロプロセッサによって構成されている。制御装置30は、車体12に搭載されている。制御装置30は、上述したレーザセンサ20と、後輪29の一方を駆動する駆動モータと、駆動モータに接続された後輪29の操舵角を調整する操舵装置と、フォーク22の昇降を行うフォーク昇降装置等に接続されており、これらの動作を制御する。
 すなわち、制御装置30は、メモリに記憶されているプログラムを実行することで、レーザセンサ20を昇降させる処理、距離データを座標変換する処理、座標変換した3次元距離データを蓄積し3次元距離画像を生成する処理を行う。また、制御装置30は、3次元距離画像に基づいてパレット100の位置、方向及び幅を特定する処理等を行う。すなわち、制御装置30は、図3に示すように、座標変換部32、演算・蓄積部34、パレット認識部36、センサ移動制御部38及びセンサ位置検出部39として機能する。制御装置30が上述した各部32~39として機能することで、フォークリフト10の前方の周辺物体の3次元距離画像44が生成され、また、その生成された3次元距離画像44からパレット100の位置、方向及び幅が特定される。各部32~39の詳細については、以下で説明する制御装置30で行われる処理とともに説明する。
 次に、制御装置30によって、3次元距離データ42を生成する処理について説明する。3次元距離データ生成処理は、荷取り対象となるパレット100の近傍にフォークリフト10が停止した状態で実行される。すなわち、図4に示すように、制御装置30は、まず、車体12の前方にパレット100が位置するように、一方の後輪29を駆動して、パレット100に対してフォークリフト10を接近させる。すなわち、パレット100をレーザセンサ20によって観測するために、フォークリフト10をパレット前方の初期位置へ移動させる(S10)。例えば、工場内で荷物を運搬するフォークリフト10では、荷物(パレット100)が載置される位置は予め定められている。このため、フォークリフト10を停止させる初期位置は、パレット100のおおよその位置から予め定められている。このため、制御装置30は、予め設定された初期位置までフォークリフト10を自動で移動させる。なお、フォークリフト10が運転者によって運転される場合は、運転者によってフォークリフト10が初期位置まで移動され、その後、フォークリフト10の運転者のスイッチ操作により3次元距離データ生成処理が開始されてもよい。
 次に、制御装置30は、フォーク昇降装置40によって、レーザセンサ20を、観測対象領域60(図5に図示)の上限にレーザ光が照射されるように移動させる(S12)。観測対象領域60とは、パレット100が存在する可能性のある領域である。例えば、図5に示すように、荷物130はパレット100上に載置され、パレット100は台座120上に載置される場合であれば、パレット100が存在する可能性のある領域(高さ、幅)は、台座120とパレット100の寸法によって決まる。ステップS12では、パレット100が存在する可能性のある領域の上限までレーザセンサ20を移動させ、パレット100が確実に検出されるようにする。
 次に、制御装置30は、フォーク昇降装置40によって、フォーク22を下降させながら、レーザセンサ20で距離データ41を取得する(S14)。すなわち、レーザセンサ20は、レーザ光を水平方向に走査しながら照射するとともにその照射したレーザ光の反射光を検出する。一方、フォーク昇降装置40がフォーク22を昇降させるため、レーザセンサ20は上下方向に移動する。このため、レーザセンサ20から照射されるレーザ光は、垂直方向にも走査される。したがって、ステップS14の処理によって、レーザセンサ20からのレーザ光は、水平方向及び垂直方向に走査され、その反射光を検出することで、観測対象領域60の観測点群を取得することができる。なお、上記のステップS12及びS14のフォークを昇降させる処理によって実現される制御装置30の機能が、図3に示すセンサ移動制御部38に相当する。
 次に、制御装置30は、取得した距離データ41を、レーザセンサ20の高さを反映させた3次元距離データ42に変換する(S16)。すなわち、制御装置30は、フォーク昇降装置40を制御してフォーク22を昇降するため、フォーク22の上下方向の位置(レーザセンサ20の高さ方向の位置)を知ることができる。このため、制御装置30は、レーザセンサ20で反射光を受光すると、その距離データ41(観測点)に、受光時のレーザセンサ20の高さ情報を反映させて3次元距離データ42に変換する。これにより、レーザ光が照射された所定の角度範囲の領域50に存在する物体までの3次元距離データ42を取得することができる。なお、上記のステップS16の処理によって実現される制御装置30の機能が、図3に示す座標変換部32及びセンサ位置検出部39に相当する。
 次に、制御装置30は、得られた3次元距離データ42から、観測対象領域60内の観測点群のみを抽出し、メモリに蓄積する(S18)。3次元距離データ42には、レーザセンサ20の高さが反映されているため、当該高さにおける観測対象領域60内の観測点群がメモリに蓄積される。なお、上記のステップS18の処理によって実現される制御装置30の機能が、図3に示すに演算・蓄積部34に相当する。
 次に、制御装置30は、現在のレーザセンサ20による観測位置(高さ)が観測対象領域60の下限であるか否かを判断する(S20)。現在の観測位置が、観測対象領域の下限ではない場合(S20でNO)、制御装置30は、ステップS14~S18の処理を繰り返す。なお、現在の観測位置が、観測対象領域の下限である場合(S20でYES)、制御装置30は処理を終了する。
 上述した処理を繰り返し行うことによって、観測対象領域60の全域についての観測点群(3次元距離データ42)をメモリに蓄積することができ、これにより、観測対象領域60内の3次元距離画像44を生成することができる。
 次に、図6及び図7を用いて、パレット100の位置、方向及び幅を特定する処理について説明する。まず、制御装置30は、車体12の前方にパレット100が位置するように、一方の後輪29を駆動して、パレット100に対してフォークリフト10を接近させる。すなわち、パレット100をレーザセンサ20によって観測するために、フォークリフト10をパレット前方の初期位置へ移動させる(S22)。次に、制御装置30は、フォーク昇降装置40によって、レーザセンサ20を、観測対象領域60(図5に図示)の上限にレーザ光が照射されるように移動させる(S24)。次に、制御装置30は、フォーク昇降装置40によって、フォーク22を下降させながら、レーザセンサ20で距離データ41を取得する(S26)。次に、制御装置30は、取得した距離データ41を、レーザセンサ20の高さを反映させた3次元距離データ42に変換する(S28)。なお、ステップS22~S28の処理は、上述したステップS10~S16の処理と同様であるため、ここではその詳細な説明は省略する。
 次に、制御装置30は、3次元距離データ42から、観測対象領域60の観測点群のみを抽出し、抽出された観測点群から略水平方向に伸びる直線を抽出する(S30)。図7に示すように、パレット100の前面から反射される反射光による観測点群は同一平面上に位置する。すなわち、ステップS30では、観測点群から、パレット100の前面をスキャンした結果となる直線を抽出する。なお、直線の抽出には、例えば、RANSACのようなロバスト推定と呼ばれる公知のアルゴリズムを用いることができる。
 次に、制御装置30は、抽出された直線を構成する(直線にマッチする)点群をユークリッド距離でクラスタリングする(S32)。ここで、図5,7に示すように、パレット100の前面には2つの開口部110(フォーク22のツメ22a,22bが挿し込まれる孔)が形成されている。このため、パレット100の前面から抽出される直線は、パレット100の前面の開口部110によって分断される可能性がある。このため、ステップS30で抽出された直線を構成する点群間のユークリッド距離から、同一物体(例えば、パレット100の前面)から抽出されたものか否かを判断する。なお、クラスタリングには、例えば、k-means法やkd-tree法のような公知の方法を用いることができる。
 次に、制御装置30は、ステップS34の処理を行う。具体的には、まず、制御装置30は、クラスタリングされた直線群の数(すなわち、クラスタ数)をカウントし、カウントしたクラスタ数が3であるか否かを判断する(S34)。上述したように、パレット100の前面のうち、開口部110が形成された位置(高さ)では、レーザ光の水平走査によって略水平方向に伸びる直線(観測点群)は、開口部110によって3つに分断される(図7でYES)。したがって、ステップS34では、クラスタ数が3か否かを判断することで、抽出された直線がパレット100の前面に相当するか否かを判断できる。
 次に、制御装置30は、ステップS30で抽出された直線を構成する点群の長さが、パレット100の幅に概ね等しいか否かを判断する(S34)。ここで、パレット100の規格は既知であることが通常である。したがって、直線を構成する点群の長さと設定値(パレット100の規格から定められる値)を比較することによって、パレット100の前面の直線が抽出されているか否かを判断することができる。図8に示すように、直線を構成する点群の長さWは、例えば、点群のx方向の最大値及び最小値、y方向の最大値及び最小値を持つ観測点を用いることによって求めることができる。制御装置30は、求めた長さをパレット100の幅(設定値)と照らし合わせることによって、パレット100の幅に等しいか否かを判断する。
 上述したステップS34の処理において、少なくともいずれかの条件を満たさない場合(S34でNO)、制御装置30は、抽出された直線を構成する点群に対しての処理を中止し、ステップS38の処理へ進む。ステップS34の処理における条件を全て満たす場合(S34でYES)、制御装置30は、直線を構成する点群をパレット100の前面を観測したデータとして蓄積する(S36)。
 次に、制御装置30は、現在のレーザセンサ20の観測位置(高さ)が観測対象領域60の下限であるか否かを判断する(S38)。制御装置30は、フォーク昇降装置40を制御してフォーク22を昇降するため、フォーク22の上下方向の位置を知ることができる。レーザセンサ20は、フォーク22に取付けられているため、制御装置30(図3に示すセンサ位置検出部39)は、レーザセンサ20の高さ方向の位置を知ることができる。現在の観測位置(高さ)が観測対象領域60の下限である場合(S38でYES)、蓄積した観測点群(3次元距離画像44、以下、重畳点群ともいう)から、パレット100の位置、方向及び幅を特定する(S40)。すなわち、クラスタ数が3、かつ、直線を構成する点群の長さがパレット100の幅と等しいと判断された直線群は、パレット100の前面の開口部110が形成された高さ範囲から得られている。ステップS40では、これら直線群を構成する観測点群のデータを用いて、パレット100の位置、方向及び幅を特定する。ステップS40の処理については、以下に詳述する。なお、現在の観測位置(高さ)が観測対象領域60の下限でない場合(S38でNO)、制御装置30は、ステップS24の処理へ戻る。
 次に、ステップS40において、パレット100の位置、方向及び幅を特定する方法について説明する。まず、N個の重畳点群の各点(x,y,z)(i=1~N)のばらつきから主軸(すなわち、図9に示すx軸,y軸,z軸)を求めるため、下記の式(1)のような分散共分散行列を考える。
Figure JPOXMLDOC01-appb-M000001
 上記の式(1)においてxバー、yバー、zバーはそれぞれN個の点x,y,zの座標の平均であり、パレット100の前面の中心を意味する。
 次に、この行列から3次元空間における固有ベクトルを計算する。この固有ベクトルの第1主軸がパレットの側面方向のベクトルに相当し(図9のy軸)、第2主軸がパレットの上面方向のベクトルに相当し(図9のz軸)、第3主軸がパレットの前面の法線ベクトルに相当する(図9のx軸)。これによって、パレット前面の中心を座標系の原点とするパレットの位置及び方向が特定される。なお、主軸を表す固有ベクトルの方向は場合により正負が逆転することが考えられるため、レーザセンサ20との相対関係から符号を調節することが好ましい。
 ここで、パレット100の大きさ及び幅は、上述の固有ベクトルの第1、第2主軸で表される平面への重畳点群の射影により求めることができる。具体的には、第1主軸(y軸)への射影の最大値と最小値の差がパレット100の幅に相当し、第2主軸(z軸)への射影の最大値と最小値の差がパレット100の開口部110の高さ方向の寸法に相当する。すなわち、パレット100の大きさ及び幅を特定することができる。これによって、パレット100の位置、方向及び幅を特定することができる。また、第1、第2及び第3主軸で表される平面それぞれへの重畳点群の各射影の最大値と最小値との平均値を、パレット100の中心点とすることもできる。なお、上記のステップS40の処理によって実現される制御装置30の機能が、図3に示すパレット認識部36に相当する。
 上述した実施例のフォークリフト10では、レーザセンサ20がフォーク22に取付けられている。このため、フォーク22が昇降すると、それに応じてレーザセンサ20も昇降する。したがって、フォーク22を昇降しながら、レーザセンサ20が水平方向にレーザ光を走査するだけで、パレット100の3次元距離画像を取得することができる。また、パレット100の3次元距離画像から、パレット100の位置、方向及び幅を特定するため、パレット100の横方向の位置ずれや、回転に関するずれを検出することができる。その結果、フォーク22とパレット100との干渉を防止することができ、スムーズな荷取り作業が可能となる。
 また、本実施例のフォークリフト10では、レーザセンサ20によってパレット100上に荷物が載置されているか否かを判断でき、さらに、パレット100上の荷物の位置を知ることができる。これによって、パレット100上の偏った位置に荷物が載置されていることを事前に判断できるため、パレット100からの荷物の落下等を未然に防止することができる。また、パレット100上の荷物の形状が分かるため、荷物の種類を特定することも可能となる。
 最後に、上述した実施例と請求項との対応関係を説明しておく。フォーク昇降装置40が、請求項でいう「移動機構」の一例であり、演算・蓄積部34、パレット認識部36が、請求項でいう「演算装置」の一例である。
 以上、本実施例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例をさまざまに変形、変更したものが含まれる。
 例えば、本実施例では、フォークを上下方向に昇降させることでレーザ光を上下方向に走査したが、本明細書に開示する技術は、このような構成に限られない。例えば、図10に示すように、フォークの先端を基端に対して傾動させるティルト機構を利用して、レーザセンサ20から照射されるレーザ光を上下方向に走査してもよい。
 また、本実施例では、レーザセンサ20で得られた観測点群から直線を抽出することでパレット100を検出したが、本明細書に開示する技術は、レーザセンサ20で得られた観測点群から、パレット100の前面の平面を直接抽出するようにしてもよい。例えば、図11に示すように、床面Gにパレット100が直接載置され、パレット100上に荷物130が載置されている場合、レーザセンサ20によって、荷物130の前面(平面1)と、パレット100の前面(平面2)と、床面G(平面3)が抽出される。このため、パレット100の前面(平面2)を構成する観測点群に対して、図6に示すステップS40の処理を行うことで、パレット100の位置、方向及び幅を特定することができる。なお、平面の抽出には、図6のステップS30における直線の抽出と同様に、RANSACアルゴリズムを用いることができる。
 本明細書または図面に説明した技術要素は、単独であるいは各種の組み合わせによって技術的有用性を発揮するものであり、出願時請求項記載の組み合わせに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。

Claims (5)

  1.  フォークと、
     前記フォークを第1の方向に移動させる移動機構と、
     前記フォークに取付けられており、レーザ光を前記第1の方向と交差する第2の方向に走査すると共に、走査したレーザ光の反射光から周辺物体との距離を計測するレーザセンサと、
     前記移動機構を駆動して前記フォークを前記第1の方向に移動させながらレーザ光を前記第2の方向に走査したときに前記レーザセンサで取得される距離データに基づいて、レーザ光が照射された範囲の3次元距離画像を生成する演算装置と、
     を備えるフォークリフト。
  2.  前記移動機構は、前記フォークを上下方向に昇降させる昇降機構を少なくとも備えており、
     前記フォークが上下方向に昇降すると、前記レーザセンサも上下方向に昇降する、請求項1に記載のフォークリフト。
  3.  前記移動機構は、前記フォークの先端を基端に対して傾動させるティルト機構を少なくとも備えており、
     前記フォークの先端が基端に対して傾動すると、前記レーザセンサから照射されるレーザ光が上下方向に走査される、請求項1又は2に記載のフォークリフト。
  4.  前記演算装置は、生成した3次元距離画像にパレットが含まれている場合、当該3次元距離画像から前記パレットの位置、方向及び幅を特定する、請求項1~3のいずれか一項に記載のフォークリフト。
  5.  前記演算装置は、生成した3次元距離画像にパレットが含まれている場合、当該3次元距離画像から前記パレットの前面から得られた距離データのみを抽出し、その抽出された距離データから特定される前記パレットの前面の平面から、パレットの位置、方向及び幅を特定する、請求項4に記載のフォークリフト。
PCT/JP2016/061596 2015-05-12 2016-04-08 フォークリフト WO2016181733A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/572,809 US10850961B2 (en) 2015-05-12 2016-04-08 Forklift
CN201680027308.2A CN107531469B (zh) 2015-05-12 2016-04-08 叉车
EP16792458.8A EP3296250B1 (en) 2015-05-12 2016-04-08 Forklift

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-097487 2015-05-12
JP2015097487A JP6542574B2 (ja) 2015-05-12 2015-05-12 フォークリフト

Publications (1)

Publication Number Publication Date
WO2016181733A1 true WO2016181733A1 (ja) 2016-11-17

Family

ID=57247902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/061596 WO2016181733A1 (ja) 2015-05-12 2016-04-08 フォークリフト

Country Status (5)

Country Link
US (1) US10850961B2 (ja)
EP (1) EP3296250B1 (ja)
JP (1) JP6542574B2 (ja)
CN (1) CN107531469B (ja)
WO (1) WO2016181733A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3225584A1 (en) * 2016-03-30 2017-10-04 Kabushiki Kaisha Toyota Jidoshokki Forklift
WO2018173667A1 (ja) * 2017-03-22 2018-09-27 日本電気株式会社 車載装置、荷役機、制御回路、制御方法、及びプログラム
WO2018173663A1 (ja) * 2017-03-22 2018-09-27 日本電気株式会社 車載装置、荷役機、制御回路、制御方法、及びプログラム
KR20180120982A (ko) * 2017-04-28 2018-11-07 현대자동차주식회사 지게차 시스템, 및 그 제어방법
JP2022120728A (ja) * 2021-02-05 2022-08-18 三菱ロジスネクスト株式会社 移動体の制御方法、移動体及びプログラム
JP2022141380A (ja) * 2021-03-15 2022-09-29 三菱重工業株式会社 移動体の制御方法、移動体及びプログラム
US11591197B2 (en) * 2019-04-05 2023-02-28 The Raymond Corporation Load handling module for a material handling vehicle

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106672859B (zh) * 2017-01-05 2018-11-09 深圳市有光图像科技有限公司 一种基于叉车视觉识别托盘的方法及叉车
JP6822255B2 (ja) * 2017-03-22 2021-01-27 日本電気株式会社 車載装置、制御回路、制御方法、及びプログラム
JP6880950B2 (ja) * 2017-04-05 2021-06-02 村田機械株式会社 陥凹部検出装置、搬送装置、および、陥凹部検出方法
JP7259835B2 (ja) * 2018-02-23 2023-04-18 コニカミノルタ株式会社 フォークリフト用の画像処理装置、および制御プログラム
WO2020066847A1 (ja) * 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 採寸装置及び採寸方法
CN109850810B (zh) * 2019-03-13 2020-09-25 南京实邦智能科技有限公司 叉车运动控制方法及装置
CN110082720A (zh) * 2019-04-04 2019-08-02 南京实邦智能科技有限公司 托盘信息采集装置、控制方法及托盘搬运车辆
JP7095653B2 (ja) * 2019-05-21 2022-07-05 株式会社豊田自動織機 自動運転フォークリフト用荷置き位置検出装置
CN110428209B (zh) * 2019-08-16 2020-10-27 灵动科技(北京)有限公司 一种盘点设备、盘点管理系统及盘点方法
JP7172922B2 (ja) * 2019-09-05 2022-11-16 株式会社豊田自動織機 フォークリフト及びコンテナ姿勢検出方法
JP7272197B2 (ja) * 2019-09-13 2023-05-12 株式会社豊田自動織機 位置姿勢推定装置
US20230348247A1 (en) * 2020-02-27 2023-11-02 Mitsubishi Heavy Industries, Ltd. Control device, mobile body, movement control system, control method, and program
DE102020105804A1 (de) 2020-03-04 2021-09-09 Jungheinrich Aktiengesellschaft System zur Inspektion eines Lagers
JP7086148B2 (ja) 2020-08-31 2022-06-17 三菱ロジスネクスト株式会社 パレット検知装置、フォークリフト、パレット検知方法、及びプログラム
JP2022106386A (ja) * 2021-01-07 2022-07-20 グローリー株式会社 寸法測定装置および寸法測定方法
JP7482808B2 (ja) 2021-02-05 2024-05-14 三菱ロジスネクスト株式会社 移動体の制御方法、移動体及びプログラム
WO2022168377A1 (ja) * 2021-02-05 2022-08-11 パナソニックIpマネジメント株式会社 荷物搬送システム、並びに荷物搬送システムにおいて用いられる方法およびコンピュータプログラム
JP7556308B2 (ja) 2021-02-22 2024-09-26 株式会社豊田自動織機 位置姿勢推定装置
JP2022140048A (ja) * 2021-03-12 2022-09-26 オムロン株式会社 搬送台検出装置およびこれを備えた搬送台検出システム、搬送台検出方法、搬送台検出プログラム
JP2022140049A (ja) * 2021-03-12 2022-09-26 オムロン株式会社 搬送状態検出装置およびこれを備えた搬送状態検出システム、搬送状態検出方法および搬送状態検出プログラム
JP2022140064A (ja) * 2021-03-12 2022-09-26 オムロン株式会社 搬送ユニット、搬送方法、搬送プログラム
JP2022140045A (ja) * 2021-03-12 2022-09-26 オムロン株式会社 搬送可否判定装置、測距装置、搬送ユニット、搬送可否判定方法、搬送可否判定プログラム
US20220375206A1 (en) * 2021-05-19 2022-11-24 Nakanishi Metal Works Co., Ltd. Unmanned forklift
JP7472082B2 (ja) 2021-07-02 2024-04-22 三菱ロジスネクスト株式会社 無人フォークリフトの初期設定方法
JP7559707B2 (ja) * 2021-08-24 2024-10-02 株式会社豊田自動織機 フォークリフト
WO2023157443A1 (ja) * 2022-02-21 2023-08-24 株式会社日立製作所 物体姿勢算出装置および物体姿勢算出方法
EP4324782A1 (en) * 2022-08-16 2024-02-21 Palfinger AG Forklift

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5957898A (ja) * 1982-09-28 1984-04-03 株式会社豊田自動織機製作所 無人フオ−クリフトにおける荷役作業制御方法
JPH0279398U (ja) * 1988-12-05 1990-06-19
JPH11278799A (ja) * 1998-03-24 1999-10-12 Mitsubishi Electric Corp 無人フォークリフトにおける荷取り制御装置および無人フォークリフトにおける荷取り制御方法
JP2005089013A (ja) * 2003-09-12 2005-04-07 Nippon Yusoki Co Ltd フォークリフト

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10323641A1 (de) * 2003-05-26 2005-01-05 Daimlerchrysler Ag Bewegliche Sensoreinrichtung am Lastmittel eines Gabelstaplers
US8192137B2 (en) 2004-05-03 2012-06-05 Jervis B. Webb Company Automatic transport loading system and method
CN201237644Y (zh) * 2008-03-21 2009-05-13 上海海镭激光科技有限公司 一种叉车与装载机倒车报警装置
BE1018160A3 (nl) 2008-05-26 2010-06-01 Egemin Nv Automatisch gestuurd voertuig en werkwijze voor het sturen daarbij toegepast.
US8169596B2 (en) * 2009-08-17 2012-05-01 Seegrid Corporation System and method using a multi-plane curtain
US8538577B2 (en) 2010-03-05 2013-09-17 Crown Equipment Limited Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles
US8965561B2 (en) * 2013-03-15 2015-02-24 Cybernet Systems Corporation Automated warehousing using robotic forklifts

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5957898A (ja) * 1982-09-28 1984-04-03 株式会社豊田自動織機製作所 無人フオ−クリフトにおける荷役作業制御方法
JPH0279398U (ja) * 1988-12-05 1990-06-19
JPH11278799A (ja) * 1998-03-24 1999-10-12 Mitsubishi Electric Corp 無人フォークリフトにおける荷取り制御装置および無人フォークリフトにおける荷取り制御方法
JP2005089013A (ja) * 2003-09-12 2005-04-07 Nippon Yusoki Co Ltd フォークリフト

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3225584A1 (en) * 2016-03-30 2017-10-04 Kabushiki Kaisha Toyota Jidoshokki Forklift
WO2018173667A1 (ja) * 2017-03-22 2018-09-27 日本電気株式会社 車載装置、荷役機、制御回路、制御方法、及びプログラム
WO2018173663A1 (ja) * 2017-03-22 2018-09-27 日本電気株式会社 車載装置、荷役機、制御回路、制御方法、及びプログラム
JP2018158778A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 車載装置、荷役機、制御回路、制御方法、及びプログラム
JP2018158785A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 車載装置、荷役機、制御回路、制御方法、及びプログラム
US11667503B2 (en) 2017-03-22 2023-06-06 Nec Corporation Vehicle-mounted device, cargo handling machine, control circuit, control method, and program thereof
KR102359931B1 (ko) * 2017-04-28 2022-02-07 현대자동차 주식회사 지게차 시스템, 및 그 제어방법
KR20180120982A (ko) * 2017-04-28 2018-11-07 현대자동차주식회사 지게차 시스템, 및 그 제어방법
US11591197B2 (en) * 2019-04-05 2023-02-28 The Raymond Corporation Load handling module for a material handling vehicle
JP2022120728A (ja) * 2021-02-05 2022-08-18 三菱ロジスネクスト株式会社 移動体の制御方法、移動体及びプログラム
JP7179102B2 (ja) 2021-02-05 2022-11-28 三菱ロジスネクスト株式会社 移動体の制御方法、移動体及びプログラム
JP2022141380A (ja) * 2021-03-15 2022-09-29 三菱重工業株式会社 移動体の制御方法、移動体及びプログラム
JP7325465B2 (ja) 2021-03-15 2023-08-14 三菱重工業株式会社 移動体の制御方法、移動体及びプログラム
US12116253B2 (en) 2021-03-15 2024-10-15 Mitsubishi Heavy Industries, Ltd. Method of controlling movable body, movable body and program

Also Published As

Publication number Publication date
JP2016210586A (ja) 2016-12-15
US20180155169A1 (en) 2018-06-07
EP3296250B1 (en) 2019-03-20
JP6542574B2 (ja) 2019-07-10
EP3296250A1 (en) 2018-03-21
CN107531469A (zh) 2018-01-02
CN107531469B (zh) 2019-07-05
US10850961B2 (en) 2020-12-01
EP3296250A4 (en) 2018-04-04

Similar Documents

Publication Publication Date Title
WO2016181733A1 (ja) フォークリフト
JP6469506B2 (ja) フォークリフト
JP2017178567A (ja) フォークリフト
JP4462196B2 (ja) 移動車両
JP5170554B2 (ja) 物品収納設備における学習装置
JP2006528122A (ja) フォークリフトの荷物支持手段上の可動センサ装置
US20220189055A1 (en) Item detection device, item detection method, and industrial vehicle
JP6520492B2 (ja) フォークリフトにおける荷取り方法及びフォークリフト
JP3921968B2 (ja) 位置検出方法及び位置検出装置
JP5218479B2 (ja) 移動体システム
JP7192706B2 (ja) 位置姿勢推定装置
US20240134047A1 (en) Transport possibility determination device, distance measurement device, transport unit, transport possibility determination method, and transport possibility determination program
JP2022128063A (ja) 位置姿勢推定装置
JP2003212490A (ja) 産業車両における荷役作業支援装置及び産業車両
JP2020142903A (ja) 画像処理装置、および制御プログラム
JP7514819B2 (ja) 移動体の制御方法、移動体及びプログラム
JP2023064294A (ja) 位置姿勢推定装置
US20240273912A1 (en) Item detection device, item detection method, and industrial vehicle
WO2024219056A1 (ja) 移動体の制御方法、移動体及びプログラム
JP2023124122A (ja) 物品検出装置、物品検出方法、及び産業車両
US20240104768A1 (en) Article detection device, calibration method, and article detection method
JP2024141247A (ja) 搬送車、エッジ位置特定方法、距離算出方法および位置特定プログラム
JP2023076925A (ja) 位置姿勢推定装置
JP2023056669A (ja) 走行制御装置
JP2023048442A (ja) フォークリフト

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16792458

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15572809

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016792458

Country of ref document: EP