WO2017030205A1 - 距離センサー及びそれを用いた搬送用ロボット - Google Patents

距離センサー及びそれを用いた搬送用ロボット Download PDF

Info

Publication number
WO2017030205A1
WO2017030205A1 PCT/JP2016/074299 JP2016074299W WO2017030205A1 WO 2017030205 A1 WO2017030205 A1 WO 2017030205A1 JP 2016074299 W JP2016074299 W JP 2016074299W WO 2017030205 A1 WO2017030205 A1 WO 2017030205A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
semiconductor light
light emitting
obstacle
unit
Prior art date
Application number
PCT/JP2016/074299
Other languages
English (en)
French (fr)
Inventor
ジャスティン ソン ジッ ワン
恒 谷口
Original Assignee
株式会社Zmp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Zmp filed Critical 株式会社Zmp
Publication of WO2017030205A1 publication Critical patent/WO2017030205A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements

Definitions

  • the present invention relates to a distance sensor and a transport robot using the distance sensor, and more particularly to a distance sensor effective for collision prevention and a transport robot using the distance sensor.
  • transport robots that load and transport goods such as luggage and cargo from a predetermined location to a target location is underway.
  • the operation of the transport robot is equipped with a sensor for detecting an obstacle ahead of the moving direction and avoiding the collision so as to avoid the collision.
  • TOF Time of Flight
  • radar sensors using millimeter waves or light are well known as sensors for preventing collisions with obstacles.
  • a scanning element such as a laser scanner is used to scan the front.
  • the scanning element include a galvanometer mirror and a polygon mirror.
  • a galvano mirror and a motor for rotating the galvano mirror and a motor driving device are required, which increases the number of parts and costs, and is movable like a motor. Parts were also required, and there was a problem that reliability was low.
  • the first object of the present invention is to provide a distance sensor that can obtain obstacle information with high sensitivity and a high frame rate without using moving parts, and that is low in cost.
  • a second object is to provide a robot for use.
  • the distance sensor used for the traveling of the transfer robot according to the present invention is disposed at least at one or more locations on the front surface of the main body of the transfer robot.
  • a distance detection unit that detects an obstacle in an angle range; and an obstacle information generation unit that receives distance data output from the distance detection unit.
  • the distance detection unit includes a plurality of pulse semiconductor light-emitting elements, A lens that is disposed in front of each of the plurality of pulse semiconductor light emitting elements and spreads the beam in the horizontal direction within the predetermined angle range; a drive unit that oscillates the plurality of pulse semiconductor light emitting elements in synchronization; and the plurality of pulse semiconductor light emitting elements A line image sensor that detects reflected light generated by an obstacle in front of the element, and controls the drive unit and the line image sensor of the pulse semiconductor light emitting element.
  • That distance includes a detection control unit, the distance detection control unit for controlling the drive unit of the pulse semiconductor light emitting device controls such that a plurality of pulses semiconductor light emitting element to oscillate synchronously with a predetermined pulse width (T 0)
  • a distance detection control unit that controls the line image sensor calculates distance data between the pulse semiconductor light emitting element and the obstacle by a charge distribution method in each pixel of the line image sensor, and reflects the reflection of the pulse semiconductor light emitting element; Obstacle information by light is sent to the obstacle information generation unit, and the obstacle information generation unit sends the obstacle information to the CPU of the transport robot as obstacle information of the distance detection unit.
  • the lens is a rod lens, and on the upper surface of the line image sensor, preferably, a lens that collects reflected light and a filter that selectively transmits light having a light emission wavelength of the pulse semiconductor light emitting element.
  • the obstacle information generation unit preferably outputs the obstacle information to the CPU of the transport robot in synchronization with the output synchronization signal of each line image sensor.
  • a transport robot includes a main body, a wheel, a motor for driving the wheel, a motor driver, a drive control unit including a CPU, and a distance sensor, and the distance.
  • a sensor is disposed at least at one or more locations on the front surface of the main body, and a distance detection unit that detects an obstacle in a predetermined angular range ahead and an obstacle to which distance data output from each distance detection unit is input
  • An information generation unit, and the distance detection unit is disposed in front of the plurality of pulse semiconductor light-emitting elements and the plurality of pulse semiconductor light-emitting elements, respectively, and spreads the beam in the horizontal direction within the predetermined angle range;
  • a drive unit that oscillates the plurality of pulsed semiconductor light emitting elements in synchronization, and a line that detects reflected light generated by an obstacle in front of the plurality of pulsed semiconductor light emitting elements.
  • the distance detection control unit for controlling the driving unit and the line image sensor of the pulse semiconductor light emitting element, characterized in that.
  • the lens is a rod lens, and on the upper surface of the line image sensor, a lens that collects reflected light and a filter that selectively transmits light having the emission wavelength of the pulse semiconductor light emitting element are disposed.
  • the main body portion is provided with a handle, and the hand pushing portion of the handle is provided with an operation portion.
  • a speaker and / or a beacon that emits infrared light may be provided, and an infrared camera may be provided.
  • the obstacle information generation unit preferably sends the distance data output from the plurality of distance detection units to the CPU as obstacle information.
  • the infrared rays from the beacon are preferably acquired as position information by an infrared camera and sent to the CPU, and the obstacle information generation unit sends the distance data output from the plurality of distance detection units to the CPU as obstacle information. .
  • the present invention it is possible to provide a distance sensor that can obtain obstacle information with high sensitivity and high frame rate without using moving parts, and that is low in cost, and a transport robot using the distance sensor.
  • FIG. 1 It is a figure which shows the structure of the trolley
  • (A) is a perspective view
  • (B) is a top view
  • (C) is a front view. It is a bottom view of the transfer robot according to the first embodiment.
  • (A) is an equivalent circuit of the pixel structure when VTX1 is on
  • (B) is the surface potential of (A)
  • (C) is when VTX2 is on.
  • (D) is a diagram showing the surface potential of (C). It is a figure which shows the structure of the robot for conveyance which concerns on the 2nd Embodiment of this invention, (A) is a perspective view, (B) is a top view, (C) is a front view. It is a bottom view of the transfer robot according to the second embodiment. It is a figure explaining the operation mode in which a subunit
  • operation mode 2 it is a block diagram explaining the follow-up control to the main
  • FIG. 1 is a diagram showing a configuration of a transfer robot 1 according to a first embodiment of the present invention, where (A) is a perspective view, (B) is a plan view, (C) is a front view, and FIG. It is a bottom view of the transfer robot 1 of the invention.
  • the transfer robot 1 includes a main body 2 and a handle 3 that is gripped by an operator, and is configured as a carriage.
  • the lower surface of the main body 2 has two wheels 4, a motor 5 that drives the wheels 4, a speed reducer 6, and two casters 7 on the front side.
  • a drive control unit 10 for controlling the motor 5 by inputting information from various sensors and the like inside the main body unit 2.
  • the front indicates the traveling direction of the transfer robot 1 (see the arrow in FIG. 1B).
  • the main body 2 has, for example, a wheel 4 and two casters 7 disposed on the lower surface of a resin carrier.
  • a battery or a rechargeable secondary battery can be used as the power source 8 .
  • a lithium secondary battery can be used as the rechargeable secondary battery.
  • the power source 8 will be described as a lithium secondary battery 8a.
  • the distance sensor 20 for monitoring the front of the main body 2 is disposed at least one place on the front surface of the main body 2.
  • the distance sensor 20 can be provided at one central position on the front surface of the main body 2 and two left and right positions on the front surface.
  • first to third distance sensors 20a to 20c are provided at the left end, the center, and the right end of the front surface of the main body 2.
  • an inertial sensor 12 for measuring the acceleration and angular acceleration of the transfer robot 1 may be provided.
  • the inertial sensor 12 is also called an IMU (Internal Measurement Unit).
  • FIG. 3 is a block diagram showing the configuration of the drive control unit 10 of the transfer robot 1 of the present invention.
  • the drive control unit 10 includes a CPU 11, a motor driver 13, and the like, and receives information acquired by a sensor from a distance sensor 20 or the like for monitoring the front of the main body unit 2.
  • the drive control unit 10 controls the beacon 15 and the operation unit 18 and outputs an audio signal to the speaker 14.
  • the CPU 11 controls the motor driver 13 and the like based on the obstacle information input from the distance sensor 20.
  • a microcomputer such as a microprocessor or a microcontroller can be used as the CPU 11.
  • a signal from the distance sensor 20 or the like is input to the CPU 11 via an A / D converter or an input / output interface (I / O) as necessary.
  • MEMS Micro Electro Mechanical System
  • a sensor using a piezoelectric element gyro or MEMS technology can be used as an angular velocity or angular acceleration sensor particularly for controlling rotation in the operation of the transport robot 1.
  • the motor driver 13 is a circuit that controls the motor 5 for driving the wheels 4 and is controlled by the CPU 11.
  • the speaker 14 is provided to generate an alarm sound and a sound effect around the transport robot 1.
  • the beacon 15 includes an infrared light emitting element, and is controlled by the CPU 11 to generate infrared light having a predetermined light emission pattern.
  • the operation unit 18 is installed in the hand pressing unit 3a of the handle 3, and the operation information is displayed by the CPU 11.
  • the operator can also work in a mode in which the cargo is transported to a predetermined position without using force by manually operating the operation unit 18.
  • an infrared camera 19 may be provided according to the operation mode of the transfer robot 1 to be described later.
  • the first infrared ray is on the left side of the lower surface on the front side of the main body 2.
  • a second infrared camera 19b is provided on the right side of the camera 19a.
  • FIG. 4 is a block diagram showing the configuration of the distance sensor 20 of the present invention. As shown in FIG. 4, the distance sensor 20 includes a distance detection unit 21 and an obstacle information generation unit 28 to which distance data output from the distance detection unit 21 is input.
  • the distance detection unit 21 is a line image for detecting reflected light generated by an obstacle ahead of the plurality of pulse semiconductor light emitting elements 22, the plurality of pulse semiconductor light emitting element driving units 23, and the plurality of pulse semiconductor light emitting element lights 22.
  • the sensor 24 and the distance detection control part 26 which controls the drive part 23 and the line image sensor 24 of a pulse semiconductor light-emitting device are included.
  • the distance detection unit 21 includes first to third distance detection units 21, and distance data output from the first to third distance detection units 21 is output to the obstacle information generation unit 28.
  • a first distance detection unit 21 a that detects an obstacle on the left side and a second distance detection that detects an obstacle at the front center are provided on the lower surface on the front side of the main body 2.
  • a part 21b and a third distance detecting part 21c for detecting an obstacle on the right front side are arranged.
  • Each distance detection unit 21 includes a pulsed semiconductor light emitting element 22, a pulsed semiconductor light emitting element driving unit 23, and reflected light generated by the light emitted from the pulsed semiconductor light emitting element being reflected by an obstacle in front of the distance detecting unit 21. And a distance detection control unit 26 for controlling the image sensor 24 and the driving unit 23 of the pulse semiconductor light emitting element.
  • the image sensor 24 a line (one-dimensional) image sensor and an area (two-dimensional) image sensor can be used.
  • a line image sensor can be used.
  • the image sensor 24 will be described as a line image sensor.
  • the first distance detector 21a is generated by the pulse semiconductor light emitting element 22a, the pulse semiconductor light emitting element driver 23a, and the light emitted from the pulse semiconductor light emitting element reflected by an obstacle in front of the distance detector 21.
  • the line image sensor 24a detects the reflected light, the pulse semiconductor light emitting element drive unit 23a, and the first distance detection control unit 26a that controls the first line image sensor 24a.
  • the pulse semiconductor light emitting element 22a a pulse semiconductor laser or a pulse semiconductor light emitting diode that generates infrared light can be used.
  • the wavelength of the infrared light is a wavelength that can be detected by the line image sensor 24a, and is, for example, 830 nm.
  • the laser light emitting element 22a will be described as a pulsed semiconductor laser
  • the driving unit 23a of the pulsed semiconductor light emitting element will be described as a driving unit of a pulsed semiconductor laser.
  • the pulsed semiconductor laser 22a is composed of first to third pulsed semiconductor lasers 22a1 to 22a3, and generates pulsed semiconductor lasers at different angles.
  • the first to third pulse semiconductor lasers 22a1 to 22a3 irradiate in the range of 0 ° to 60 ° out of 180 ° in front of the distance detector 21, for example, 0 ° to 20 °. It is arranged in the direction of °, the direction of 20 ° to 40 °, and the direction of 40 ° to 60 °.
  • a lens 29 for expanding a horizontal beam is disposed in front of the first to third pulse semiconductor lasers 22a1 to 22a3.
  • a rod lens can be used as the lens 29.
  • FIG. 5 is a view showing an example of the rod lens 29.
  • the rod lens 29 has a cylindrical shape and is disposed in front of the first pulse semiconductor laser 22a1.
  • the material of the rod lens 29 is optical glass or resin.
  • the laser light emitted from the first pulsed semiconductor laser 22a1 is perpendicularly incident on the cylindrical surface of the rod lens 29, passes through the rod lens 29, and the beam is expanded in the direction of the horizontal angle ⁇ , so that the rod lens. 29.
  • the angle ⁇ in the horizontal direction can be controlled by changing the diameter of the cylinder.
  • the reason why the beam width in the horizontal direction is widened is to widen the beam in the horizontal direction in front of the main body 2, so that the beam does not spread in the vertical direction in front of the main body 2. Accordingly, the horizontal detection angle can be increased, the amount of light can be increased, and the obstacle detection distance can be increased.
  • the detection distance is, for example, 4 to 6 m.
  • the second distance detector 21b and the third distance detector 21c are also configured in the same manner as the first distance detector 21a.
  • the pulse semiconductor laser 22b is composed of fourth to sixth pulse semiconductor lasers 22b1 to 22b3, and generates semiconductor laser beams having pulses at different angles.
  • the fourth to sixth pulsed semiconductor lasers 22b1 to 22b3 are, for example, 60 ° to 80 ° in order to irradiate a range of 60 ° to 120 ° out of 180 ° in front of the distance detector 21. It is arranged in the direction of °, the direction of 80 ° to 100 °, and the direction of 100 ° to 120 °.
  • the pulse semiconductor laser 22c is composed of seventh to ninth pulse semiconductor lasers 22c1 to 22c3, and generates semiconductor laser beams having pulses at different angles.
  • the seventh to ninth pulsed semiconductor lasers 22c1 to 22c3 are irradiated in a range of 120 ° to 180 ° out of 180 ° in front of the distance detecting unit 21, in a direction of 120 ° to 140 °, 140 They are arranged in the direction of ° to 160 ° and in the direction of 160 ° to 180 °.
  • a distance sensor 20 may be further provided at the rear part of the main body 2.
  • the drive unit 23a of the first pulse semiconductor laser 22a has a function of simultaneously oscillating the first to third pulse semiconductor lasers 22a1 to 22a3 in response to an oscillation control signal from the second distance detection control unit 26a. ing.
  • a commercially available drive integrated circuit (IC) for a pulse semiconductor laser can be used as the drive unit 23a of the first pulse semiconductor laser 22a.
  • IC drive integrated circuit
  • the driving units 23b and 23c of the second and third pulsed semiconductor lasers are configured in the same manner as the driving unit 23a of the first pulsed semiconductor laser.
  • the first to ninth pulse semiconductor lasers 22a1 to 22a9 oscillate with a predetermined pulse width and a predetermined duty ratio by the drive units 23a to 23c of the first to third pulse semiconductor light emitting elements.
  • the first to third pulse semiconductor lasers 22a1 to 22a3, the fourth to sixth pulse semiconductor lasers 22a4 to 22a6, and the seventh to ninth pulse semiconductor lasers 22a7 to 22a9 oscillate simultaneously.
  • the first to ninth pulse semiconductor lasers 22a1 to 22a9 emit pulse-modulated infrared light for detecting obstacles at intervals of about 20 ° in the forward 0 ° to 180 ° direction. It will be.
  • a filter 30 and a condensing lens 31 are provided on the first to third line image sensors 24a to 24c.
  • the filter 30 and the condensing lens 31 are disposed in a housing portion 32 disposed around the first to third line image sensors 24a to 24c.
  • the filter 30 is a filter that selectively transmits infrared light of, for example, 820 nm, which is the emission wavelength of the pulsed semiconductor laser 22, that is, a so-called bandpass filter. It has the function not to make it enter.
  • the condensing lens 31 is provided for condensing reflected light of a predetermined angle on the line image sensor 24.
  • the light collection range may be about 60 °.
  • a convex lens or a Fresnel lens can be used as the condensing lens 31.
  • the first to third line image sensors 24a to 24c have the same configuration and are so-called TOF distance sensors based on time of flight.
  • the time delay Td is calculated by the phase difference measurement by the charge distribution method without directly measuring the time delay Td of the reflected light generated by the pulsed semiconductor laser 22.
  • the distance L is calculated by substituting the time delay Td into the following equation (1). Td is also called a delay time.
  • FIG. 6 is a block diagram of the line image sensor 24 for calculating distance by phase difference measurement
  • FIG. 7 is a timing chart for explaining distance measurement by the charge distribution method.
  • the line image sensor 24 includes pixels 40 arranged in a line, a sample and hold circuit 41 connected to the pixel 40, and a horizontal shift register 42 connected to the sample and hold circuit 41.
  • a bias generation circuit 43 that supplies a bias voltage to the pixel 40 and the sample and hold circuit 41, and buffer amplifiers 44 and 44 that amplify the output voltage output from the sample and hold circuit 41.
  • Pin 1 Image reset bias voltage (Vr) input
  • Pin 2 In-pixel modulation clock pulse VTX3 input
  • Pin 3 In-pixel modulation clock pulse VTX2 input
  • Pin 4 In-pixel modulation clock pulse VTX1 input
  • Pin 5 Pixel reset pulse (p_res )
  • Input Pin 6 Signal sampling pulse (phis) input
  • Pin 7 Master clock pulse (mclk) input
  • Pin 8 Signal read trigger pulse (trig) input
  • Pin 9 Output signal synchronization pulse (dclk) output
  • Pin 10 Digital power supply voltage (Vdd (D)) input pins 11, 14, 18-22: Ground (GND)
  • Pin 12 Output signal 2 (V 2 )
  • Pin 13 Output signal 1 (V 1 )
  • Pin 15 Analog power supply voltage (V dd (A))
  • Pin 16 Photosensor bias voltage (Vpg) input
  • Pin 17 Pixel amplifier bias voltage (V sf ) input
  • the line image sensor 24 is supplied with the following bias voltage.
  • intra-pixel modulation clock pulses VTX1 to VTX3, pixel reset pulses (p_res), signal sampling are performed as pulse signals synchronized with the first pulse semiconductor laser 22 by the first distance detection control unit 26a.
  • a pulse (phis), a master clock pulse (mclk), and a signal readout trigger pulse (trig) are input.
  • FIG. 7 is a timing chart for explaining the principle of distance measurement by the charge distribution method.
  • (A) is the pulsed light of the first pulsed semiconductor laser 22a
  • (B) is the reflected pulsed light from the obstacle
  • (C) is The intra-pixel modulation clock pulse VTX1,
  • (D) indicates the intra-pixel modulation clock pulse VTX2.
  • the pulse width of the pulsed light of the first pulse semiconductor laser 22a is T 0
  • the reflected pulse light reaches the pixels 40 of the line image sensor 24 after a delay time Td (See FIG. 7B).
  • FIG. 8 shows an equivalent circuit of the pixel structure and the surface potential of the pixel 40
  • (A) is an equivalent circuit of the pixel structure when VTX1 is on
  • (B) is the surface potential of (A)
  • (C) is VTX2
  • the equivalent circuit of the pixel structure when on, (D) is a diagram showing the surface potential of (C).
  • the pixel 40 is applied with a light receiving portion bias voltage (Vpg).
  • Vpg light receiving portion bias voltage
  • VTX1 is on, if VTX2 is off, electrons generated by the reflected light enters the integrating capacitor Cfd 1, this time
  • the charge generated in the integration capacitor Cfd 1 is Q 1 (see FIG. 7B).
  • VTX1 is off, when VTX2 is on, electrons generated by the reflected light enters the integrating capacitor Cfd 2 At this time, the charge generated in the integration capacitor Cfd 2 is Q 2 (see FIG. 7D).
  • Td is represented by the following formula (4).
  • the sizes of Cfd 1 and Cfd 2 can be determined by the pattern of each pixel 40.
  • Td ⁇ V 2 / (V 1 + V 2 ) ⁇ ⁇ T 0 (4)
  • V 1 is output from the pin 13
  • V 2 is output from the pin 12
  • the pulse width of the first pulsed semiconductor laser 22 a is a known value, so the Td obtained by the equation (4) is the above (1)
  • the pulse width of the first pulsed semiconductor laser 22a is controlled by a distance detection control unit 26 that controls the drive unit 23a of the first pulsed semiconductor laser 22a.
  • the distance L between the transfer robot 1 and the obstacle for each pixel 40 is sequentially output by the horizontal shift register 42 or the like.
  • the first distance detector 21a detects the reflected light from the obstacle at 0 ° to 60 ° ahead, and obtains distance information from the obstacle.
  • the filter 30 that transmits only the wavelength of the pulsed semiconductor laser 22 is provided on the upper surface of the line image sensor 24, the reflected light from the pulsed semiconductor laser 22 is not affected by ambient light or sunlight. Can be detected with high sensitivity.
  • the distance detection control unit 26 controls the driving unit 23 of the pulse semiconductor light emitting element so that the plurality of pulse semiconductor light emitting elements 22 are synchronously oscillated with a predetermined pulse width (T 0 ).
  • Delay time (Td) is calculated by phase difference measurement by charge distribution in each pixel 40, and distance data between the pulse semiconductor light emitting element 22 and the obstacle is calculated from the delay time (Td) and the pulse width (T 0 ).
  • the distance data is sent to the obstacle information generation unit 28.
  • the control in the distance detection control unit 26 is executed by the following steps. Step 1: A pulse oscillation control signal is output from the first distance detection control unit 26a to the drive unit 23a of the pulsed semiconductor laser 22a.
  • Step 2 the first distance detection control unit 26a sends out a signal for controlling the line image sensor 24a, the output signal V 1 and V 2 from the line image sensor 24a is inputted.
  • Step 3 the first distance detection control unit 26a includes a pulse width of the pulse semiconductor laser 22a, the output signal V 1 and V 2 from the line image sensor 24a, the distance L between the obstacle detected for each pixel 40 Obstacle information in the range of 0 ° to 60 ° is obtained by calculation using the above equations (1) and (4).
  • Step 4 The obstacle information of the first distance detector 21a obtained in this way is sent to the obstacle information generator 28.
  • control is executed in the same manner as in the first distance detection control unit 26a, and obstacle information in the range of 60 ° to 120 ° is obtained.
  • This second distance detection unit The obstacle information acquired in 21b is sent to the obstacle information generation unit 28.
  • control is executed in the same manner as the first distance detection control unit 26a, and obstacle information in the range of 120 ° to 180 ° is obtained.
  • This third distance detection unit The obstacle information acquired in 21b is sent to the obstacle information generation unit 28.
  • the first to third distance detection control units 26a to 26c are configured by using an FPGA (Field Programmable Gate Array) which is a programmable integrated circuit or a microcomputer.
  • FPGA Field Programmable Gate Array
  • the obstacle information generation unit 28 sends the obstacle information input from the first to third distance detection control units 26a to 26c to the CPU 11 of the drive control unit 10 as obstacle information in the direction of 0 to 180 °. .
  • the obstacle information generation unit 28 can be configured using an FPGA or a microcomputer.
  • the obstacle information generation unit 28 can output obstacle information to the CPU 11 of the transport robot 1 in synchronization with the output synchronization signal (dclk) of each line image sensor 24. Further, when only one distance sensor 20 is provided at the center of the main body 2, the obstacle information generation unit 28 is omitted and the obstacle information is directly output from the distance detection control unit 26 to the CPU 11 of the transport robot 1. May be.
  • the distance sensor 20 is disposed, for example, at least one position on the front surface of the main body 2 of the transfer robot 1 and detects a front obstacle in a predetermined angle range.
  • an obstacle information generation unit 28 to which distance data output from the plurality of distance detection units 21 is input.
  • the distance detector 21 includes a plurality of pulse semiconductor light emitting elements 22, a lens 29 that is disposed in front of the plurality of pulse semiconductor light emitting elements, and spreads the beam in a horizontal direction within a predetermined angle range, and the plurality of pulse semiconductor light emitting elements 22.
  • the distance detection control unit 26 that controls the driving unit 23 of the pulse semiconductor light emitting element controls the plurality of pulse semiconductor light emitting elements 22 to oscillate synchronously with a predetermined pulse width (T 0 ).
  • T 0 predetermined pulse width
  • each of the plurality of pulse semiconductor light emitting elements 22 of each distance detection control unit 26 is synchronously oscillated with a predetermined pulse width (T 0 ) asynchronously with the other distance detection control units 26. You may control to do.
  • the distance detection control unit 26 that controls the line image sensor calculates distance data between the pulse semiconductor light emitting element 22 and the obstacle by the charge distribution method in each pixel 40 of the line image sensor 24, and the reflected light of the pulse semiconductor light emitting element 22. Is sent to the obstacle information generation unit 28.
  • the obstacle information generation unit 28 sends the obstacle information by the reflected light of the pulse semiconductor light emitting element 22 to the CPU 11 of the transport robot 1 as the obstacle information of each distance detection unit 21.
  • the distance between the pulse semiconductor laser 22 and the obstacle can be detected with high accuracy by the infrared rays that are irradiated with the pulse semiconductor laser 22 and reflected by the obstacle.
  • the filter 30 that transmits only the oscillation wavelength of the pulsed semiconductor laser 22 is provided on the upper surface of the line image sensor 24, the distance can be measured without being affected by sunlight or the like.
  • Transfer robot operation mode 1 As the operation mode 1 of the transfer robot 1, in the transfer robot 1 shown in FIGS. 1 to 3, the operation unit 18 is installed in the hand pushing unit 3 a of the handdle unit 3, and operation information is displayed by the CPU 11. The operator can carry the load to a predetermined position by using the operation unit 18 without using force.
  • FIGS. 9A and 9B are diagrams showing the configuration of a transfer robot 50 according to the second embodiment of the present invention, where FIG. 9A is a perspective view, FIG. 9B is a plan view, FIG. 9C is a front view, and FIG. It is a bottom view of the transfer robot 50 of the invention.
  • the transfer robot 50 according to the second embodiment of the present invention is different from the transfer robot 1 shown in FIGS. 1 to 3 in that the handle 3 is not provided.
  • the main body 52 is provided with the infrared camera 19 and the drive control unit 60.
  • a first infrared camera 19a is disposed on the left side of the lower surface of the front side of the main body 52, and a second infrared camera 19b is disposed on the right side.
  • the transfer robot 50 (slave device) can be automatically driven in the operation mode 2 in which the transfer robot 1 according to the first embodiment of the present invention is used as a parent device and follows the operation direction of the parent device.
  • FIG. 11 is a diagram for explaining an operation mode in which the slave unit follows the master unit. As shown in FIG. 11, the transport robot 1 is used as a parent machine, and the transfer robot 50 is used as a child machine so that the vehicle automatically travels to follow the parent machine.
  • the transport robot 1 (master unit) is operated by the operator 55 using the operation unit 18 of the transport robot 1.
  • the transfer robot 1 (master unit) includes a beacon 15. In the beacon 15, the infrared light emitting element blinks in a predetermined blinking pattern.
  • the beacon position information of the transfer robot 1 is detected by the infrared camera 19 disposed in the transfer robot 50 (slave unit), and the first to Obstacle information is detected by the third distance detectors 21a to 21c.
  • FIG. 12 is a block diagram for explaining the follow-up control to the parent device by the child device drive control unit 60 in the operation mode 2.
  • the follow-up control to the parent device by the drive control unit 60 is executed by the following steps.
  • Step 10 The beacon position information is detected from the beacon 15 of the transfer robot 1 (master machine) by the first infrared camera 19a and input to the CPU 11.
  • Step 11 The beacon position information is detected from the beacon 15 of the parent device 1 by the second infrared camera 19b and input to the CPU 11.
  • Step 12 The distance from the base unit 1 is measured by the first to third distance detectors 21a to 21c, and this obstacle information is input to the CPU 11.
  • the CPU 11 calculates an appropriate traveling direction and speed based on the orientation of the master unit obtained from the beacon position information and the distance from the master unit 1 obtained from the obstacle information, and further converts it to the rotational speed of the motor 5. Then, control signals are sent to the left and right motor drivers 13.
  • Step 13 The left and right motor drivers 13a and 13b pass an appropriate current to the left and right motors 5 based on the control signal.
  • Step 14 When the motor 5 rotates and the direction in which the slave unit moves forward is changed, the steering is performed with the rotation speeds of the left and right motors 5 being different.
  • Step 15 During the follow-up operation of the slave unit 50, an audio signal such as music may be output from the speaker 14 in order to notify the surrounding worker 55 that the slave unit is running.
  • Step 20 If an obstacle is caught at a long distance (for example, 2 m) ahead, change the course to the right and avoid it.
  • Step 21 When an obstacle is caught in the middle distance (for example, 50 cm) in front, it stops, avoids a collision, and reproduces a sound such as “I found an obstacle”.
  • Step 22 Even when an obstacle is caught at a short distance (for example, 30 cm) regardless of the direction, it stops and avoids a collision, and reproduces the same sound as described above.
  • Step 30 If an obstacle is caught at a long distance in front or left front, the course is changed to the right to avoid it.
  • Step 31 If an obstacle is caught at a long distance in front or right front, the course is changed to the left to avoid it.
  • Step 32 Even when an obstacle is caught at a short distance (for example, 30 cm) regardless of the direction, it stops and avoids collision, and reproduces the same sound as above.
  • Step 40 When an obstacle is caught at a long distance (for example, 2 m) ahead, the course is changed to the left to avoid it.
  • Step 41 If an obstacle is caught at a medium distance (for example, 50 cm) ahead, it stops, avoids a collision, and reproduces a sound such as “I found an obstacle”.
  • Step 42 Even when an obstacle is caught at a short distance (for example, 30 cm) regardless of the direction, it stops and avoids a collision, and reproduces the same sound as described above.
  • FIG. 13 is a schematic diagram for explaining the autonomous traveling of the slave unit 50. As shown in FIG. 13, poles 71 with beacons are disposed at the four corners of the warehouse 70, and the slave unit 50 can be autonomously traveled from a travel start point to a travel end point that is a preset route.
  • the slave unit 50 can learn the travel route by the following method.
  • Step 51 The operator 55 switches the transfer robot 1 serving as a parent machine to the operation mode 1 by operating the operation unit 18.
  • base unit 1 receives an infrared signal transmitted from pole 71 with a beacon. Infrared light obtained by modulating data relating to the identification number (ID), distance, and direction of the beacon pole 71 with a predetermined light emission pattern is transmitted from the beacon 15 to the subsequent transport robot 50.
  • ID identification number
  • ID identification number
  • direction of the beacon pole 71 with a predetermined light emission pattern is transmitted from the beacon 15 to the subsequent transport robot 50.
  • Step 54 The transport robot 50 serving as the slave unit follows the beacon of the master unit 1, that is, travels in the operation mode 2, and obtains the identification number, distance, and direction data of the beaconed pole 71 of the master unit 1. Record.
  • Step 55 When the travel of the desired route is completed, the travel route learning mode of the slave unit 50 is terminated. Thereby, the setting of the travel route is completed.
  • Step 56 After the travel route is set, the operator 55 sets the slave unit 50 in the autonomous travel mode, that is, the operation mode 3, so that the travel route acquired in the above steps 51 to 55 is followed. It can be autonomously run.
  • the beacon-attached pole 71 is a pillar to which the same beacon as the beacon 15 of the transport robot 1 is attached.
  • the beacon 15 is controlled by the CPU 11 to generate infrared rays having a predetermined light emission pattern.
  • the infrared light may be modulated such that its identification number (ID) or position is identified, for example.
  • the preset route is, for example, a first beacon pole 71a disposed in the lower right, a second beacon pole 71b disposed in the lower left, and a third beacon pole 71c disposed in the upper left. This is the order of the fourth beacon pole 71d disposed on the upper right. In the case shown in the drawing, an obstacle 75 is placed near the third beacon pole 71c disposed on the upper left.
  • the worker 55 turns on a switch for autonomously running the transfer robot 50 after loading the load on the transfer robot 50 at the travel start point.
  • the worker 55 moves to the travel end point when the transport robot 50 travels to the vicinity of the second beacon pole 71b disposed at the lower left, for example, because the worker 55 is not recognized as the obstacle 75. And wait.
  • the transfer robot 50 is configured to detect obstacles acquired by the beacon position information by the infrared camera 19 and the distance detectors 21a to 21c in the middle of the second beacon pole 71b to the third beacon pole 71c.
  • the traveling direction is changed to the right and the vehicle travels autonomously to the travel end point.
  • the worker 55 turns off the autonomous traveling of the transfer robot 50 at the traveling end point.
  • the worker 55 may turn on the autonomous running again and cause the transfer robot 50 to run autonomously to the starting point of travel.
  • the Example of the distance sensor 20 of this invention is shown.
  • FIG. 14 is a diagram schematically showing the substrate 80 of the first distance detection unit 21a of the distance sensor 20.
  • the distance sensor 20 includes a lens 29, and includes a pulsed semiconductor laser 22a1 to 22a3 that emits light in a direction of 0 to 60 °, a line image sensor 24a in which a condensing lens 31 and a filter 30 are disposed, and the like. . An outline of the parts used is shown below.
  • Pulsed semiconductor laser 22a1 emission wavelength 830 nm (manufactured by Sharp Corporation, GH4837A1TG)
  • Pulsed semiconductor laser driver 23a iC-HG laser driver (manufactured by iC Haus)
  • Distance detection control unit 26a FPGA (manufactured by Altera, Cyclone III)
  • FIG. 15 is a diagram illustrating an example of distance information obtained by the line image sensor 24a measured by the distance detection unit 21a according to the embodiment.
  • the horizontal axis of the figure is the number of pixels (CH), and the vertical axis is the distance (m).
  • CH number of pixels
  • m distance
  • FIG. 15 it can be seen that there is an obstacle at a distance of about 1 m at a location where the number of pixels is 60 to 170.
  • Distance information (60 frames / s) of 60 frames was obtained per second. From the above results, it was found that the distance sensor 20 of the present invention can obtain obstacle information with high sensitivity and high frame rate without using moving parts.
  • the transfer robot 1 may be a so-called trolley-type transfer robot in which two, three, or four sides are surrounded by vertical walls, instead of the cart shown in FIG. It may be a thing. In that case, you may set the main-body part 2 carrying various sensors, the drive control part 10 grade
  • the distance detection unit 21 of the distance sensor 20 may set the number of pulse semiconductor light emitting elements 22 and the beam width thereof appropriately in consideration of the detection distance of the obstacle 75, its resolution, and frame rate.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

距離センサーは、距離検出部と、距離検出部から出力される距離データが入力される障害物情報生成部とを備え、距離検出部は、複数のパルス半導体発光素子と、複数のパルス半導体発光素子の駆動部と、複数のパルス半導体発光素子の前方にある障害物により生じる反射光を検出するラインイメージセンサーと、駆動部及びラインイメージセンサーを制御する距離検出制御部とを含み、距離検出制御部は、複数のパルス半導体発光素子を所定のパルス幅で同期発振するように駆動部を制御し、反射光により、ラインイメージセンサーの各画素において電荷振り分けによる位相差測定により遅延時間を算出し、遅延時間とパルス幅とからパルス半導体発光素子と障害物との距離データを算出する。可動部品を使用しないで、高感度で高フレームレートの障害物情報が得られ、かつ低コストである距離センサー及びそれを用いた搬送用ロボットが提供される。

Description

距離センサー及びそれを用いた搬送用ロボット
 本発明は、距離センサー及びそれを用いた搬送用ロボットに関し、特に衝突防止に有効な距離センサー及びそれを用いた搬送用ロボットに関する。
 作業者の負担の軽減等のために、荷物、貨物などの搬送物を積載して所定の場所から目的の場所まで搬送する搬送用ロボットの実用化が進められている。搬送用ロボットの運行には、その移動方向前方の障害物を検知して、衝突しないようこれを避けて移動するためのセンサーが搭載されている。
 距離を検出する距離センサーとしては、光を用いた飛行時間型(Time of Flight、以下、TOFという)センサーが知られている(非特許文献1及び2参照)。
 さらに、障害物との衝突防止用のセンサーとしては、ミリ波や光を用いるレーダーセンサーが公知である。光を用いるレーダーセンサーでは、前方を走査するために、レーザースキャンナー等の走査素子が用いられている。走査素子は、例えば、ガルバノミラーやポリゴンミラーがある。
http://www.hamamatsu.com/jp/ja/S11961-01CR.html、測距リニアイメージセンサ、S11961-01CR, https://www.hamamatsu.com/resources/pdf/ssd/05_handbook. .pdf、第5章、イメージセンサ、pp.146-149
 しかしながら、レーザースキャンナーにおいては、例えば、ガルバノミラーとガルバノミラーを回転させるためのモーターとモーターの駆動装置などが必要になり、部品点数が多くなってコストが高いこと、また、モーターのような可動部品も必要となり、信頼性が低いという課題があった。
 本発明は、可動部品を使用しないで、高感度で高フレームレートの障害物情報が得られ、かつ低コストである距離センサーを提供することを第一の目的とし、この距離センサーを用いた搬送用ロボットを提供することを第二の目的とする。
 本発明の第一の目的を達成するために、本発明の搬送用ロボットの走行に用いられる距離センサーは、前記搬送用ロボットの本体部の前面の少なくとも1個所以上に配置され、前方の所定の角度範囲の障害物を検出する距離検出部と前記距離検出部から出力される距離データが入力される障害物情報生成部とを備え、前記距離検出部は、複数のパルス半導体発光素子と、該複数のパルス半導体発光素子の前方にそれぞれ配設され前記所定角度範囲で水平方向にビームを広げるレンズと、前記複数のパルス半導体発光素子を同期して発振させる駆動部と、前記複数のパルス半導体発光素子の前方にある障害物により生じる反射光を検出するラインイメージセンサーと、前記パルス半導体発光素子の駆動部及び前記ラインイメージセンサーを制御する距離検出制御部と、を含み、前記パルス半導体発光素子の駆動部を制御する距離検出制御部は、複数のパルス半導体発光素子が所定のパルス幅(T)で同期発振するように制御し、前記ラインイメージセンサーを制御する距離検出制御部は、前記ラインイメージセンサーの各画素において電荷振り分け法により前記パルス半導体発光素子と前記障害物との距離データを算出し、前記パルス半導体発光素子の反射光による障害物情報を前記障害物情報生成部へ送出し、前記障害物情報生成部は、前記障害物情報を前記距離検出部の障害物情報として前記搬送用ロボットのCPUへ送出することを特徴とする。
 上記構成において、レンズはロッドレンズであり、ラインイメージセンサーの上面には、好ましくは、反射光を集光するレンズと、パルス半導体発光素子の発光波長の光を選択的に透過するフィルターと、が配設される。障害物情報生成部は、好ましくは、各ラインイメージセンサーの出力同期信号に同期して、障害物情報を搬送用ロボットのCPUに出力する。
 本発明の第二の目的を達成するために、本発明の搬送用ロボットは、本体部と車輪と車輪を駆動するモーターとモータードライバー及びCPUからなる駆動制御部と距離センサーとを含み、前記距離センサーは、前記本体部の前面の少なくとも1個所以上に配置され、前方の所定の角度範囲の障害物を検出する距離検出部と前記各距離検出部から出力される距離データが入力される障害物情報生成部とを備え、前記距離検出部は、複数のパルス半導体発光素子と、該複数のパルス半導体発光素子の前方にそれぞれ配設され、前記所定角度範囲で水平方向にビームを広げるレンズと、前記複数のパルス半導体発光素子を同期して発振させる駆動部と、前記複数のパルス半導体発光素子の前方にある障害物により生じる反射光を検出するラインイメージセンサーと、前記パルス半導体発光素子の駆動部及び前記ラインイメージセンサーを制御する距離検出制御部とを含む、ことを特徴とする。
 上記構成において、レンズはロッドレンズであり、ラインイメージセンサーの上面には、反射光を集光するレンズとパルス半導体発光素子の発光波長の光を選択的に透過するフィルターとが配設される。本体部にはハンドルが備えられ、ハンドルの手押し部には操作部が備えられる。スピーカ及び/又は赤外線を発光するビーコンが備えられてもよく、赤外線カメラが備えられてもよい。障害物情報生成部は、好ましくは、複数の距離検出部から出力される距離データを障害物情報としてCPUへ送出する。ビーコンからの赤外線は、好ましくは、赤外線カメラにより位置情報として取得されてCPUへ送出され、障害物情報生成部は、複数の距離検出部から出力される距離データを障害物情報としてCPUへ送出する。
 本発明によれば、可動部品を使用することなく、高感度で高フレームレートの障害物情報が得られ、かつ低コストである距離センサー及びそれを用いた搬送用ロボットを提供することができる。
本発明の第1の実施形態に係る台車型の搬送用ロボットの構成を示す図であり、(A)は斜視図、(B)は平面図、(C)は正面図である。 第1の実施形態に係る搬送用ロボットの下面図である。 本発明の搬送用ロボットの駆動制御部の構成を示すブロック図である。 本発明の距離センサーの構成を示すブロック図である。 ロッドレンズの一例を示す図である。 位相差測定で距離を算出するラインイメージセンサーのブロック図である。 電荷振り分け法による距離測定を説明するタイミングチャートである。 画素構造の等価回路と画素の表面電位を示し、(A)はVTX1がオンのときの画素構造の等価回路、(B)は(A)の表面電位、(C)はVTX2がオンのときの画素構造の等価回路、(D)は(C)の表面電位を示す図である。 本発明の第2の実施形態に係る搬送用ロボットの構成を示す図であり、(A)は斜視図、(B)は平面図、(C)は正面図である。 第2の実施形態に係る搬送用ロボットの下面図である。 親機に子機が追従する運行モードを説明する図である。 運行モード2において、駆動制御部による親機への追従制御を説明するブロック図である。 搬送用ロボットの自律走行を説明する模式的な図である。 第1の距離検出部の基板を模式的に示す図である。 実施例の距離検出部で測定したラインイメージセンサーによる距離情報の一例を示す図である。
 以下、図面を参照しながら、本発明を実施するための形態について詳細に説明する。
 図1は、本発明の第1の実施形態に係る搬送用ロボット1の構成を示す図で、(A)は斜視図、(B)は平面図、(C)は正面図、図2は本発明の搬送用ロボット1の下面図である。図1(A)~(C)に示すように、搬送用ロボット1は、本体部2と作業者が握持するハンドル3とを備え、台車型に構成されている。図1(B)、(C)に示すように、本体部2の下面には、その前方に2つの車輪4と、車輪4を駆動するモーター5と、減速機6と、2つのキャスター7と、を備え、本体部2の内部には各種のセンサー等からの情報が入力されてモーター5の制御等を行う駆動制御部10と、を含んで構成されている。本発明において、前方とは、搬送用ロボット1の進行方向(図1(B)の矢印参照)を示す。
 図2に示すように、本体部2は例えば、樹脂製の荷台の下面に車輪4と2つのキャスター7とが配設されている。電源8は、電池や充電可能な二次電池を用いることができる。充電可能な二次電池としては、リチウム二次電池を用いることができる。以下の説明では、電源8は、リチウム二次電池8aとして説明する。
 本体部2の前方を監視するための距離センサー20は、本体部2の前面の少なくとも1個所以上に配置される。距離センサー20は、本体部2の前面の中央の1個所や前面の左側及び右側の2個所に設けることができる。図2では、本体部2の前面の左端、中央、右端に第1~第3の距離センサー20a~20cが設けられている。必要に応じて、搬送用ロボット1の加速度や角加速度を測定する慣性センサー12を配設してもよい。慣性センサー12は、IMU(Inertial Measurement Unit)とも呼ばれている。
 図3は、本発明の搬送用ロボット1の駆動制御部10の構成を示すブロック図である。駆動制御部10は、CPU11と、モータードライバー13等を含んで構成されており、本体部2の前方を監視するための距離センサー20等からのセンサーで取得した情報が入力される。駆動制御部10は、ビーコン15と、操作部18の制御を行う共に、スピーカ14に音声信号を出力する。
 CPU11は、距離センサー20から入力される障害物情報によりモータードライバー13等を制御する。CPU11として、マイクロプロセッサ、マイクロコントローラ等のマイコンを用いることができる。距離センサー20等からの信号は、必要に応じてA/D変換器や入出力インターフェース(I/O)を介してCPU11に入力される。
 搬送用ロボット1の運行を制御するための慣性センサー12を設ける場合には、Micro Electro Mechanical System(以下、MEMSと呼ぶ)技術を用いた2軸や3軸の加速度センサーを用いることができる。
 搬送用ロボット1の運行において特に回転を制御するための角速度や角加速度センサーとして、圧電素子ジャイロやMEMS技術を用いたセンサーを用いることができる。
 モータードライバー13は、車輪4を駆動するためのモーター5を制御する回路であり、CPU11により制御される。
 スピーカ14は、搬送用ロボット1の周囲に警報音や効果音を発生するために設けている。
 ビーコン15は、赤外線発光素子を備えており、CPU11により制御されて所定の発光パターンを有している赤外線を発生する。
 操作部18は、ハンドル3の手押し部3aに設置されており、操作情報がCPU11により表示される。作業者は、操作部18を手動操作することで力を使うことなく所定の位置まで荷物を運搬するモードで作業することもできる。
 図3に示すように、後述する搬送用ロボット1の運行モードに応じて、赤外線カメラ19が配設されてもよく、図示の場合、本体部2の前方側の下面の左側に第1の赤外線カメラ19a、右側に第2の赤外線カメラ19bが配設されている。
(距離センサー)
 図4は、本発明の距離センサー20の構成を示すブロック図である。図4に示すように、距離センサー20は、距離検出部21と距離検出部21から出力される距離データが入力される障害物情報生成部28とを備えている。
(距離検出部)
 距離検出部21は、複数のパルス半導体発光素子22と、複数のパルス半導体発光素子の駆動部23と、複数のパルス半導体発光素子光22の前方にある障害物により生じる反射光を検出するラインイメージセンサー24と、パルス半導体発光素子の駆動部23及びラインイメージセンサー24を制御する距離検出制御部26と、を含んでいる。
 距離検出部21は、第1~第3の距離検出部21から構成され、第1~第3の距離検出部21から出力される距離データが、障害物情報生成部28に出力される。例えば、図2に示すように、本体部2の前方側の下面には、左側の障害物を検出する第1の距離検出部21aと、前方の中央の障害物を検出する第2の距離検出部21bと、前方の右側の障害物を検出する第3の距離検出部21cとが配設されている。
 各距離検出部21は、パルス半導体発光素子22と、パルス半導体発光素子の駆動部23と、パルス半導体発光素子の出射光が距離検出部21の前方にある障害物により反射して発生する反射光を検出するイメージセンサー24と、パルス半導体発光素子の駆動部23及びイメージセンサー24を制御する距離検出制御部26とで構成されている。
 ここで、イメージセンサー24は、ライン(一次元)イメージセンサー及びエリア(二次元)イメージセンサーを使用することができる。反射光の空間的な検出範囲が狭くてもよい場合には、ラインイメージセンサーを用いることができる。以下の説明においては、イメージセンサー24は、ラインイメージセンサーとして説明する。
 第1の距離検出部21aは、パルス半導体発光素子22aと、パルス半導体発光素子の駆動部23aと、パルス半導体発光素子からの出射光が距離検出部21の前方にある障害物により反射して発生する反射光を検出するラインイメージセンサー24aと、パルス半導体発光素子の駆動部23aと第1のラインイメージセンサー24aを制御する第1の距離検出制御部26aとで構成されている。
 パルス半導体発光素子22aとして、赤外光を発生するパルス半導体レーザーやパルス半導体発光ダイオードを用いることができる。赤外光の波長は、ラインイメージセンサー24aが検知できる波長であり、例えば830nmである。以下の説明においては、レーザー発光素子22aはパルス半導体レーザーとして、パルス半導体発光素子の駆動部23aはパルス半導体レーザーの駆動部として説明する。
 パルス半導体レーザー22aは、第1~第3のパルス半導体レーザー22a1~22a3からなり、異なる角度でパルスの半導体レーザーを発生する。図示の場合は、第1~第3のパルス半導体レーザー22a1~22a3は、例えば、距離検出部21の前方の180°のうち、0°~60°の範囲に照射するために、0°~20°の方向、20°~40°の方向、40°~60°の方向に配設されている。
 通常、パルス半導体レーザーのビームは線状で照射範囲が極めて狭いので、上記の照射角度範囲にパルス半導体レーザー22のビームを広げるために、パルス半導体レーザー22用の光学部材を配設することが望ましい。図示の場合には、第1~第3のパルス半導体レーザー22a1~22a3の前方に、水平方向のビームを広げるためのレンズ29を配設している。レンズ29としては、ロッドレンズを用いることができる。
 図5はロッドレンズ29の一例を示す図である。ロッドレンズ29は円柱の形状を有しており、第1のパルス半導体レーザー22a1の前方に配設されている。ロッドレンズ29の材質は光学ガラスや樹脂である。第1のパルス半導体レーザー22a1から出射したレーザー光は、ロッドレンズ29の円柱面に垂直に入射し、ロッドレンズ29内を通過して、水平方向の角度θの方向にビームが広げられてロッドレンズ29から出射する。水平方向の角度θは、円柱の直径等を変えることにより制御できる。
 水平方向のビーム幅を広げるのは、本体部2の前方において水平方向のビームを広げるためであり、本体部2の前方の垂直方向にはビームが広がらないようにする。これにより、水平方向の検出角度を大きくすることができると共に、光量を大きくでき、障害物の検出距離を増大させることができる。検出距離は、例えば4~6mである。
 第2の距離検出部21b及び第3の距離検出部21cも、第1の距離検出部21aと同様に構成されている。
 第2の距離検出部21bにおいて、パルス半導体レーザー22bは、第4~第6のパルス半導体レーザー22b1~22b3からなり、異なる角度でパルスの半導体レーザー光を発生する。図示の場合は、第4~第6のパルス半導体レーザー22b1~22b3は、例えば、距離検出部21の前方の180°のうち、60°~120°の範囲に照射するために、60°~80°の方向、80°~100°の方向、100°~120°の方向に配設されている。
 第3の距離検出部21cにおいて、パルス半導体レーザー22cは、第7~第9のパルス半導体レーザー22c1~22c3からなり、異なる角度でパルスの半導体レーザー光を発生する。第7~第9のパルス半導体レーザー22c1~22c3は、例えば、距離検出部21の前方の180°のうち、120°~180°の範囲に照射するために、120°~140°の方向、140°~160°の方向、160°~180°の方向に配設されている。
 上記説明においては、9個のパルス半導体レーザー22を用いた角度の一例を示したものである。パルス半導体レーザー22の数やその照射方向、ラインイメージセンサー24の数は必要とする角度分解能を考慮して選定すればよい。又、前方と共に後方の障害物を検出する場合には、本体部2の後部にさらに距離センサー20を設けてもよい。
(パルス半導体レーザーの駆動部)
 第1のパルス半導体レーザー22aの駆動部23aは、第2の距離検出制御部26aからの発振制御信号により、第1~第3のパルス半導体レーザー22a1~22a3を、同時にパルス発振させる機能を有している。第1のパルス半導体レーザー22aの駆動部23aとして、市販のパルス半導体レーザー用の駆動集積回路(IC)を使用することができる。例えば発光波長が820nmのセンサー用の半導体レーザーを用いて、パルス幅を30nsとしデューティ比を0.1~0.5%として発光させることができる。
 第2及び第3のパルス半導体レーザーの駆動部23b、23cも、第1のパルス半導体レーザーの駆動部23aと同様に構成されている。
 第1~第9のパルス半導体レーザー22a1~22a9は、第1~第3のパルス半導体発光素子の駆動部23a~23cにより、所定のパルス幅と所定のデューティ比でパルス発振する。この際、第1~第3のパルス半導体レーザー22a1~22a3と、第4~第6のパルス半導体レーザー22a4~22a6と第7~第9のパルス半導体レーザー22a7~22a9は、それぞれ同時に発振しているが、他の組のパルス半導体レーザー22とは、同期を取って発振する必要はない。
 これにより、第1~第9のパルス半導体レーザー22a1~22a9から、前方の0°~180°の方向に約20°毎に障害物を検出するためのパルス変調された赤外光が照射されることになる。
(ラインイメージセンサー)
 第1~第3のラインイメージセンサー24a~24c上には、フィルター30と集光用のレンズ31が配設されている。フィルター30と集光用のレンズ31は、第1~第3のラインイメージセンサー24a~24cの周囲に配設される収容部32内に配設されている。
 フィルター30は、パルス半導体レーザー22の発光波長である例えば820nmの赤外光を選択的に透過するフィルター、所謂バンドパスフィルターであり、搬送用ロボット1の周囲の光や太陽光がラインイメージセンサー24に入射させない機能を有している。
 集光用のレンズ31は、所定の角度の反射光をラインイメージセンサー24に集光するために設けている。上記の場合には、例えば、集光範囲は約60°とすればよい。集光用のレンズ31としては、凸レンズやフレネルレンズを用いることができる。
 第1~第3ラインイメージセンサー24a~24cは、同一の構成を有しており、所謂飛行時間によるTOF距離センサーである。構成を簡単にするために、パルス半導体レーザー22により生じる反射光の時間遅れTdを直接に測定しないで、電荷振り分け法による位相差測定により時間遅れTdを算出している。距離Lは、時間遅れTdを下記(1)式に代入して算出する。Tdは遅延時間とも呼ぶ。
        L=0.5×c×Td     (1)
 ここで、cは光速であり、3×10m/secである。
(位相差測定による距離測定)
 図6は位相差測定で距離を算出するラインイメージセンサー24のブロック図であり、図7は電荷振り分け法による距離測定を説明するタイミングチャートである。図6に示すように、ラインイメージセンサー24は、ライン状に配設される画素40と、画素40に接続されるサンプルアンドホールド回路41と、サンプルアンドホールド回路41に接続される水平シフトレジスタ42と、画素40とサンプルアンドホールド回路41にバイアス電圧を供給するバイアス発生回路43と、サンプルアンドホールド回路41から出力される出力電圧を増幅するバッファアンプ44、44を含んで構成されている。
 ラインイメージセンサー24の各ピンの機能を以下に示す。
   ピン1:画像リセット用バイアス電圧(Vr)入力
   ピン2:画素内変調クロックパルスVTX3入力
   ピン3:画素内変調クロックパルスVTX2入力
   ピン4:画素内変調クロックパルスVTX1入力
   ピン5:画素リセットパルス(p_res)入力
   ピン6:信号サンプリングパルス(phis)入力
   ピン7:マスタークロックパルス(mclk)入力
   ピン8:信号読み出しトリガパルス(trig)入力
   ピン9:出力信号同期パルス(dclk)出力
   ピン10:デジタル電源電圧(Vdd(D))入力
   ピン11、14、18-22:グランド(GND)
   ピン12:出力信号2(V)
   ピン13:出力信号1(V)
   ピン15:アナログ電源電圧(Vdd(A))入力
   ピン16:受光部用バイアス電圧(Vpg)入力
   ピン17:画素アンプ用バイアス電圧(Vsf)入力
 ラインイメージセンサー24においては、以下のバイアス電圧が供給される。
   デジタル電源電圧(Vdd(D))=5V
   アナログ電源電圧(Vdd(A))=5V
   画像リセット用バイアス電圧(Vr)=4.25V
   受光部用バイアス電圧(Vpg)=1V
   画素アンプ用バイアス電圧(Vsf)=5V
 ラインイメージセンサー24には、第1の距離検出制御部26aにより、第1のパルス半導体レーザー22に同期したパルス信号として、画素内変調クロックパルスVTX1~VTX3信号、画素リセットパルス(p_res)、信号サンプリングパルス(phis)、マスタークロックパルス(mclk)、信号読み出しトリガパルス(trig)が入力される。
 図7は、電荷振り分け法による距離測定の原理を説明するタイミングチャートであり、(A)は第1のパルス半導体レーザー22aのパルス光、(B)は障害物による反射パルス光、(C)は画素内変調クロックパルスVTX1、(D)は画素内変調クロックパルスVTX2を示している。図7(A)に示すように、第1のパルス半導体レーザー22aのパルス光のパルス幅はTであり、反射パルス光は、遅延時間Tdの後でラインイメージセンサー24の画素40に到達する(図7(B)参照)。
 画素40のフォトダイオードには、反射光による生じる光電流が流入する二つの積分容量CfdとCfdが形成されている。
 図8は画素構造の等価回路と画素40の表面電位を示し、(A)はVTX1がオンのときの画素構造の等価回路、(B)は(A)の表面電位、(C)はVTX2がオンのときの画素構造の等価回路、(D)は(C)の表面電位を示す図である。図8(A)及び図7(B)に示すように、画素40には、受光部用バイアス電圧(Vpg)が印加されている。
 図7(C)及び図8(A)及び(B)に示すように、VTX1がオンで、VTX2がオフの場合には、反射光による生じる電子は、積分容量Cfdに流入し、この際、積分容量Cfdに生じる電荷がQである(図7(B)参照)。
 画素40の出力電圧Vは、積分容量Cfdにおいて生じる電荷Qと出力電圧V(Q=Cfd×V)との関係により下記(2)式で表される。
    V=Q/Cfd=N×Iph×{(T0-Td)/Cfd}   (2)
 次に、図7(D)及び図8(C)及び(D)に示すように、VTX1がオフで、VTX2がオンの場合には、反射光による生じる電子は、積分容量Cfdに流入し、この際、積分容量Cfdに生じる電荷がQである(図7(D)参照)。
 画素40の出力電圧Vは、積分容量Cfdにおいて生じる電荷Qと出力電圧V(Q=Cfd×V)との関係により下記(3)式で表される。
    V=Q/Cfd=N×Iph×{(Td)/Cfd}   (3)
 上記(2)式及び(3)式において、CfdとCfdが等しい場合には、Tdは下記(4)式で表される。CfdとCfdの大きさは、各画素40のパターンで決めることができる。
    Td={V/(V+V)}×T   (4)
 Vはピン13から出力され、Vはピン12から出力され、第1のパルス半導体レーザー22aのパルス幅は、既知の値であるので、(4)式で求めたTdを上記(1)式に代入して、搬送用ロボット1と障害物との距離Lを求めることができる。
 ここで、第1のパルス半導体レーザー22aのパルス幅は、第1のパルス半導体レーザー22aの駆動部23aを制御する距離検出制御部26により制御される。
 実際には、1回のパルス半導体レーザー22aの反射光で得られる電荷量は小さいので、図8で説明した電荷蓄積を数千回~数万回繰り返し、上記V及びVの出力電圧を得ている。
 水平シフトレジスタ42等により画素40毎の搬送用ロボット1と障害物との距離Lが、順次出力される。これにより、第1の距離検出部21aにおいては、前方0°~60°における障害物からの反射光を検出し、障害物との距離情報が得られる。
 ラインイメージセンサー24の上面には、パルス半導体レーザー22の波長だけを透過するフィルター30が設けられているので、周囲の光や太陽光の影響を受けないで、パルス半導体レーザー22からの反射光を、高感度で検出することができる。
(距離検出制御部)
 距離検出制御部26は、複数のパルス半導体発光素子22を所定のパルス幅(T)で同期発振するようにパルス半導体発光素子の駆動部23を制御し、反射光により、ラインイメージセンサー24の各画素40において電荷振り分けによる位相差測定により遅延時間(Td)を算出し、遅延時間(Td)とパルス幅(T)とからパルス半導体発光素子22と障害物との距離データを算出し、距離データを障害物情報生成部28に送出する構成を有している。
 距離検出制御部26における制御は、以下のステップにより実行される。
 ステップ1:第1の距離検出制御部26aからパルス半導体レーザー22aの駆動部23aにパルス発振の制御信号が出力される。
 ステップ2:第1の距離検出制御部26aはラインイメージセンサー24aを制御する信号を送出し、ラインイメージセンサー24aから出力信号V及びVが入力される。
 ステップ3:第1の距離検出制御部26aは、パルス半導体レーザー22aのパルス幅と、ラインイメージセンサー24aからの出力信号V及びVにより、画素40毎に検出する障害物との距離Lを上記(1)及び(4)式により計算して、0°~60°の範囲の障害物情報を得る。
 ステップ4:このようにして得た第1の距離検出部21aの障害物情報は、障害物情報生成部28に送出される。
 第2の距離検出制御部26bにおいては、第1の距離検出制御部26aと同様に制御が実行されて、60°~120°の範囲の障害物情報が得られ、この第2の距離検出部21bで取得された障害物情報が、障害物情報生成部28に送出される。
 第3の距離検出制御部26cにおいては、第1の距離検出制御部26aと同様に制御が実行されて、120°~180°の範囲の障害物情報が得られ、この第3の距離検出部21bで取得された障害物情報が、障害物情報生成部28に送出される。
 第1~第3距離検出制御部26a~26cは、プログラムが可能な集積回路であるFPGA(Field Programmable Gate Array)やマイクロコンピュータを用いて構成されている。
(障害物情報生成部)
 障害物情報生成部28は、第1~第3の距離検出制御部26a~26cから入力される障害物情報を、0~180°方向の障害物情報として、駆動制御部10のCPU11に送出する。障害物情報生成部28は、FPGAやマイクロコンピュータを用いて構成することができる。障害物情報生成部28は、各ラインイメージセンサー24の出力同期信号(dclk)に同期して、障害物情報を搬送用ロボット1のCPU11に出力することができる。さらに、距離センサー20が本体部2の中央に1個だけ設けられる場合には、障害物情報生成部28を省いて、障害物情報を距離検出制御部26から搬送用ロボット1のCPU11に直接出力してもよい。
 以上説明したように、本発明の距離センサー20は、例えば搬送用ロボット1の本体部2の前面に少なくとも1個所以上に配置され、前方の所定の角度範囲の障害物を検出する距離検出部21と、複数の距離検出部21から出力される距離データが入力される障害物情報生成部28と、を備えている。
 距離検出部21は、複数のパルス半導体発光素子22と、該複数のパルス半導体発光素子の前方にそれぞれ配設され、所定角度範囲で水平方向にビームを広げるレンズ29と、複数パルス半導体発光素子22を同期して発振させる駆動部23と、複数のパルス半導体発光素子22の前方にある障害物により生じる反射光を検出するラインイメージセンサー24と、パルス半導体発光素子の駆動部23及びラインイメージセンサー24を制御する距離検出制御部26と、を含んでいる。
 パルス半導体発光素子の駆動部23を制御する距離検出制御部26は、複数のパルス半導体発光素子22が所定のパルス幅(T)で同期発振するように制御する。距離検出部21が複数の場合は、それぞれ他の距離検出制御部26とは非同期で、かつ各距離検出制御部26の複数のパルス半導体発光素子22を所定のパルス幅(T)で同期発振するように制御してもよい。
 ラインイメージセンサーを制御する距離検出制御部26は、ラインイメージセンサー24の各画素40において電荷振り分け法によりパルス半導体発光素子22と障害物との距離データを算出し、パルス半導体発光素子22の反射光による障害物情報を、障害物情報生成部28に送出する。障害物情報生成部28は、パルス半導体発光素子22の反射光による障害物情報を各距離検出部21の障害物情報として搬送用ロボット1のCPU11へ送出する。
 本発明の距離検出部21によれば、パルス半導体レーザー22を照射し、障害物において反射した赤外線により、パルス半導体レーザー22と障害物との距離検出を高精度で行うことができる。また、ラインイメージセンサー24の上面には、パルス半導体レーザー22の発振波長だけを透過するフィルター30を設けているので、太陽光等の影響を受けないで距離の計測が可能となる。
(搬送用ロボットの運行モード1)
 搬送用ロボット1の運行モード1として、図1~図3に示す搬送用ロボット1において、操作部18は、ハンドドル部3の手押し部3aに設置されており、操作情報がCPU11により表示される。作業者は、操作部18の操作により力を使うことなく所定の位置まで荷物を運搬できる。
(第2の実施形態)
 次に、本発明の第2の実施形態に係る搬送用ロボット50について説明する。
 図9は、本発明の第2の実施形態に係る搬送用ロボット50の構成を示す図で、(A)は斜視図、(B)は平面図、(C)は正面図、図10は本発明の搬送用ロボット50の下面図である。図9及び図10に示すように、本発明の第2の実施形態に係る搬送用ロボット50が、図1~図3の搬送用ロボット1の構成と異なるのは、ハンドル3を備えていない点と、本体部52が赤外線カメラ19と駆動制御部60を備えている点である。
 図9及び図10に示すように、本体部52の前方側の下面の左側には第1の赤外線カメラ19a、右側に第2の赤外線カメラ19bが配設されている。
(搬送用ロボットの運行モード2)
 搬送用ロボット50(子機)は、本発明の第1の実施形態に係る搬送用ロボット1を親機とし、親機の運行方向に追従するような運行モード2で自動走行させることができる。図11は、親機に子機が追従する運行モードを説明する図である。図11に示すように、搬送用ロボット1を親機とし、搬送用ロボット50を子機として、親機に追従するように自動走行する。
 搬送用ロボット1(親機)は、作業者55が搬送用ロボット1の操作部18を用いて運転する。搬送用ロボット1(親機)はビーコン15を備えている。ビーコン15は、赤外線発光素子が所定の点滅パターンで点滅している。
 搬送用ロボット50(子機)においては、搬送用ロボット50(子機)に配設されている赤外線カメラ19により搬送用ロボット1(親機)のビーコン位置情報が検知され、そして、第1~第3の距離検出部21a~21cにより障害物情報が検知される。
 図12は、運行モード2における子機の駆動制御部60による親機への追従制御を説明するブロック図である。駆動制御部60による親機への追従制御は、以下のステップにより実行される。
 ステップ10:第1の赤外線カメラ19aにより搬送用ロボット1(親機)のビーコン15からビーコン位置情報が検知され、CPU11に入力される。
 ステップ11:第2の赤外線カメラ19bにより親機1のビーコン15からビーコン位置情報が検知され、CPU11に入力される。
 ステップ12:第1~第3の距離検出部21a~21cにより親機1との距離が計測され、この障害物情報がCPU11に入力される。
 次に、ビーコン位置情報で得た親機の方位と、障害物情報で得た親機1との距離に基づき、CPU11が適切な進行方向と速度を計算し、さらにモーター5の回転速度に換算して左右のモータードライバー13に制御信号を送出する。
 ステップ13:左右のモータードライバー13a、13bは制御信号に基づいて左右のモーター5に適切な電流を流す。
 ステップ14:モーター5が回転して子機が前進する方向を変える場合は、左右のモーター5の回転速度を異なるようにして操舵する。
 ステップ15:上記子機50の追従運行中に、周辺の作業者55に子機が走行していることを知らせるために、スピーカ14から音楽などの音声信号を出すようにしてもよい。
(第1(左)の距離検出部による制御)
 第1(左)の距離検出部21aによる子機50の制御は、以下のステップにより実行される。
 ステップ20:前方で長距離(例えば、2m)に障害物を捉えた場合は進路を右に変更して避ける。
 ステップ21:前方で中距離(例えば、50cm)に障害物を捉えた場合は停止し衝突を避け、「障害物を発見しました」などの音声を再生する。
 ステップ22:方向に関わらず短距離(例えば、30cm)に障害物を捉えた場合も停止し衝突を避け、上記と同じ音声を再生する。
(第2(中央)の距離検出部による制御)
 第1(中央)の距離検出部21bによる子機50の制御は、以下のステップにより実行される。
 ステップ30:前方又は左前方で長距離に障害物を捉えた場合は進路を右に変更して避ける。
 ステップ31:前方又は右前方で長距離に障害物を捉えた場合は進路を左に変更して避ける。
 ステップ32:方向に関わらず短距離(例えば、30cm)に障害物を捉えた場合も停止し衝突を避け、上記と同じ音声を再生する。
(第3(右)の距離検出部による制御)
 第1(右)の距離検出部21cによる子機50の制御は、以下のステップにより実行される。
 ステップ40:前方で長距離(例えば、2m)に障害物を捉えた場合は進路を左に変更して避ける。
 ステップ41:前方で中距離(例えば、50cm)に障害物を捉えた場合は停止し衝突を避け、「障害物を発見しました」などの音声を再生する。
 ステップ42:方向に関わらず短距離(例えば、30cm)に障害物を捉えた場合も停止し衝突を避け、上記と同じ音声を再生する。
(搬送用ロボットの運行モード3)
 搬送用ロボットの子機50は、運行モード3として、所定の経路を自律走行させることができる。
 図13は、子機50の自律走行を説明する模式的な図である。図13に示すように、倉庫70内の四隅にはビーコン付ポール71が配設され、子機50を、予め設定された経路である走行開始点から走行終点まで、自律走行させることができる。
 以下の方法により、子機50に走行経路の学習をさせることができる。
 ステップ51:作業者55が、親機となる搬送用ロボット1を、操作部18の操作により運行モード1に切り換える。
 ステップ52:子機となる搬送用ロボット50を、親機となる搬送用ロボット1の後に配置して、走行経路学習モードに設定する。
 ステップ53:作業者55が親機となる搬送用ロボット1を、運行モード1により所望の経路に沿って走行させる。この際、親機1は、ビーコン付ポール71から送出される赤外線信号を受信する。ビーコン付ポール71の識別番号(ID)と距離、方位に関するデータを所定の発光パターンで変調した赤外線が、後続の搬送用ロボット50にビーコン15から送出される。
 ステップ54:子機となる搬送用ロボット50は、親機1のビーコンに追従して、つまり運行モード2で走行すると共に、親機1のビーコン付ポール71の識別番号と距離、方位のデータを記録する。
 ステップ55:所望の経路の走行が終了したら、子機50の走行経路学習モードを終了する。これにより、走行経路の設定が終了する。
 ステップ56:走行経路の設定が終了した後、作業者55が、子機50を、自律走行モード、つまり運行モード3に設定することにより、上記のステップ51~55で取得した走行経路に沿って自律走行させることができる。
 ビーコン付ポール71は、搬送用ロボット1のビーコン15と同じビーコンを取り付けた柱であり、図示の場合には、倉庫70内の四隅に4つのビーコン付ポール71a~71dが設けられている。
 ビーコン15は、CPU11により制御されて所定の発光パターンを有している赤外線を発生する。この際、赤外線は、例えばその識別番号(ID)や位置が識別されるように変調されていてもよい。
 予め設定した経路は、例えば、右下に配設される第1のビーコン付ポール71a、左下に配設される第2のビーコン付ポール71b、左上に配設される第3のビーコン付ポール71c、右上に配設される第4のビーコン付ポール71dの順である。図示の場合、左上に配設される第3のビーコン付ポール71cの近くに障害物75が置いてある。
 作業者55は、走行開始点において、搬送用ロボット50に荷物を積載した後で、搬送用ロボット50を自律走行させるスイッチをオンにする。
 作業者55は、搬送用ロボット50が、作業者55が障害物75と認識されないために、例えば、左下に配設される第2のビーコン付ポール71bの近くまで走行した時点で走行終点に移動して待機する。
 図示するように、搬送用ロボット50は、第2のビーコン付ポール71b~第3のビーコン付ポール71cの途中で、赤外線カメラ19によるビーコン位置情報及び距離検出部21a~21cで取得される障害物情報により、障害物75を検知した時点で、進行方向を右側に変更して、走行終点まで自律走行する。
 作業者55は、走行終点で搬送用ロボット50の自律走行をオフにする。
 作業者55は、搬送用ロボット50から荷物を降ろした後で、再度、自律走行をオンにして、搬送用ロボット50を走行開始点迄自律走行させてもよい。
 以下に、本発明の距離センサー20の実施例を示す。
(実施例)
 図14は、距離センサー20の第1の距離検出部21aの基板80を模式的に示す図である。距離センサー20はレンズ29を有し、0~60°方向に発光するパルス半導体レーザー22a1~22a3と、集光用のレンズ31とフィルター30が配設されたラインイメージセンサー24a等から構成されている。
 用いた部品の概略を以下に示す。
   パルス半導体レーザー22a1:発光波長830nm(シャープ株式会社製、GH4837A1TG)
   パルス半導体レーザーの駆動部23a:iC-HGレーザドライバー(iC Haus社製)
   距離検出制御部26a:FPGA(アルテラ社製、サイクロンIII)
 図15は、実施例の距離検出部21aで測定したラインイメージセンサー24aによる距離情報の一例を示す図である。図の横軸は画素数(CH)であり、縦軸は距離(m)である。
 図15に示すように、画素数が60~170の箇所に、約1mの距離に障害物があることが分かる。1秒間に60フーレームの距離情報(60フレーム/s)が得られた。上記結果から、本発明の距離センサー20は、可動部品を使用しないで、高感度で高フレームレートの障害物情報が得られることが分かった。
 本発明は、上記実施の形態に限定されるものではなく、特許請求の範囲に記載した発明の範囲内で種々の変形が可能であり、それらも本発明の範囲内に含まれることはいうまでもない。例えば、搬送用ロボット1として図1等に示す台車型によることなく、二方、三方又は四方を縦壁で取り囲んだ形式の、いわゆるトロッコ式の搬送ロボットでもよく、作業者55を搭乗させる形式のものでもよい。その場合、各種のセンサーや駆動制御部10等を搭載した本体部2を、積載部と共用させることなく、縦壁又は特に設けた部位に設定してもよい。距離センサー20の距離検出部21は、障害物75の検出距離、その分解能やフレームレートを考慮して、パルス半導体発光素子22の数やそのビームの広さ等を適宜に設定すればよい。
1、50:搬送用ロボット
2、52:本体部
 3:ハンドル
3a:手押し部
 4:車輪
 5:モーター
 6:減速機
 7:キャスター
 8:電源
8a:リチウム二次電池
10、60:駆動制御部
11:CPU
12:慣性センサー
13:モータードライバー
14:スピーカ
15:ビーコン
18:操作部
19:赤外線カメラ
19a:第1の赤外線カメラ
19b:第2の赤外線カメラ
20:距離センサー
21:距離検出部
22:パルス半導体レーザー
23:パルス半導体レーザーの駆動部
24:ラインイメージセンサー
26:距離検出制御部
28:障害物情報生成部
29:レンズ
30:フィルター
31:集光用のレンズ
32:収容部
40:画素
41:サンプルアンドホールド回路
42:水平シフトレジスタ
43:バイアス発生回路
44:バッファアンプ
55:作業者
70:倉庫
71:ビーコン付ポール
75:障害物
80:基板

Claims (11)

  1.  搬送用ロボットの走行に用いられる距離センサーであって、
     前記距離センサーは、
     前記搬送用ロボットの本体部の前面の少なくとも1個所以上に配置され、前方の所定の角度範囲の障害物を検出する距離検出部と、
     前記距離検出部から出力される距離データが入力される障害物情報生成部と、
    を、備え、
     前記距離検出部は、
     複数のパルス半導体発光素子と、
     該複数のパルス半導体発光素子の前方にそれぞれ配設され、前記所定角度範囲で水平方向にビームを広げるレンズと、
     前記複数のパルス半導体発光素子を同期して発振させる駆動部と、
     前記複数のパルス半導体発光素子の前方にある障害物により生じる反射光を検出するラインイメージセンサーと、
     前記パルス半導体発光素子の駆動部及び前記ラインイメージセンサーを制御する距離検出制御部と、
    を含み、
     前記パルス半導体発光素子の駆動部を制御する前記距離検出制御部は、複数のパルス半導体発光素子が所定のパルス幅(T)で同期発振するように制御し、
     前記ラインイメージセンサーを制御する距離検出制御部は、前記ラインイメージセンサーの各画素において電荷振り分け法により前記パルス半導体発光素子と前記障害物との距離データを算出し、前記パルス半導体発光素子の反射光による障害物情報を前記障害物情報生成部へ送出し、
     前記障害物情報生成部は、前記障害物情報を前記距離検出部の障害物情報として前記搬送用ロボットのCPUへ送出する、距離センサー。
  2.  前記レンズはロッドレンズであり、前記ラインイメージセンサーの上面には、前記反射光を集光するレンズと前記パルス半導体発光素子の発光波長の光を選択的に透過するフィルターとが配設される、請求項1に記載の距離センサー。
  3.  前記障害物情報生成部は、前記各ラインイメージセンサーの出力同期信号に同期して、前記障害物情報を前記搬送用ロボットの前記CPUに出力する、請求項1又は2に記載の距離センサー。
  4.  本体部と、車輪と、車輪を駆動するモーターと、モータードライバーとCPUからなる駆動制御部と、距離センサーとを含み、
     前記距離センサーは、
     前記本体部の前面の少なくとも1個所以上に配置され、前方の所定角度範囲の障害物を検出する距離検出部と、
     前記各距離検出部から出力される距離データが入力される障害物情報生成部と、
    を、備え、
     前記距離検出部は、
     複数のパルス半導体発光素子と、
     該複数のパルス半導体発光素子の前方にそれぞれ配設され、前記所定角度範囲で水平方向にビームを広げるレンズと、
     前記複数のパルス半導体発光素子を同期して発振させる駆動部と、
     前記複数のパルス半導体発光素子の前方にある障害物により生じる反射光を検出するラインイメージセンサーと、
     前記パルス半導体発光素子の駆動部及び前記ラインイメージセンサーを制御する距離検出制御部と、
    を含む、搬送用ロボット。
  5.  前記レンズはロッドレンズであり、前記ラインイメージセンサーの上面には、前記反射光を集光するレンズと、前記パルス半導体発光素子の発光波長の光を選択的に透過するフィルターと、が配設される、請求項4に記載の搬送用ロボット。
  6.  本体部にハンドルを備え、該ハンドルの手押し部には操作部を備える、請求項4又は5に記載の搬送用ロボット。
  7.  スピーカを備える、請求項4~6の何れかに記載の搬送用ロボット。
  8.  赤外線を発光するビーコンを備える、請求項4~7の何れかに記載の搬送用ロボット。
  9.  赤外線カメラを備える、請求項4~8の何れかに記載の搬送用ロボット。
  10.  前記障害物情報生成部は、前記距離検出部から出力される距離データを障害物情報として、前記CPUへ送出する、請求項4~9の何れかに記載の搬送用ロボット。
  11.  前記ビーコンからの赤外線を、前記赤外線カメラにより位置情報として取得して前記CPUへ送出し、前記障害物情報生成部は、前記複数の距離検出部から出力される距離データを障害物情報として前記CPUへ送出する、請求項4~10の何れかに記載の搬送用ロボット。
PCT/JP2016/074299 2015-08-20 2016-08-19 距離センサー及びそれを用いた搬送用ロボット WO2017030205A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-163273 2015-08-20
JP2015163273A JP6524478B2 (ja) 2015-08-20 2015-08-20 距離センサー及びそれを用いた搬送用ロボット

Publications (1)

Publication Number Publication Date
WO2017030205A1 true WO2017030205A1 (ja) 2017-02-23

Family

ID=58052085

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/074299 WO2017030205A1 (ja) 2015-08-20 2016-08-19 距離センサー及びそれを用いた搬送用ロボット

Country Status (2)

Country Link
JP (1) JP6524478B2 (ja)
WO (1) WO2017030205A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023008645A (ja) * 2021-07-06 2023-01-19 株式会社関電工 建築資材運搬ロボットおよび建築資材運搬システム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020174765A1 (ja) * 2019-02-28 2020-09-03 パナソニックIpマネジメント株式会社 測距装置、測距方法、およびプログラム
KR20220007622A (ko) * 2019-05-09 2022-01-18 에이비 엘렉트로룩스 라인 어레이를 이용한 물체 검출
DE112020003037T5 (de) 2019-06-27 2022-06-23 Kyb-Ys Co., Ltd. Modulroboter
WO2022071599A1 (ja) * 2020-10-02 2022-04-07 学校法人立命館 連結構造
KR102414461B1 (ko) * 2021-07-09 2022-06-29 텐텍 주식회사 고주파 치료용 핸드피스
JP2024089356A (ja) * 2022-12-21 2024-07-03 住友重機械工業株式会社 自律走行台車
CN116501070B (zh) * 2023-06-30 2023-09-19 深圳市欢创科技有限公司 回充方法、机器人及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05273351A (ja) * 1992-03-30 1993-10-22 Isuzu Motors Ltd 前車位置検知装置
JP2000052284A (ja) * 1998-08-05 2000-02-22 Fujitsu Ltd ロボットの動作支援システム及びその制御方法
US20060091297A1 (en) * 2004-10-29 2006-05-04 Anderson Noel W Method and system for obstacle detection
JP2008164538A (ja) * 2006-12-29 2008-07-17 Matsushita Electric Works Ltd 光検出素子、空間情報の検出装置
JP2011179926A (ja) * 2010-02-26 2011-09-15 Hamamatsu Photonics Kk 距離画像センサ
JP2015125470A (ja) * 2013-12-25 2015-07-06 株式会社東芝 走行体装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0635533A (ja) * 1992-03-03 1994-02-10 Takenaka Komuten Co Ltd 追尾車両及びその連鎖
JPH0983440A (ja) * 1995-09-19 1997-03-28 Toyota Motor Corp 車両間通信装置
JP5158499B2 (ja) * 2008-05-21 2013-03-06 スタンレー電気株式会社 データ通信装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05273351A (ja) * 1992-03-30 1993-10-22 Isuzu Motors Ltd 前車位置検知装置
JP2000052284A (ja) * 1998-08-05 2000-02-22 Fujitsu Ltd ロボットの動作支援システム及びその制御方法
US20060091297A1 (en) * 2004-10-29 2006-05-04 Anderson Noel W Method and system for obstacle detection
JP2008164538A (ja) * 2006-12-29 2008-07-17 Matsushita Electric Works Ltd 光検出素子、空間情報の検出装置
JP2011179926A (ja) * 2010-02-26 2011-09-15 Hamamatsu Photonics Kk 距離画像センサ
JP2015125470A (ja) * 2013-12-25 2015-07-06 株式会社東芝 走行体装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023008645A (ja) * 2021-07-06 2023-01-19 株式会社関電工 建築資材運搬ロボットおよび建築資材運搬システム
JP7320565B2 (ja) 2021-07-06 2023-08-03 株式会社関電工 建築資材運搬ロボットおよび建築資材運搬システム

Also Published As

Publication number Publication date
JP6524478B2 (ja) 2019-06-05
JP2017040594A (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
WO2017030205A1 (ja) 距離センサー及びそれを用いた搬送用ロボット
US11923658B1 (en) Laser diode firing system
US20210333361A1 (en) Long Range Steerable LIDAR System
KR102099822B1 (ko) 회전 광 검출 및 거리 측정(lidar) 디바이스를 위한 전력 변조 방법 및 그 장치
US9563205B2 (en) Sensor configurations and methods for mobile robot
JP6922187B2 (ja) 測距装置、監視カメラ、3次元計測装置、移動体、ロボット及び光源駆動条件設定方法
US10534085B2 (en) Laser radar device and traveling body
JP6547942B2 (ja) 半導体レーザ駆動装置、光走査装置、物体検出装置及び移動体装置
JP2010044530A (ja) 搬送ロボットシステム
US11237252B2 (en) Detection apparatus, detection system, detection method, and movable device
JP2017167120A (ja) 距離測定装置、移動体、ロボット、装置及び3次元計測方法
JP2001508572A (ja) 自立移動式装置のドッキングの位置決め方法および装置
JP7151000B2 (ja) 劣化したlidar範囲測定精度を検出するための方法およびシステム
KR102611743B1 (ko) 광학 스캐너를 위한 이중 샤프트 축방향 플럭스 모터
US11372090B2 (en) Light detection and range (LIDAR) device with SPAD and APD sensors for autonomous driving vehicles
US20230280469A1 (en) Ranging apparatus and mobile body
WO2019064750A1 (ja) 距離測定装置、および移動体
ITTO20080489A1 (it) Sistema di guida a infrarossi per carrelli a guida automatica
KR102597480B1 (ko) 라이다 데이터 생성 방법 및 이를 이용하는 라이다 장치
KR102580701B1 (ko) 갈보 제어 프로파일을 이용한 다각형 및 모터 공차에 대한 동적 보상
WO2023220316A1 (en) Dual emitting co-axial lidar system with zero blind zone
CN113460558A (zh) 一种室外可移动货物搬运机器人
JP2023508459A (ja) 測距システム及び移動プラットフォーム
WO2019058678A1 (ja) 距離測定装置及びそれを備えた移動体
JP6886237B2 (ja) 移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16837194

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16837194

Country of ref document: EP

Kind code of ref document: A1