WO2019181512A1 - 検出装置 - Google Patents

検出装置 Download PDF

Info

Publication number
WO2019181512A1
WO2019181512A1 PCT/JP2019/008902 JP2019008902W WO2019181512A1 WO 2019181512 A1 WO2019181512 A1 WO 2019181512A1 JP 2019008902 W JP2019008902 W JP 2019008902W WO 2019181512 A1 WO2019181512 A1 WO 2019181512A1
Authority
WO
WIPO (PCT)
Prior art keywords
distance
light
light receiving
calculation unit
image sensor
Prior art date
Application number
PCT/JP2019/008902
Other languages
English (en)
French (fr)
Inventor
俊樹 越
永幸 佐藤
良一 田島
Original Assignee
アズビル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アズビル株式会社 filed Critical アズビル株式会社
Priority to KR1020207024172A priority Critical patent/KR20200106211A/ko
Priority to US16/979,693 priority patent/US20210048286A1/en
Priority to CN201980013006.3A priority patent/CN111712685A/zh
Publication of WO2019181512A1 publication Critical patent/WO2019181512A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/026Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring distance between sensor and object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/024Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of diode-array scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/028Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring lateral position of a boundary of the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak

Definitions

  • the present invention relates to a detection device for detecting the position of an object existing in a detection region.
  • an edge sensor is known as a detection device that detects the position of an object (a target to be detected) existing in a detection region (see, for example, Patent Document 1).
  • This edge sensor is a transmissive type in which the light projecting part and the light receiving part are arranged opposite to each other, and the position of the edge of the object can be detected by detecting the position of the boundary between light and shadow from the light reception result by the light receiving part. Yes.
  • the conventional edge sensor is a transmission type, it is necessary to install sensors (light projecting unit and light receiving unit) on both sides of the detection region. Moreover, since the conventional edge sensor is a transmissive
  • the position of the edge of the object can be calculated from the following equation (1).
  • x 1 represents the position of the edge of the object
  • x 2 represents the position of the edge of the image of the object on the light receiving unit
  • N represents shows the magnification of the telecentric lens.
  • the present invention has been made to solve the above-described problems, and an object thereof is to provide a reflection type detection device capable of detecting the position of an object.
  • a detection apparatus includes a light projecting unit that projects light onto a detection region, a lens that collects light projected by the light projecting unit and reflected from the detection region, and a plurality of light receiving elements.
  • An image sensor that receives the light collected by the lens for each light receiving element, and a light receiving element in which the light receiving element is positioned according to the TOF method based on the light reception result by the image sensor.
  • a distance calculation unit that is calculated for each position, and a position calculation unit that calculates the position of an object existing in the detection area based on the distance for each light receiving position calculated by the distance calculation unit.
  • FIG. 2A and 2B are diagrams illustrating a configuration example of the sensor head according to Embodiment 1 of the present invention.
  • FIG. 2A is a diagram illustrating an example of the internal structure of the sensor head.
  • FIG. 2B is an external view of the sensor head. It is a figure which shows an example.
  • It is a flowchart which shows the operation example of the detection apparatus which concerns on Embodiment 1 of this invention. It is a timing chart which shows the operation example of the light projection part and light receiving part in Embodiment 1 of this invention.
  • FIG. 5A and 5B are diagrams for explaining an operation example of the distance calculation unit and the position calculation unit according to Embodiment 1 of the present invention
  • FIG. 5A is a diagram illustrating an example of a relationship between the light reception position and the light reception time.
  • FIG. 5B is a diagram illustrating an example of the relationship between the light receiving position and the distance.
  • 6A and 6B are diagrams for explaining an operation example of the distance calculation unit and the position calculation unit according to Embodiment 1 of the present invention
  • FIG. 6A is a diagram illustrating an example of a relationship between the light reception position and the light reception time.
  • FIG. 6B is a diagram illustrating an example of the relationship between the light receiving position and the distance.
  • FIG. 9A and 9B are diagrams for explaining width calculation by the detection apparatus according to Embodiment 2 of the present invention, and FIG. 9A is a diagram illustrating an example of a positional relationship between an object and a light receiving unit.
  • FIG. 9B is a diagram illustrating an example of the relationship between the light receiving position and the distance.
  • Embodiment 1 FIG.
  • the detection apparatus 1 measures the position of the object (detection target) 2 existing in the detection region and the width of the object 2.
  • the detection device 1 is used as an industrial (industrial) sensor.
  • the surface to be detected by the object 2 is parallel to the light receiving surface of the image sensor 1033 (described later). As shown in FIG.
  • the detection device 1 includes a measurement control unit 101, a light projecting unit 102, a light receiving unit 103, a distance calculating unit 104, a position calculating unit 105, an MPU (Micro Processing Unit) 106, an input / output unit 107, A communication unit 108, a display unit 109, and an operation unit 110 are provided.
  • the detection apparatus 1 is configured in a reflective type in which the light projecting unit 102 and the light receiving unit 103 and the detection region are arranged to face each other.
  • the light projecting unit 102 and the light receiving unit 103 constitute a measuring unit 111.
  • the measurement control unit 101, the light projecting unit 102, the light receiving unit 103, the distance calculation unit 104, the position calculation unit 105, and the MPU 106 are mounted on the sensor head 112.
  • a filter 1121 is provided on the front surface of the sensor head 112 shown in FIG.
  • the measurement control unit 101, the distance calculation unit 104, and the position calculation unit 105 are not shown.
  • the input / output unit 107, the communication unit 108, the display unit 109, and the operation unit 110 constitute an interface unit 113.
  • the measurement control unit 101 generates a control signal based on the control information input via the MPU 106.
  • the control signal is a signal for controlling the light projection timing of the light projecting unit 102 in accordance with the light receiving operation of the image sensor 1033.
  • the control signal generated by the measurement control unit 101 is output to the light projecting unit 102.
  • the light projecting unit 102 projects pulsed light onto the detection area in accordance with a control signal from the measurement control unit 101.
  • the beam shape of the light projected by the light projecting unit 102 is set in advance.
  • the light projecting unit 102 includes a light projecting substrate (not shown) 1021 that is a circuit board, a light emitting element 1022 that emits light, an aperture 1023 that is a diaphragm disposed in front of the light emitting element 1022, and light emission.
  • the diffuser 1024 diffuses the light emitted from the element 1022 and passed through the aperture 1023. Further, the width of light projected by the light projecting unit 102 and the light projecting cycle are determined by the assumed distance to the object 2, the moving speed, or the like. Further, the light projecting unit 102 may modulate the light to be projected.
  • the light receiving unit 103 receives the light projected by the light projecting unit 102 and reflected by the detection region.
  • the light receiving unit 103 includes a light receiving substrate (not shown) 1031 that is a circuit board, a lens 1032, and an image sensor 1033.
  • the lens 1032 condenses the light projected by the light projecting unit 102 and reflected by the detection region.
  • This lens 1032 is a non-telecentric lens.
  • the image sensor 1033 has a plurality of light receiving elements, and receives the light collected by the lens 1032 for each of the light receiving elements.
  • the image sensor 1033 is a linear type, and a plurality of light receiving elements are arranged in a one-dimensional direction.
  • the linear type image sensor 1033 can cope with a high-speed response required for an industrial sensor.
  • Information indicating the light reception result by the image sensor 1033 is output to the distance calculation unit 104.
  • the image sensor 1033 uses, as information indicating the light reception result, the time (light reception time) when light is received by each light receiving element, for example, based on the time when light is projected by the light projecting unit 102 (light projection time). ) May be output.
  • the image sensor 1033 receives, as information indicating the light reception result, for example, the light projected by the light projecting unit 102 and each light receiving element.
  • Information indicating a phase difference with light may be output.
  • the distance calculation unit 104 calculates the distance from the image sensor 1033 to the object 2 for each light receiving position where the light receiving element is located by the TOF (Time Of Flight) method based on the light reception result by the image sensor 1033.
  • Information (distance information) indicating the distance for each light receiving position calculated by the distance calculation unit 104 is output to the position calculation unit 105 and the MPU 106.
  • the position calculation unit 105 calculates the position of the image of the object 2 formed on the image sensor 1033 based on the distance for each light receiving position calculated by the distance calculation unit 104.
  • Information (position information) indicating the position of the image of the object 2 calculated by the position calculation unit 105 is output to the MPU 106.
  • the MPU 106 calculates the position of the object 2 based on the distance for each light receiving position calculated by the distance calculation unit 104 and the position of the image of the object 2 calculated by the position calculation unit 105. At this time, the MPU 106 calculates the position to the object 2 based on the position of the image of the object 2 formed on the image sensor 1033, the distance from the image sensor 1033 to the object 2, and the focal length of the lens 1032. . Information indicating the position of the object 2 calculated by the MPU 106 is output to the interface unit 113.
  • the MPU 106 calculates the width of the object 2 based on the distance for each light receiving position calculated by the distance calculation unit 104 and the position of the image of the object 2 calculated by the position calculation unit 105. At this time, the MPU 106 calculates the width of the object 2 based on the width of the image of the object 2 formed on the image sensor 1033, the distance from the image sensor 1033 to the object 2, and the focal length of the lens 1032. Information indicating the width of the object 2 calculated by the MPU 106 is output to the interface unit 113. Note that the calculation of the width of the object 2 by the MPU 106 is not an essential process and may not be performed.
  • the position calculation unit 105 and the MPU 106 are calculated by the “object position calculation unit that calculates the position of the object 2 based on the distance for each light receiving position calculated by the distance calculation unit 104” and “the distance calculation unit 104.
  • An “object width calculation unit that calculates the width of the object 2 based on the distance for each light receiving position” is configured.
  • the measurement control unit 101, the distance calculation unit 104, and the position calculation unit 105 are realized by a processing circuit such as a system LSI (Large Scale Integration) or a CPU (Central Processing Unit) that executes a program stored in a memory or the like. Is done.
  • a processing circuit such as a system LSI (Large Scale Integration) or a CPU (Central Processing Unit) that executes a program stored in a memory or the like. Is done.
  • the input / output unit 107 inputs various settings for the detection apparatus 1, generates control information, and outputs the control information to the MPU 106.
  • This control information includes, for example, a trigger signal for instructing light projection by the light projecting unit 102, or a stop signal for instructing to stop laser light when the light projecting unit 102 uses laser light.
  • the input / output unit 107 outputs information input from the MPU 106. At this time, the input / output unit 107 may perform analog output, for example, or may perform on-output when the threshold is determined and the threshold is exceeded.
  • the communication unit 108 communicates with an external device via a network such as Ethernet (registered trademark), and transmits, for example, information input from the MPU 106 to the external device.
  • the display unit 109 displays various operations.
  • the display unit 109 displays information input from the MPU 106. For example, when the position of the object 2 is displayed, the display unit 109 displays a numerical value indicating how far the object 2 is located from the optical axis, with the zero point on the optical axis of the light receiving unit 103.
  • the operation unit 110 accepts user operations and performs, for example, display switching of the display unit 109 or various settings for the detection apparatus 1.
  • the light projecting unit 102 projects pulsed light onto the detection area in accordance with the control signal from the measurement control unit 101 (step ST1).
  • the light projected by the light projecting unit 102 is reflected by the object 2 existing in the detection region, and enters the image sensor 1033 through the lens 1032.
  • a background such as a wall exists in the detection region
  • the light projected by the light projecting unit 102 is also reflected by the background and enters the image sensor 1033 through the lens 1032.
  • the image sensor 1033 receives the incident light for each light receiving element (step ST2).
  • the light receiving timing of light (light receiving pulse) at each light receiving element (Pixel No. 0 to No. n) of the image sensor 1033 is the light projecting light 102 (light projecting pulse).
  • the timing is delayed according to the distance to the object 2.
  • the image sensor 1033 outputs information indicating the light reception time (delay time) at each light receiving element as information indicating the light reception result.
  • the image sensor 1033 obtains the relationship between the light receiving position and the light receiving time as shown in FIGS. 5A and 6A, for example.
  • the distance calculation unit 104 calculates the distance to the object 2 for each light receiving position where the light receiving element is located by the TOF method based on the light reception result by the image sensor 1033 (step ST3).
  • the distance calculation unit 104 first determines, based on the light reception result by the image sensor 1033, from the following formula (3) to the position (reflection point) where the light received by the light receiving element is reflected for each light receiving position. Calculate the distance.
  • d i the distance to the reflection point of the light received by the i th light receiving element
  • c the speed of light
  • t di the light receiving time at the i th light receiving element.
  • the distance from the light receiving position to the reflection point obtained by Expression (3) is the distance in the direction inclined by the angle ⁇ i with respect to the optical axis of the light receiving unit 103.
  • the angle ⁇ i is an angle formed by a line segment connecting the optical axis position on the lens 1032 and the i-th light receiving position and the optical axis, and is known. Therefore, the distance calculation unit 104 converts the calculated distance to the reflection point into a distance parallel to the optical axis of the light receiving unit 103 (including a substantially parallel meaning) by using the angle ⁇ i for each light receiving position. .
  • the distance calculation unit 104 obtains the distance to the object 2 from the distance to the reflection point obtained by the above conversion for each light receiving position.
  • the distance calculation unit 104 excludes a distance corresponding to the distance from the image sensor 1033 to the background from the distance to the reflection point obtained by the conversion.
  • the distance to the object 2 is the same for each light receiving position. For example, distance information as shown in FIGS. 5B and 6B can be obtained by the distance calculation unit 104.
  • the position calculation unit 105 calculates the position of the image of the object 2 imaged on the image sensor 1033 based on the distance information obtained by the distance calculation unit 104 (step ST4).
  • FIGS. 5B and 6B show position information when the position calculation unit 105 detects the position of the edge of the image.
  • the MPU 106 calculates the position of the object 2 based on the distance information obtained by the distance computing unit 104 and the position information obtained by the position computing unit 105 (step ST5).
  • the MPU 106 calculates the position of the object 2 from the following equation (4).
  • x 1 represents the position of the object 2
  • x 2 represents the position of the image of the object 2 (light receiving position).
  • d indicates the distance between the object 2 and the image sensor 1033
  • f indicates the distance (focal length) between the lens 1032 and the image sensor 1033.
  • ⁇ (df) / f ⁇ is the magnification of the optical system.
  • x 1 ⁇ (df) / f ⁇ ⁇ x 2 (4)
  • the MPU 106 calculates the width of the object 2 based on the distance information obtained by the distance computing unit 104 and the position information obtained by the position computing unit 105 (step ST6).
  • the MPU 106 calculates the width of the object 2 from the following equation (5).
  • w 1 indicates the width of the object 2
  • w 2 indicates the width of the image of the object 2.
  • the MPU 106 does not perform the width calculation process when the position calculation unit 105 does not detect the positions of both ends of the image.
  • w 1 ⁇ (df) / f ⁇ ⁇ w 2 (5)
  • the detection apparatus 1 according to Embodiment 1 is configured in a reflective type in which sensors (light projecting unit 102 and light receiving unit 103) and a detection region are arranged to face each other.
  • the detection apparatus 1 according to the first embodiment only needs to install a sensor on one side of the detection region, and the optical axis alignment between the light projecting unit 102 and the light receiving unit 103 is not necessary, and is installed. Conditions are relaxed.
  • the detection device 1 according to Embodiment 1 has a wide detection range.
  • the detection apparatus 1 according to Embodiment 1 can calculate the distance between the image sensor 1033 and the object 2, the position and width of the object 2 can be calculated even using a non-telecentric lens. Cost reduction.
  • the detection apparatus 1 calculates the distance from the image sensor 1033 to the object 2 and the position of the edge of the object 2 (distance P 1 from the optical axis to the edge of the object 2).
  • the pixel pitch (distance between the light receiving elements) of the image sensor 1033 is 20 [ ⁇ m]
  • the number of pixels is 256 pixels
  • the focal length of the lens 1032 is 20 [mm].
  • the distance from the image sensor 1033 to the background existing in the detection region is 3 [m].
  • the light projecting unit 102 projects the pulsed light toward the background, for example, as shown in FIG. 8, the light receiving time (delay time) is obtained for each light receiving element by the image sensor 1033, and the distance The calculation unit 104 obtains the distance to the reflection point for each light receiving position. Since the distance from the image sensor 1033 to the background is 3 [m], the distance calculation unit 104 outputs 1.995 [m] as the distance from the image sensor 1033 to the object 2 from FIG.
  • the position calculation unit 105 calculates the position of the edge of the image of the object 2 formed on the image sensor 1033 from the calculation result by the distance calculation unit 104. 7 and 8, the pixel corresponding to the optical axis position is Pixel No. 128, the pixel immediately before the pixel corresponding to the position of the edge of the object 2 is Pixel No. 200. Therefore, the position calculation unit 105 is a Pixel No. From 128, Pixel No. From the distance up to 200, 0.00147 [m] is output as the position of the edge of the image of the object 2 (distance from the optical axis to the edge of the image of the object 2).
  • the MPU 106 calculates the position of the edge of the object 2 from the calculation results by the distance calculation unit 104 and the position calculation unit 105.
  • the magnification of the optical system is 98.75.
  • the MPU 106 multiplies the position of the edge of the image of the object 2 by the magnification of the optical system, so that the position of the edge of the object 2 (distance P 1 from the optical axis to the edge of the object 2) is 0.145 [ m] is output.
  • the linear image sensor 1033 in which a plurality of light receiving elements are arranged in a one-dimensional direction is used.
  • the present invention is not limited to this, and an image sensor 1033 in which a plurality of light receiving elements are arranged in a two-dimensional direction may be used.
  • the detection apparatus 1 can calculate not only the width of the object 2 existing in the detection area but also the height.
  • the light projecting unit 102 that projects light onto the detection region, and the lens 1032 that collects the light projected by the light projecting unit 102 and reflected from the detection region.
  • a plurality of light receiving elements, and an image sensor 1033 that receives the light collected by the lens 1032 for each of the light receiving elements, and based on the light reception result by the image sensor 1033, exists in the detection region by the TOF method.
  • a distance calculating unit 104 that calculates the distance to the object 2 for each light receiving position where the light receiving element is located, and an object position that calculates the position of the object 2 based on the distance for each light receiving position calculated by the distance calculating unit 104 Since the calculation unit is provided, the position of the object 2 can be detected by the reflection type.
  • the detection apparatus 1 includes an object width calculation unit that calculates the width of the object 2 based on the distance for each light receiving position calculated by the distance calculation unit 104, so that the width of the object 2 can be detected.
  • Embodiment 2 shows a configuration in which the width of the object 2 can be calculated even when the surface to be detected by the object 2 is oblique to the light receiving surface of the image sensor 1033.
  • the configuration example of the detection apparatus 1 according to Embodiment 2 is the same as the configuration example of the detection apparatus 1 according to Embodiment 1 shown in FIG.
  • the distance calculation unit 104 does not perform the conversion process to the distance parallel to the optical axis using the angle ⁇ i .
  • the MPU 106 has a width from one end of the image of the object 2 imaged on the image sensor 1033 to the optical axis position, a width from the other end of the image to the optical axis position, and reflection from the one end to the one end of the object 2. The distance to the point and the distance from the other end to the reflection point that is the other end of the object 2, and the distance from the one end to the optical axis position on the lens 1032 and the optical axis position on the lens 1032 Based on the distance, the width of the object 2 is calculated.
  • the MPU 106 in the second embodiment calculates the width of the object 2 from the following equations (6) to (8).
  • w 0 is the width of the object 2.
  • L 1 indicates the width from one end (corresponding to the first light receiving position) of the image of the object 2 coupled to the image sensor 1033 to the optical axis position
  • L 2 indicates the other end (second position) of the image.
  • the width from the light receiving position) to the optical axis position is shown.
  • D 1m represents the distance from the first light receiving position to the reflection point (first edge) that is one end of the object 2
  • d 2m represents the reflection that is the other end of the object 2 from the second light receiving position. The distance to the point (second edge) is shown.
  • D 1 indicates the distance between the first edge and the optical axis position on the lens 1032
  • d 2 indicates the distance between the second edge and the optical axis position on the lens 1032.
  • D 1f represents the distance between the optical axis position on the lens 1032 and the first light receiving position
  • d 2f represents the distance between the optical axis position on the lens 1032 and the second light receiving position. Show. D 1f and d 2f are known. As a result, the MPU 106 can calculate the width of the object 2 even when the object 2 is oblique to the light receiving surface of the image sensor 1033.
  • the detection device 1 according to Embodiment 2 can be used as a collision prevention sensor (range sensor) provided in, for example, an AGV (Automated Guided Vehicle).
  • a collision prevention sensor range sensor
  • AGV Automated Guided Vehicle
  • this type of collision prevention sensor a laser scan type sensor in which a mirror that reflects laser light is movable is used.
  • the movable part such as the mirror is not necessary, so that the sensor can be miniaturized and resistant to vibration and impact. High sensor can be realized.
  • the lens 1032 is preferably a wide-angle lens.
  • the detection device is of a reflective type, can detect the position of an object, and is suitable for use in a detection device that detects the position of an object existing in a detection region.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

光を検出領域に投光する投光部(102)と、投光部(102)により投光されて検出領域で反射された光を集光するレンズ(1032)と、複数の受光素子を有し、レンズ(1032)により集光された光を当該受光素子毎に受光するイメージセンサ(1033)と、イメージセンサ(1033)による受光結果に基づいて、TOF方式により、検出領域に存在する物体(2)までの距離を、受光素子が位置する受光位置毎に算出する距離演算部(104)と、距離演算部(104)により算出された受光位置毎の距離に基づいて、検出領域に存在する物体(2)の位置を算出する位置演算部(105)とを備えた。

Description

検出装置
 この発明は、検出領域に存在する物体の位置を検出する検出装置に関する。
 従来、検出領域に存在する物体(被検出対象)の位置を検出する検出装置として、エッジセンサが知られている(例えば特許文献1参照)。このエッジセンサは、投光部と受光部とが対向配置された透過型であり、受光部による受光結果から光と影の境界の位置を検出することで、物体のエッジの位置を検出可能としている。
特開2004-226372号公報
 しかしながら、従来のエッジセンサは、透過型であるため、検出領域を挟んで両側にセンサ(投光部と受光部)を設置する必要がある。また、従来のエッジセンサは、透過型であるため、投光部と受光部との間で光軸を合わせることが難しい。また、従来のエッジセンサは検出範囲が狭い。また、従来のエッジセンサは、平行度の高いレーザ光又はテレセントリックレンズ等を用いる必要があり、光学系が高価となる。
 なお、従来のエッジセンサにおいてテレセントリックレンズを用いた場合には、下式(1)より、物体のエッジの位置を算出可能である。式(1)において、xは物体のエッジの位置を示し、xは受光部での物体の像のエッジの位置を示し、Nはテレセントリックレンズの倍率を示している。
=N×x2      (1)
 この発明は、上記のような課題を解決するためになされたもので、反射型で、物体の位置を検出可能な検出装置を提供することを目的としている。
 この発明に係る検出装置は、光を検出領域に投光する投光部と、投光部により投光されて検出領域で反射された光を集光するレンズと、複数の受光素子を有し、レンズにより集光された光を当該受光素子毎に受光するイメージセンサと、イメージセンサによる受光結果に基づいて、TOF方式により、検出領域に存在する物体までの距離を、受光素子が位置する受光位置毎に算出する距離演算部と、距離演算部により算出された受光位置毎の距離に基づいて、検出領域に存在する物体の位置を算出する位置演算部とを備えたことを特徴とする。
 この発明によれば、上記のように構成したので、反射型で、物体の位置を検出可能である。
この発明の実施の形態1に係る検出装置の構成例を示す図である。 図2A、図2Bは、この発明の実施の形態1におけるセンサヘッドの構成例を示す図であり、図2Aはセンサヘッドの内部構造の一例を示す図であり、図2Bはセンサヘッドの外観の一例を示す図である。 この発明の実施の形態1に係る検出装置の動作例を示すフローチャートである。 この発明の実施の形態1における投光部及び受光部の動作例を示すタイミングチャートである。 図5A、図5Bは、この発明の実施の形態1における距離演算部及び位置演算部の動作例を説明するための図であり、図5Aは受光位置と受光時刻との関係の一例を示す図であり、図5Bは受光位置と距離との関係の一例を示す図である。 図6A、図6Bは、この発明の実施の形態1における距離演算部及び位置演算部の動作例を説明するための図であり、図6Aは受光位置と受光時刻との関係の一例を示す図であり、図6Bは受光位置と距離との関係の一例を示す図である。 この発明の実施の形態1に係る検出装置の動作の具体例を示す図である。 この発明の実施の形態1における受光部による受光結果及び距離演算部による演算結果の一例を示す図である。 図9A、図9Bは、この発明の実施の形態2に係る検出装置による幅算出を説明するための図であり、図9Aは物体と受光部との位置関係の一例を示す図であり、図9Bは受光位置と距離との関係の一例を示す図である。
 以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
 検出装置1は、検出領域に存在する物体(被検出対象)2の位置及び物体2の幅を計測する。この検出装置1は、産業用(工業用)のセンサとして用いられる。また実施の形態1では、物体2の検出対象となる面は、後述するイメージセンサ1033の受光面に対して平行(略平行の意味を含む)であるとする。この検出装置1は、図1に示すように、計測制御部101、投光部102、受光部103、距離演算部104、位置演算部105、MPU(Micro Processing Unit)106、入出力部107、通信部108、表示部109及び操作部110を備えている。また、検出装置1は、投光部102及び受光部103と検出領域とが対向配置された反射型に構成されている。
 なお、投光部102及び受光部103は、計測部111を構成する。また図2では、計測制御部101、投光部102、受光部103、距離演算部104、位置演算部105及びMPU106が、センサヘッド112に搭載されている。図2に示すセンサヘッド112の前面には、フィルタ1121が設けられている。なお図2では、計測制御部101、距離演算部104及び位置演算部105の図示を省略している。
 また、入出力部107、通信部108、表示部109及び操作部110は、インタフェース部113を構成する。
 計測制御部101は、MPU106を介して入力された制御情報に基づいて、制御信号を生成する。制御信号は、イメージセンサ1033での光の受光動作に応じて、投光部102での光の投光タイミングを制御する信号である。この計測制御部101により生成された制御信号は、投光部102に出力される。
 投光部102は、計測制御部101からの制御信号に従い、パルス状の光を検出領域に投光する。なお、投光部102が投光する光のビーム形状は、予め設定されている。図2では、投光部102は、回路基板である投光基板(不図示)1021と、光を発光する発光素子1022と、発光素子1022の前面に配置された絞りであるアパーチャー1023と、発光素子1022により発光されてアパーチャー1023を通過した光を拡散するディヒューザー1024とから構成されている。また、投光部102により投光される光の幅及び投光周期は、想定される物体2までの距離又は移動速度等により決まる。また、投光部102は、投光する光を変調してもよい。
 受光部103は、投光部102により投光されて検出領域で反射された光を受光する。図2では、受光部103は、回路基板である受光基板(不図示)1031と、レンズ1032と、イメージセンサ1033とから構成されている。
 レンズ1032は、投光部102により投光されて検出領域で反射された光を集光する。このレンズ1032は、非テレセントリックレンズである。
 イメージセンサ1033は、複数の受光素子を有し、レンズ1032により集光された光を当該受光素子毎に受光する。以下では、イメージセンサ1033はリニアタイプであり、複数の受光素子が一次元方向に配列されているものとする。リニアタイプのイメージセンサ1033は、産業用のセンサに求められる高速応答に対応可能である。このイメージセンサ1033による受光結果を示す情報は、距離演算部104に出力される。
 なお、イメージセンサ1033は、上記受光結果を示す情報として、例えば、投光部102により光が投光された時刻(投光時刻)を基準として、各受光素子で光を受光した時刻(受光時刻)である遅れ時間を示す情報を出力してもよい。また、投光部102が光を変調している場合には、イメージセンサ1033は、上記受光結果を示す情報として、例えば、投光部102により投光された光と各受光素子で受光された光との位相差を示す情報を出力してもよい。
 距離演算部104は、イメージセンサ1033による受光結果に基づいて、TOF(Time Of Flight)方式により、イメージセンサ1033から物体2までの距離を、受光素子が位置する受光位置毎に算出する。この距離演算部104により算出された受光位置毎の距離を示す情報(距離情報)は、位置演算部105及びMPU106に出力される。
 位置演算部105は、距離演算部104により算出された受光位置毎の距離に基づいて、イメージセンサ1033に結像された物体2の像の位置を算出する。この位置演算部105により算出された物体2の像の位置を示す情報(位置情報)は、MPU106に出力される。
 MPU106は、距離演算部104により算出された受光位置毎の距離及び位置演算部105により算出された物体2の像の位置に基づいて、物体2の位置を算出する。この際、MPU106は、イメージセンサ1033に結像された物体2の像の位置、イメージセンサ1033から物体2までの距離、及び、レンズ1032の焦点距離に基づいて、物体2までの位置を算出する。このMPU106により算出された物体2の位置を示す情報は、インタフェース部113に出力される。
 また、MPU106は、距離演算部104により算出された受光位置毎の距離及び位置演算部105により算出された物体2の像の位置に基づいて、物体2の幅を算出する。この際、MPU106は、イメージセンサ1033に結像された物体2の像の幅、イメージセンサ1033から物体2までの距離、及び、レンズ1032の焦点距離に基づいて、物体2の幅を算出する。このMPU106により算出された物体2の幅を示す情報は、インタフェース部113に出力される。なお、MPU106による物体2の幅の算出については必須の処理ではなく実施しなくてもよい。
 なお、位置演算部105及びMPU106は、「距離演算部104により算出された受光位置毎の距離に基づいて、物体2の位置を算出する物体位置演算部」及び「距離演算部104により算出された受光位置毎の距離に基づいて、物体2の幅を算出する物体幅演算部」を構成する。
 また、計測制御部101、距離演算部104及び位置演算部105は、システムLSI(Large Scale Integration)等の処理回路、又はメモリ等に記憶されたプログラムを実行するCPU(Central Processing Unit)等により実現される。
 入出力部107は、検出装置1に対する各種設定の入力を行い、制御情報を生成してMPU106に出力する。この制御情報には、例えば、投光部102による光の投光を指示するトリガ信号、又は、投光部102でレーザ光を用いる場合にはレーザ光の停止を指示する停止信号等が含まれる。
 また、入出力部107は、MPU106から入力された情報の出力を行う。この際、入出力部107は、例えば、アナログ出力を行ってもよいし、閾値判定を行って閾値を超えた場合にオン出力を行ってもよい。
 通信部108は、イーサネット(登録商標)等のネットワークを介して外部装置と通信を行い、例えばMPU106から入力された情報を外部装置に送信する。
 表示部109は、各種の動作表示を行う。また、表示部109は、MPU106から入力された情報を表示する。例えば、表示部109は、物体2の位置を表示する場合に、受光部103の光軸上を零点とし、物体2が光軸からどのくらい離れた場所に位置しているかを数値で表示する。
 操作部110は、ユーザ操作を受付け、例えば、表示部109の表示切替え又は検出装置1に対する各種設定等を行う。
 次に、実施の形態1に係る検出装置1の動作例について、図3を参照しながら説明する。なお以下では、MPU106が物体2の位置及び幅を算出する場合を示す。
 投光部102は、計測制御部101からの制御信号に従い、パルス状の光を検出領域に投光する(ステップST1)。この投光部102により投光された光は、検出領域に存在する物体2により反射され、レンズ1032を介してイメージセンサ1033に入射される。なお、検出領域に壁等の背景が存在する場合には、投光部102により投光された光は当該背景でも反射され、レンズ1032を介してイメージセンサ1033に入射される。
 次いで、イメージセンサ1033は、入射された光を受光素子毎に受光する(ステップST2)。図4に示すように、イメージセンサ1033の各受光素子(Pixel No.0~No.n)での光(受光パルス)の受光タイミングは、投光部102による光(投光パルス)の投光タイミングに対し、物体2との間の距離に応じて遅れる。なお以下では、イメージセンサ1033は、上記受光結果を示す情報として、各受光素子での受光時刻(遅れ時間)を示す情報を出力するものとする。このイメージセンサ1033により例えば図5A及び図6Aに示すような受光位置と受光時刻との関係が得られる。
 次いで、距離演算部104は、イメージセンサ1033による受光結果に基づいて、TOF方式により、物体2までの距離を、受光素子が位置する受光位置毎に算出する(ステップST3)。
 この際、距離演算部104は、まず、イメージセンサ1033による受光結果に基づいて、下式(3)より、受光位置毎に、受光素子で受光した光が反射された位置(反射点)までの距離を算出する。式(3)において、dはi番目の受光素子で受光した光の反射点までの距離を示し、cは光の速度を示し、tdiはi番目の受光素子での受光時刻を示している。
=c×tdi/2  (3)
 ここで、式(3)により得られる受光位置から反射点までの距離は、受光部103の光軸に対して角度θだけ傾いた方向の距離である。なお、角度θは、レンズ1032上の光軸位置とi番目の受光位置とを結ぶ線分と、光軸との成す角度であり、既知である。そこで、距離演算部104は、受光位置毎に、角度θを用いて、算出した反射点までの距離を、受光部103の光軸に平行(略平行の意味を含む)な距離に変換する。
 そして、距離演算部104は、受光位置毎に、上記変換により得られた反射点までの距離から、物体2までの距離を得る。ここで、距離演算部104は、上記変換により得られた反射点までの距離のうち、イメージセンサ1033から背景までの距離に相当するものは除外する。また、実施の形態1では、物体2の検出対象となる面はイメージセンサ1033の受光面に対して平行であるため、物体2までの距離は受光位置毎にそれぞれ同じ値となる。この距離演算部104により例えば図5B及び図6Bに示すような距離情報が得られる。
 次いで、位置演算部105は、距離演算部104により得られた距離情報に基づいて、イメージセンサ1033に結像された物体2の像の位置を算出する(ステップST4)。例えば図5B及び図6Bでは位置演算部105が像のエッジの位置を検出した場合での位置情報を示している。
 次いで、MPU106は、距離演算部104により得られた距離情報及び位置演算部105により得られた位置情報に基づいて、物体2の位置を算出する(ステップST5)。
 この際、MPU106は、下式(4)より、物体2の位置を算出する。式(4)において、xは物体2の位置を示し、xは物体2の像の位置(受光位置)を示している。また、dは物体2とイメージセンサ1033との間の距離を示し、fはレンズ1032とイメージセンサ1033との間の距離(焦点距離)を示している。なお、式(4)における{(d-f)/f}は光学系の倍率である。
={(d-f)/f}×x2      (4)
 また、MPU106は、距離演算部104により得られた距離情報及び位置演算部105により得られた位置情報に基づいて、物体2の幅を算出する(ステップST6)。
 この際、MPU106は、下式(5)より、物体2の幅を算出する。式(5)において、wは物体2の幅を示し、wは物体2の像の幅を示している。なお、MPU106は、位置演算部105により像の両端の位置が検出されない場合には、幅算出処理は行わない。
={(d-f)/f}×w2      (5)
 ここで、実施の形態1に係る検出装置1は、センサ(投光部102及び受光部103)と検出領域とが対向配置された反射型に構成されている。これにより、実施の形態1に係る検出装置1は、検出領域の片側にのみセンサを設置すればよく、また、投光部102と受光部103との間での光軸合わせが不要となり、設置条件が緩くなる。また、実施の形態1に係る検出装置1は、検出範囲が広くなる。また、実施の形態1に係る検出装置1は、イメージセンサ1033と物体2との間の距離が算出できるため、非テレセントリックレンズを用いても物体2の位置及び幅を算出でき、従来構成に対して低コスト化が実現できる。
 次に、実施の形態1に係る検出装置1の動作の具体例について、図7,8を参照しながら説明する。以下では、図7に示すように、検出装置1が、イメージセンサ1033から物体2までの距離と、物体2のエッジの位置(光軸から物体2のエッジまでの距離P)とを算出するものとする。また、イメージセンサ1033の画素ピッチ(受光素子間の距離)は20[μm]とし、画素数(受光素子数)は256画素とし、レンズ1032の焦点距離は20[mm]とする。また、イメージセンサ1033から検出領域に存在する背景までの距離(図7に示すd)が3[m]であるとする。
 これらの条件において、投光部102がパルス状の光を背景に向けて投光すると、例えば図8に示すように、イメージセンサ1033により受光素子毎に受光時刻(遅れ時間)が得られ、距離演算部104により受光位置毎の反射点までの距離が得られる。そして、イメージセンサ1033から背景までの距離は3[m]であるため、距離演算部104は、図8から、イメージセンサ1033から物体2までの距離として、1.995[m]を出力する。
 また、位置演算部105は、距離演算部104による演算結果から、イメージセンサ1033に結像された物体2の像のエッジの位置を算出する。図7,8の場合では、光軸位置に対応する画素はPixel No.128であり、物体2のエッジの位置に対応する画素の1つ手前の画素はPixel No.200である。よって、位置演算部105は、Pixel No.128からPixel No.200までの距離から、物体2の像のエッジの位置(光軸から物体2の像のエッジまでの距離)として、0.00147[m]を出力する。
 次いで、MPU106は、距離演算部104及び位置演算部105による演算結果から、物体2のエッジの位置を算出する。図8の場合では、光学系の倍率は98.75である。そして、MPU106は、物体2の像のエッジの位置に光学系の倍率を乗算することで、物体2のエッジの位置(光軸から物体2のエッジまでの距離P)として、0.145[m]を出力する。
 なお上記では、複数の受光素子が一次元方向に配列されたリニアタイプのイメージセンサ1033を用いた場合を示した。しかしながら、これに限らず、複数の受光素子が二次元方向に配列されたイメージセンサ1033を用いてもよい。これにより、検出装置1は、検出領域に存在する物体2の幅だけではなく、高さも算出可能となる。
 以上のように、この実施の形態1によれば、光を検出領域に投光する投光部102と、投光部102により投光されて検出領域で反射された光を集光するレンズ1032と、複数の受光素子を有し、レンズ1032により集光された光を当該受光素子毎に受光するイメージセンサ1033と、イメージセンサ1033による受光結果に基づいて、TOF方式により、検出領域に存在する物体2までの距離を、受光素子が位置する受光位置毎に算出する距離演算部104と、距離演算部104により算出された受光位置毎の距離に基づいて、物体2の位置を算出する物体位置演算部とを備えたので、反射型で、物体2の位置を検出可能となる。
 また、検出装置1は、距離演算部104により算出された受光位置毎の距離に基づいて、物体2の幅を算出する物体幅演算部を備えることで、物体2の幅を検出可能となる。
実施の形態2.
 実施の形態1では、物体2の検出対象となる面がイメージセンサ1033の受光面に対して平行である場合を示した。それに対し、実施の形態2では、物体2の検出対象となる面がイメージセンサ1033の受光面に対して斜めであっても、物体2の幅を算出可能とする構成を示す。
 なお、実施の形態2に係る検出装置1の構成例は、図1に示す実施の形態1に係る検出装置1の構成例と同様である。
 なお、距離演算部104は、角度θを用いた光軸に平行な距離への変換処理は実施しない。
 また、MPU106は、イメージセンサ1033に結像された物体2の像の一端から光軸位置までの幅及び当該像の他端から光軸位置までの幅、当該一端から物体2の一端である反射点までの距離及び当該他端から物体2の他端である反射点までの距離、及び、当該一端からレンズ1032上の光軸位置までの距離及び当該他端からレンズ1032上の光軸位置までの距離に基づいて、物体2の幅を算出する。
 実施の形態2におけるMPU106は、下式(6)~(8)より、物体2の幅を算出する。式(6)~(8)において、wは、物体2の幅である。また、Lは、イメージセンサ1033に結合された物体2の像の一端(第1の受光位置に相当)から光軸位置までの幅を示し、Lは、当該像の他端(第2の受光位置に相当)から光軸位置までの幅を示している。また、d1mは、第1の受光位置から物体2の一端である反射点(第1のエッジ)までの距離を示し、d2mは、第2の受光位置から物体2の他端である反射点(第2のエッジ)までの距離を示している。また、dは、第1のエッジとレンズ1032上の光軸位置との間の距離を示し、dは、第2のエッジとレンズ1032上の光軸位置との間の距離を示している。また、d1fは、レンズ1032上の光軸位置と第1の受光位置との間の距離を示し、d2fは、レンズ1032上の光軸位置と第2の受光位置との間の距離を示している。なお、d1f及びd2fは既知である。これにより、MPU106は、物体2が、イメージセンサ1033の受光面に対して斜めであっても、物体2の幅を算出可能である。
Figure JPOXMLDOC01-appb-I000001
 実施の形態2に係る検出装置1は、例えばAGV(Automated Guided Vehicle)等に設けられる衝突防止用のセンサ(測域センサ)として用いることができる。従来、この種の衝突防止用のセンサとしては、レーザ光を反射するミラーが可動するレーザスキャン方式のセンサが用いられている。これに対し、実施の形態2に係る検出装置1を用いることで、また、上記ミラーのような可動部は不要となるため、センサの小型化が可能であり、また、振動及び衝撃に対する耐性の高いセンサを実現できる。なおこの場合には、レンズ1032は広角レンズであることが望ましい。
 なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。
 この発明に係る検出装置は、反射型で、物体の位置を検出可能であり、検出領域に存在する物体の位置を検出する検出装置に用いるのに適している。
1 検出装置
2 物体
101 計測制御部
102 投光部
103 受光部
104 距離演算部
105 位置演算部
106 MPU
107 入出力部
108 通信部
109 表示部
110 操作部
111 計測部
112 センサヘッド
113 インタフェース部
1021 投光基板
1022 発光素子
1023 アパーチャー
1024 ディヒューザー
1031 受光基板
1032 レンズ
1033 イメージセンサ
1121 フィルタ

Claims (7)

  1.  光を検出領域に投光する投光部と、
     前記投光部により投光されて前記検出領域で反射された光を集光するレンズと、
     複数の受光素子を有し、前記レンズにより集光された光を当該受光素子毎に受光するイメージセンサと、
     前記イメージセンサによる受光結果に基づいて、TOF方式により、前記検出領域に存在する物体までの距離を、前記受光素子が位置する受光位置毎に算出する距離演算部と、
     前記距離演算部により算出された受光位置毎の距離に基づいて、前記物体の位置を算出する物体位置演算部と
     を備えた検出装置。
  2.  前記物体位置演算部は、前記イメージセンサに結像された前記物体の像の位置、当該イメージセンサから当該物体までの距離、及び、前記レンズの焦点距離に基づいて、当該物体までの位置を算出する
     ことを特徴とする請求項1記載の検出装置。
  3.  前記距離演算部により算出された受光位置毎の距離に基づいて、前記物体の幅を算出する物体幅演算部を備えた
     ことを特徴とする請求項1又は請求項2記載の検出装置。
  4.  前記物体幅演算部は、前記イメージセンサに結像された前記物体の像の幅、当該イメージセンサから当該物体までの距離、及び、前記レンズの焦点距離に基づいて、当該物体の幅を算出する
     ことを特徴とする請求項3記載の検出装置。
  5.  前記物体幅演算部は、前記イメージセンサに結像された前記物体の像の一端から光軸位置までの幅及び当該像の他端から光軸位置までの幅、当該一端から当該物体の一端である反射点までの距離及び当該他端から当該物体の他端である反射点までの距離、及び、当該一端から前記レンズ上の光軸位置までの距離及び当該他端から当該レンズ上の光軸位置までの距離に基づいて、当該物体の幅を算出する
     ことを特徴とする請求項3記載の検出装置。
  6.  前記受光素子は、一次元方向に配列された
     ことを特徴とする請求項1から請求項5のうちの何れか1項記載の検出装置。
  7.  前記レンズは、非テレセントリックレンズである
     ことを特徴とする請求項1から請求項6のうちの何れか1項記載の検出装置。
PCT/JP2019/008902 2018-03-19 2019-03-06 検出装置 WO2019181512A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020207024172A KR20200106211A (ko) 2018-03-19 2019-03-06 검출 장치
US16/979,693 US20210048286A1 (en) 2018-03-19 2019-03-06 Detection device
CN201980013006.3A CN111712685A (zh) 2018-03-19 2019-03-06 检测装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018050892A JP2019163960A (ja) 2018-03-19 2018-03-19 検出装置
JP2018-050892 2018-03-19

Publications (1)

Publication Number Publication Date
WO2019181512A1 true WO2019181512A1 (ja) 2019-09-26

Family

ID=67986150

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/008902 WO2019181512A1 (ja) 2018-03-19 2019-03-06 検出装置

Country Status (5)

Country Link
US (1) US20210048286A1 (ja)
JP (1) JP2019163960A (ja)
KR (1) KR20200106211A (ja)
CN (1) CN111712685A (ja)
WO (1) WO2019181512A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011027707A (ja) * 2009-06-25 2011-02-10 Sharp Corp 人物動作検出装置、遊具装置、人物動作検出方法、ゲーム方法、制御プログラムおよび可読記録媒体
JP2014077668A (ja) * 2012-10-09 2014-05-01 Optex Co Ltd 寸法計測装置および寸法計測方法
JP2017181488A (ja) * 2016-03-23 2017-10-05 パナソニックIpマネジメント株式会社 距離画像生成装置、距離画像生成方法及びプログラム
US20170329012A1 (en) * 2014-11-12 2017-11-16 Heptagon Micro Optics Pte. Ltd. Optoelectronic modules for distance measurements and/or multi-dimensional imaging

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3546914B2 (ja) * 1996-10-18 2004-07-28 富士ゼロックス株式会社 光学測定方法、光学測定装置および画像形成装置
JP2004226372A (ja) 2003-01-27 2004-08-12 Yamatake Corp 位置検出方法および装置
CN106839975B (zh) * 2015-12-03 2019-08-30 杭州海康威视数字技术股份有限公司 基于深度相机的体积测量方法及其系统
US11860292B2 (en) * 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011027707A (ja) * 2009-06-25 2011-02-10 Sharp Corp 人物動作検出装置、遊具装置、人物動作検出方法、ゲーム方法、制御プログラムおよび可読記録媒体
JP2014077668A (ja) * 2012-10-09 2014-05-01 Optex Co Ltd 寸法計測装置および寸法計測方法
US20170329012A1 (en) * 2014-11-12 2017-11-16 Heptagon Micro Optics Pte. Ltd. Optoelectronic modules for distance measurements and/or multi-dimensional imaging
JP2017181488A (ja) * 2016-03-23 2017-10-05 パナソニックIpマネジメント株式会社 距離画像生成装置、距離画像生成方法及びプログラム

Also Published As

Publication number Publication date
KR20200106211A (ko) 2020-09-11
JP2019163960A (ja) 2019-09-26
CN111712685A (zh) 2020-09-25
US20210048286A1 (en) 2021-02-18

Similar Documents

Publication Publication Date Title
US9201237B2 (en) Diffraction-based sensing of mirror position
CN108693515B (zh) 激光雷达系统和用于获知激光雷达系统的系统状态的方法
US10764487B2 (en) Distance image acquisition apparatus and application thereof
US8138488B2 (en) System and method for performing optical navigation using scattered light
EP3683542B1 (en) Distance measuring module
CN111198384B (zh) 具有测距装置的物体监视系统
JP2002139304A (ja) 距離測定装置、及び距離測定方法
JP6804949B2 (ja) 制御装置、測定装置、およびコンピュータプログラム
US9255792B2 (en) Optical probe, attachable cover, and shape measuring apparatus
JP6186863B2 (ja) 測距装置及びプログラム
JP2019078682A (ja) レーザ測距装置、レーザ測距方法および位置調整プログラム
WO2022050279A1 (ja) 三次元計測装置
WO2019181512A1 (ja) 検出装置
CN109613696B (zh) 光纤扫描投影装置及电子设备
JP7329943B2 (ja) 検出装置及び移動装置
WO2019146461A1 (ja) 電磁波検出装置および情報取得システム
JP2020165676A (ja) 検出システム
JP2020165682A (ja) 自動移動装置
TWI575218B (zh) 用於量測移動之裝置及方法以及麥克風
JP2020165678A (ja) 検出装置
JP2982757B2 (ja) 3次元形状入力装置
KR20080010006A (ko) 레이저 변위측정장치
WO2022004259A1 (ja) 画像処理装置および測距装置
WO2024004166A1 (ja) 距離測定装置
TWI727393B (zh) 雷射與攝像整合系統及其方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19771055

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20207024172

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19771055

Country of ref document: EP

Kind code of ref document: A1