JP2020165682A - Automatic mobile device - Google Patents

Automatic mobile device Download PDF

Info

Publication number
JP2020165682A
JP2020165682A JP2019063671A JP2019063671A JP2020165682A JP 2020165682 A JP2020165682 A JP 2020165682A JP 2019063671 A JP2019063671 A JP 2019063671A JP 2019063671 A JP2019063671 A JP 2019063671A JP 2020165682 A JP2020165682 A JP 2020165682A
Authority
JP
Japan
Prior art keywords
distance
light
light receiving
calculation unit
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019063671A
Other languages
Japanese (ja)
Inventor
幸一 立石
Koichi Tateishi
幸一 立石
慎二 飯島
Shinji Iijima
慎二 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2019063671A priority Critical patent/JP2020165682A/en
Publication of JP2020165682A publication Critical patent/JP2020165682A/en
Pending legal-status Critical Current

Links

Images

Abstract

To make it possible to reduce a size compared with a conventional configuration.SOLUTION: An automatic mobile device comprises a detection device 1. The detection device 1 includes: a light projection unit 102 for projecting light to a detection region; a lens 1032 for collecting light projected by the light projection unit 102 and then reflected in the detection region; an image sensor 1033 having a plurality of photodetectors for receiving the light collected by the lens 1032 for each of the photodetectors; a distance operation unit 104 for calculating a distance to an object 10 present in the detection region by a TOF method for each light reception position where the photodetector is located based on a light reception result by the image sensor 1033; and an object position operation unit for calculating a position of the object 10 based on the distance for each light reception position calculated by the distance operation unit 104.SELECTED DRAWING: Figure 1

Description

この発明は、検出領域に存在する物体の位置を検出する検出装置を備えた自動移動装置に関する。 The present invention relates to an automatic moving device including a detection device for detecting the position of an object existing in a detection area.

従来から、検出領域に存在する物体の位置を検出するエリアセンサ(測域センサ)が知られている(例えば特許文献1参照)。このエリアセンサは、AGV(Automated Guided Vehicle)等の自動移動装置に搭載されている。 Conventionally, an area sensor (range sensor) that detects the position of an object existing in the detection area has been known (see, for example, Patent Document 1). This area sensor is mounted on an automatic moving device such as an AGV (Automated Guided Vehicle).

特許5598831号Patent No. 55988831

しかしながら、エリアセンサは、レーザ光を反射するミラーを回転させるメカニカルな回転機構を有している。そのため、このエリアセンサが搭載される自動移動装置では、エリアセンサが搭載される領域を小さくできず、自動移動装置の全長が長くなる。
また、エリアセンサとして小型のものを用いる場合、エリアセンサの検出領域を確保するため、エリアセンサは上面から取付け部材により取付けられる場合が多い。そのため、自動移動装置に搭載されたエリアセンサを交換する場合には、作業者は、まず、自動移動装置の筐体の取外し等が必要となり、作業に手間がかかる。
However, the area sensor has a mechanical rotation mechanism that rotates a mirror that reflects laser light. Therefore, in the automatic moving device on which the area sensor is mounted, the area on which the area sensor is mounted cannot be reduced, and the total length of the automatic moving device becomes long.
Further, when a small area sensor is used, the area sensor is often mounted from the upper surface by a mounting member in order to secure a detection area of the area sensor. Therefore, when replacing the area sensor mounted on the automatic moving device, the operator must first remove the housing of the automatic moving device, which is troublesome.

この発明は、上記のような課題を解決するためになされたもので、従来構成に対して小型化可能な自動移動装置を提供することを目的としている。 The present invention has been made to solve the above problems, and an object of the present invention is to provide an automatic moving device that can be miniaturized with respect to a conventional configuration.

この発明に係る自動移動装置は、検出装置を備え、検出装置は、光を検出領域に投光する投光部と、投光部により投光されて検出領域で反射された光を集光するレンズと、複数の受光素子を有し、レンズにより集光された光を当該受光素子毎に受光するイメージセンサと、イメージセンサによる受光結果に基づいて、TOF方式により、検出領域に存在する物体までの距離を、受光素子が位置する受光位置毎に算出する距離演算部と、距離演算部により算出された受光位置毎の距離に基づいて、物体の位置を算出する物体位置演算部とを備えたことを特徴とする。 The automatic moving device according to the present invention includes a detection device, and the detection device collects a light projecting unit that projects light into a detection area and a light projecting light projected by the light projecting unit and reflected in the detection area. An image sensor that has a lens and a plurality of light receiving elements and receives the light collected by the lens for each light receiving element, and an object existing in the detection region by the TOF method based on the light receiving result by the image sensor. A distance calculation unit that calculates the distance of each light receiving position where the light receiving element is located, and an object position calculation unit that calculates the position of the object based on the distance for each light receiving position calculated by the distance calculation unit. It is characterized by that.

この発明によれば、上記のように構成したので、従来構成に対して小型化可能となる。 According to the present invention, since the configuration is as described above, the size can be reduced as compared with the conventional configuration.

実施の形態1に係る検出装置が自動移動装置に搭載された状態の一例を示す図である。It is a figure which shows an example of the state which the detection device which concerns on Embodiment 1 is mounted on the automatic movement device. 実施の形態1に係る検出装置の構成例を示す図である。It is a figure which shows the configuration example of the detection apparatus which concerns on Embodiment 1. FIG. 図3A、図3Bは、実施の形態1におけるセンサヘッドの構成例を示す図であり、図3Aはセンサヘッドの内部構造の一例を示す図であり、図3Bはセンサヘッドの外観の一例を示す図である。3A and 3B are diagrams showing a configuration example of the sensor head according to the first embodiment, FIG. 3A is a diagram showing an example of the internal structure of the sensor head, and FIG. 3B shows an example of the appearance of the sensor head. It is a figure. 実施の形態1に係る検出装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1における投光部及び受光部の動作例を示すタイミングチャートである。It is a timing chart which shows the operation example of the light emitting part and the light receiving part in Embodiment 1. FIG. 図6A、図6Bは、実施の形態1における距離演算部及び位置演算部の動作例を説明するための図であり、図6Aは受光位置と受光時刻との関係の一例を示す図であり、図6Bは受光位置と距離との関係の一例を示す図である。6A and 6B are diagrams for explaining an operation example of the distance calculation unit and the position calculation unit in the first embodiment, and FIG. 6A is a diagram showing an example of the relationship between the light receiving position and the light receiving time. FIG. 6B is a diagram showing an example of the relationship between the light receiving position and the distance. 図7A、図7Bは、実施の形態1における距離演算部及び位置演算部の動作例を説明するための図であり、図7Aは受光位置と受光時刻との関係の一例を示す図であり、図7Bは受光位置と距離との関係の一例を示す図である。7A and 7B are diagrams for explaining an operation example of the distance calculation unit and the position calculation unit in the first embodiment, and FIG. 7A is a diagram showing an example of the relationship between the light receiving position and the light receiving time. FIG. 7B is a diagram showing an example of the relationship between the light receiving position and the distance. 実施の形態1に係る検出装置の動作の具体例を示す図である。It is a figure which shows the specific example of the operation of the detection apparatus which concerns on Embodiment 1. FIG. 実施の形態1における受光部による受光結果及び距離演算部による演算結果の一例を示す図である。It is a figure which shows an example of the light-receiving result by a light-receiving part and the calculation result by a distance calculation part in Embodiment 1. FIG. 図10A、図10Bは、実施の形態2に係る検出装置による幅算出を説明するための図であり、図10Aは物体と受光部との位置関係の一例を示す図であり、図10Bは受光位置と距離との関係の一例を示す図である。10A and 10B are diagrams for explaining the width calculation by the detection device according to the second embodiment, FIG. 10A is a diagram showing an example of the positional relationship between the object and the light receiving portion, and FIG. 10B is a diagram showing an example of the positional relationship between the object and the light receiving portion. It is a figure which shows an example of the relationship between a position and a distance.

以下、この発明の実施の形態について図面を参照しながら詳細に説明する。
実施の形態1.
図1は実施の形態1に係る検出装置1が自動移動装置2に搭載された状態の一例を示す図である。
自動移動装置2は、図1に示すように、メカニカルな回転機構を有していない検出装置1を備えている。また、検出装置1は、図1に示すように、後述するセンサヘッド112の前面(投受光面)からネジ等の取付け部材3により取付けられている。また、自動移動装置2は、検出装置1の設置面201に対向した開口部202を有している。開口部202には、ガラス等の透明部材203が取付けられている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1.
FIG. 1 is a diagram showing an example of a state in which the detection device 1 according to the first embodiment is mounted on the automatic moving device 2.
As shown in FIG. 1, the automatic moving device 2 includes a detecting device 1 that does not have a mechanical rotation mechanism. Further, as shown in FIG. 1, the detection device 1 is attached from the front surface (light emitting / receiving surface) of the sensor head 112, which will be described later, by an attachment member 3 such as a screw. Further, the automatic moving device 2 has an opening 202 facing the installation surface 201 of the detecting device 1. A transparent member 203 such as glass is attached to the opening 202.

次に、検出装置1の構成例について、図2を参照しながら説明する。
検出装置1は、検出領域に存在する物体(被検出対象)10を検出する。この検出装置1は、産業用(工業用)のセンサとして用いられる。また実施の形態1では、物体10の検出対象となる面は、後述するイメージセンサ1033の受光面に対して平行(略平行の意味を含む)であるとする。この検出装置1は、図2に示すように、計測制御部101、投光部102、受光部103、距離演算部104、位置演算部105、MPU(Micro Processing Unit)106、入出力部107、通信部108、表示部109及び操作部110を備えている。また、検出装置1は、投光部102が投光して検出領域で反射された光を受光部103が受光する反射型に構成されている。
Next, a configuration example of the detection device 1 will be described with reference to FIG.
The detection device 1 detects an object (detection target) 10 existing in the detection region. This detection device 1 is used as an industrial (industrial) sensor. Further, in the first embodiment, it is assumed that the surface of the object 10 to be detected is parallel (including the meaning of substantially parallel) to the light receiving surface of the image sensor 1033 described later. As shown in FIG. 2, the detection device 1 includes a measurement control unit 101, a light projecting unit 102, a light receiving unit 103, a distance calculation unit 104, a position calculation unit 105, an MPU (Micro Processing Unit) 106, and an input / output unit 107. It includes a communication unit 108, a display unit 109, and an operation unit 110. Further, the detection device 1 is configured as a reflection type in which the light receiving unit 103 receives the light projected by the light emitting unit 102 and reflected in the detection region.

なお、投光部102及び受光部103は、計測部111を構成する。また図3では、計測制御部101、投光部102、受光部103、距離演算部104、位置演算部105及びMPU106が、センサヘッド112に搭載されている。図3に示すセンサヘッド112の前面には、フィルタ1121が設けられている。なお図3では、計測制御部101、距離演算部104及び位置演算部105の図示を省略している。
また、入出力部107、通信部108、表示部109及び操作部110は、インタフェース部113を構成する。
The light projecting unit 102 and the light receiving unit 103 form a measuring unit 111. Further, in FIG. 3, the measurement control unit 101, the light projecting unit 102, the light receiving unit 103, the distance calculation unit 104, the position calculation unit 105, and the MPU 106 are mounted on the sensor head 112. A filter 1121 is provided on the front surface of the sensor head 112 shown in FIG. Note that in FIG. 3, the measurement control unit 101, the distance calculation unit 104, and the position calculation unit 105 are not shown.
Further, the input / output unit 107, the communication unit 108, the display unit 109, and the operation unit 110 form an interface unit 113.

計測制御部101は、MPU106を介して入力された制御情報に基づいて、制御信号を生成する。制御信号は、イメージセンサ1033での光の受光動作に応じて、投光部102での光の投光タイミングを制御する信号である。この計測制御部101により生成された制御信号は、投光部102に出力される。 The measurement control unit 101 generates a control signal based on the control information input via the MPU 106. The control signal is a signal that controls the light projection timing of the light projection unit 102 according to the light reception operation of the image sensor 1033. The control signal generated by the measurement control unit 101 is output to the light projecting unit 102.

投光部102は、計測制御部101からの制御信号に従い、パルス状の光を検出領域に投光する。なお、投光部102が投光する光のビーム形状は、予め設定されている。図3では、投光部102は、回路基板である投光基板(不図示)1021と、光を発光する発光素子1022と、発光素子1022の前面に配置された絞りであるアパーチャー1023と、発光素子1022により発光されてアパーチャー1023を通過した光を拡散するディヒューザー1024とから構成されている。また、投光部102により投光される光の幅及び投光周期は、想定される物体10までの距離又は移動速度等により決まる。また、投光部102は、投光する光を変調してもよい。 The light projecting unit 102 projects pulsed light onto the detection region in accordance with the control signal from the measurement control unit 101. The beam shape of the light projected by the light projecting unit 102 is preset. In FIG. 3, the light projecting unit 102 includes a light projecting board (not shown) 1021 which is a circuit board, a light emitting element 1022 that emits light, an aperture 1023 which is an aperture arranged in front of the light emitting element 1022, and light emitting light. It is composed of a diffuser 1024 that emits light from the element 1022 and diffuses the light that has passed through the aperture 1023. Further, the width of the light projected by the light projecting unit 102 and the projecting period are determined by the assumed distance to the object 10 or the moving speed. Further, the light projecting unit 102 may modulate the light to be projected.

受光部103は、投光部102により投光されて検出領域で反射された光を受光する。図3では、受光部103は、回路基板である受光基板(不図示)1031と、レンズ1032と、イメージセンサ1033とから構成されている。 The light receiving unit 103 receives the light projected by the light projecting unit 102 and reflected in the detection region. In FIG. 3, the light receiving unit 103 is composed of a light receiving board (not shown) 1031 which is a circuit board, a lens 1032, and an image sensor 1033.

レンズ1032は、投光部102により投光されて検出領域で反射された光を集光する。このレンズ1032は、非テレセントリックレンズである。 The lens 1032 collects the light projected by the light projecting unit 102 and reflected in the detection region. This lens 1032 is a non-telecentric lens.

イメージセンサ1033は、複数の受光素子を有し、レンズ1032により集光された光を当該受光素子毎に受光する。以下では、イメージセンサ1033はリニアタイプであり、複数の受光素子が一次元方向に配列されているものとする。リニアタイプのイメージセンサ1033は、産業用のセンサに求められる高速応答に対応可能である。このイメージセンサ1033による受光結果を示す情報は、距離演算部104に出力される。
なお、イメージセンサ1033は、上記受光結果を示す情報として、例えば、投光部102により光が投光された時刻(投光時刻)を基準として、各受光素子で光を受光した時刻(受光時刻)である遅れ時間を示す情報を出力してもよい。また、投光部102が光を変調している場合には、イメージセンサ1033は、上記受光結果を示す情報として、例えば、投光部102により投光された光と各受光素子で受光された光との位相差を示す情報を出力してもよい。
The image sensor 1033 has a plurality of light receiving elements, and receives the light collected by the lens 1032 for each of the light receiving elements. In the following, it is assumed that the image sensor 1033 is a linear type and a plurality of light receiving elements are arranged in a one-dimensional direction. The linear type image sensor 1033 can support the high-speed response required for industrial sensors. The information indicating the light receiving result by the image sensor 1033 is output to the distance calculation unit 104.
The image sensor 1033 uses, for example, the time when the light is received by each light receiving element (light receiving time) as the information indicating the light receiving result, based on the time when the light is projected by the light projecting unit 102 (light emitting time). ) May output information indicating the delay time. When the light projecting unit 102 modulates the light, the image sensor 1033 receives the light projected by the light projecting unit 102 and each light receiving element as information indicating the light receiving result. Information indicating the phase difference with light may be output.

距離演算部104は、イメージセンサ1033による受光結果に基づいて、TOF(Time Of Flight)方式により、イメージセンサ1033から物体10までの距離を、受光素子が位置する受光位置毎に算出する。この距離演算部104により算出された受光位置毎の距離を示す情報(距離情報)は、位置演算部105及びMPU106に出力される。 The distance calculation unit 104 calculates the distance from the image sensor 1033 to the object 10 for each light receiving position where the light receiving element is located, by the TOF (Time Of Flight) method based on the light receiving result by the image sensor 1033. Information (distance information) indicating the distance for each light receiving position calculated by the distance calculation unit 104 is output to the position calculation unit 105 and the MPU 106.

位置演算部105は、距離演算部104により算出された受光位置毎の距離に基づいて、イメージセンサ1033に結像された物体10の像の位置を算出する。この位置演算部105により算出された物体10の像の位置を示す情報(位置情報)は、MPU106に出力される。 The position calculation unit 105 calculates the position of the image of the object 10 imaged on the image sensor 1033 based on the distance for each light receiving position calculated by the distance calculation unit 104. Information (position information) indicating the position of the image of the object 10 calculated by the position calculation unit 105 is output to the MPU 106.

MPU106は、距離演算部104により算出された受光位置毎の距離及び位置演算部105により算出された物体10の像の位置に基づいて、物体10の位置を算出する。この際、MPU106は、イメージセンサ1033に結像された物体10の像の位置、イメージセンサ1033から物体10までの距離、及び、レンズ1032の焦点距離に基づいて、物体10の位置を算出する。このMPU106により算出された物体10の位置を示す情報は、インタフェース部113に出力される。 The MPU 106 calculates the position of the object 10 based on the distance for each light receiving position calculated by the distance calculation unit 104 and the position of the image of the object 10 calculated by the position calculation unit 105. At this time, the MPU 106 calculates the position of the object 10 based on the position of the image of the object 10 imaged on the image sensor 1033, the distance from the image sensor 1033 to the object 10, and the focal length of the lens 1032. The information indicating the position of the object 10 calculated by the MPU 106 is output to the interface unit 113.

また、MPU106は、距離演算部104により算出された受光位置毎の距離及び位置演算部105により算出された物体10の像の位置に基づいて、物体10の幅を算出する。この際、MPU106は、イメージセンサ1033に結像された物体10の像の幅、イメージセンサ1033から物体10までの距離、及び、レンズ1032の焦点距離に基づいて、物体10の幅を算出する。このMPU106により算出された物体10の幅を示す情報は、インタフェース部113に出力される。なお、MPU106による物体10の幅の算出については必須の処理ではなく実施しなくてもよい。 Further, the MPU 106 calculates the width of the object 10 based on the distance for each light receiving position calculated by the distance calculation unit 104 and the position of the image of the object 10 calculated by the position calculation unit 105. At this time, the MPU 106 calculates the width of the object 10 based on the width of the image of the object 10 imaged on the image sensor 1033, the distance from the image sensor 1033 to the object 10, and the focal length of the lens 1032. The information indicating the width of the object 10 calculated by the MPU 106 is output to the interface unit 113. The calculation of the width of the object 10 by the MPU 106 is not an essential process and does not have to be performed.

なお、位置演算部105及びMPU106は、「距離演算部104により算出された受光位置毎の距離に基づいて、物体10の位置を算出する物体位置演算部」及び「距離演算部104により算出された受光位置毎の距離に基づいて、物体10の幅を算出する物体幅演算部」を構成する。 The position calculation unit 105 and the MPU 106 were calculated by the "object position calculation unit that calculates the position of the object 10 based on the distance for each light receiving position calculated by the distance calculation unit 104" and the "distance calculation unit 104". An object width calculation unit that calculates the width of the object 10 based on the distance for each light receiving position is configured.

また、計測制御部101、距離演算部104及び位置演算部105は、システムLSI(Large Scale Integration)等の処理回路、又はメモリ等に記憶されたプログラムを実行するCPU(Central Processing Unit)等により実現される。 Further, the measurement control unit 101, the distance calculation unit 104, and the position calculation unit 105 are realized by a processing circuit such as a system LSI (Large Scale Integration), a CPU (Central Processing Unit) that executes a program stored in a memory, or the like. Will be done.

入出力部107は、検出装置1に対する各種設定の入力を行い、制御情報を生成してMPU106に出力する。この制御情報には、例えば、投光部102による光の投光を指示するトリガ信号、又は、投光部102でレーザ光を用いる場合にはレーザ光の停止を指示する停止信号等が含まれる。
また、入出力部107は、MPU106から入力された情報の出力を行う。この際、入出力部107は、例えば、アナログ出力を行ってもよいし、閾値判定を行って閾値を超えた場合にオン出力を行ってもよい。
The input / output unit 107 inputs various settings to the detection device 1, generates control information, and outputs the control information to the MPU 106. This control information includes, for example, a trigger signal instructing the light projection by the light projecting unit 102, a stop signal instructing the stop of the laser light when the laser light is used in the light projecting unit 102, and the like. ..
Further, the input / output unit 107 outputs the information input from the MPU 106. At this time, the input / output unit 107 may perform analog output, for example, or may perform on output when the threshold value is determined and the threshold value is exceeded.

通信部108は、イーサネット(登録商標)等のネットワークを介して外部装置と通信を行い、例えばMPU106から入力された情報を外部装置に送信する。
表示部109は、各種の動作表示を行う。また、表示部109は、MPU106から入力された情報を表示する。例えば、表示部109は、物体10の位置を表示する場合に、受光部103の光軸上を零点とし、物体10が光軸からどのくらい離れた場所に位置しているかを数値で表示する。
操作部110は、ユーザ操作を受付け、例えば、表示部109の表示切替え又は検出装置1に対する各種設定等を行う。
The communication unit 108 communicates with an external device via a network such as Ethernet (registered trademark), and transmits information input from, for example, the MPU 106 to the external device.
The display unit 109 displays various operations. In addition, the display unit 109 displays the information input from the MPU 106. For example, when displaying the position of the object 10, the display unit 109 sets the zero point on the optical axis of the light receiving unit 103 and numerically displays how far the object 10 is from the optical axis.
The operation unit 110 accepts user operations and, for example, switches the display of the display unit 109 or makes various settings for the detection device 1.

次に、実施の形態1に係る検出装置1の動作例について、図4を参照しながら説明する。なお以下では、MPU106が物体10の位置及び幅を算出する場合を示す。
検出装置1の動作例では、図4に示すように、まず、投光部102は、計測制御部101からの制御信号に従い、パルス状の光を検出領域に投光する(ステップST1)。この投光部102により投光された光は、検出領域に存在する物体10により反射され、レンズ1032を介してイメージセンサ1033に入射される。なお、検出領域に壁等の背景が存在する場合には、投光部102により投光された光は当該背景でも反射され、レンズ1032を介してイメージセンサ1033に入射される。
Next, an operation example of the detection device 1 according to the first embodiment will be described with reference to FIG. In the following, the case where the MPU 106 calculates the position and width of the object 10 will be shown.
In the operation example of the detection device 1, as shown in FIG. 4, first, the light projecting unit 102 projects pulsed light onto the detection region according to the control signal from the measurement control unit 101 (step ST1). The light projected by the light projecting unit 102 is reflected by the object 10 existing in the detection region and is incident on the image sensor 1033 via the lens 1032. When a background such as a wall exists in the detection region, the light projected by the light projecting unit 102 is also reflected by the background and is incident on the image sensor 1033 via the lens 1032.

次いで、イメージセンサ1033は、入射された光を受光素子毎に受光する(ステップST2)。図5に示すように、イメージセンサ1033の各受光素子(Pixel No.0〜No.n)での光(受光パルス)の受光タイミングは、投光部102による光(投光パルス)の投光タイミングに対し、物体10との間の距離に応じて遅れる。なお以下では、イメージセンサ1033は、上記受光結果を示す情報として、各受光素子での受光時刻(遅れ時間)を示す情報を出力するものとする。このイメージセンサ1033により例えば図6A及び図7Aに示すような受光位置と受光時刻との関係が得られる。 Next, the image sensor 1033 receives the incident light for each light receiving element (step ST2). As shown in FIG. 5, the light (light receiving pulse) reception timing of each light receiving element (Pixel No. 0 to No. n) of the image sensor 1033 is the light projection of the light (light emitting pulse) by the light projecting unit 102. The timing is delayed according to the distance to the object 10. In the following, the image sensor 1033 shall output information indicating the light receiving time (delay time) of each light receiving element as the information indicating the light receiving result. With this image sensor 1033, for example, the relationship between the light receiving position and the light receiving time as shown in FIGS. 6A and 7A can be obtained.

次いで、距離演算部104は、イメージセンサ1033による受光結果に基づいて、TOF方式により、物体10までの距離を、受光素子が位置する受光位置毎に算出する(ステップST3)。 Next, the distance calculation unit 104 calculates the distance to the object 10 for each light receiving position where the light receiving element is located by the TOF method based on the light receiving result by the image sensor 1033 (step ST3).

この際、距離演算部104は、まず、イメージセンサ1033による受光結果に基づいて、下式(1)より、受光位置毎に、受光素子で受光した光が反射された位置(反射点)までの距離を算出する。式(1)において、dはi番目の受光素子で受光した光の反射点までの距離を示し、cは光の速度を示し、tdiはi番目の受光素子での受光時刻を示している。
=c×tdi/2 (1)
At this time, the distance calculation unit 104 first, based on the light reception result by the image sensor 1033, from the following equation (1), reaches the position (reflection point) where the light received by the light receiving element is reflected for each light receiving position. Calculate the distance. In the formula (1), d i represents the distance to the reflection point of the light received by the i th light receiving element, c is indicates the speed of light, t di is shows the light receiving time at the i-th light receiving element There is.
d i = c × t di / 2 (1)

ここで、式(1)により得られる受光位置から反射点までの距離は、受光部103の光軸に対してθだけ傾いた方向の距離である。なお、θは、レンズ1032上の光軸位置とi番目の受光位置とを結ぶ線分と、光軸との成す角度であり、既知である。そこで、距離演算部104は、受光位置毎に、θを用いて、算出した反射点までの距離を、受光部103の光軸に平行(略平行の意味を含む)な距離に変換する。 Here, the distance from the light receiving position obtained by the equation (1) to the reflection point is the distance in the direction inclined by θ i with respect to the optical axis of the light receiving unit 103. Note that θ i is a known angle formed by a line segment connecting the optical axis position on the lens 1032 and the i-th light receiving position and the optical axis. Therefore, the distance calculation unit 104 converts the calculated distance to the reflection point into a distance parallel to the optical axis of the light receiving unit 103 (including the meaning of substantially parallel) by using θ i for each light receiving position.

そして、距離演算部104は、受光位置毎に、上記変換により得られた反射点までの距離から、物体10までの距離を得る。ここで、距離演算部104は、上記変換により得られた反射点までの距離のうち、イメージセンサ1033から背景までの距離に相当するものは除外する。また、実施の形態1では、物体10の検出対象となる面はイメージセンサ1033の受光面に対して平行であるため、物体10までの距離は受光位置毎にそれぞれ同じ値となる。この距離演算部104により例えば図6B及び図7Bに示すような距離情報が得られる。 Then, the distance calculation unit 104 obtains the distance to the object 10 from the distance to the reflection point obtained by the above conversion for each light receiving position. Here, the distance calculation unit 104 excludes the distance to the reflection point obtained by the above conversion, which corresponds to the distance from the image sensor 1033 to the background. Further, in the first embodiment, since the surface of the object 10 to be detected is parallel to the light receiving surface of the image sensor 1033, the distance to the object 10 is the same value for each light receiving position. The distance calculation unit 104 can obtain distance information as shown in FIGS. 6B and 7B, for example.

次いで、位置演算部105は、距離演算部104により得られた距離情報に基づいて、イメージセンサ1033に結像された物体10の像の位置を算出する(ステップST4)。例えば図6B及び図7Bでは位置演算部105が像のエッジの位置を検出した場合での位置情報を示している。 Next, the position calculation unit 105 calculates the position of the image of the object 10 imaged on the image sensor 1033 based on the distance information obtained by the distance calculation unit 104 (step ST4). For example, FIGS. 6B and 7B show position information when the position calculation unit 105 detects the position of the edge of the image.

次いで、MPU106は、距離演算部104により得られた距離情報及び位置演算部105により得られた位置情報に基づいて、物体10の位置を算出する(ステップST5)。 Next, the MPU 106 calculates the position of the object 10 based on the distance information obtained by the distance calculation unit 104 and the position information obtained by the position calculation unit 105 (step ST5).

この際、MPU106は、下式(2)より、物体10の位置を算出する。式(2)において、xは物体10の位置を示し、xは物体10の像の位置(受光位置)を示している。また、dは物体10とイメージセンサ1033との間の距離を示し、fはレンズ1032とイメージセンサ1033との間の距離(焦点距離)を示している。なお、式(2)における{(d−f)/f}は光学系の倍率である。
={(d−f)/f}×x(2)
At this time, the MPU 106 calculates the position of the object 10 from the following equation (2). In the formula (2), x 1 indicates the position of the object 10, and x 2 indicates the position of the image of the object 10 (light receiving position). Further, d indicates the distance between the object 10 and the image sensor 1033, and f indicates the distance (focal length) between the lens 1032 and the image sensor 1033. Note that {(df) / f} in the equation (2) is the magnification of the optical system.
x 1 = {(df) / f} x x 2 (2)

また、MPU106は、距離演算部104により得られた距離情報及び位置演算部105により得られた位置情報に基づいて、物体10の幅を算出する(ステップST6)。 Further, the MPU 106 calculates the width of the object 10 based on the distance information obtained by the distance calculation unit 104 and the position information obtained by the position calculation unit 105 (step ST6).

この際、MPU106は、下式(3)より、物体10の幅を算出する。式(3)において、wは物体10の幅を示し、wは物体10の像の幅を示している。なお、MPU106は、位置演算部105により像の両端の位置が検出されない場合には、幅算出処理は行わない。
={(d−f)/f}×w(3)
At this time, the MPU 106 calculates the width of the object 10 from the following equation (3). In equation (3), w 1 indicates the width of the object 10, and w 2 indicates the width of the image of the object 10. If the position calculation unit 105 does not detect the positions at both ends of the image, the MPU 106 does not perform the width calculation process.
w 1 = {(df) / f} × w 2 (3)

ここで、実施の形態1に係る検出装置1は、センサ(投光部102及び受光部103)と検出領域とが対向配置された反射型に構成されている。これにより、実施の形態1に係る検出装置1は、検出領域の片側にのみセンサを設置すればよく、また、投光部102と受光部103との間での光軸合わせが不要となり、透過型を用いた場合に対して設置条件が緩くなる。また、実施の形態1に係る検出装置1は、検出範囲が広くなる。また、実施の形態1に係る検出装置1は、イメージセンサ1033と物体10との間の距離が算出できるため、非テレセントリックレンズを用いても物体10の位置及び幅を算出でき、従来構成に対して低コスト化が実現できる。 Here, the detection device 1 according to the first embodiment is configured as a reflection type in which the sensor (light emitting unit 102 and light receiving unit 103) and the detection region are arranged to face each other. As a result, in the detection device 1 according to the first embodiment, the sensor needs to be installed only on one side of the detection region, and the optical axis alignment between the light emitting unit 102 and the light receiving unit 103 becomes unnecessary, and the light is transmitted. Installation conditions are looser than when using a mold. Further, the detection device 1 according to the first embodiment has a wide detection range. Further, since the detection device 1 according to the first embodiment can calculate the distance between the image sensor 1033 and the object 10, the position and width of the object 10 can be calculated even by using a non-telecentric lens, as compared with the conventional configuration. It is possible to reduce the cost.

次に、実施の形態1に係る検出装置1の動作の具体例について、図8,9を参照しながら説明する。以下では、図8に示すように、検出装置1が、イメージセンサ1033から物体10までの距離と、物体10のエッジの位置(光軸から物体10のエッジまでの距離であるP)とを算出するものとする。また、イメージセンサ1033の画素ピッチ(受光素子間の距離)は20[μm]とし、画素数(受光素子数)は256画素とし、レンズ1032の焦点距離は20[mm]とする。また、イメージセンサ1033から検出領域に存在する背景までの距離(図8に示すd)が3[m]であるとする。
これらの条件において、投光部102がパルス状の光を背景に向けて投光すると、例えば図9に示すように、イメージセンサ1033により受光素子毎に受光時刻(遅れ時間)が得られ、距離演算部104により受光位置毎の反射点までの距離が得られる。そして、イメージセンサ1033から背景までの距離は3[m]であるため、距離演算部104は、図9から、イメージセンサ1033から物体10までの距離として、1.995[m]を出力する。
Next, a specific example of the operation of the detection device 1 according to the first embodiment will be described with reference to FIGS. 8 and 9. In the following, as shown in FIG. 8, the detection device 1 determines the distance from the image sensor 1033 to the object 10 and the position of the edge of the object 10 (P 1 which is the distance from the optical axis to the edge of the object 10). It shall be calculated. Further, the pixel pitch (distance between light receiving elements) of the image sensor 1033 is 20 [μm], the number of pixels (number of light receiving elements) is 256 pixels, and the focal length of the lens 1032 is 20 [mm]. Further, the distance to the background present in the detection region from the image sensor 1033 (d b shown in FIG. 8) is assumed to be 3 [m].
Under these conditions, when the light projecting unit 102 projects pulsed light toward the background, for example, as shown in FIG. 9, the light receiving time (delay time) is obtained for each light receiving element by the image sensor 1033, and the distance is obtained. The calculation unit 104 obtains the distance to the reflection point for each light receiving position. Since the distance from the image sensor 1033 to the background is 3 [m], the distance calculation unit 104 outputs 1.995 [m] as the distance from the image sensor 1033 to the object 10 from FIG.

また、位置演算部105は、距離演算部104による演算結果から、イメージセンサ1033に結像された物体10の像のエッジの位置を算出する。図8,9の場合では、光軸位置に対応する画素はPixel No.128であり、物体10のエッジの位置に対応する画素の1つ手前の画素はPixel No.200である。よって、位置演算部105は、Pixel No.128からPixel No.200までの距離から、物体10の像のエッジの位置(光軸から物体10の像のエッジまでの距離)として、0.00147[m]を出力する。 Further, the position calculation unit 105 calculates the position of the edge of the image of the object 10 imaged on the image sensor 1033 from the calculation result by the distance calculation unit 104. In the case of FIGS. 8 and 9, the pixels corresponding to the optical axis positions are Pixel No. It is 128, and the pixel immediately before the pixel corresponding to the position of the edge of the object 10 is Pixel No. It is 200. Therefore, the position calculation unit 105 has a Pixel No. From 128 to Pixel No. From the distance up to 200, 0.00147 [m] is output as the position of the edge of the image of the object 10 (the distance from the optical axis to the edge of the image of the object 10).

次いで、MPU106は、距離演算部104及び位置演算部105による演算結果から、物体10のエッジの位置を算出する。図9の場合では、光学系の倍率は98.75である。そして、MPU106は、物体10の像のエッジの位置に光学系の倍率を乗算することで、物体10のエッジの位置(光軸から物体10のエッジまでの距離であるP)として、0.145[m]を出力する。 Next, the MPU 106 calculates the position of the edge of the object 10 from the calculation results of the distance calculation unit 104 and the position calculation unit 105. In the case of FIG. 9, the magnification of the optical system is 98.75. Then, the MPU 106 sets the position of the edge of the object 10 (P 1 which is the distance from the optical axis to the edge of the object 10) by multiplying the position of the edge of the image of the object 10 by the magnification of the optical system. Outputs 145 [m].

なお上記では、複数の受光素子が一次元方向に配列されたリニアタイプのイメージセンサ1033を用いた場合を示した。しかしながら、これに限らず、複数の受光素子が二次元方向に配列されたイメージセンサ1033を用いてもよい。これにより、検出装置1は、検出領域に存在する物体10の幅だけではなく、高さも算出可能となる。 In the above, the case where a linear type image sensor 1033 in which a plurality of light receiving elements are arranged in a one-dimensional direction is used is shown. However, the present invention is not limited to this, and an image sensor 1033 in which a plurality of light receiving elements are arranged in a two-dimensional direction may be used. As a result, the detection device 1 can calculate not only the width of the object 10 existing in the detection region but also the height.

ここで、従来のエリアセンサは、レーザ光を反射するミラーを回転させるメカニカルな回転機構を有している。これに対し、実施の形態1に係る検出装置1は、上記のような回転機構は用いていない。そのため、実施の形態1に係る検出装置1は、小型化が可能であり、また、振動及び衝撃に対する耐性が高くなる。
すなわち、実施の形態1に係る検出装置1は、従来のエリアセンサに対し、光軸方向の厚み(図1に示すA方向)を薄くできる。また、実施の形態1に係る検出装置1は、従来のエリアセンサに対して、光軸に垂直な方向(図1に示すB方向)の厚みを薄くできる。
Here, the conventional area sensor has a mechanical rotation mechanism that rotates a mirror that reflects laser light. On the other hand, the detection device 1 according to the first embodiment does not use the rotation mechanism as described above. Therefore, the detection device 1 according to the first embodiment can be miniaturized and has high resistance to vibration and impact.
That is, the detection device 1 according to the first embodiment can make the thickness in the optical axis direction (A direction shown in FIG. 1) thinner than that of the conventional area sensor. Further, the detection device 1 according to the first embodiment can make the thickness in the direction perpendicular to the optical axis (the B direction shown in FIG. 1) thinner than that of the conventional area sensor.

以上のように、この実施の形態1によれば、自動移動装置2は、検出装置1を備え、検出装置1は、光を検出領域に投光する投光部102と、投光部102により投光されて検出領域で反射された光を集光するレンズ1032と、複数の受光素子を有し、レンズ1032により集光された光を当該受光素子毎に受光するイメージセンサ1033と、イメージセンサ1033による受光結果に基づいて、TOF方式により、検出領域に存在する物体10までの距離を、受光素子が位置する受光位置毎に算出する距離演算部104と、距離演算部104により算出された受光位置毎の距離に基づいて、物体10の位置を算出する物体位置演算部とを備えた。これにより、自動移動装置2は、従来構成に対して小型化可能となる。 As described above, according to the first embodiment, the automatic moving device 2 includes the detection device 1, and the detection device 1 is composed of a light projecting unit 102 that projects light into the detection region and a light projecting unit 102. An image sensor 1032 having a lens 1032 that collects light that is projected and reflected in the detection region, an image sensor 1033 that has a plurality of light receiving elements and receives the light collected by the lens 1032 for each light receiving element, and an image sensor. Based on the light receiving result by 1033, the distance calculation unit 104 that calculates the distance to the object 10 existing in the detection region for each light receiving position where the light receiving element is located and the light receiving light calculated by the distance calculation unit 104 by the TOF method. It is provided with an object position calculation unit that calculates the position of the object 10 based on the distance for each position. As a result, the automatic moving device 2 can be miniaturized with respect to the conventional configuration.

また、実施の形態1に係る検出装置1は、メカニカルな回転機構を有していないため、センサヘッド112の前面から取付け部材3により取付け可能である。これにより、実施の形態1に係る検出装置1では、ユーザが、検出装置1を自動移動装置2に組付ける際の制約が小さくなる。また、実施の形態1に係る検出装置1では、自動移動装置2への組付けの際に他の機器への影響が少なく、ユーザは、例えば装置完成後であっても、透明部材203を開口部202から取外すことで、後付けで検出装置1を容易に組付け可能となる。 Further, since the detection device 1 according to the first embodiment does not have a mechanical rotation mechanism, it can be mounted by the mounting member 3 from the front surface of the sensor head 112. As a result, in the detection device 1 according to the first embodiment, the restriction when the user assembles the detection device 1 to the automatic movement device 2 is reduced. Further, in the detection device 1 according to the first embodiment, there is little influence on other devices when assembling to the automatic moving device 2, and the user opens the transparent member 203 even after the device is completed, for example. By removing it from the unit 202, the detection device 1 can be easily assembled by retrofitting.

実施の形態2.
実施の形態1では、物体10の検出対象となる面がイメージセンサ1033の受光面に対して平行である場合を示した。それに対し、実施の形態2では、物体10の検出対象となる面がイメージセンサ1033の受光面に対して斜めであっても、物体10の幅を算出可能とする構成を示す。
なお、実施の形態2に係る検出装置1の構成例は、図2に示す実施の形態1に係る検出装置1の構成例と同様である。
Embodiment 2.
In the first embodiment, the case where the surface of the object 10 to be detected is parallel to the light receiving surface of the image sensor 1033 is shown. On the other hand, the second embodiment shows a configuration in which the width of the object 10 can be calculated even if the surface of the object 10 to be detected is oblique to the light receiving surface of the image sensor 1033.
The configuration example of the detection device 1 according to the second embodiment is the same as the configuration example of the detection device 1 according to the first embodiment shown in FIG.

なお、距離演算部104は、θを用いた光軸に平行な距離への変換処理は実施しない。
また、MPU106は、イメージセンサ1033に結像された物体10の像の一端から光軸位置までの幅及び当該像の他端から光軸位置までの幅、当該一端から物体10の一端である反射点までの距離及び当該他端から物体10の他端である反射点までの距離、及び、当該一端からレンズ1032上の光軸位置までの距離及び当該他端からレンズ1032上の光軸位置までの距離に基づいて、物体10の幅を算出する。
また、レンズ1032は広角レンズであることが望ましい。
The distance calculation unit 104 does not perform the conversion process using θ i to a distance parallel to the optical axis.
Further, the MPU 106 has a width from one end of the image of the object 10 imaged on the image sensor 1033 to the optical axis position, a width from the other end of the image to the optical axis position, and reflection from the one end to one end of the object 10. The distance to the point, the distance from the other end to the reflection point which is the other end of the object 10, the distance from the one end to the optical axis position on the lens 1032, and the distance from the other end to the optical axis position on the lens 1032. The width of the object 10 is calculated based on the distance of.
Further, it is desirable that the lens 1032 is a wide-angle lens.

実施の形態2におけるMPU106は、下式(4)〜(6)より、物体10の幅を算出する。図10に示すように、式(4)〜(6)において、wは物体10の幅を示す。また、Lは、イメージセンサ1033に結合された物体10の像の一端(第1の受光位置に相当)から光軸位置までの幅を示し、Lは、当該像の他端(第2の受光位置に相当)から光軸位置までの幅を示している。また、d1mは、第1の受光位置から物体10の一端である反射点(第1のエッジ)までの距離を示し、d2mは、第2の受光位置から物体10の他端である反射点(第2のエッジ)までの距離を示している。また、dは、第1のエッジとレンズ1032上の光軸位置との間の距離を示し、dは、第2のエッジとレンズ1032上の光軸位置との間の距離を示している。また、d1fは、レンズ1032上の光軸位置と第1の受光位置との間の距離を示し、d2fは、レンズ1032上の光軸位置と第2の受光位置との間の距離を示している。なお、d1f及びd2fは既知である。これにより、MPU106は、物体10が、イメージセンサ1033の受光面に対して斜めであっても、物体10の幅を算出可能である。

Figure 2020165682
The MPU 106 in the second embodiment calculates the width of the object 10 from the following equations (4) to (6). As shown in FIG. 10, in equations (4) to (6), w 0 indicates the width of the object 10. Further, L 1 indicates the width from one end (corresponding to the first light receiving position) of the image of the object 10 coupled to the image sensor 1033 to the optical axis position, and L 2 is the other end (second) of the image. The width from the light receiving position of) to the optical axis position is shown. Further, d 1 m indicates the distance from the first light receiving position to the reflection point (first edge) which is one end of the object 10, and d 2 m is the reflection which is the other end of the object 10 from the second light receiving position. It shows the distance to the point (second edge). Further, d 1 indicates the distance between the first edge and the optical axis position on the lens 1032, and d 2 indicates the distance between the second edge and the optical axis position on the lens 1032. There is. Further, d 1f indicates the distance between the optical axis position on the lens 1032 and the first light receiving position, and d 2f indicates the distance between the optical axis position on the lens 1032 and the second light receiving position. It shows. In addition, d 1f and d 2f are known. As a result, the MPU 106 can calculate the width of the object 10 even if the object 10 is oblique to the light receiving surface of the image sensor 1033.

Figure 2020165682

なお、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。 In the present invention, within the scope of the invention, it is possible to freely combine the embodiments, modify any component of each embodiment, or omit any component in each embodiment. ..

1 検出装置
2 自動移動装置
3 取付け部材
10 物体
101 計測制御部
102 投光部
103 受光部
104 距離演算部
105 位置演算部
106 MPU
107 入出力部
108 通信部
109 表示部
110 操作部
111 計測部
112 センサヘッド
113 インタフェース部
201 設置面
202 開口部
203 透明部材
1021 投光基板
1022 発光素子
1023 アパーチャー
1024 ディヒューザー
1031 受光基板
1032 レンズ
1033 イメージセンサ
1121 フィルタ
1 Detection device 2 Automatic movement device 3 Mounting member 10 Object 101 Measurement control unit 102 Light emitting unit 103 Light receiving unit 104 Distance calculation unit 105 Position calculation unit 106 MPU
107 Input / output unit 108 Communication unit 109 Display unit 110 Operation unit 111 Measuring unit 112 Sensor head 113 Interface unit 201 Installation surface 202 Opening 203 Transparent member 1021 Light emitting board 1022 Light emitting element 1023 Aperture 1024 Diffuser 1031 Light receiving board 1032 Lens 1033 Image Sensor 1121 filter

Claims (8)

検出装置を備え、
前記検出装置は、
光を検出領域に投光する投光部と、
前記投光部により投光されて前記検出領域で反射された光を集光するレンズと、
複数の受光素子を有し、前記レンズにより集光された光を当該受光素子毎に受光するイメージセンサと、
前記イメージセンサによる受光結果に基づいて、TOF方式により、前記検出領域に存在する物体までの距離を、前記受光素子が位置する受光位置毎に算出する距離演算部と、
前記距離演算部により算出された受光位置毎の距離に基づいて、前記物体の位置を算出する物体位置演算部とを備えた
ことを特徴とする自動移動装置。
Equipped with a detection device
The detection device
A light projecting unit that projects light into the detection area,
A lens that collects the light that is projected by the light projecting unit and reflected in the detection area.
An image sensor having a plurality of light receiving elements and receiving light collected by the lens for each light receiving element.
A distance calculation unit that calculates the distance to an object existing in the detection region for each light receiving position where the light receiving element is located by the TOF method based on the light receiving result by the image sensor.
An automatic moving device including an object position calculation unit that calculates the position of the object based on the distance for each light receiving position calculated by the distance calculation unit.
前記物体位置演算部は、前記イメージセンサに結像された前記物体の像の位置、当該イメージセンサから当該物体までの距離、及び、前記レンズの焦点距離に基づいて、当該物体の位置を算出する
ことを特徴とする請求項1記載の自動移動装置。
The object position calculation unit calculates the position of the object based on the position of the image of the object imaged on the image sensor, the distance from the image sensor to the object, and the focal length of the lens. The automatic moving device according to claim 1.
前記距離演算部により算出された受光位置毎の距離に基づいて、前記物体の幅を算出する物体幅演算部を備えた
ことを特徴とする請求項1又は請求項2記載の自動移動装置。
The automatic moving device according to claim 1 or 2, further comprising an object width calculation unit that calculates the width of the object based on the distance for each light receiving position calculated by the distance calculation unit.
前記物体幅演算部は、前記イメージセンサに結像された前記物体の像の幅、当該イメージセンサから当該物体までの距離、及び、前記レンズの焦点距離に基づいて、当該物体の幅を算出する
ことを特徴とする請求項3記載の自動移動装置。
The object width calculation unit calculates the width of the object based on the width of the image of the object imaged on the image sensor, the distance from the image sensor to the object, and the focal length of the lens. 3. The automatic moving device according to claim 3.
前記物体幅演算部は、前記イメージセンサに結像された前記物体の像の一端から光軸位置までの幅及び当該像の他端から光軸位置までの幅、当該一端から当該物体の一端である反射点までの距離及び当該他端から当該物体の他端である反射点までの距離、及び、当該一端から前記レンズ上の光軸位置までの距離及び当該他端から当該レンズ上の光軸位置までの距離に基づいて、当該物体の幅を算出する
ことを特徴とする請求項3記載の自動移動装置。
The object width calculation unit is a width from one end of the image of the object imaged on the image sensor to the optical axis position, a width from the other end of the image to the optical axis position, and one end of the object from the one end. The distance to a certain reflection point, the distance from the other end to the reflection point which is the other end of the object, the distance from the one end to the optical axis position on the lens, and the optical axis from the other end to the lens. The automatic moving device according to claim 3, wherein the width of the object is calculated based on the distance to the position.
前記受光素子は、一次元方向に配列された
ことを特徴とする請求項1から請求項5のうちの何れか1項記載の自動移動装置。
The automatic moving device according to any one of claims 1 to 5, wherein the light receiving elements are arranged in a one-dimensional direction.
前記レンズは、非テレセントリックレンズである
ことを特徴とする請求項1から請求項6のうちの何れか1項記載の自動移動装置。
The automatic moving device according to any one of claims 1 to 6, wherein the lens is a non-telecentric lens.
前記検出装置は、投受光面側から取付け部材により取付けられた
ことを特徴とする請求項1から請求項7のうちの何れか1項記載の自動移動装置。
The automatic moving device according to any one of claims 1 to 7, wherein the detection device is mounted by a mounting member from the light receiving / receiving surface side.
JP2019063671A 2019-03-28 2019-03-28 Automatic mobile device Pending JP2020165682A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019063671A JP2020165682A (en) 2019-03-28 2019-03-28 Automatic mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019063671A JP2020165682A (en) 2019-03-28 2019-03-28 Automatic mobile device

Publications (1)

Publication Number Publication Date
JP2020165682A true JP2020165682A (en) 2020-10-08

Family

ID=72717229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019063671A Pending JP2020165682A (en) 2019-03-28 2019-03-28 Automatic mobile device

Country Status (1)

Country Link
JP (1) JP2020165682A (en)

Similar Documents

Publication Publication Date Title
US8138488B2 (en) System and method for performing optical navigation using scattered light
JP5549230B2 (en) Ranging device, ranging module, and imaging device using the same
US20050225646A1 (en) Camera incorporating a lens barrel
JP2014222235A (en) Technological detection of photoelectron of object, and method and system for localization
JPH10221064A (en) Optical distance-measuring device
EP3812700B1 (en) Surveying instrument
JP6186863B2 (en) Ranging device and program
WO2021032298A1 (en) High resolution optical depth scanner
US10027892B2 (en) Distance measurement device, distance measurement control method, and distance measurement control program
EP3772633B1 (en) Surveying instrument
JP2020165682A (en) Automatic mobile device
JP7329943B2 (en) Detection device and movement device
JP2020165678A (en) Detection device
JP2001311612A (en) Shape input device
US10051186B2 (en) Distance measurement device, distance measurement control method, and distance measurement control program
US10057494B2 (en) Distance measurement device, distance measurement control method, and distance measurement control program
JP2020165676A (en) Detection system
WO2019181512A1 (en) Detection device
US20180007271A1 (en) Distance measurement device, distance measurement control method, and distance measurement control program
JP7069340B2 (en) Optical axis misalignment detector, object detector, and moving object
US10051185B2 (en) Distance measurement device, distance measurement control method, and distance measurement control program
JP2021001752A (en) Distance detection system
WO2024004166A1 (en) Distance measurement device
TWI727393B (en) Laser and imaging integration system and method thereof
JP4248536B2 (en) Measuring method and apparatus for mounting position of pixel surface and mat surface in single lens reflex digital camera