JP2021038949A - Sensor device and position identification method - Google Patents

Sensor device and position identification method Download PDF

Info

Publication number
JP2021038949A
JP2021038949A JP2019158845A JP2019158845A JP2021038949A JP 2021038949 A JP2021038949 A JP 2021038949A JP 2019158845 A JP2019158845 A JP 2019158845A JP 2019158845 A JP2019158845 A JP 2019158845A JP 2021038949 A JP2021038949 A JP 2021038949A
Authority
JP
Japan
Prior art keywords
sensor
virtual
line segment
point cloud
cloud information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019158845A
Other languages
Japanese (ja)
Inventor
克将 佐藤
Katsumasa Sato
克将 佐藤
真隆 福泉
Masataka Fukumizu
真隆 福泉
美智代 松井
Michiyo Matsui
美智代 松井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2019158845A priority Critical patent/JP2021038949A/en
Publication of JP2021038949A publication Critical patent/JP2021038949A/en
Pending legal-status Critical Current

Links

Images

Abstract

To more precisely determine the size and the location of a moving object such as a vehicle.SOLUTION: A first sensor and a second sensor are disposed at vertexes of a rectangular virtual region, and at both ends of one diagonal of the virtual region. The first sensor has: first irradiation means which radiates a plurality of first light pulses to a measurable range contained in the virtual region; and first light reception means which receives a plurality of first reflected lights in which the first light pulse is reflected on a measuring target, and generates first point group information indicating a position at which the first reflected light is reflected. The second sensor has: second irradiation means which radiates a plurality of second light pulses to the measurable range contained in the virtual region; and second light reception means which receives a plurality of second reflected lights in which the second light pulse is reflected on the measuring target, and generates second point group information indicating the position at which the second reflected light is reflected. A measurement processing unit acquires side surface point group information indicating a side surface of the measuring target disposed at the measurable range, by using the first point group information and the second point group information, and identifies the position of the measuring target from the side surface point group information.SELECTED DRAWING: Figure 1

Description

この発明は、レーザセンサで取得する測定対象物の点群情報から測定対象物の位置を特定する、センサ装置及び位置特定方法に関する。 The present invention relates to a sensor device and a position specifying method for specifying the position of a measurement object from point cloud information of the measurement object acquired by a laser sensor.

車両の位置を特定する技術として、車両にレーザセンサ及びカメラを搭載することで、対向車の形状及び方位の点群情報を取得するものがある(例えば、特許文献1参照)。この特許文献1に開示の技術では、自車両に面する一面の点群情報が取得される。 As a technique for specifying the position of a vehicle, there is a technique for acquiring point cloud information of the shape and orientation of an oncoming vehicle by mounting a laser sensor and a camera on the vehicle (see, for example, Patent Document 1). In the technique disclosed in Patent Document 1, point cloud information on one side facing the own vehicle is acquired.

また、車線の幅方向の一方側に設けた周期情報を他方側で取得し、周期情報の変化に基づいて車線内への物体の侵入を検知する車線内物体検知装置が提案されている(例えば、特許文献2参照)。 Further, an in-lane object detection device has been proposed in which periodic information provided on one side in the width direction of a lane is acquired on the other side and an intrusion of an object into the lane is detected based on a change in the periodic information (for example). , Patent Document 2).

また、1台のレーザセンサにより、異なる位置や角度で複数回に分けて取得された点群情報を合成することにより空間全域の情報を取得する技術もある(例えば、非特許文献1参照)。 There is also a technique of acquiring information on the entire space by synthesizing point cloud information acquired in a plurality of times at different positions and angles with one laser sensor (see, for example, Non-Patent Document 1).

特開2009−098025号公報Japanese Unexamined Patent Publication No. 2009-098025 特開2013−210894号公報Japanese Unexamined Patent Publication No. 2013-210894

https://www.elysium-global.com/ja/customer_story/hankai/https://www.elysium-global.com/ja/customer_story/hankai/

しかしながら、特許文献1の技術では、センサに対向する一面の点群情報が取得されるだけであるため、車両の大きさ及び位置を判別する精度が低い。 However, in the technique of Patent Document 1, since only the point cloud information on one surface facing the sensor is acquired, the accuracy of determining the size and position of the vehicle is low.

また、特許文献2の技術では、物体により遮蔽された撮像画像からタイヤの大きさと、タイヤの間隔は把握可能であるが、これらタイヤの大きさ及び間隔から車両の大きさを判別する精度は高いとは言えない。 Further, in the technique of Patent Document 2, the tire size and the tire spacing can be grasped from the captured image shielded by the object, but the accuracy of discriminating the vehicle size from the tire size and spacing is high. It can not be said.

また、非特許文献1の技術では、取得される点群情報は同時に取得されるものではない。このため、例えば、建設現場での監視を想定すると、時々刻々と変化する現場の監視に用いることはできない。 Further, in the technique of Non-Patent Document 1, the point cloud information to be acquired is not acquired at the same time. Therefore, for example, assuming monitoring at a construction site, it cannot be used for monitoring a site that changes from moment to moment.

この発明は、上述の問題点に鑑みてなされたものである。この発明の目的は、車両などの移動体の大きさ及び位置をより正確に判別可能な、センサ装置及び位置特定方法を提供することにある。 The present invention has been made in view of the above-mentioned problems. An object of the present invention is to provide a sensor device and a position specifying method capable of more accurately determining the size and position of a moving body such as a vehicle.

上述した目的を達成するために、この発明のセンサ装置は、第1センサと、第2センサと、計測処理部とを備えて構成される。 In order to achieve the above-mentioned object, the sensor device of the present invention includes a first sensor, a second sensor, and a measurement processing unit.

第1センサは、長方形状の仮想領域の頂点であり、仮想領域の一本の対角線の一端側の
頂点に配置される。第1センサは、仮想領域に含まれる測定可能範囲に、複数の第1光パルスを照射する第1照射手段、及び、第1光パルスが測定対象物で反射された複数の第1反射光を受光して、第1反射光が反射した位置を示す第1点群情報を生成する第1受光手段を有する。
The first sensor is the apex of the rectangular virtual area, and is arranged at the apex on one end side of one diagonal line of the virtual area. The first sensor is a first irradiation means that irradiates a plurality of first light pulses into a measurable range included in the virtual area, and a plurality of first reflected lights in which the first light pulse is reflected by a measurement object. It has a first light receiving means that receives light and generates first point group information indicating a position where the first reflected light is reflected.

第2センサは、対角線の他端側の頂点に配置される。第2センサは、仮想領域に含まれる測定可能範囲に、複数の第2光パルスを照射する第2照射手段、及び、第2光パルスが測定対象物で反射された複数の第2反射光を受光して、第2反射光が反射した位置を示す第2点群情報を生成する第2受光手段を有する。計測処理部は、第1点群情報及び第2点群情報を用いて、測定可能範囲に配置された測定対象物の側面を示す側面点群情報を取得し、側面点群情報から測定対象物の位置を特定する。 The second sensor is located at the apex on the other end of the diagonal line. The second sensor is a second irradiation means that irradiates a plurality of second light pulses into a measurable range included in the virtual area, and a plurality of second reflected lights in which the second light pulse is reflected by the measurement object. It has a second light receiving means that receives light and generates second point group information indicating a position where the second reflected light is reflected. The measurement processing unit acquires the side point cloud information indicating the side surface of the measurement object arranged in the measurable range by using the first point cloud information and the second point cloud information, and the measurement object is measured from the side point cloud information. Identify the position of.

側面点群情報は、例えば、対象点群情報と、基準点群情報との差分に基づいて得られる。対象点群情報は、測定対象物が測定可能範囲に配置されている状態の第1点群情報及び第2点群情報として取得される。基準点群情報は、測定対象物が測定可能範囲に配置されていない状態の第1点群情報及び第2点群情報として取得される。 The side point cloud information is obtained, for example, based on the difference between the target point cloud information and the reference point cloud information. The target point cloud information is acquired as the first point cloud information and the second point cloud information in a state where the measurement object is arranged in the measurable range. The reference point cloud information is acquired as the first point cloud information and the second point cloud information in a state where the measurement object is not arranged in the measurable range.

計測処理部は、第1センサ及び第2センサの、測定対象物の想定移動経路に沿った方向の間隔が、想定移動経路に沿った方向の測定対象物の長さより大きいか否かを判定し、大きい場合は、第1センサ及び第2センサが適切に配置されていると判定し、そうでない場合は、第1センサ及び第2センサが適切に配置されていないと判定する。 The measurement processing unit determines whether or not the distance between the first sensor and the second sensor in the direction along the assumed movement path of the measurement object is larger than the length of the measurement object in the direction along the assumed movement path. If it is large, it is determined that the first sensor and the second sensor are properly arranged, and if not, it is determined that the first sensor and the second sensor are not properly arranged.

また、この発明のセンサ装置の他の好適実施形態によれば、nは3以上の整数であり、kは1以上の整数であり、nが奇数のときkは(n+1)/2以下であり、nが偶数のときkはn/2以下であり、x1<x2及びy1<y2であり、D=y2−y1であるとき、第1〜第n仮想センサを備えて構成される。 Further, according to another preferred embodiment of the sensor device of the present invention, n is an integer of 3 or more, k is an integer of 1 or more, and when n is an odd number, k is (n + 1) / 2 or less. When n is an even number, k is n / 2 or less, x1 <x2 and y1 <y2, and when D = y2-y1, the first to nth virtual sensors are provided.

第2k−1仮想センサは、第1仮想線上に配置され、第2k−1仮想センサの座標が、(x1、y1+2(k−1)D)で与えられる。また、第2k仮想センサは、第2仮想線上に配置され、第2k仮想センサの座標が、(x2、y2+2(k−1)D)で与えられる。ここで、第2k−1仮想センサと第2k仮想センサの組、又は、第2k仮想センサと第2k+1仮想センサの組が、第1センサ及び第2センサの組として機能する。 The second k-1 virtual sensor is arranged on the first virtual line, and the coordinates of the second k-1 virtual sensor are given by (x1, y1 + 2 (k-1) D). Further, the second k virtual sensor is arranged on the second virtual line, and the coordinates of the second k virtual sensor are given by (x2, y2 + 2 (k-1) D). Here, the set of the second k-1 virtual sensor and the second k virtual sensor, or the set of the second k virtual sensor and the second k + 1 virtual sensor functions as the set of the first sensor and the second sensor.

また、この発明のセンサ装置の他の好適実施形態によれば、nは4以上の整数であり、kは1以上の整数であり、nが奇数のときkは(n+1)/2以下であり、nが偶数のときkはn/2以下であり、x1<x2及びy1<y2であり、D=y2−y1であるとき、第1〜第n仮想センサを備えて構成される。 Further, according to another preferred embodiment of the sensor device of the present invention, n is an integer of 4 or more, k is an integer of 1 or more, and when n is an odd number, k is (n + 1) / 2 or less. When n is an even number, k is n / 2 or less, x1 <x2 and y1 <y2, and when D = y2-y1, the first to nth virtual sensors are provided.

第2k−1仮想センサは、第1仮想線上に配置され、第2k−1仮想センサの座標が、(x1、y1+(k−1)D)で与えられる。第2k仮想センサは、第2仮想線上に配置され、第2k仮想センサの座標が、(x2、y2+(k−1)D)で与えられる。 The second k-1 virtual sensor is arranged on the first virtual line, and the coordinates of the second k-1 virtual sensor are given by (x1, y1 + (k-1) D). The second k virtual sensor is arranged on the second virtual line, and the coordinates of the second k virtual sensor are given by (x2, y2 + (k-1) D).

第2k−1仮想センサの照射軸は、第1状態と第2状態とをとる。第1状態では、照射範囲が、当該仮想センサの座標を中心として、xの正方向に向かう線分及びyの正方向に向かう線分に挟まれる扇形となる。一方、第2状態では、照射範囲が、当該仮想センサの座標を中心として、yの負方向に向かう線分及びxの正方向に向かう線分に挟まれる扇形となる。 The irradiation axis of the second k-1 virtual sensor takes a first state and a second state. In the first state, the irradiation range has a fan shape centered on the coordinates of the virtual sensor and is sandwiched between a line segment in the positive direction of x and a line segment in the positive direction of y. On the other hand, in the second state, the irradiation range has a fan shape centered on the coordinates of the virtual sensor and is sandwiched between a line segment in the negative direction of y and a line segment in the positive direction of x.

また、第2k仮想センサの照射軸は、第1状態と第2状態とをとる。第1状態では、照射範囲が、当該仮想センサの座標を中心として、xの負方向に向かう線分及びyの負方向
に向かう線分に挟まれる扇形となる。一方、第2状態では、当該仮想センサの座標を中心として、yの正方向に向かう線分及びxの負方向に向かう線分に挟まれる扇形となる。
Further, the irradiation axis of the second k virtual sensor takes a first state and a second state. In the first state, the irradiation range has a fan shape centered on the coordinates of the virtual sensor and is sandwiched between a line segment in the negative direction of x and a line segment in the negative direction of y. On the other hand, in the second state, a fan shape is formed centered on the coordinates of the virtual sensor and sandwiched between a line segment in the positive direction of y and a line segment in the negative direction of x.

第2k−1仮想センサの照射軸が第1状態をとるとき、同時に第2k仮想センサの照射軸も第1状態をとり、及び、第2k−1仮想センサの照射軸が第2状態をとるとき、同時に第2k仮想センサの照射軸も第2状態をとるように、各仮想センサは同期している。 When the irradiation axis of the second k-1 virtual sensor takes the first state, and at the same time, the irradiation axis of the second k virtual sensor also takes the first state, and when the irradiation axis of the second k-1 virtual sensor takes the second state. At the same time, each virtual sensor is synchronized so that the irradiation axis of the second k virtual sensor also takes the second state.

第2k−1仮想センサ及び第2k仮想センサの照射軸が第1状態をとるとき、第2k−1仮想センサと第2k仮想センサの組が、第1センサと第2センサの組として機能し、第2k仮想センサ及び第2k+1仮想センサの照射軸が第2状態をとるとき、第2k仮想センサ及び第2k+1仮想センサの組が、第1センサ及び第2センサの組として機能する。 When the irradiation axes of the second k-1 virtual sensor and the second k virtual sensor take the first state, the pair of the second k-1 virtual sensor and the second k virtual sensor functions as the pair of the first sensor and the second sensor. When the irradiation axes of the second k virtual sensor and the second k + 1 virtual sensor take the second state, the pair of the second k virtual sensor and the second k + 1 virtual sensor functions as the set of the first sensor and the second sensor.

さらに、第2k−1仮想センサの照射軸が第3状態と第4状態とをとり、第2k仮想センサの照射軸が第3状態と第4状態とをとるように構成してもよい。 Further, the irradiation axis of the 2k-1 virtual sensor may be configured to take the third state and the fourth state, and the irradiation axis of the second k virtual sensor may take the third state and the fourth state.

第2k−1仮想センサの照射軸が第3状態のとき、照射範囲が、当該仮想センサの座標を中心として、xの負方向に向かう線分及びyの負方向に向かう線分に挟まれる扇形となる。一方、第4状態のとき、照射範囲は、当該仮想センサの座標を中心として、yの正方向に向かう線分及びxの負方向に向かう線分に挟まれる扇形となる。 When the irradiation axis of the second k-1 virtual sensor is in the third state, the irradiation range is a fan shape sandwiched between a line segment in the negative direction of x and a line segment in the negative direction of y with the coordinates of the virtual sensor as the center. It becomes. On the other hand, in the fourth state, the irradiation range has a fan shape centered on the coordinates of the virtual sensor and is sandwiched between a line segment in the positive direction of y and a line segment in the negative direction of x.

また、第2k仮想センサの照射軸が第3状態のとき、照射範囲が、当該仮想センサの座標を中心として、xの正方向に向かう線分及びyの正方向に向かう線分に挟まれる扇形となる。一方、第4状態では、当該仮想センサの座標を中心として、yの負方向に向かう線分及びxの正方向に向かう線分に挟まれる扇形となる。 Further, when the irradiation axis of the 2k virtual sensor is in the third state, the irradiation range is a fan shape sandwiched between a line segment in the positive direction of x and a line segment in the positive direction of y with the coordinates of the virtual sensor as the center. It becomes. On the other hand, in the fourth state, a fan shape is formed centered on the coordinates of the virtual sensor and sandwiched between a line segment in the negative direction of y and a line segment in the positive direction of x.

第2k−1仮想センサの照射軸が第3状態をとるとき、同時に第2k仮想センサの照射軸も第3状態をとり、第2k−1仮想センサの照射軸が第4状態をとるとき、同時に第2k仮想センサの照射軸も第4状態をとるように、各仮想センサは同期している。 When the irradiation axis of the 2k-1 virtual sensor takes the third state, the irradiation axis of the 2k virtual sensor also takes the third state, and when the irradiation axis of the second k-1 virtual sensor takes the fourth state, at the same time. Each virtual sensor is synchronized so that the irradiation axis of the second k virtual sensor also takes the fourth state.

また、この発明の位置特定方法は、上述のセンサ装置を用いて行われる位置特定方法であって、第1点群情報及び第2点群情報を取得する過程と、第1点群情報及び第2点群情報から、測定対象物の側面を示す側面点群情報を取得する過程と、側面点群情報を用いて、測定対象物の位置を特定する過程とを備える。 Further, the position identification method of the present invention is a position identification method performed by using the above-mentioned sensor device, and is a process of acquiring the first point group information and the second point group information, and the first point group information and the first point cloud information. It includes a process of acquiring side point cloud information indicating the side surface of the measurement object from the two point cloud information and a process of specifying the position of the measurement object by using the side point cloud information.

上述した位置特定方法の好適実施形態によれば、第1点群情報及び第2点群情報を取得する過程の前に行われるセンサ位置特定過程をさらに備える。 According to the preferred embodiment of the above-mentioned position identification method, the sensor position identification process performed before the process of acquiring the first point cloud information and the second point cloud information is further provided.

センサ位置特定過程は、第1センサ及び第2センサを配置する過程と、測定対象物がない状態で、第1センサ及び第2センサで第1点群情報及び第2点群情報を基準点群情報として取得する過程と、測定対象物を測定可能範囲に配置する過程と、測定対象物が配置された状態で、第1センサ及び第2センサで第1点群情報及び第2点群情報を対象点群情報として取得する過程と、第1点群情報及び第2点群情報のそれぞれに対して、対象点群情報と基準点群情報の差分を取り、測定対象物の側面点群情報を取得する過程と、第1点群情報及び第2点群情報のそれぞれに対して、第1仮想線分及び第2仮想線分と平行な側面の側面情報から、第1仮想線分及び第2仮想線分に沿った方向の側面の長さ及び中心位置を取得する過程と、第1点群情報及び第2点群情報のそれぞれに対して、第1仮想線分及び第2仮想線分と直交する側面の側面情報から、第1仮想線分及び第2仮想線分と直交する方向の側面の長さ及び中心位置を取得する過程と、第1センサと第2センサの第1仮想線分及び第2仮想線分に沿った方向の間隔Dyと、測定対象物の側面の長さLyを取得する過程と、第1センサと第2センサの第1仮想線分及び第2仮想線分と直交する方向の間
隔Dxと、測定対象物の側面の長さLxを取得する過程と、間隔Dyが長さLyより大きく、且つ、間隔Dxが長さLxより大きければ、第1センサ及び第2センサの位置が適切と判定し、間隔Dyが長さLy以下、及び、間隔Dxが長さLx以下の何れか一方、又は、双方であれば、第1センサ及び第2センサの位置が不適切と判定する。この判定の結果、不適切と判定された場合は、第1センサ及び第2センサの間隔Dy又はDxを広げて、センサ位置特定過程を再び行う。
In the sensor position identification process, the process of arranging the first sensor and the second sensor, and the process of arranging the first sensor and the second sensor, and the first sensor and the second sensor with the first sensor and the second sensor as the reference point group information and the second point group information in the absence of the measurement target The process of acquiring as information, the process of arranging the measurement object in the measurable range, and the state where the measurement object is arranged, the first sensor and the second sensor use the first point group information and the second point group information. The difference between the target point group information and the reference point group information is taken for each of the process of acquiring as the target point group information and the first point group information and the second point group information, and the side point group information of the measurement target object is obtained. The first virtual line segment and the second virtual line segment and the second from the side surface information parallel to the first virtual line segment and the second virtual line segment for the acquisition process and the first point group information and the second point group information, respectively. The process of acquiring the length and center position of the side surface in the direction along the virtual line segment, and the first virtual line segment and the second virtual line segment for the first point group information and the second point group information, respectively. The process of acquiring the length and center position of the side surface in the direction orthogonal to the first virtual line segment and the second virtual line segment from the side surface information of the orthogonal side surfaces, and the first virtual line segment of the first sensor and the second sensor. And the process of acquiring the distance Dy in the direction along the second virtual line segment, the length Ly of the side surface of the measurement object, and the first virtual line segment and the second virtual line segment of the first sensor and the second sensor. The process of acquiring the interval Dx in the orthogonal direction and the length Lx of the side surface of the object to be measured, and if the interval Dy is larger than the length Ly and the interval Dx is larger than the length Lx, the first sensor and the second sensor. If it is determined that the position of the sensor is appropriate and the interval Dy is less than or equal to the length Ly and the interval Dx is less than or equal to the length Lx, or both, the positions of the first sensor and the second sensor are inappropriate. Is determined. If it is determined to be inappropriate as a result of this determination, the distance Dy or Dx between the first sensor and the second sensor is widened, and the sensor position specifying process is performed again.

この発明のセンサ装置及び位置特定方法によれば、上述の構成により、測定対象物の4つの側面を取得できる。このため、測定対象物の大きさ及び位置をより正確に取得することができる。 According to the sensor device and the position specifying method of the present invention, four aspects of the object to be measured can be acquired by the above-described configuration. Therefore, the size and position of the object to be measured can be obtained more accurately.

第1センサ装置の構成例を説明するための概略的なブロック図である。It is a schematic block diagram for demonstrating the configuration example of the 1st sensor apparatus. 第1センサ装置が備える第1センサ及び第2センサの配置を説明するための模式図である。It is a schematic diagram for demonstrating the arrangement of the 1st sensor and the 2nd sensor included in the 1st sensor apparatus. 側面情報取得手段の機能を説明するための模式図である。It is a schematic diagram for demonstrating the function of the side information acquisition means. 対象物位置特定手段の機能を説明するための模式図である。It is a schematic diagram for demonstrating the function of the object position identification means. 第2センサ装置の構成例を説明するための模式図(1)である。It is a schematic diagram (1) for demonstrating the configuration example of the 2nd sensor apparatus. 第2センサ装置の構成例を説明するための模式図(2)である。It is a schematic diagram (2) for demonstrating the configuration example of the 2nd sensor apparatus. モニタ等に表示される画面の例を示す模式図である。It is a schematic diagram which shows the example of the screen displayed on a monitor or the like.

以下、図を参照して、この発明の実施の形態について説明するが、各構成要素の形状、大きさ及び配置関係については、この発明が理解できる程度に概略的に示したものに過ぎない。また、以下、この発明の好適な構成例につき説明するが、単なる好適例にすぎない。従って、この発明は以下の実施の形態に限定されるものではなく、この発明の構成の範囲を逸脱せずにこの発明の効果を達成できる多くの変更又は変形を行うことができる。 Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the shape, size, and arrangement of each component are only schematically shown to the extent that the present invention can be understood. Further, although a preferable configuration example of the present invention will be described below, it is merely a suitable example. Therefore, the present invention is not limited to the following embodiments, and many modifications or modifications can be made that can achieve the effects of the present invention without departing from the scope of the constitution of the present invention.

(第1センサ装置)
図1及び図2を参照して、この発明の第1実施形態に係るセンサ装置(以下、第1センサ装置とも称する。)について説明する。図1は、第1センサ装置の構成例を説明するための概略的なブロック図である。また、図2は、第1センサ装置が備えるセンサの配置を説明するための模式図である。
(1st sensor device)
A sensor device (hereinafter, also referred to as a first sensor device) according to the first embodiment of the present invention will be described with reference to FIGS. 1 and 2. FIG. 1 is a schematic block diagram for explaining a configuration example of the first sensor device. Further, FIG. 2 is a schematic diagram for explaining the arrangement of the sensors included in the first sensor device.

ここでは、測定対象物である移動体が、車両であり、車両がxy平面内を移動する場合を例にとり説明する。また、車両の想定移動経路100に沿った方向をy方向、y方向と直交する方向をx方向とする。 Here, a case where the moving body to be measured is a vehicle and the vehicle moves in the xy plane will be described as an example. Further, the direction along the assumed movement path 100 of the vehicle is defined as the y direction, and the direction orthogonal to the y direction is defined as the x direction.

第1センサ装置は、例えば、制御部10、第1センサ20−1、第2センサ20−2、計測処理部30及び表示部40を備えて構成される。制御部10及び計測処理部30はパーソナルコンピュータ(PC)などを用いてプログラムを実行することにより各機能が実現される構成することができる。以下、詳細な説明を省略するが、点群情報などは、図示しない任意好適な記憶手段に格納されていて、各処理に用いられ、また、更新される。 The first sensor device includes, for example, a control unit 10, a first sensor 20-1, a second sensor 20-2, a measurement processing unit 30, and a display unit 40. The control unit 10 and the measurement processing unit 30 can be configured to realize each function by executing a program using a personal computer (PC) or the like. Hereinafter, although detailed description will be omitted, point cloud information and the like are stored in an arbitrary suitable storage means (not shown), used for each process, and updated.

第1センサ20−1及び第2センサ20−2は、例えば、2次元レーザセンサを用いて構成できる。第1センサ20−1は、第1照射手段及び第1受光手段を備えて構成される。第1照射手段は、第1照射軸を中心とする第1角度θ1の第1照射範囲に、複数の第1光パルスを照射する。第1受光手段は、複数の第1光パルスが測定対象物で反射された複数の第1反射光を受光する。第1受光手段は、xy平面内における第1反射光の各反射点
の位置などに関する第1点群情報を生成する。
The first sensor 20-1 and the second sensor 20-2 can be configured by using, for example, a two-dimensional laser sensor. The first sensor 20-1 includes a first irradiation means and a first light receiving means. The first irradiation means irradiates a plurality of first light pulses into a first irradiation range having a first angle θ1 centered on the first irradiation axis. The first light receiving means receives a plurality of first reflected lights in which a plurality of first light pulses are reflected by the object to be measured. The first light receiving means generates first point cloud information regarding the position of each reflection point of the first reflected light in the xy plane.

第1センサ20−1と同様に、第2センサ20−2は、第2照射手段及び第2受光手段を備えて構成される。第2照射手段は、第2照射軸を中心とする第2角度θ2の第2照射範囲に、複数の第2光パルスを照射する。第2受光手段は、複数の第2光パルスが測定対象物で反射された複数の第2反射光を受光する。第2受光手段は、第2反射光の各反射点の位置などに関する第2点群情報を生成する。 Similar to the first sensor 20-1, the second sensor 20-2 includes a second irradiation means and a second light receiving means. The second irradiation means irradiates a plurality of second light pulses into the second irradiation range at the second angle θ2 centered on the second irradiation axis. The second light receiving means receives a plurality of second reflected lights in which a plurality of second light pulses are reflected by the object to be measured. The second light receiving means generates the second point cloud information regarding the position of each reflection point of the second reflected light and the like.

第1センサ20−1及び第2センサ20−2は、車両の想定移動経路100のx方向の両側に仮想的に設けられる、第1仮想線101及び第2仮想線102上に配置される。第1仮想線101及び第2仮想線102は、いずれも、想定移動経路100に平行であり、y方向に延在する。 The first sensor 20-1 and the second sensor 20-2 are arranged on the first virtual line 101 and the second virtual line 102 that are virtually provided on both sides of the assumed movement path 100 of the vehicle in the x direction. Both the first virtual line 101 and the second virtual line 102 are parallel to the assumed movement path 100 and extend in the y direction.

ここで、第1センサ20−1が配置される座標を(x1、y1)とし、第2センサ20−2が配置される座標を(x2、y2)とする。第1仮想線101は、x1=一定で与えられ、第2仮想線102は、x2=一定で与えられる。ここで、x1≠x2である。以下の説明では、x1<x2とする。このとき、想定移動経路100は、x0=一定、かつ、x1<x0<x2で与えられる。 Here, the coordinates where the first sensor 20-1 is arranged are (x1, y1), and the coordinates where the second sensor 20-2 is arranged are (x2, y2). The first virtual line 101 is given with x1 = constant, and the second virtual line 102 is given with x2 = constant. Here, x1 ≠ x2. In the following description, x1 <x2. At this time, the assumed movement path 100 is given with x0 = constant and x1 <x0 <x2.

また、第1センサ20−1及び第2センサ20−2は、y方向にずらして配置されている。すなわち、y1≠y2である。以下の説明では、y1<y2とする。 Further, the first sensor 20-1 and the second sensor 20-2 are arranged so as to be offset in the y direction. That is, y1 ≠ y2. In the following description, y1 <y2.

このように、第1センサ20−1及び第2センサ20−2は、座標(x1、y1)、座標(x2、y1)、座標(x2、y2)及び座標(x1、y2)で規定される長方形状の仮想領域110の頂点に配置される。第1センサ20−1は、仮想領域110の対角線の一端側の頂点に配置され、第2センサ20−2は、他端側の頂点に配置される。 As described above, the first sensor 20-1 and the second sensor 20-2 are defined by the coordinates (x1, y1), the coordinates (x2, y1), the coordinates (x2, y2), and the coordinates (x1, y2). It is arranged at the apex of the rectangular virtual area 110. The first sensor 20-1 is arranged at the apex on one end side of the diagonal line of the virtual area 110, and the second sensor 20-2 is arranged at the apex on the other end side.

このとき、第1センサ20−1及び第2センサ20−2による測定可能範囲は、仮想領域110内に含まれる領域となる。 At this time, the measurable range by the first sensor 20-1 and the second sensor 20-2 is an area included in the virtual area 110.

この測定可能範囲は、以下の2つの条件を満たすように設定される。第1に、第1点群情報から、測定可能範囲内に配置された測定対象物の2つの側面の情報が得られ、第2点群情報から、測定可能範囲内に配置された測定対象物の2つの側面の情報が得られる。第2に、第1点群情報から得られる2つの側面と、第2点群情報から得られる2つの側面が異なる。すなわち、測定可能範囲は、測定対象物の4つの側面の情報が得られるように設定される。第1センサ20−1及び第2センサ20−2が2次元レーザセンサで構成される場合、測定対象物の側面の情報は、線分として得られる。 This measurable range is set so as to satisfy the following two conditions. First, from the first point cloud information, information on two aspects of the measurement object arranged within the measurable range can be obtained, and from the second point cloud information, the measurement object arranged within the measurable range can be obtained. Information on two aspects of is obtained. Second, the two aspects obtained from the first point cloud information and the two aspects obtained from the second point cloud information are different. That is, the measurable range is set so that information on the four aspects of the object to be measured can be obtained. When the first sensor 20-1 and the second sensor 20-2 are composed of a two-dimensional laser sensor, information on the side surface of the object to be measured is obtained as a line segment.

計測処理部30は、側面情報取得手段32、対象物位置特定手段34及びセンサ位置特定手段36を備えて構成される。 The measurement processing unit 30 includes a side information acquisition means 32, an object position specifying means 34, and a sensor position specifying means 36.

側面情報取得手段32は、第1点群情報及び第2点群情報から、測定対象物の側面点群情報を取得する。図3(A)〜(C)を参照して、側面情報取得手段32の機能を説明する。図3(A)〜(C)は、側面情報取得手段32の機能を説明するための模式図である。 The side surface information acquisition means 32 acquires the side point cloud information of the measurement target from the first point cloud information and the second point cloud information. The function of the side information acquisition means 32 will be described with reference to FIGS. 3 (A) to 3 (C). 3A to 3C are schematic views for explaining the function of the side information acquisition means 32.

側面情報取得手段32は、予め、測定対象物が測定可能範囲に配置されていない場合の第1点群情報(基準点群情報)を取得しておく(図3(A))。また、側面情報取得手段32は、測定対象物が測定可能範囲に配置されている場合の第1点群情報(対象点群情報)を取得する(図3(B))。側面情報取得手段32は、基準点群情報と対象点群情報と
の差分をとり、差分点群情報を取得する。このとき、基準点群情報にのみ存在する点は、差分点群情報には反映されない。なお、この差分点群情報には、ノイズなど不要な情報も含まれる。この不要な情報は、任意好適な従来公知の処理により除去される。この結果、差分点群情報から、測定対象物の側面についての点群情報(側面点群情報)が得られる(図3(C))。ここで、測定可能範囲が上述のように設定されているので、側面点群情報で示される測定対象物の側面は、2つの面となる。
The side surface information acquisition means 32 acquires in advance the first point cloud information (reference point cloud information) when the measurement object is not arranged in the measurable range (FIG. 3 (A)). Further, the side surface information acquisition means 32 acquires the first point cloud information (target point cloud information) when the measurement object is arranged in the measurable range (FIG. 3 (B)). The side information acquisition means 32 takes a difference between the reference point group information and the target point group information, and acquires the difference point group information. At this time, the points existing only in the reference point cloud information are not reflected in the difference point cloud information. The difference point cloud information also includes unnecessary information such as noise. This unnecessary information is removed by any suitable conventionally known process. As a result, point cloud information (side point cloud information) about the side surface of the measurement object can be obtained from the difference point cloud information (FIG. 3 (C)). Here, since the measurable range is set as described above, the side surfaces of the measurement object indicated by the side point cloud information are two surfaces.

同様に、側面情報取得手段32は、第2点群情報から側面点群情報を取得する。この側面点群情報で示される測定対象物の側面は、2つの面となる。この第2点群情報から得られる2つの側面は、第1点群情報から得られる2つの側面とは異なる。この結果、第1点群情報及び第2点群情報から4つの側面、すなわち、測定対象物の全側面の情報が得られる。 Similarly, the side information acquisition means 32 acquires the side point cloud information from the second point cloud information. The side surfaces of the measurement object indicated by this side surface point cloud information are two surfaces. The two aspects obtained from this second point cloud information are different from the two aspects obtained from the first point cloud information. As a result, information on four aspects, that is, all aspects of the object to be measured can be obtained from the first point cloud information and the second point cloud information.

ここでは、測定対象物が配置されていない基準点群情報と、測定対象物が配置されている対象点群情報の差分により、側面点群情報を得る例を説明しているが、これに限定されず、任意公的な従来公知の手段により側面点群情報を得ることができる。 Here, an example in which side point cloud information is obtained by the difference between the reference point cloud information in which the measurement target is not arranged and the target point cloud information in which the measurement object is arranged is described, but the present invention is limited to this. However, the side point cloud information can be obtained by any publicly known conventionally known means.

対象物位置特定手段34は、側面情報取得手段32が取得した側面点群情報から、測定対象物の位置及び大きさを取得する。図4を参照して、対象物位置特定手段34の機能を説明する。図4は、対象物位置特定手段34の機能を説明するための模式図である。 The object position specifying means 34 acquires the position and size of the measurement object from the side point cloud information acquired by the side information acquiring means 32. The function of the object position specifying means 34 will be described with reference to FIG. FIG. 4 is a schematic diagram for explaining the function of the object position specifying means 34.

対象物位置特定手段34は、第1点群情報から得られた側面点群情報から、第1仮想線分と平行な第1y方向側面の第1y側面情報を取得する。この第1y側面情報から、具体例としては、第1y側面情報に含まれるy座標の最大値y1maxと最小値y1minから、第1y方向側面の第1仮想線分に沿った方向の長さLy1及び中心位置を取得する。また、対象物位置取得手段34は、第1センサ20−1のy座標のy1と、第1y方向側面の中心のy座標との差Δy1を取得する。 The object position specifying means 34 acquires the first y side surface information of the side surface in the first y direction parallel to the first virtual line segment from the side point cloud group information obtained from the first point cloud information. From this first y side surface information, as a specific example, from the maximum value y1max and the minimum value y1min of the y coordinate included in the first y side surface information, the length Ly1 in the direction along the first virtual line segment of the first y direction side surface and Get the center position. Further, the object position acquisition means 34 acquires the difference Δy1 between the y coordinate of the y coordinate of the first sensor 20-1 and the y coordinate of the center of the side surface in the first y direction.

同様に、対象物位置特定手段34は、第1点群情報から得られた側面点群情報から、第1仮想線分と直交する第1x方向側面の第1x側面情報を取得する。この第1x側面情報から、具体例としては、第1x側面情報に含まれるx座標の最大値x1maxと最小値x1minから、第1x方向側面の第1仮想線分に直交する方向の長さLx1及び中心位置を取得する。また、対象物位置取得手段34は、第1センサ20−1のx座標のx1と、第1x方向側面の中心のx座標との差Δx1を取得する。 Similarly, the object position specifying means 34 acquires the 1x side surface information of the side surface in the 1x direction orthogonal to the first virtual line segment from the side point cloud group information obtained from the first point cloud information. From this 1x side surface information, as a specific example, from the maximum value x1max and the minimum value x1min of the x coordinate included in the 1x side surface information, the length Lx1 in the direction orthogonal to the first virtual line segment of the side surface in the 1x direction and Get the center position. Further, the object position acquisition means 34 acquires the difference Δx1 between the xcoordinate x1 of the first sensor 20-1 and the xcoordinate of the center of the side surface in the first x direction.

対象物位置特定手段34は、第2点群情報から得られた側面点群情報から、第2仮想線分と平行な第2y方向側面の第2y側面情報を取得する。この第2y側面情報から、第2y方向側面の第2仮想線分に沿った方向の長さLy2及び中心位置を取得する。また、対象物位置取得手段34は、第2センサ20−2のy座標のy2と、第2y方向側面の中心のy座標との差Δy2を取得する。 The object position specifying means 34 acquires the second y side surface information of the side surface in the second y direction parallel to the second virtual line segment from the side point cloud group information obtained from the second point cloud information. From this second y side surface information, the length Ly2 and the center position in the direction along the second virtual line segment of the side surface in the second y direction are acquired. Further, the object position acquisition means 34 acquires the difference Δy2 between the y coordinate of the y coordinate of the second sensor 20-2 and the y coordinate of the center of the side surface in the second y direction.

同様に、対象物位置特定手段34は、第2点群情報から得られた側面点群情報から、第2仮想線分と直交する第2x方向側面の第2x側面情報を取得する。この第2x側面情報から、第2x方向側面の第2仮想線分に直交する方向の長さLx2及び中心位置を取得する。また、対象物位置取得手段34は、第2センサ20−2のx座標のx2と、第2x方向側面の中心のx座標との差Δx2を取得する。 Similarly, the object position specifying means 34 acquires the 2x side surface information of the side surface in the 2x direction orthogonal to the second virtual line segment from the side point cloud group information obtained from the second point cloud information. From this 2x side surface information, the length Lx2 and the center position in the direction orthogonal to the second virtual line segment of the side surface in the 2x direction are acquired. Further, the object position acquisition means 34 acquires the difference Δx2 between the xcoordinate x2 of the second sensor 20-2 and the xcoordinate of the center of the side surface in the second x direction.

対象物位置特定手段34は、第1点群情報から得られた第1y方向側面の長さLy1と第2点群情報から得られた第2y方向側面の長さLy2との平均、及び、第1点群情報から得られた第1x方向側面の長さLx1と第2点群情報から得られた第2x方向側面の長
さLx2との平均をとるなどして、測定対象物である車両のy方向の長さLy及びx方向の長さLx、すなわち特定対象物である車両の大きさを取得する。また、第1センサ20−1のy座標y1と第1y方向側面の中心のy座標との差Δy1、第1センサ20−1のy座標y1、第1センサ20−1のx座標x1と第1x方向側面の中心のx座標との差Δx1、及び、第1センサ20−1のx座標x1、並びに、第2センサ20−2のy座標のy2と第2y方向側面の中心のy座標との差Δy2、第2センサ20−2のy座標y2、第2センサ20−2のx座標x2と第2x方向側面の中心のx座標との差Δx2、及び、第2センサ20−2のx座標x2から、測定対象物である車両の位置を取得する。
The object position identifying means 34 is the average of the length Ly1 of the side surface in the first y direction obtained from the first point group information and the length Ly2 of the side surface in the second y direction obtained from the information of the second point group, and the first By averaging the length Lx1 of the side surface in the 1x direction obtained from the 1-point group information and the length Lx2 of the side surface in the 2x direction obtained from the information of the 2nd point group, the vehicle to be measured is measured. The length Ly in the y direction and the length Lx in the x direction, that is, the size of the vehicle which is a specific object is acquired. Further, the difference Δy1 between the y-coordinate y1 of the first sensor 20-1 and the y-coordinate of the center of the side surface in the first y direction, the y-coordinate y1 of the first sensor 20-1, the x-coordinate x1 of the first sensor 20-1 and the first. Difference Δx1 from the x-coordinate of the center of the side surface in the 1x direction, x-coordinate x1 of the first sensor 20-1, and y2 of the y-coordinate of the second sensor 20-2 and the y-coordinate of the center of the side surface in the second y-direction. Difference Δy2, y-coordinate y2 of the second sensor 20-2, difference Δx2 between the x-coordinate x2 of the second sensor 20-2 and the x-coordinate of the center of the side surface in the second x direction, and x of the second sensor 20-2. The position of the vehicle, which is the object to be measured, is acquired from the coordinates x2.

センサ位置特定手段36は、後述するセンサ配置方法を実行して第1センサ20−1及び第2センサ20−2を配置する。 The sensor position specifying means 36 executes the sensor arrangement method described later to arrange the first sensor 20-1 and the second sensor 20-2.

この第1センサ装置を建設現場で用いる場合、表示手段40は、例えば、モニタ、光源、スピーカの1又は2以上を備えて構成される。この場合、測定対象物が測定可能範囲に達した場合に、モニタ表示、光源からの発光、スピーカからの警報など、任意好適な手段により、周囲の作業員に危険を知らせる。 When this first sensor device is used at a construction site, the display means 40 includes, for example, one or more of a monitor, a light source, and a speaker. In this case, when the object to be measured reaches the measurable range, the surrounding workers are notified of the danger by any suitable means such as a monitor display, light emission from a light source, and an alarm from a speaker.

(第2センサ装置)
第2センサ装置は、第1センサ20−1及び第2センサ20−2の組を、車両の想定移動経路100に沿って複数備えている。このように、構成することで、測定対象物の位置だけでなく、速度の情報も得ることができる。図5及び図6を参照して、この第2センサ装置の構成例を説明する。図5及び図6は、第2センサ装置の構成例を説明するための模式図である。
(2nd sensor device)
The second sensor device includes a plurality of sets of the first sensor 20-1 and the second sensor 20-2 along the assumed movement path 100 of the vehicle. With this configuration, not only the position of the object to be measured but also the speed information can be obtained. A configuration example of this second sensor device will be described with reference to FIGS. 5 and 6. 5 and 6 are schematic views for explaining a configuration example of the second sensor device.

(第1構成例)
図5(A)に示すように、第2センサ装置の第1構成例は、y方向に間隔Dで配置されるn(nは3以上の整数)個の仮想センサ21−1〜nを備えて構成される。
(First configuration example)
As shown in FIG. 5A, the first configuration example of the second sensor device includes n (n is an integer of 3 or more) virtual sensors 21-1 to n arranged at intervals D in the y direction. It is composed of.

第2k−1仮想センサ21−(2k−1)は、第1仮想線101上に配置される。第1仮想センサ21−1の座標が、(x1、y1)であるとき、第2k−1仮想センサ21−(2k−1)の座標は、(x1、y1+2(k−1)D)となる。また、第2k仮想センサ21−2kは、第2仮想線102上に配置される。第2仮想センサ21−2の座標が、(x2、y2)であるとき、第2k仮想センサ21−2kの座標は、(x2、y2+2(k−1)D)となる。ここで、kは1以上の整数であり、nが奇数のとき、kは(n+1)/2以下であり、nが偶数のとき、kはn/2以下である。 The second k-1 virtual sensor 21- (2k-1) is arranged on the first virtual line 101. When the coordinates of the first virtual sensor 21-1 are (x1, y1), the coordinates of the second k-1 virtual sensor 21- (2k-1) are (x1, y1 + 2 (k-1) D). .. Further, the second k virtual sensor 21-2k is arranged on the second virtual line 102. When the coordinates of the second virtual sensor 21-2 are (x2, y2), the coordinates of the second k virtual sensor 21-2k are (x2, y2 + 2 (k-1) D). Here, k is an integer of 1 or more, and when n is an odd number, k is (n + 1) / 2 or less, and when n is an even number, k is n / 2 or less.

また、各仮想センサの照射角度θをいずれも180°とし、第1照射軸及び第2照射軸を第1仮想線及び第2仮想線に直交し、第1仮想線及び第2仮想線の一方から他方へ向かうように設定されているものとする。 Further, the irradiation angle θ of each virtual sensor is set to 180 °, the first irradiation axis and the second irradiation axis are orthogonal to the first virtual line and the second virtual line, and one of the first virtual line and the second virtual line. It is assumed that it is set to go from to the other.

このように仮想センサを配置すると、第1仮想センサ21−1と第2仮想センサ21−2の組が、第1センサと第2センサの第1組として機能する。また、第2仮想センサ21−2と第3仮想センサ21−3の組が、第1センサと第2センサの第2組として機能する。同様に、第3仮想センサ21−3と第4仮想センサ21−4の組が、第1センサと第2センサの第3組として機能する。したがって、各組のそれぞれの測定可能範囲が、測定対象物である車両の想定移動経路100に沿って複数設けられる。 When the virtual sensors are arranged in this way, the pair of the first virtual sensor 21-1 and the second virtual sensor 21-2 functions as the first set of the first sensor and the second sensor. Further, the set of the second virtual sensor 21-2 and the third virtual sensor 21-3 functions as the second set of the first sensor and the second sensor. Similarly, the set of the third virtual sensor 21-3 and the fourth virtual sensor 21-4 functions as the third set of the first sensor and the second sensor. Therefore, a plurality of measurable ranges of each set are provided along the assumed movement path 100 of the vehicle which is the measurement target.

(第2構成例)
図5(B)に示すように、第2センサ装置の第2構成例は、y方向に間隔Dで配置されるn(nは4以上の整数)個の仮想センサを備えて構成される。
(Second configuration example)
As shown in FIG. 5B, the second configuration example of the second sensor device includes n (n is an integer of 4 or more) virtual sensors arranged at intervals D in the y direction.

第2k−1仮想センサ21−(2k−1)は、第1仮想線101上に配置される。第1仮想センサ21−1の座標が、(x1、y1)であるとき、第2k−1仮想センサ21−(2k−1)の座標は、(x1、y1+(k−1)D)となる。また、第2k仮想センサ21−2kは、第2仮想線102上に配置される。第2仮想センサ21−2の座標が、(x2、y2)であるとき、第2k仮想センサ21−2kの座標は、(x2、y2+(k−1)D)となる。ここで、kは1以上の整数であり、nが奇数のとき、kは(n−1)/2以下であり、nが偶数のとき、kはn/2以下である。 The second k-1 virtual sensor 21- (2k-1) is arranged on the first virtual line 101. When the coordinates of the first virtual sensor 21-1 are (x1, y1), the coordinates of the second k-1 virtual sensor 21- (2k-1) are (x1, y1 + (k-1) D). .. Further, the second k virtual sensor 21-2k is arranged on the second virtual line 102. When the coordinates of the second virtual sensor 21-2 are (x2, y2), the coordinates of the second k virtual sensor 21-2k are (x2, y2 + (k-1) D). Here, k is an integer of 1 or more, and when n is an odd number, k is (n-1) / 2 or less, and when n is an even number, k is n / 2 or less.

また、各仮想センサの照射角度θをいずれも90°とする。第2k−1仮想センサ21−(2k−1)の照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの正方向に向かう線分及びyの正方向に向かう線分に挟まれる扇形となるように設けられる。一方、第2k仮想センサ21−2kの照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの負方向に向かう線分及びyの負方向に向かう線分に挟まれる扇形となるように設けられる。 Further, the irradiation angle θ of each virtual sensor is set to 90 °. The irradiation axis of the second k-1 virtual sensor 21- (2k-1) is sandwiched between a line segment in the positive direction of x and a line segment in the positive direction of y with the coordinates of the virtual sensor as the center. It is provided so as to form a fan shape. On the other hand, the irradiation axis of the second k virtual sensor 21-2k has a fan shape whose irradiation range is sandwiched between a line segment in the negative direction of x and a line segment in the negative direction of y with the coordinates of the virtual sensor as the center. It is provided as follows.

このように仮想センサ21を配置すると、第1仮想センサ21−1と第2仮想センサ21−2の組が、第1センサと第2センサの第1組として機能する。また、第3仮想センサ21−3と第4仮想センサ21−4の組が、第1センサと第2センサの第2組として機能する。同様に、第5仮想センサ21−5と第6仮想センサ21−6の組が、第1センサと第2センサの第3組として機能する。したがって、各組のそれぞれの測定可能範囲が、車両の想定移動経路100に沿って複数設けられる。 When the virtual sensor 21 is arranged in this way, the pair of the first virtual sensor 21-1 and the second virtual sensor 21-2 functions as the first set of the first sensor and the second sensor. Further, the set of the third virtual sensor 21-3 and the fourth virtual sensor 21-4 functions as the second set of the first sensor and the second sensor. Similarly, the set of the fifth virtual sensor 21-5 and the sixth virtual sensor 21-6 functions as the third set of the first sensor and the second sensor. Therefore, a plurality of measurable ranges for each set are provided along the assumed movement path 100 of the vehicle.

(第3構成例)
図6(A)〜(D)に示すように、第2センサ装置の第3構成例は、y方向に間隔Dで配置されるn(nは4以上の整数)個の仮想センサを備えて構成される。
(Third configuration example)
As shown in FIGS. 6A to 6D, the third configuration example of the second sensor device includes n (n is an integer of 4 or more) virtual sensors arranged at intervals D in the y direction. It is composed.

第2k−1仮想センサ21−(2k−1)は、第1仮想線101上に配置される。第1仮想センサ21−1の座標が、(x1、y1)であるとき、第2k−1仮想センサ21−(2k−1)の座標は、(x1、y1+(k−1)D)となる。また、第2k仮想センサ2kは、第2仮想線102上に配置される。第2仮想センサ21−2の座標が、(x2、y2)であるとき、第2k仮想センサ21−2kの座標を、(x2、y2+(k−1)D)とする。ここで、kは1以上の整数であり、nが奇数のとき、kは(n−1)/2以下であり、nが偶数のとき、kはn/2以下である。 The second k-1 virtual sensor 21- (2k-1) is arranged on the first virtual line 101. When the coordinates of the first virtual sensor 21-1 are (x1, y1), the coordinates of the second k-1 virtual sensor 21- (2k-1) are (x1, y1 + (k-1) D). .. Further, the 2k virtual sensor 2k is arranged on the second virtual line 102. When the coordinates of the second virtual sensor 21-2 are (x2, y2), the coordinates of the second k virtual sensor 21-2k are (x2, y2 + (k-1) D). Here, k is an integer of 1 or more, and when n is an odd number, k is (n-1) / 2 or less, and when n is an even number, k is n / 2 or less.

また、各仮想センサ21の照射角度θをいずれも90°とする。各仮想センサの照射角度θは、回転又は揺動により第1状態及び第2状態の2つの状態をとる。 Further, the irradiation angle θ of each virtual sensor 21 is set to 90 °. The irradiation angle θ of each virtual sensor takes two states, a first state and a second state, by rotation or rocking.

図6(A)に示すように、第1状態では、第2k−1仮想センサ21−(2k−1)の照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの正方向に向かう線分及びyの正方向に向かう線分に挟まれる扇形となる。一方、図6(B)に示すように、第2状態では、当該仮想センサの座標を中心として、yの負方向に向かう線分及びxの正方向に向かう線分に挟まれる扇形となる。 As shown in FIG. 6A, in the first state, the irradiation axis of the second k-1 virtual sensor 21- (2k-1) has an irradiation range in the positive direction of x with respect to the coordinates of the virtual sensor. It becomes a fan shape sandwiched between the line segment toward and the line segment toward the positive direction of y. On the other hand, as shown in FIG. 6B, in the second state, a fan shape is formed between the line segment in the negative direction of y and the line segment in the positive direction of x with the coordinates of the virtual sensor as the center.

また、図6(A)に示すように、第1状態では、第2k仮想センサ21−2kの照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの負方向に向かう線分及びyの負方向に向かう線分に挟まれる扇形となる。一方、図6(B)に示すように、第2状態では、当該仮想センサの座標を中心として、yの正方向に向かう線分及びxの負方向に向かう線分に挟まれる扇形となる。 Further, as shown in FIG. 6A, in the first state, the irradiation axis of the second k virtual sensor 21-2k is a line segment whose irradiation range is in the negative direction of x with the coordinates of the virtual sensor as the center. And y becomes a fan shape sandwiched between line segments in the negative direction. On the other hand, as shown in FIG. 6B, in the second state, a fan shape is formed centered on the coordinates of the virtual sensor and sandwiched between a line segment in the positive direction of y and a line segment in the negative direction of x.

ここで、第2k−1仮想センサ21−(2k−1)の照射軸が第1状態をとるとき、同時に第2k仮想センサ21−2kの照射軸も第1状態をとり、第2k−1仮想センサ21−(2k−1)の照射軸が第2状態をとるとき、同時に第2k仮想センサ21−2kの照射軸も第2状態をとるように、各仮想センサは同期している。この同期の設定は、例えば制御部10によりなされる。 Here, when the irradiation axis of the second k-1 virtual sensor 21- (2k-1) takes the first state, the irradiation axis of the second k virtual sensor 21-2k also takes the first state, and the second k-1 virtual Each virtual sensor is synchronized so that when the irradiation axis of the sensor 21- (2k-1) takes the second state, the irradiation axis of the second k virtual sensor 21-2k also takes the second state. This synchronization setting is made by, for example, the control unit 10.

図6(A)に示すように、第1仮想センサ21−1及び第2仮想センサ21−2の照射軸が第1状態をとるとき、第1仮想センサ21−1と第2仮想センサ21−2の組が、第1センサと第2センサの組として機能する。 As shown in FIG. 6A, when the irradiation axes of the first virtual sensor 21-1 and the second virtual sensor 21-2 take the first state, the first virtual sensor 21-1 and the second virtual sensor 21- The set of 2 functions as a set of the first sensor and the second sensor.

このように仮想センサを配置すると、第1仮想センサと第2仮想センサの組が、第1センサと第2センサの第1組として機能する。また、第3仮想センサと第4仮想センサの組が、第1センサと第2センサの第2組として機能する。同様に、第5仮想センサと第6仮想センサの組が、第1センサと第2センサの第3組として機能する。したがって、各組のそれぞれの測定可能範囲が、車両の想定移動経路100に沿って複数設けられる。このようにして、第3構成例は、複数の第1センサ及び第2センサの組を備える。 When the virtual sensors are arranged in this way, the pair of the first virtual sensor and the second virtual sensor functions as the first set of the first sensor and the second sensor. Further, the set of the third virtual sensor and the fourth virtual sensor functions as the second set of the first sensor and the second sensor. Similarly, the set of the fifth virtual sensor and the sixth virtual sensor functions as the third set of the first sensor and the second sensor. Therefore, a plurality of measurable ranges for each set are provided along the assumed movement path 100 of the vehicle. In this way, the third configuration example includes a plurality of sets of the first sensor and the second sensor.

また、図6(B)に示すように、第2仮想センサ21−2及び第5仮想センサ21−5の照射軸が第2状態をとるとき、第2仮想センサ21−2と第5仮想センサ21−5の組が、第1センサと第2センサの組として機能する。 Further, as shown in FIG. 6B, when the irradiation axes of the second virtual sensor 21-2 and the fifth virtual sensor 21-5 take the second state, the second virtual sensor 21-2 and the fifth virtual sensor 21-2 and the fifth virtual sensor The set of 21-5 functions as a set of the first sensor and the second sensor.

なお、各仮想センサの照射軸が、回転によりさらに、第3状態及び第4状態をとる構成にしてもよい。 The irradiation axis of each virtual sensor may be configured to take a third state and a fourth state by rotation.

図6(C)に示すように、第3状態では、第2k−1仮想センサ21−(2k−1)の照射範囲が、当該仮想センサの座標を中心として、xの負方向に向かう線分及びyの負方向に向かう線分に挟まれる扇形となる。また、図6(D)に示すように、第4状態では、照射範囲が、当該仮想センサの座標を中心として、yの正方向に向かう線分及びxの負方向に向かう線分に挟まれる扇形となる。 As shown in FIG. 6C, in the third state, the irradiation range of the second k-1 virtual sensor 21- (2k-1) is a line segment in the negative direction of x with the coordinates of the virtual sensor as the center. And y becomes a fan shape sandwiched between line segments in the negative direction. Further, as shown in FIG. 6D, in the fourth state, the irradiation range is sandwiched between a line segment in the positive direction of y and a line segment in the negative direction of x with the coordinates of the virtual sensor as the center. It becomes a fan shape.

また、図6(C)に示すように、第3状態では、第2k仮想センサ21−2kの照射範囲が、当該仮想センサの座標を中心として、xの正方向に向かう線分及びyの正方向に向かう線分に挟まれる扇形となる。また、図6(D)に示すように、第4状態では、第2k仮想センサ21−2kの照射範囲が、当該仮想センサの座標を中心として、yの負方向に向かう線分及びxの正方向に向かう線分に挟まれる扇形となる。 Further, as shown in FIG. 6C, in the third state, the irradiation range of the second k virtual sensor 21-2k is a line segment in the positive direction of x and the positive of y with the coordinates of the virtual sensor as the center. It becomes a fan shape sandwiched between line segments going in the direction. Further, as shown in FIG. 6D, in the fourth state, the irradiation range of the second k virtual sensor 21-2k is a line segment in the negative direction of y and the positive of x with the coordinates of the virtual sensor as the center. It becomes a fan shape sandwiched between line segments going in the direction.

この場合、第1仮想線及び第2仮想線に平行に複数の仮想線を設定し、mが1以上の整数として第(2m+1)仮想線上に第2k−1仮想センサを配置し、第(2m+2)仮想線上に第k仮想センサを配置するなどして、仮想センサを格子状に配置すると、1つの想定移動経路100だけでなく、複数の想定移動経路100−(m+1)に対して、測定対象物の位置を特定することができる。 In this case, a plurality of virtual lines are set in parallel with the first virtual line and the second virtual line, the second k-1 virtual sensor is arranged on the (2m + 1) virtual line as an integer whose m is 1 or more, and the second (2m + 2) virtual line is arranged. ) When the k-th virtual sensor is arranged on the virtual line in a grid pattern, the measurement target is not only one assumed movement path 100 but also a plurality of assumed movement paths 100- (m + 1). The position of an object can be specified.

(センサ配置方法)
この発明のセンサ装置では、測定可能範囲が、以下の2つの条件を満たすように設定されている必要がある。第1に、第1点群情報から、測定可能範囲内に配置された測定対象物の2つの側面の情報が得られ、第2点群情報から、測定可能範囲内に配置された測定対象物の2つの側面の情報が得られる。第2に、第1点群情報から得られる2つの側面と、第2点群情報から得られる2つの側面が異なる。すなわち、測定可能範囲は、測定対象物の4つの側面の情報が得られるように設定されていなければならない。この測定可能範囲は、第1センサ及び第2センサの配置により定まる。そこで、センサ位置特定手段36で
実行される第1センサ及び第2センサの配置方法を説明する。
(Sensor placement method)
In the sensor device of the present invention, the measurable range needs to be set so as to satisfy the following two conditions. First, from the first point cloud information, information on two aspects of the measurement object arranged within the measurable range can be obtained, and from the second point cloud information, the measurement object arranged within the measurable range can be obtained. Information on two aspects of is obtained. Second, the two aspects obtained from the first point cloud information and the two aspects obtained from the second point cloud information are different. That is, the measurable range must be set so that information on the four aspects of the object to be measured can be obtained. This measurable range is determined by the arrangement of the first sensor and the second sensor. Therefore, a method of arranging the first sensor and the second sensor executed by the sensor position specifying means 36 will be described.

先ず、ステップ(以下、ステップをSで表す。)10において、第1センサ及び第2センサの2つのレーザセンサが配置される。 First, in step 10 (hereinafter, step is represented by S) 10, two laser sensors, a first sensor and a second sensor, are arranged.

次に、S20において、測定対象物がない状態で、2つのレーザセンサで第1点群情報及び第2点群情報を取得する。この第1点群情報及び第2点群情報は、いずれも基準点群情報として得られる。 Next, in S20, the first point cloud information and the second point cloud information are acquired by the two laser sensors in the state where there is no object to be measured. Both the first point cloud information and the second point cloud information are obtained as reference point cloud information.

次に、S30において、測定対象物が配置される。 Next, in S30, the object to be measured is arranged.

次に、S40において、測定対象物が配置された状態で、2つのレーザセンサで第1点群情報及び第2点群情報を取得する。この第1点群情報及び第2点群情報は、いずれも対象点群情報として得られる。 Next, in S40, the first point cloud information and the second point cloud information are acquired by the two laser sensors in the state where the measurement object is arranged. Both the first point cloud information and the second point cloud information are obtained as target point cloud information.

次に、S50において、第1点群情報及び第2点群情報のそれぞれに対して、対象点群情報と基準点情報との差分を取り、測定対象物の側面点群情報を取得する。 Next, in S50, the difference between the target point group information and the reference point information is taken for each of the first point group information and the second point group information, and the side point group information of the measurement target object is acquired.

次に、S60において、第1点群情報及び第2点群情報のそれぞれに対して、第1仮想線分及び第2仮想線分と平行なy方向側面の、第1仮想線分及び第2仮想線分に沿った方向の長さLy1、Ly2及びそれぞれの中心位置を取得する。 Next, in S60, for the first point group information and the second point group information, respectively, the first virtual line segment and the second virtual line segment on the y-direction side surface parallel to the first virtual line segment and the second virtual line segment. The lengths Ly1 and Ly2 in the direction along the virtual line segment and the center positions of each are acquired.

次に、S70において、第1点群情報及び第2点群情報のそれぞれに対して、第1仮想線分及び第2仮想線分と直交するx方向側面の長さLx1、Lx2及びそれぞれの中心位置を取得する。 Next, in S70, with respect to the first point group information and the second point group information, the lengths Lx1, Lx2, and the centers of the side surfaces in the x direction orthogonal to the first virtual line segment and the second virtual line segment, respectively. Get the position.

次に、S80において、第1センサと第2センサとのy方向の間隔Dyと、測定対象物の側面の長さLyを取得する。このS80では、第1センサのy座標のy1と、測定対象物の第1y方向側面の中心のy座標との差Δy1を取得し、第2センサのy座標のy2と、測定対象物の第2y方向側面の中心のy座標との差Δy2を取得する。この場合、間隔Dyは、Δy1とΔy2の和で与えられる。また、第1センサによって得られた第1y側面情報から、y座標の最大値y1maxと最小値y1minを取得する。この場合、第1仮想線側の長さLy1は、最大値y1maxと最小値y1minの差で与えられる。同様に、第2センサによって得られた第2y側面情報から、y座標の最大値y2maxと最小値y2minを取得する。この場合、第2仮想線側の長さLy2は、最大値y2maxと最小値y2minの差で与えられる。この第1仮想線側の長さLy1と第2仮想線側の長さLy2の平均として、測定対象物のy方向の長さLyが与えられる。 Next, in S80, the distance Dy between the first sensor and the second sensor in the y direction and the length Ly of the side surface of the object to be measured are acquired. In this S80, the difference Δy1 between the y-coordinate y1 of the first sensor and the y-coordinate of the center of the side surface in the first y direction of the measurement target is acquired, and the y-coordinate y2 of the second sensor and the measurement target second. The difference Δy2 from the y coordinate of the center of the side surface in the 2y direction is acquired. In this case, the interval Dy is given by the sum of Δy1 and Δy2. Further, the maximum value y1max and the minimum value y1min of the y coordinate are acquired from the first y side surface information obtained by the first sensor. In this case, the length Ly1 on the first virtual line side is given by the difference between the maximum value y1max and the minimum value y1min. Similarly, the maximum value y2max and the minimum value y2min of the y coordinate are acquired from the second y side surface information obtained by the second sensor. In this case, the length Ly2 on the second virtual line side is given by the difference between the maximum value y2max and the minimum value y2min. The length Ly of the object to be measured in the y direction is given as the average of the length Ly1 on the first virtual line side and the length Ly2 on the second virtual line side.

次に、S90において、第1センサと第2センサとのx方向の間隔Dxと、測定対象物の側面の長さLxを取得する。このS90では、第1センサのx座標のx1と、測定対象物の第1x方向側面の中心のx座標との差Δx1を取得し、第2センサのx座標のx2と、測定対象物の第2x方向側面の中心のx座標との差Δx2を取得する。この場合、間隔Dxは、Δx1とΔx2の和で与えられる。また、第1センサによって得られた第1x側面情報から、x座標の最大値x1maxと最小値x1minを取得する。この場合、第1仮想線側の長さLx1は、最大値x1maxと最小値x1minの差で与えられる。同様に、第2センサによって得られた第2x側面情報から、x座標の最大値x2maxと最小値x2minを取得する。この場合、第2仮想線側の長さLx2は、最大値x2maxと最小値x2minの差で与えられる。この長さLx1とLx2の平均として、測定対象物のx方向の長さLxが与えられる。 Next, in S90, the distance Dx between the first sensor and the second sensor in the x direction and the length Lx of the side surface of the object to be measured are acquired. In this S90, the difference Δx1 between the xcoordinate x1 of the first sensor and the xcoordinate of the center of the side surface in the first x direction of the measurement target is acquired, and the xcoordinate x2 of the second sensor and the measurement target second. The difference Δx2 from the x-coordinate of the center of the side surface in the 2x direction is acquired. In this case, the interval Dx is given by the sum of Δx1 and Δx2. Further, the maximum value x1max and the minimum value x1min of the x coordinate are acquired from the first x side surface information obtained by the first sensor. In this case, the length Lx1 on the first virtual line side is given by the difference between the maximum value x1max and the minimum value x1min. Similarly, the maximum value x2max and the minimum value x2min of the x coordinate are acquired from the second x side surface information obtained by the second sensor. In this case, the length Lx2 on the second virtual line side is given by the difference between the maximum value x2max and the minimum value x2min. As the average of the lengths Lx1 and Lx2, the length Lx in the x direction of the object to be measured is given.

次に、S100において、センサ位置の適性を判定する。Dy>Ly、かつ、Dx>Lxであるならば、センサ位置は適切であると判定される。一方、Dy≦Ly、又は、Dx≦Lxの何れかであるならば、センサ位置は不適切であると判定される。 Next, in S100, the suitability of the sensor position is determined. If Dy> Ly and Dx> Lx, it is determined that the sensor position is appropriate. On the other hand, if either Dy ≦ Ly or Dx ≦ Lx, it is determined that the sensor position is inappropriate.

次に、S110において、S100における判定の結果をモニタ等に表示する。図7を参照して、モニタ等に表示される画面の例を説明する。図7は、モニタ等に表示される画面の例を示す模式図である。S100における判定の結果、センサ位置が適切である場合(図7(A)参照。)は、そのまま、測定対象物の位置特定を行えばよい。一方、センサ位置が不適切である場合(図7(B)参照。)は、S100における判定の結果に基づいて、2つのレーザセンサを、y方向の間隔Dy、x方向の間隔Dxの何れか一方、又は、双方を広げるように移動し、再び、S20〜S110の処理を行えばよい。 Next, in S110, the result of the determination in S100 is displayed on a monitor or the like. An example of a screen displayed on a monitor or the like will be described with reference to FIG. 7. FIG. 7 is a schematic view showing an example of a screen displayed on a monitor or the like. If the sensor position is appropriate as a result of the determination in S100 (see FIG. 7A), the position of the object to be measured may be specified as it is. On the other hand, when the sensor position is inappropriate (see FIG. 7B), the two laser sensors are placed at either the y-direction interval Dy or the x-direction interval Dx based on the result of the determination in S100. One or both of them may be moved so as to be widened, and the processes of S20 to S110 may be performed again.

(利用形態)
ここでは、測定対象物である車両の想定移動経路100が直線である場合を例として説明したが、測定対象物である車両が第1センサ20−1及び第2センサ20−2による測定可能範囲内をy方向と交差する斜め方向やx方向に移動したり、蛇行したりしてもよい。
(Usage pattern)
Here, the case where the assumed movement path 100 of the vehicle as the measurement target is a straight line has been described as an example, but the vehicle as the measurement target has a measurable range by the first sensor 20-1 and the second sensor 20-2. It may move in the diagonal direction or the x direction that intersects the y direction, or may meander.

第1センサ及び第2センサとして2次元レーザセンサを用いる例を説明したが、3次元レーザセンサを用いてもよい。3次元レーザセンサを用いる場合、側面の中心として、例えば、側面の重心を用いることができる。 Although an example of using a two-dimensional laser sensor as the first sensor and the second sensor has been described, a three-dimensional laser sensor may be used. When a three-dimensional laser sensor is used, for example, the center of gravity of the side surface can be used as the center of the side surface.

2次元レーザセンサを用いると、点群情報が2次元情報であるためデータ処理の負荷が小さく、また、より安価にシステムを構築することができる。 When the two-dimensional laser sensor is used, the load of data processing is small because the point cloud information is two-dimensional information, and the system can be constructed at a lower cost.

一方、2次元レーザセンサでは、特定の1平面の情報を得ているため、例えば、タイヤの大きさが違う場合に、車両の実際の大きさと異なる可能性がある。これに対し、3次元レーザセンサを用いると、点群情報が3次元情報であるため、車両の大きさの特定精度を高めることができる。 On the other hand, since the two-dimensional laser sensor obtains information on a specific plane, it may differ from the actual size of the vehicle, for example, when the tire size is different. On the other hand, when the three-dimensional laser sensor is used, since the point cloud information is three-dimensional information, the accuracy of specifying the size of the vehicle can be improved.

以上、説明したように、この発明のセンサ装置及び位置特定方法によれば、同時に測定対象物の4つの側面を取得できる。このため、測定対象物の大きさ及び位置をより正確に取得することができる。 As described above, according to the sensor device and the position specifying method of the present invention, it is possible to simultaneously acquire four aspects of the object to be measured. Therefore, the size and position of the object to be measured can be obtained more accurately.

10 制御部
20 センサ
30 計測処理部
32 側面情報取得手段
34 対象物位置特定手段
36 センサ位置特定手段
40 表示部
10 Control unit 20 Sensor 30 Measurement processing unit 32 Side information acquisition means 34 Object position identification means 36 Sensor position identification means 40 Display unit

Claims (8)

長方形状の仮想領域の頂点であり、前記仮想領域の一本の対角線の一端側の頂点に配置されるセンサであって、
前記仮想領域に含まれる測定可能範囲に、複数の第1光パルスを照射する第1照射手段、及び
前記第1光パルスが測定対象物で反射された複数の第1反射光を受光して、前記第1反射光が反射した位置を示す第1点群情報を生成する第1受光手段
を有する第1センサと、
前記仮想領域の一本の対角線の他端側の頂点に配置されるセンサであって、
前記仮想領域に含まれる測定可能範囲に、複数の第2光パルスを照射する第2照射手段、及び
前記第2光パルスが前記測定対象物で反射された複数の第2反射光を受光して、前記第2反射光が反射した位置を示す第2点群情報を生成する第2受光手段
を有する第2センサと、
前記第1点群情報及び前記第2点群情報を用いて、前記測定可能範囲に配置された前記測定対象物の側面を示す側面点群情報を取得し、前記側面点群情報から前記測定対象物の位置を特定する計測処理部と
を備えることを特徴とするセンサ装置。
A sensor that is the apex of a rectangular virtual area and is arranged at the apex on one end side of one diagonal line of the virtual area.
A first irradiation means for irradiating a plurality of first light pulses to a measurable range included in the virtual region, and a plurality of first reflected lights reflected by the measurement object are received by the first light pulse. A first sensor having a first light receiving means for generating first point group information indicating a position where the first reflected light is reflected, and a first sensor.
A sensor arranged at the apex on the other end side of one diagonal line of the virtual area.
A second irradiation means that irradiates a plurality of second light pulses into a measurable range included in the virtual region, and the second light pulse receives a plurality of second reflected lights reflected by the measurement object. , A second sensor having a second light receiving means for generating second point group information indicating a position where the second reflected light is reflected, and
Using the first point cloud information and the second point cloud information, side point cloud information indicating the side surface of the measurement object arranged in the measurable range is acquired, and the measurement target is obtained from the side surface point cloud information. A sensor device including a measurement processing unit that identifies the position of an object.
前記側面点群情報は、
前記測定対象物が前記測定可能範囲に配置されている状態の第1点群情報及び第2点群情報として取得される対象点群情報と、
測定対象物が前記測定可能範囲に配置されていない状態の第1点群情報及び第2点群情報として取得される基準点群情報と
の差分に基づいて得られることを特徴とする請求項1に記載のセンサ装置。
The side point cloud information is
The target point cloud information acquired as the first point cloud information and the second point cloud information in the state where the measurement object is arranged in the measurable range, and the target point cloud information.
Claim 1 characterized in that it is obtained based on the difference between the first point cloud information in a state where the measurement object is not arranged in the measurable range and the reference point cloud information acquired as the second point cloud information. The sensor device according to.
前記計測処理部は、前記第1センサ及び前記第2センサの、前記測定対象物の想定移動経路に沿った方向の間隔が、前記想定移動経路に沿った方向の前記測定対象物の長さより大きいか否かを判定し、大きい場合は、前記第1センサ及び前記第2センサが適切に配置されていると判定し、そうでない場合は、前記第1センサ及び前記第2センサが適切に配置されていないと判定する
ことを特徴とする請求子1又は2に記載のセンサ装置。
In the measurement processing unit, the distance between the first sensor and the second sensor in the direction along the assumed movement path of the measurement object is larger than the length of the measurement object in the direction along the assumed movement path. If it is large, it is determined that the first sensor and the second sensor are properly arranged, and if not, the first sensor and the second sensor are appropriately arranged. The sensor device according to claimant 1 or 2, wherein the sensor device is determined not to be present.
nは3以上の整数であり、kは1以上の整数であり、nが奇数のときkは(n+1)/2以下であり、nが偶数のときkはn/2以下であり、x1<x2及びy1<y2であり、D=y2−y1であるとき、
第1〜第n仮想センサを備えて構成され、
第2k−1仮想センサは、第1仮想線上に配置され、第2k−1仮想センサの座標が、(x1、y1+2(k−1)D)で与えられ、
第2k仮想センサは、第2仮想線上に配置され、第2k仮想センサの座標が、(x2、y2+2(k−1)D)で与えられ、
第2k−1仮想センサと第2k仮想センサの組、又は、第2k仮想センサと第2k+1仮想センサの組が、前記第1センサ及び前記第2センサの組として機能する
ことを特徴とする請求項1〜3のいずれか一項に記載のセンサ装置。
n is an integer of 3 or more, k is an integer of 1 or more, k is (n + 1) / 2 or less when n is odd, k is n / 2 or less when n is even, and x1 < When x2 and y1 <y2 and D = y2-y1
It is configured with the 1st to nth virtual sensors.
The second k-1 virtual sensor is arranged on the first virtual line, and the coordinates of the second k-1 virtual sensor are given by (x1, y1 + 2 (k-1) D).
The second k virtual sensor is arranged on the second virtual line, and the coordinates of the second k virtual sensor are given by (x2, y2 + 2 (k-1) D).
A claim characterized in that a set of a second k-1 virtual sensor and a second k virtual sensor, or a set of a second k virtual sensor and a second k + 1 virtual sensor functions as a set of the first sensor and the second sensor. The sensor device according to any one of 1 to 3.
nは4以上の整数であり、kは1以上の整数であり、nが奇数のときkは(n+1)/2以下であり、nが偶数のときkはn/2以下であり、x1<x2及びy1<y2であり、D=y2−y1であるとき、
第1〜第n仮想センサを備えて構成され、
第2k−1仮想センサは、第1仮想線上に配置され、第2k−1仮想センサの座標が、(x1、y1+(k−1)D)で与えられ、
第2k仮想センサは、第2仮想線上に配置され、第2k仮想センサの座標が、(x2、y2+(k−1)D)で与えられ、
第2k−1仮想センサの照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの正方向に向かう線分及びyの正方向に向かう線分に挟まれる扇形となる第1状態と、当該仮想センサの座標を中心として、yの負方向に向かう線分及びxの正方向に向かう線分に挟まれる扇形となる第2状態とをとり、
第2k仮想センサの照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの負方向に向かう線分及びyの負方向に向かう線分に挟まれる扇形となる第1状態と、当該仮想センサの座標を中心として、yの正方向に向かう線分及びxの負方向に向かう線分に挟まれる扇形となる第2状態とをとり、
第2k−1仮想センサの照射軸が第1状態をとるとき、同時に第2k仮想センサの照射軸も第1状態をとり、及び、第2k−1仮想センサの照射軸が第2状態をとるとき、同時に第2k仮想センサの照射軸も第2状態をとるように、各仮想センサは同期しており、
第2k−1仮想センサ及び第2k仮想センサの照射軸が第1状態をとるとき、第2k−1仮想センサと第2k仮想センサの組が、前記第1センサと前記第2センサの組として機能し、
第2k仮想センサ及び第2(k+1)+1仮想センサの照射軸が第2状態をとるとき、第2k仮想センサ及び第2(k+1)+1仮想センサの組が、前記第1センサ及び前記第2センサの組として機能する
ことを特徴とする請求項1〜3のいずれか一項に記載のセンサ装置。
n is an integer of 4 or more, k is an integer of 1 or more, k is (n + 1) / 2 or less when n is odd, k is n / 2 or less when n is even, and x1 < When x2 and y1 <y2 and D = y2-y1
It is configured with the 1st to nth virtual sensors.
The second k-1 virtual sensor is arranged on the first virtual line, and the coordinates of the second k-1 virtual sensor are given by (x1, y1 + (k-1) D).
The second k virtual sensor is arranged on the second virtual line, and the coordinates of the second k virtual sensor are given by (x2, y2 + (k-1) D).
The irradiation axis of the second k-1 virtual sensor has a first state in which the irradiation range is a fan shape centered on the coordinates of the virtual sensor and is sandwiched between a line segment in the positive direction of x and a line segment in the positive direction of y. And the second state, which is a fan shape sandwiched between the line segment in the negative direction of y and the line segment in the positive direction of x, centered on the coordinates of the virtual sensor.
The irradiation axis of the second k virtual sensor has a first state in which the irradiation range is a fan shape centered on the coordinates of the virtual sensor and is sandwiched between a line segment in the negative direction of x and a line segment in the negative direction of y. With the coordinates of the virtual sensor as the center, a second state is taken, which is a fan shape sandwiched between a line segment in the positive direction of y and a line segment in the negative direction of x.
When the irradiation axis of the second k-1 virtual sensor takes the first state, and at the same time, the irradiation axis of the second k virtual sensor also takes the first state, and when the irradiation axis of the second k-1 virtual sensor takes the second state. At the same time, each virtual sensor is synchronized so that the irradiation axis of the 2k virtual sensor also takes the second state.
When the irradiation axes of the second k-1 virtual sensor and the second k virtual sensor take the first state, the pair of the second k-1 virtual sensor and the second k virtual sensor functions as the pair of the first sensor and the second sensor. And
When the irradiation axes of the second k virtual sensor and the second (k + 1) + 1 virtual sensor take the second state, the pair of the second k virtual sensor and the second (k + 1) + 1 virtual sensor is the first sensor and the second sensor. The sensor device according to any one of claims 1 to 3, wherein the sensor device functions as a set of.
前記第2k−1仮想センサの照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの負方向に向かう線分及びyの負方向に向かう線分に挟まれる扇形となる第3状態と、当該仮想センサの座標を中心として、yの正方向に向かう線分及びxの負方向に向かう線分に挟まれる扇形となる第4状態とをとり、
第2k仮想センサの照射軸は、照射範囲が、当該仮想センサの座標を中心として、xの正方向に向かう線分及びyの正方向に向かう線分に挟まれる扇形となる第3状態と、当該仮想センサの座標を中心として、yの負方向に向かう線分及びxの正方向に向かう線分に挟まれる扇形となる第4状態とをとり、
第2k−1仮想センサの照射軸が第3状態をとるとき、同時に第2k仮想センサの照射軸も第3状態をとり、第2k−1仮想センサの照射軸が第4状態をとるとき、同時に第2k仮想センサの照射軸も第4状態をとるように、各仮想センサは同期している
ことを特徴とする請求項5に記載のセンサ装置。
The irradiation axis of the second k-1 virtual sensor has a fan shape whose irradiation range is sandwiched between a line segment in the negative direction of x and a line segment in the negative direction of y with the coordinates of the virtual sensor as the center. It takes a state and a fourth state, which is a fan shape sandwiched between a line segment in the positive direction of y and a line segment in the negative direction of x, centered on the coordinates of the virtual sensor.
The irradiation axis of the second k virtual sensor has a third state in which the irradiation range is a fan shape centered on the coordinates of the virtual sensor and is sandwiched between a line segment in the positive direction of x and a line segment in the positive direction of y. With the coordinates of the virtual sensor as the center, a fourth state, which is a fan shape sandwiched between a line segment in the negative direction of y and a line segment in the positive direction of x, is taken.
When the irradiation axis of the second k-1 virtual sensor takes the third state, the irradiation axis of the second k virtual sensor also takes the third state, and when the irradiation axis of the second k-1 virtual sensor takes the fourth state, at the same time. The sensor device according to claim 5, wherein each virtual sensor is synchronized so that the irradiation axis of the second k virtual sensor also takes the fourth state.
請求項1〜6のいずれか一項に記載のセンサ装置を用いて行われる位置特定方法であって、
前記第1点群情報及び前記第2点群情報を取得する過程と、
前記第1点群情報及び前記第2点群情報から、測定対象物の側面を示す側面点群情報を取得する過程と、
前記側面点群情報を用いて、前記測定対象物の位置を特定する過程と
を備えることを特徴とする位置特定方法。
A position identification method performed by using the sensor device according to any one of claims 1 to 6.
The process of acquiring the first point cloud information and the second point cloud information, and
A process of acquiring side point cloud information indicating a side surface of a measurement object from the first point cloud information and the second point cloud information, and
A position specifying method comprising a process of specifying the position of the measurement object by using the side point cloud information.
前記第1点群情報及び前記第2点群情報を取得する過程の前に行われるセンサ位置特定過程をさらに備え、
前記センサ位置特定過程は、
前記第1センサ及び前記第2センサを配置する過程と、
前記測定対象物がない状態で、前記第1センサ及び前記第2センサで前記第1点群情報及び前記第2点群情報を基準点群情報として取得する過程と、
前記測定対象物を測定可能範囲に配置する過程と、
前記測定対象物が配置された状態で、前記第1センサ及び前記第2センサで前記第1点群情報及び前記第2点群情報を対象点群情報として取得する過程と、
前記第1点群情報及び前記第2点群情報のそれぞれに対して、前記対象点群情報と前記基準点群情報の差分を取り、前記測定対象物の側面点群情報を取得する過程と、
前記第1点群情報及び前記第2点群情報のそれぞれに対して、前記第1仮想線分及び前記第2仮想線分と平行な側面の側面情報から、前記第1仮想線分及び前記第2仮想線分に沿った方向の側面の長さ及び中心位置を取得する過程と、
前記第1点群情報及び前記第2点群情報のそれぞれに対して、前記第1仮想線分及び前記第2仮想線分と直交する側面の側面情報から、前記第1仮想線分及び前記第2仮想線分と直交する方向の側面の長さ及び中心位置を取得する過程と、
前記第1センサと前記第2センサの前記第1仮想線分及び前記第2仮想線分に沿った方向の間隔Dyと、前記第1仮想線分及び前記第2仮想線分に沿った方向の前記測定対象物の側面の長さLyを取得する過程と、
前記第1センサと前記第2センサの前記第1仮想線分及び前記第2仮想線分と直交する方向の間隔Dxと、前記第1仮想線分及び前記第2仮想線分と直交する方向の前記測定対象物の側面の長さLxを取得する過程と、
前記間隔Dyが前記長さLyより大きく、且つ、前記間隔Dxが前記長さLxより大きければ、前記第1センサ及び前記第2センサの位置が適切と判定し、前記間隔Dyが前記長さLy以下、及び、前記間隔Dxが前記長さLx以下の何れか一方、又は、双方であれば、前記第1センサ及び前記第2センサの位置が不適切と判定する過程と
を備え、
不適切と判定された場合は、第1センサ及び第2センサの前記間隔Dy又は前記間隔Dxを広げて、前記センサ位置特定過程を再び行う
ことを特徴とする請求項7に記載の位置特定方法。
The sensor position identification process performed before the process of acquiring the first point cloud information and the second point cloud information is further provided.
The sensor position identification process is
The process of arranging the first sensor and the second sensor, and
A process of acquiring the first point cloud information and the second point cloud information as reference point cloud information by the first sensor and the second sensor in the absence of the measurement object.
The process of arranging the object to be measured within the measurable range and
A process of acquiring the first point group information and the second point group information as target point group information by the first sensor and the second sensor in a state where the measurement object is arranged.
A process of obtaining the side point cloud information of the measurement object by taking the difference between the target point cloud information and the reference point cloud information for each of the first point cloud information and the second point cloud information.
For each of the first point group information and the second point group information, the first virtual line segment and the first virtual line segment and the first virtual line segment are obtained from the side surface information of the side surface parallel to the first virtual line segment and the second virtual line segment. 2 The process of acquiring the length and center position of the side surface in the direction along the virtual line segment,
For each of the first point group information and the second point group information, the first virtual line segment and the first virtual line segment and the first virtual line segment are obtained from the side surface information of the side surface orthogonal to the first virtual line segment and the second virtual line segment. 2 The process of acquiring the length and center position of the side surface in the direction orthogonal to the virtual line segment,
The distance Dy between the first sensor and the second sensor in the direction along the first virtual line segment and the second virtual line segment, and the direction along the first virtual line segment and the second virtual line segment. The process of acquiring the length Ly of the side surface of the object to be measured and
The distance Dx between the first sensor and the second sensor in the direction orthogonal to the first virtual line segment and the second virtual line segment, and the direction orthogonal to the first virtual line segment and the second virtual line segment. The process of acquiring the length Lx of the side surface of the object to be measured and
If the interval Dy is larger than the length Ly and the interval Dx is larger than the length Lx, it is determined that the positions of the first sensor and the second sensor are appropriate, and the interval Dx is the length Ly. If the interval Dx is one or both of the following and the length Lx or less, the process of determining that the positions of the first sensor and the second sensor are inappropriate is provided.
The position identification method according to claim 7, wherein when it is determined to be inappropriate, the interval Dy or the interval Dx of the first sensor and the second sensor is widened, and the sensor position identification process is performed again. ..
JP2019158845A 2019-08-30 2019-08-30 Sensor device and position identification method Pending JP2021038949A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019158845A JP2021038949A (en) 2019-08-30 2019-08-30 Sensor device and position identification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019158845A JP2021038949A (en) 2019-08-30 2019-08-30 Sensor device and position identification method

Publications (1)

Publication Number Publication Date
JP2021038949A true JP2021038949A (en) 2021-03-11

Family

ID=74849184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019158845A Pending JP2021038949A (en) 2019-08-30 2019-08-30 Sensor device and position identification method

Country Status (1)

Country Link
JP (1) JP2021038949A (en)

Similar Documents

Publication Publication Date Title
US10108833B2 (en) Marker for optical tracking, optical tracking system, and optical tracking method
US9182763B2 (en) Apparatus and method for generating three-dimensional map using structured light
EP2188589B1 (en) System and method for three-dimensional measurement of the shape of material objects
EP3262439B1 (en) Using intensity variations in a light pattern for depth mapping of objects in a volume
EP2195608B1 (en) System and method for multiframe surface measurement of the shape of objects
US9626776B2 (en) Apparatus, systems, and methods for processing a height map
US20130106833A1 (en) Method and apparatus for optical tracking of 3d pose using complex markers
CN108267133B (en) Laser type reflecting plate coordinate system redundancy calibration method and laser navigation system
JP2013096828A (en) Doppler radar system and object detection method
CN109073363B (en) Image recognition device, image recognition method, and image recognition unit
EP3657455A1 (en) Methods and systems for detecting intrusions in a monitored volume
JP2018504593A (en) Three-dimensional (3D) inspection standards
CN113124763B (en) Optical axis calibration method, device, terminal, system and medium for optical axis detection system
JP2015225083A (en) Method for determining closed trajectory by means of laser and laser light sensor, and apparatus for determining closed trajectory
US6304680B1 (en) High resolution, high accuracy process monitoring system
CN113133319A (en) Calibration plate, method and device for testing angular resolution and computer storage medium
EP3101383A1 (en) Shape measurement apparatus, shape calculation method, system, and method of manufacturing an article
JP2013097532A (en) Evaluation value calculation device and evaluation value calculation method
JP4918830B2 (en) Position measurement system
JP2021038949A (en) Sensor device and position identification method
CN110726534B (en) Visual field range testing method and device for visual device
JP6703094B2 (en) Position detection system
CN105953820B (en) A kind of optical calibrating device of inertial measurement combination dynamic navigation performance
WO2020179382A1 (en) Monitoring device and monitoring method
JP2012026816A (en) Dimension measuring method and device