JP7209755B2 - CALIBRATION METHOD, PROGRAM AND CALIBRATION DEVICE - Google Patents

CALIBRATION METHOD, PROGRAM AND CALIBRATION DEVICE Download PDF

Info

Publication number
JP7209755B2
JP7209755B2 JP2021020135A JP2021020135A JP7209755B2 JP 7209755 B2 JP7209755 B2 JP 7209755B2 JP 2021020135 A JP2021020135 A JP 2021020135A JP 2021020135 A JP2021020135 A JP 2021020135A JP 7209755 B2 JP7209755 B2 JP 7209755B2
Authority
JP
Japan
Prior art keywords
sensor
position information
measurement object
coordinate system
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021020135A
Other languages
Japanese (ja)
Other versions
JP2022122712A (en
Inventor
匠 藤田
瑞穂 竹内
成寿 亀尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2021020135A priority Critical patent/JP7209755B2/en
Publication of JP2022122712A publication Critical patent/JP2022122712A/en
Application granted granted Critical
Publication of JP7209755B2 publication Critical patent/JP7209755B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本開示は、キャリブレーション方法、プログラム、及びキャリブレーション装置に関する。 The present disclosure relates to calibration methods, programs, and calibration devices.

移動体には、周囲を検出するセンサが備えられる場合がある。特許文献1には、車両に設けられた各センサのキャリブレーションを実行する旨が記載されている。特許文献1には、センサが地面を走査する走査線の交点に、反射板が設けられたランドマークを設置し、それぞれのセンサに走査線の交点の位置を検出させる旨が記載されている。特許文献1においては、それぞれのセンサの座標系における走査線の交点の位置に基づき、センサのキャリブレーションを行っている。 A moving object may be equipped with a sensor that detects its surroundings. Japanese Patent Laid-Open No. 2002-200000 describes that each sensor provided in a vehicle is calibrated. Patent Literature 1 describes that landmarks provided with reflectors are installed at the intersections of scanning lines with which the sensors scan the ground, and each sensor detects the position of the intersection of the scanning lines. In Patent Document 1, sensor calibration is performed based on the position of the intersection of scanning lines in the coordinate system of each sensor.

特開2020-064011号公報Japanese Patent Application Laid-Open No. 2020-064011

しかし、特許文献1においては、走査線の交点の位置を特定するための専用の機器を用いて、走査線の交点の位置を特定する作業を実行する必要があり、作業者の負荷が高くなる。そのため、移動体に設けられた複数のセンサをキャリブレーションする際に、作業者の負荷を低減することが求められている。 However, in Patent Document 1, it is necessary to perform the work of specifying the position of the intersection of the scanning lines using a dedicated device for specifying the position of the intersection of the scanning lines, which increases the burden on the operator. . Therefore, when calibrating a plurality of sensors provided on a moving body, it is required to reduce the burden on the operator.

本開示は、上述した課題を解決するものであり、作業者の負荷を低減可能なキャリブレーション方法、プログラム、及びキャリブレーション装置を提供することを目的とする。 An object of the present disclosure is to solve the problems described above, and to provide a calibration method, a program, and a calibration device that can reduce the burden on workers.

上述した課題を解決し、目的を達成するために、本開示に係るキャリブレーション方法は、移動体に備えられて周囲を検出する複数のセンサのキャリブレーション方法であって、前記複数のセンサのうちの少なくとも2つのセンサに、同じ測定対象物の位置情報を検出させるステップと、前記同じ測定対象物の位置情報に基づき、前記センサ同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するステップと、前記移動体の設計情報に基づき、前記移動体の基準位置に対する、前記複数のセンサのうちの基準となるセンサである基準センサの位置及び姿勢の情報である基準センサ位置情報を取得するステップと、前記センサ間位置情報及び前記基準センサ位置情報に基づき、前記移動体の基準位置に対する、それぞれの前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するステップと、を含む。 In order to solve the above-described problems and achieve the object, a calibration method according to the present disclosure is a method for calibrating a plurality of sensors provided in a moving body for detecting the surroundings, and obtaining inter-sensor position information, which is information on the relative positions and relative orientations of the sensors, based on the position information of the same measurement object. and acquiring reference sensor position information, which is information on the position and orientation of a reference sensor, which is a reference sensor among the plurality of sensors, with respect to the reference position of the moving body, based on the design information of the moving body. and acquiring sensor position information, which is information on the position and orientation of each of the sensors with respect to the reference position of the moving object, based on the inter-sensor position information and the reference sensor position information.

上述した課題を解決し、目的を達成するために、本開示に係るプログラムは、移動体に備えられて周囲を検出する複数のセンサのキャリブレーション方法をコンピュータに実行させるプログラムであって、前記複数のセンサのうちの少なくとも2つのセンサに、同じ測定対象物の位置情報を検出させるステップと、前記同じ測定対象物の位置情報に基づき、前記センサ同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するステップと、前記移動体の設計情報に基づき、前記移動体の基準位置に対する、前記複数のセンサのうちの基準となるセンサである基準センサの位置及び姿勢の情報である基準センサ位置情報を取得するステップと、前記センサ間位置情報及び前記基準センサ位置情報に基づき、前記移動体の基準位置に対する、それぞれの前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するステップと、を、コンピュータに実行させる。 In order to solve the above-described problems and achieve an object, a program according to the present disclosure is a program for causing a computer to execute a calibration method for a plurality of sensors provided in a mobile body for detecting the surroundings, the program comprising: a step of causing at least two of the sensors to detect the position information of the same measurement object; a step of acquiring position information; and a reference sensor that is position and orientation information of a reference sensor that is a reference sensor among the plurality of sensors with respect to a reference position of the moving body based on the design information of the moving body. a step of acquiring position information; and a step of acquiring sensor position information, which is information on the position and orientation of each of the sensors with respect to the reference position of the moving object, based on the inter-sensor position information and the reference sensor position information. , is executed by the computer.

上述した課題を解決し、目的を達成するために、本開示に係るキャリブレーション装置は、移動体に備えられて周囲を検出する複数のセンサのキャリブレーション装置であって、前記複数のセンサのうちの少なくとも2つのセンサに、同じ測定対象物の位置情報を検出させる測定対象物位置取得部と、前記同じ測定対象物の位置情報に基づき、前記センサ同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するセンサ間位置情報取得部と、前記移動体の設計情報に基づき、前記移動体の基準位置に対する、前記複数のセンサのうちの基準となるセンサである基準センサの位置及び姿勢の情報である基準センサ位置情報を取得する基準センサ位置情報取得部と、前記センサ間位置情報及び前記基準センサ位置情報に基づき、前記移動体の基準位置に対する、それぞれの前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するセンサ位置情報取得部と、を含む。 In order to solve the above-described problems and achieve the object, a calibration device according to the present disclosure is a calibration device for a plurality of sensors provided in a moving body for detecting the surroundings, wherein among the plurality of sensors, A measurement object position acquisition unit that causes at least two sensors of the above to detect the position information of the same measurement object, and a sensor that is information on the relative position and relative orientation of the sensors based on the position information of the same measurement object an inter-sensor position information acquisition unit that acquires inter-position information; and a position and orientation of a reference sensor, which is a reference sensor among the plurality of sensors, with respect to a reference position of the moving body based on design information of the moving body. a reference sensor position information acquisition unit that acquires reference sensor position information that is information of the position and orientation of each of the sensors with respect to the reference position of the moving object based on the inter-sensor position information and the reference sensor position information; a sensor position information acquisition unit that acquires sensor position information, which is information.

上述した課題を解決し、目的を達成するために、本開示に係るキャリブレーション方法は、移動体に備えられて周囲を検出するセンサのキャリブレーション方法であって、治具の基準位置に対して、前記移動体の基準位置の位置及び姿勢を固定させるステップと、前記センサに、前記治具の基準位置に対する位置及び姿勢が既知である測定対象物の位置情報を検出させるステップと、前記測定対象物の位置情報の検出結果と、前記移動体の基準位置に対する前記測定対象物の位置情報とに基づき、前記移動体の基準位置に対する、前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するステップと、を含む。 In order to solve the above-described problems and achieve the object, a calibration method according to the present disclosure is a method of calibrating a sensor that is provided in a moving body and detects the surroundings. fixing the position and orientation of the reference position of the moving body; causing the sensor to detect position information of an object to be measured whose position and orientation with respect to the reference position of the jig are known; Obtaining sensor position information, which is information on the position and orientation of the sensor with respect to the reference position of the moving body, based on the detection result of the position information of the object and the position information of the measurement object with respect to the reference position of the moving body. and

本開示によれば、作業者の負荷を低減できる。 According to the present disclosure, the burden on workers can be reduced.

図1は、本実施形態に係る移動体の模式図である。FIG. 1 is a schematic diagram of a moving body according to the present embodiment. 図2は、移動体のセンサの検出範囲を説明する模式図である。FIG. 2 is a schematic diagram explaining the detection range of the sensor of the moving object. 図3は、本実施形態に係るキャリブレーション装置の模式的なブロック図である。FIG. 3 is a schematic block diagram of the calibration device according to this embodiment. 図4は、測定対象物の位置情報の検出を説明する模式図である。FIG. 4 is a schematic diagram for explaining detection of position information of a measurement object. 図5は、センサ間位置情報の算出を説明するための模式図である。FIG. 5 is a schematic diagram for explaining calculation of inter-sensor position information. 図6は、基準センサ位置情報を説明するための模式図である。FIG. 6 is a schematic diagram for explaining reference sensor position information. 図7は、第2パスを説明する模式図である。FIG. 7 is a schematic diagram for explaining the second pass. 図8は、本実施形態に係るキャリブレーション処理のフローを説明するフローチャートである。FIG. 8 is a flowchart for explaining the flow of calibration processing according to this embodiment. 図9は、基準センサ位置情報の算出の他の例を説明する模式図である。FIG. 9 is a schematic diagram illustrating another example of calculation of reference sensor position information. 図10は、基準センサ位置情報の算出の他の例を説明する模式図である。FIG. 10 is a schematic diagram illustrating another example of calculation of reference sensor position information. 図11は、測定対象物の形状例を説明する図である。FIG. 11 is a diagram for explaining an example of the shape of the object to be measured. 図12は、測定対象物の検出方法を説明する模式図である。12A and 12B are schematic diagrams for explaining a method of detecting a measurement object. 図13は、測定対象物位置情報の算出方法を説明する図である。13A and 13B are diagrams for explaining a method of calculating the measurement object position information. 図14は、一方のセンサの座標系から他方のセンサの座標系に変換するための変換量の算出を説明するための図である。FIG. 14 is a diagram for explaining calculation of a conversion amount for converting from the coordinate system of one sensor to the coordinate system of the other sensor. 図15は、変換量の算出の他の例を説明するための図である。FIG. 15 is a diagram for explaining another example of conversion amount calculation. 図16は、センサ間位置情報の算出を説明するための模式図である。FIG. 16 is a schematic diagram for explaining calculation of inter-sensor position information. 図17は、点群の選択方法を説明するための模式図である。FIG. 17 is a schematic diagram for explaining a point group selection method. 図18は、第4実施形態における点群の選択方法を説明するフローチャートである。FIG. 18 is a flowchart for explaining a point group selection method according to the fourth embodiment. 図19は、第5実施形態に係る治具の模式図である。FIG. 19 is a schematic diagram of a jig according to the fifth embodiment. 図20は、第5実施形態に係るキャリブレーション処理のフローを説明するフローチャートである。FIG. 20 is a flowchart for explaining the flow of calibration processing according to the fifth embodiment.

以下に添付図面を参照して、本発明の好適な実施形態を詳細に説明する。なお、この実施形態により本発明が限定されるものではなく、また、実施形態が複数ある場合には、各実施形態を組み合わせて構成するものも含むものである。 Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. It should be noted that the present invention is not limited by this embodiment, and when there are a plurality of embodiments, the present invention includes a combination of each embodiment.

(第1実施形態)
(移動体)
図1は、本実施形態に係る移動体の模式図である。本実施形態においては、移動体10は、自動で移動可能な装置である。より詳しくは、移動体10は、フォークリフトであり、さらにいえば、いわゆるAGF(Automated Guided Forklift)である。ただし、移動体10は、移動可能な任意の装置であってよく、フォークリフトであることに限られない。また、移動体10は、自動で移動する装置に限られず、ユーザの運転によって移動する装置であってもよい。
(First embodiment)
(moving body)
FIG. 1 is a schematic diagram of a moving body according to the present embodiment. In this embodiment, the moving body 10 is an automatically movable device. More specifically, the moving body 10 is a forklift, more specifically, a so-called AGF (Automated Guided Forklift). However, the moving body 10 may be any movable device, and is not limited to a forklift. Further, the moving body 10 is not limited to a device that moves automatically, and may be a device that moves by being driven by the user.

(移動体の構成)
図1に示すように、移動体10は、車体20と、マスト22と、フォーク24と、複数のセンサ26と、制御装置28とを備えている。車体20は、車輪20Aを備えている。マスト22は、車体20の前後方向における一方の端部に設けられている。マスト22は、前後方向に直交する上下方向に沿って延在する。フォーク24は、マスト22に方向Zに移動可能に取付けられている。フォーク24は、マスト22に対して、車体20の横方向(上下方向及び前後方向に交差する方向)にも移動可能であってよい。フォーク24は、一対のツメ24A、24Bを有している。ツメ24A、24Bは、マスト22から車体20の前方向に向けて延在している。ツメ24Aとツメ24Bとは、マスト22の横方向に、互いに離れて配置されている。以下、前後方向のうち、移動体10においてフォーク24が設けられている側の方向を、前方向とし、フォーク24が設けられていない側の方向を、後方向とする。
(Composition of moving body)
As shown in FIG. 1, the moving body 10 includes a vehicle body 20, a mast 22, a fork 24, a plurality of sensors 26, and a control device 28. The vehicle body 20 has wheels 20A. The mast 22 is provided at one end of the vehicle body 20 in the front-rear direction. The mast 22 extends along the vertical direction orthogonal to the front-rear direction. A fork 24 is mounted movably in the direction Z on the mast 22 . The fork 24 may also be movable with respect to the mast 22 in the lateral direction of the vehicle body 20 (the direction intersecting the vertical direction and the front-rear direction). The fork 24 has a pair of claws 24A, 24B. The claws 24A and 24B extend from the mast 22 toward the front of the vehicle body 20. As shown in FIG. The claws 24A and 24B are spaced apart from each other in the lateral direction of the mast 22. As shown in FIG. Hereinafter, among the front-to-rear directions, the direction on which the fork 24 is provided in the moving body 10 is referred to as the forward direction, and the direction on which the fork 24 is not provided is referred to as the rearward direction.

制御装置28は、移動体10の移動を制御する。制御装置28は、コンピュータであり、例えば図示しない記憶部と制御部とを含む。制御装置28の制御部は、演算装置、すなわちCPU(Central Processing Unit)であり、記憶部からプログラム(ソフトウェア)を読み出して実行することで、処理を実行する。制御部の処理としては、例えば移動体10を自動で移動させる処理などがある。 The control device 28 controls movement of the moving body 10 . The control device 28 is a computer and includes, for example, a storage section and a control section (not shown). A control unit of the control device 28 is an arithmetic unit, that is, a CPU (Central Processing Unit), and executes processing by reading and executing a program (software) from a storage unit. The processing of the control unit includes, for example, processing for automatically moving the moving body 10 .

(センサ)
センサ26は、車体20の周辺に存在する対象物の位置及び姿勢の少なくとも1つを検出する。センサ26は、移動体10に対する対象物の位置と、移動体10に対する対象物の姿勢とを検出するともいえる。本実施形態では、センサ26は、マスト22と、車体20の四隅とに、すなわち車体20の前方向側の左右の端部と後方向側の左右の端部とに、設けられている。すなわち、本実施形態では、センサ26として、センサ26A、26B、26C、26Dの4つが設けられている。センサ26A、26Bは、フォーク24と対向する支持部25の先端に設けられ、センサ26C、26Dは、車体20の後方向側に設けられる。ただし、センサ26の設けられる位置はこれに限られず、任意の位置に設けられてもよい。また、センサ26の数も4つに限られず、任意であってよい。また例えば、移動体10に設けられる安全センサを、センサ26として流用してもよい。安全センサを流用することで、新たにセンサを設ける必要がなくなる。
(sensor)
The sensor 26 detects at least one of the position and orientation of an object existing around the vehicle body 20 . It can also be said that the sensor 26 detects the position of the object with respect to the moving body 10 and the posture of the object with respect to the moving body 10 . In this embodiment, the sensors 26 are provided at the mast 22 and the four corners of the vehicle body 20 , that is, at the left and right ends of the vehicle body 20 in the front direction and the left and right ends of the vehicle body 20 in the rear direction. That is, four sensors 26A, 26B, 26C, and 26D are provided as the sensors 26 in this embodiment. The sensors 26A, 26B are provided at the tip of the support portion 25 facing the fork 24, and the sensors 26C, 26D are provided on the rearward side of the vehicle body 20. As shown in FIG. However, the position where the sensor 26 is provided is not limited to this, and may be provided at any position. Also, the number of sensors 26 is not limited to four, and may be arbitrary. Further, for example, a safety sensor provided on the moving body 10 may be used as the sensor 26 . Diversion of the safety sensor eliminates the need to provide a new sensor.

図2は、移動体のセンサの検出範囲を説明する模式図である。図2に示すように、以下、鉛直方向の上方を方向Zとし、方向Zに直交する一方向を方向Xとし、方向X及び方向Zに直交する一方向を方向Yとする。本実施形態においては、移動体10が走行する床面は、方向X及び方向Yに沿っていることが好ましい。なお、本実施形態における「位置」とは、特に断りが無い限り、Z方向に直交する平面上における位置(座標)を指し、「姿勢」とは、Z方向に直交する平面の面内における姿勢(Z方向から対象を見た場合の対象の向き)を指す。 FIG. 2 is a schematic diagram explaining the detection range of the sensor of the moving object. As shown in FIG. 2, hereinafter, the upward direction in the vertical direction is defined as a direction Z, one direction orthogonal to the direction Z is defined as a direction X, and one direction orthogonal to the directions X and Z is defined as a direction Y. As shown in FIG. In the present embodiment, it is preferable that the floor surface on which the moving body 10 travels extends along the X direction and the Y direction. In this embodiment, unless otherwise specified, "position" refers to a position (coordinates) on a plane perpendicular to the Z direction, and "attitude" refers to an orientation in the plane perpendicular to the Z direction. (orientation of the object when the object is viewed from the Z direction).

センサ26は、周囲の対象物からの反射光を検出(受光)することで、対象物の位置及び姿勢を検出する。さらに言えば、センサ26は、レーザ光を照射するセンサである。センサ26は、照射したレーザ光の反射光を検出することで、対象物の位置及び姿勢を検出する。センサ26は、一方向に走査しつつレーザ光を照射し、照射したレーザ光の反射光から、対象物の位置及び姿勢を検出する。すなわち、センサ26は、いわゆる2D-LiDAR(Light Detection And Ranging)であるともいえる。本実施形態では、センサ26は、水平方向に、すなわち方向Zに直交する方向に、レーザ光を走査する。また、本実施形態では、それぞれのセンサ26は、光軸がZ方向に直交する平面に沿うように、すなわちセンサ26が鉛直方向の上方や下方を向かずに水平方向を向くように、移動体10に取り付けられていることが好ましい。言い換えれば、センサ26の鉛直軸と、移動体10の鉛直軸とが、同じ向きとなっていることが好ましい。 The sensor 26 detects the position and orientation of the object by detecting (receiving) reflected light from surrounding objects. Furthermore, the sensor 26 is a sensor that emits laser light. The sensor 26 detects the position and orientation of the object by detecting the reflected light of the irradiated laser beam. The sensor 26 emits laser light while scanning in one direction, and detects the position and orientation of the object from the reflected light of the emitted laser light. That is, it can be said that the sensor 26 is a so-called 2D-LiDAR (Light Detection And Ranging). In this embodiment, the sensor 26 scans the laser beam horizontally, ie in a direction perpendicular to the Z direction. In the present embodiment, each sensor 26 is arranged so that its optical axis lies along a plane orthogonal to the Z direction, that is, the sensor 26 faces the horizontal direction instead of facing vertically upward or downward. 10 is preferably attached. In other words, it is preferable that the vertical axis of the sensor 26 and the vertical axis of the moving body 10 are oriented in the same direction.

本実施形態では、隣り合うセンサ26の検出範囲が重複する。検出範囲とは、センサ26がレーザ光を照射可能な範囲を指し、言い換えれば、対象物の位置及び姿勢を検出可能な範囲を指す。すなわち、センサ26は、検出範囲内の対象物から反射された反射光を受光して、対象物の位置及び姿勢を検出可能である。図2の例では、センサ26Aの検出範囲CRAとセンサ26Bの検出範囲CRBとが一部で重複しており、センサ26Bの検出範囲CRBとセンサ26Cの検出範囲CRCとが一部で重複しており、センサ26Cの検出範囲CRCとセンサ26Dの検出範囲CRDとが一部で重複しており、センサ26Dの検出範囲CRDとセンサ26Aの検出範囲CRAとが一部で重複している。検出範囲CRAと検出範囲CRBとが重なる領域においては、センサ26A、26Bの両方が、対象物の位置及び姿勢を検出可能であり、検出範囲CRBと検出範囲CRCとが重なる領域においては、センサ26B、26Cの両方が、対象物の位置及び姿勢を検出可能であり、検出範囲CRCと検出範囲CRDとが重なる領域においては、センサ26C、26Dの両方が、対象物の位置及び姿勢を検出可能であり、検出範囲CRDと検出範囲CRAとが重なる領域においては、センサ26D、26Aの両方が、対象物の位置及び姿勢を検出可能である。なお、図2の例では、隣り合う2つのセンサ26の検出範囲のみが重複していたが、3つ以上のセンサ26の検出範囲が重複してもよい。 In this embodiment, the detection ranges of adjacent sensors 26 overlap. The detection range refers to the range in which the sensor 26 can irradiate laser light, in other words, the range in which the position and orientation of the target object can be detected. That is, the sensor 26 can detect the position and orientation of the object by receiving reflected light reflected from the object within the detection range. In the example of FIG. 2, the detection range CRA of the sensor 26A and the detection range CRB of the sensor 26B partially overlap, and the detection range CRB of the sensor 26B and the detection range CRC of the sensor 26C partially overlap. The detection range CRC of the sensor 26C and the detection range CRD of the sensor 26D partially overlap, and the detection range CRD of the sensor 26D and the detection range CRA of the sensor 26A partially overlap. Both the sensors 26A and 26B are capable of detecting the position and orientation of the object in the region where the detection range CRA and the detection range CRB overlap. , 26C can detect the position and orientation of the object, and in the region where the detection range CRC and the detection range CRD overlap, both the sensors 26C and 26D can detect the position and orientation of the object. Yes, and in a region where the detection range CRD and the detection range CRA overlap, both the sensors 26D and 26A can detect the position and orientation of the object. In the example of FIG. 2, only the detection ranges of two adjacent sensors 26 overlap, but the detection ranges of three or more sensors 26 may overlap.

また、本実施形態では、全てのセンサ26の検出範囲を合わせると、移動体10の周囲の全域が検出可能となっていることが好ましい。すなわち例えば、Z方向から見て移動体10の中心から径方向外側に所定距離離れた位置にある円周CIは、全区間に亘って、少なくとも1つのセンサ26の検出範囲内にあることが好ましい。 In addition, in this embodiment, it is preferable that the detection range of all the sensors 26 is combined so that the entire area around the moving body 10 can be detected. That is, for example, it is preferable that the circumference CI at a position radially outwardly spaced from the center of the moving body 10 by a predetermined distance when viewed in the Z direction is within the detection range of at least one sensor 26 over the entire section. .

なお、センサ26は、以上のものに限られず任意の方法で対象物を検出するセンサであってよく、例えば、複数の方向に走査されるいわゆる3D-LiDARであってもよいし、カメラであってもよい。 Note that the sensor 26 is not limited to the above, and may be a sensor that detects an object by any method. For example, it may be a so-called 3D-LiDAR that scans in multiple directions, or it may be a camera. may

(キャリブレーション装置)
本実施形態に係るキャリブレーション装置30は、以上のような移動体10に設けられるセンサ26のキャリブレーションを実行する装置である。すなわち、キャリブレーション装置30は、本実施形態に係るキャリブレーション方法を実行する装置である。センサ26のキャリブレーションとは、移動体10の基準位置Pに対する移動体10に搭載されたセンサ26の位置及び姿勢(基準位置Pとセンサ26との相対位置及び相対姿勢)を算出して、センサ26の座標系を移動体10の基準位置Pの座標系に合わせる処理である。例えば、図2の例では、移動体10の座標系において、基準位置Pの座標と基準方向AXPとが、予め設定されている。図2の例では、基準位置Pは、フォーク24A、24Bの間の位置であるが、移動体10の任意の位置であってもよい。図2の例では、基準方向AXPは、移動体10の進行方向であるが、移動体10に対して任意の方向であってもよい。以下、センサ26Aの位置を位置PAとし、センサ26Aの向いている方向を方向AXAとし、センサ26Bの位置を位置PBとし、センサ26Bの向いている方向を方向AXBとし、センサ26Cの位置を位置PCとし、センサ26Cの向いている方向を方向AXCとし、センサ26Dの位置を位置PDとし、センサ26Dの向いている方向を方向AXDとする。なお、それぞれのセンサ26の向いている方向は、図2の例では、Z方向から見て検出範囲の中央の線に沿った方向であるが、それに限られない。
(Calibration device)
The calibration device 30 according to this embodiment is a device that performs calibration of the sensor 26 provided on the moving body 10 as described above. That is, the calibration device 30 is a device that executes the calibration method according to this embodiment. The calibration of the sensor 26 is to calculate the position and orientation of the sensor 26 mounted on the mobile body 10 with respect to the reference position P of the mobile body 10 (relative position and relative orientation between the reference position P and the sensor 26), 26 is aligned with the coordinate system of the reference position P of the moving body 10. FIG. For example, in the example of FIG. 2, the coordinates of the reference position P and the reference direction AXP are set in advance in the coordinate system of the moving body 10 . In the example of FIG. 2, the reference position P is a position between the forks 24A and 24B, but may be any position on the moving body 10. FIG. In the example of FIG. 2, the reference direction AXP is the traveling direction of the moving body 10, but may be any direction with respect to the moving body 10. FIG. Hereinafter, the position of the sensor 26A is defined as a position PA, the direction in which the sensor 26A is facing is defined as a direction AXA, the position of the sensor 26B is defined as a position PB, the direction in which the sensor 26B is facing is defined as a direction AXB, and the position of the sensor 26C is defined as a position Let PC be the direction in which the sensor 26C faces, direction AXC be the direction in which the sensor 26C is facing, position PD be the position of the sensor 26D, and direction AXD be the direction in which the sensor 26D is facing. In the example of FIG. 2, the direction in which each sensor 26 faces is the direction along the central line of the detection range when viewed from the Z direction, but it is not limited thereto.

キャリブレーション装置30は、キャリブレーションを実行して、基準位置Pの座標に対するセンサ26Aの位置PAの座標(移動体10の座標系における位置PAの座標)を、基準位置Pに対するセンサ26Aの位置として算出し、基準方向AXPに対するセンサ26Aの向いている方向AXA(移動体10の座標系における方向AXAの向き)を、基準位置Pに対するセンサ26Aの姿勢として算出する。同様に、キャリブレーション装置30は、基準位置Pの座標に対するセンサ26Bの位置PBの座標(移動体10の座標系における位置PBの座標)を、基準位置Pに対するセンサ26Bの位置として算出し、基準方向AXPに対するセンサ26Bの向いている方向AXB(移動体10の座標系における方向AXBの向き)を、基準位置Pに対するセンサ26Bの姿勢として算出する。また、キャリブレーション装置30は、基準位置Pの座標に対するセンサ26Cの位置PCの座標(移動体10の座標系における位置PCの座標)を、基準位置Pに対するセンサ26Cの位置として算出し、基準方向AXPに対するセンサ26Cの向いている方向AXC(移動体10の座標系における方向AXCの向き)を、基準位置Pに対するセンサ26Cの姿勢として算出する。また、キャリブレーション装置30は、基準位置Pの座標に対するセンサ26Dの位置PDの座標(移動体10の座標系における位置PDの座標)を、基準位置Pに対するセンサ26Dの位置として算出し、基準方向AXPに対するセンサ26Dの向いている方向AXD(移動体10の座標系における方向AXDの向き)を、基準位置Pに対するセンサ26Dの姿勢として算出する。 The calibration device 30 performs calibration to convert the coordinates of the position PA of the sensor 26A with respect to the coordinates of the reference position P (coordinates of the position PA in the coordinate system of the moving body 10) to the position of the sensor 26A with respect to the reference position P. Then, the direction AXA in which the sensor 26A faces with respect to the reference direction AXP (orientation of the direction AXA in the coordinate system of the moving body 10) is calculated as the attitude of the sensor 26A with respect to the reference position P. Similarly, the calibration device 30 calculates the coordinates of the position PB of the sensor 26B with respect to the coordinates of the reference position P (coordinates of the position PB in the coordinate system of the moving body 10) as the position of the sensor 26B with respect to the reference position P, A direction AXB in which the sensor 26B faces with respect to the direction AXP (orientation of the direction AXB in the coordinate system of the moving body 10) is calculated as the attitude of the sensor 26B with respect to the reference position P. Further, the calibration device 30 calculates the coordinates of the position PC of the sensor 26C with respect to the coordinates of the reference position P (coordinates of the position PC in the coordinate system of the moving body 10) as the position of the sensor 26C with respect to the reference position P, A direction AXC in which the sensor 26C faces with respect to AXP (a direction of the direction AXC in the coordinate system of the moving body 10) is calculated as an orientation of the sensor 26C with respect to the reference position P. FIG. Further, the calibration device 30 calculates the coordinates of the position PD of the sensor 26D with respect to the coordinates of the reference position P (the coordinates of the position PD in the coordinate system of the moving body 10) as the position of the sensor 26D with respect to the reference position P, and calculates the position of the sensor 26D with respect to the reference direction. A direction AXD in which the sensor 26D is facing with respect to AXP (orientation of the direction AXD in the coordinate system of the moving body 10) is calculated as the orientation of the sensor 26D with respect to the reference position P.

(キャリブレーション装置の構成)
図3は、本実施形態に係るキャリブレーション装置の模式的なブロック図である。キャリブレーション装置30は、コンピュータであり、図3に示すように、記憶部32と通信部34と制御部36とを含む。記憶部32は、制御部36の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。記憶部32が保存する制御部36用のプログラムは、キャリブレーション装置30が読み取り可能な記録媒体に記憶されていてもよい。通信部34は、制御部36に用いられて、移動体10などの外部の装置と通信するモジュールであり、例えばアンテナなどを含んでよい。通信部34による通信方式は、本実施形態では無線通信であるが、通信方式は任意であってよい。なお、キャリブレーション装置30は、ユーザの入力を受け付ける入力部や、情報を出力する出力部を備えていてもよい。入力部としては、例えばタッチパネルやキーボード、マウスなどが挙げられ、出力部としては、例えば画像を表示するディスプレイが挙げられる。
(Configuration of calibration device)
FIG. 3 is a schematic block diagram of the calibration device according to this embodiment. The calibration device 30 is a computer, and includes a storage section 32, a communication section 34, and a control section 36, as shown in FIG. The storage unit 32 is a memory that stores various kinds of information such as calculation contents and programs of the control unit 36, and includes, for example, a main storage device such as a RAM (Random Access Memory), a ROM (Read Only Memory), At least one of an external storage device such as an HDD (Hard Disk Drive) is included. The program for the control unit 36 stored in the storage unit 32 may be stored in a recording medium readable by the calibration device 30 . The communication unit 34 is a module that is used by the control unit 36 to communicate with an external device such as the mobile unit 10, and may include an antenna, for example. The communication method by the communication unit 34 is wireless communication in this embodiment, but any communication method may be used. Note that the calibration device 30 may include an input unit that receives user input and an output unit that outputs information. Examples of the input unit include a touch panel, a keyboard, and a mouse, and examples of the output unit include a display for displaying images.

制御部36は、演算装置、すなわちCPUである。制御部36は、測定対象物位置取得部40と、センサ間位置情報取得部42と、基準センサ位置情報取得部44と、センサ位置情報取得部46とを含む。制御部36は、記憶部32からプログラム(ソフトウェア)を読み出して実行することで、測定対象物位置取得部40とセンサ間位置情報取得部42と基準センサ位置情報取得部44とセンサ位置情報取得部46とを実現して、それらの処理を実行する。なお、制御部36は、1つのCPUによってこれらの処理を実行してもよいし、複数のCPUを備えて、それらの複数のCPUで、処理を実行してもよい。また、測定対象物位置取得部40とセンサ間位置情報取得部42と基準センサ位置情報取得部44とセンサ位置情報取得部46の少なくとも一部を、ハードウェアで実現してもよい。 The control unit 36 is an arithmetic unit, that is, a CPU. The control unit 36 includes a measurement object position acquisition unit 40 , an inter-sensor position information acquisition unit 42 , a reference sensor position information acquisition unit 44 , and a sensor position information acquisition unit 46 . The control unit 36 reads out and executes a program (software) from the storage unit 32 to obtain a measurement object position acquisition unit 40, an inter-sensor position information acquisition unit 42, a reference sensor position information acquisition unit 44, and a sensor position information acquisition unit. 46 and perform those processes. Note that the control unit 36 may execute these processes by one CPU, or may be provided with a plurality of CPUs and may execute the processes by the plurality of CPUs. Moreover, at least a part of the measurement object position acquisition unit 40, the inter-sensor position information acquisition unit 42, the reference sensor position information acquisition unit 44, and the sensor position information acquisition unit 46 may be realized by hardware.

(測定対象物位置取得部)
測定対象物位置取得部40は、センサ26に測定対象物Bの位置情報を検出させる。より詳しくは、測定対象物位置取得部40は、センサ26から測定対象物Bの表面Baへレーザ光を照射させて、センサ26に、その測定対象物Bの表面Baからのレーザ光の反射光を受光させる。測定対象物位置取得部40は、センサ26が受光した測定対象物Bからのレーザ光の反射光の情報に基づき、測定対象物Bの位置情報を算出する。測定対象物Bの位置情報とは、その測定対象物Bの位置情報を検出したセンサ26に対する、測定対象物Bの位置(センサ26の座標系における測定対象物Bの座標)の情報を指す。測定対象物Bの位置情報は、センサ26に対する測定対象物Bの姿勢の情報も含んでいてもよい。以下、測定対象物Bの位置情報を、適宜、測定対象物位置情報と記載する。なお、測定対象物Bとは、キャリブレーションを行うために用いられる部材である。
(Measurement object position acquisition unit)
The measurement object position acquisition unit 40 causes the sensor 26 to detect the position information of the measurement object B. FIG. More specifically, the measurement object position acquisition unit 40 causes the sensor 26 to irradiate the surface Ba of the measurement object B with laser light, and the sensor 26 receives the reflected light of the laser light from the surface Ba of the measurement object B. is received. The measurement object position acquisition unit 40 calculates the position information of the measurement object B based on the information of the reflected light of the laser beam from the measurement object B received by the sensor 26 . The position information of the measurement object B refers to information of the position of the measurement object B (coordinates of the measurement object B in the coordinate system of the sensor 26) with respect to the sensor 26 that detected the position information of the measurement object B. The position information of the measurement object B may also include information on the attitude of the measurement object B with respect to the sensor 26 . Hereinafter, the position information of the measurement object B will be referred to as measurement object position information as appropriate. Note that the measurement object B is a member used for calibration.

測定対象物位置取得部40は、複数のセンサ26のうちの少なくとも2つのセンサ26に、同じ測定対象物Bの位置情報を検出させる。以下、具体的に説明する。 The measurement object position acquisition unit 40 causes at least two sensors 26 out of the plurality of sensors 26 to detect the position information of the same measurement object B. FIG. A specific description will be given below.

図4は、測定対象物の位置情報の検出を説明する模式図である。図4に示すように、測定対象物位置取得部40は、移動体10の近傍に測定対象物Bが配置された状態で、センサ26に、測定対象物位置情報を検出させる。より詳しくは、測定対象物位置取得部40は、測定対象物Bが隣り合うセンサ26の検出範囲同士が重複する領域に配置された状態で、センサ26に測定対象物位置情報を検出させる。図4の例では、センサ26Aとセンサ26Bの検出範囲が重複する位置に、測定対象物B1が配置され、センサ26Bとセンサ26Cの検出範囲が重複する位置に、測定対象物B2が配置され、センサ26Cとセンサ26Dの検出範囲が重複する位置に、測定対象物B3が配置されている。 FIG. 4 is a schematic diagram for explaining detection of position information of a measurement object. As shown in FIG. 4 , the measurement object position acquisition unit 40 causes the sensor 26 to detect the measurement object position information while the measurement object B is placed near the moving body 10 . More specifically, the measurement object position acquiring unit 40 causes the sensors 26 to detect the measurement object position information in a state where the measurement object B is arranged in an area where the detection ranges of the adjacent sensors 26 overlap. In the example of FIG. 4, the measurement object B1 is arranged at a position where the detection ranges of the sensors 26A and 26B overlap, and the measurement object B2 is arranged at a position where the detection ranges of the sensors 26B and 26C overlap, A measuring object B3 is arranged at a position where the detection ranges of the sensors 26C and 26D overlap.

測定対象物位置取得部40は、複数のセンサ26のうちの少なくとも2つのセンサ26に、同じ測定対象物Bの検出を行わせる。すなわち、測定対象物位置取得部40は、複数のセンサ26のうちの少なくとも2つのセンサ26に、同じ測定対象物Bへレーザ光Lを照射させて、その測定対象物Bからのレーザ光Lの反射光を受光させることで、同じ測定対象物Bの測定対象物位置情報を取得する。本実施形態の例では、測定対象物位置取得部40は、2つのセンサ26に、同じ測定対象物Bの検出を行わせる。すなわち、測定対象物位置取得部40は、一方のセンサ26に検出させた測定対象物Bの測定対象物位置情報と、他方のセンサ26に検出させた同じ測定対象物Bの測定対象物位置情報とを取得する。図4の例では、測定対象物位置取得部40は、センサ26Aとセンサ26Bに、測定対象物B1に対してレーザ光Lを照射させて、測定対象物B1からのレーザ光Lの反射光を受光させることで、測定対象物B1の測定対象物位置情報を取得する。測定対象物位置取得部40は、測定対象物B1についての測定対象物位置情報として、センサ26Aが検出したセンサ26Aに対する測定対象物B1の位置情報と、センサ26Bが検出したセンサ26Bに対する測定対象物B1の位置情報(センサ26Bに対する測定対象物B1の位置)とを算出する。同様に、測定対象物位置取得部40は、センサ26Bとセンサ26Cに、測定対象物B2に対してレーザ光Lを照射させて、測定対象物B2からのレーザ光Lの反射光を受光させることで、測定対象物B2の測定対象物位置情報を取得する。測定対象物位置取得部40は、測定対象物B2についての測定対象物位置情報として、センサ26Bが検出したセンサ26Bに対する測定対象物B2の位置情報と、センサ26Cが検出したセンサ26Cに対する測定対象物B2の位置情報とを算出する。同様に、測定対象物位置取得部40は、センサ26Cとセンサ26Dに、測定対象物B3に対してレーザ光Lを照射させて、測定対象物B3からのレーザ光Lの反射光を受光させることで、同じ測定対象物B3の測定対象物位置情報を取得する。測定対象物位置取得部40は、測定対象物B3についての測定対象物位置情報として、センサ26Cが検出したセンサ26Cに対する測定対象物B3の位置情報と、センサ26Dが検出したセンサ26Dに対する測定対象物B3の位置情報とを算出する。 The measurement object position acquisition unit 40 causes at least two sensors 26 out of the plurality of sensors 26 to detect the same measurement object B. FIG. That is, the measurement object position acquisition unit 40 causes at least two sensors 26 out of the plurality of sensors 26 to irradiate the same measurement object B with the laser light L, and the laser light L from the measurement object B By receiving the reflected light, the measurement object position information of the same measurement object B is acquired. In the example of this embodiment, the measurement object position acquisition unit 40 causes the two sensors 26 to detect the same measurement object B. FIG. That is, the measurement object position acquisition unit 40 acquires the measurement object position information of the measurement object B detected by one sensor 26 and the measurement object position information of the same measurement object B detected by the other sensor 26. and get. In the example of FIG. 4, the measurement object position acquisition unit 40 causes the sensor 26A and the sensor 26B to irradiate the measurement object B1 with the laser light L, and obtains the reflected light of the laser light L from the measurement object B1. By receiving light, the measurement object position information of the measurement object B1 is acquired. The measurement object position acquisition unit 40 obtains the position information of the measurement object B1 with respect to the sensor 26A detected by the sensor 26A and the measurement object position information with respect to the sensor 26B detected by the sensor 26B as the measurement object position information about the measurement object B1. B1 position information (the position of the measurement object B1 with respect to the sensor 26B) is calculated. Similarly, the measurement object position acquisition unit 40 causes the sensors 26B and 26C to irradiate the measurement object B2 with the laser light L and receive the reflected light of the laser light L from the measurement object B2. , the measurement object position information of the measurement object B2 is acquired. The measurement object position acquisition unit 40 obtains the position information of the measurement object B2 with respect to the sensor 26B detected by the sensor 26B and the measurement object position information with respect to the sensor 26C detected by the sensor 26C as the measurement object position information of the measurement object B2. The position information of B2 is calculated. Similarly, the measurement object position acquisition unit 40 causes the sensors 26C and 26D to irradiate the measurement object B3 with the laser light L and receive the reflected light of the laser light L from the measurement object B3. , the measurement object position information of the same measurement object B3 is acquired. The measurement object position acquiring unit 40 obtains the position information of the measurement object B3 with respect to the sensor 26C detected by the sensor 26C and the measurement object B3 with respect to the sensor 26D detected by the sensor 26D as the measurement object position information of the measurement object B3. The position information of B3 is calculated.

このように、本実施形態では、センサ26A、26Bに測定対象物B1を検出させ、センサ26B、26Cに測定対象物B2を検出させるなど、一対のセンサ26毎に、異なる測定対象物Bを検出させているが、それに限られず、一対のセンサ26と、別の一対のセンサ26に、同じ測定対象物Bを検出させてもよい。また、本実施形態では、隣り合う2つのセンサ26に、同じ測定対象物Bを検出させたが、それに限られず、3つ以上のセンサ26に、同じ測定対象物Bを検出させてもよい。 Thus, in this embodiment, the sensors 26A and 26B are caused to detect the measurement object B1, and the sensors 26B and 26C are caused to detect the measurement object B2. However, it is not limited to this, and the same measurement object B may be detected by a pair of sensors 26 and another pair of sensors 26 . Also, in the present embodiment, two adjacent sensors 26 are caused to detect the same measurement object B, but the present invention is not limited to this, and three or more sensors 26 may be caused to detect the same measurement object B.

(センサ間位置情報取得部)
図5は、センサ間位置情報の算出を説明するための模式図である。センサ間位置情報取得部42は、同じ測定対象物Bの測定対象物位置情報に基づき、センサ26同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得する。センサ間位置情報取得部42は、同じ測定対象物Bの測定対象物位置情報に基づき、その測定対象物Bを検出したセンサ26同士のセンサ間位置情報を算出する。例えば、本実施形態の例では、センサ間位置情報取得部42は、測定対象物B1の測定対象物位置情報に基づき、言い換えればセンサ26Aが検出した測定対象物B1の位置情報と、センサ26Bが検出した測定対象物B1の位置情報とに基づき、センサ26Aとセンサ26Bとのセンサ間位置情報を算出する。センサ26Aとセンサ26Bとは、同じ測定対象物B1を検出しているため、センサ26Aが検出したセンサ26Aに対する測定対象物B1の位置と、センサ26Bが検出したセンサ26Bに対する測定対象物B1の位置とから、センサ26Aに対するセンサ26Bの位置及び姿勢が算出できる。センサ間位置情報取得部42は、センサ26Aとセンサ26Bとのセンサ間位置情報として、センサ26Aに対するセンサ26Bの位置及び姿勢(センサ26Aの座標系におけるセンサ26Bの位置及び姿勢)を算出する。さらに言えば、センサ間位置情報取得部42は、図5に示すように、センサ26Aとセンサ26Bとのセンサ間位置情報として、センサ26Bの座標系をセンサ26Aの座標系に変換するための変換量(tXB、tYB、θ)を算出する。なお、tXBが、センサ26Aの座標系に対するセンサ26Bの座標系のX軸方向の変位量、tYBが、センサ26Aの座標系に対するセンサ26Bの座標系のY軸方向の変位量であり、θが、センサ26Aの座標系に対するセンサ26Bの座標系の回転量である。
(Inter-sensor position information acquisition unit)
FIG. 5 is a schematic diagram for explaining calculation of inter-sensor position information. The inter-sensor position information acquisition unit 42 acquires inter-sensor position information, which is information on the relative positions and relative orientations of the sensors 26 based on the measurement object position information of the same measurement object B. FIG. The inter-sensor position information acquisition unit 42 calculates inter-sensor position information between the sensors 26 that have detected the same measurement object B based on the measurement object position information of the same measurement object B. FIG. For example, in the example of the present embodiment, the inter-sensor position information acquisition unit 42 is based on the measurement object position information of the measurement object B1, in other words, the position information of the measurement object B1 detected by the sensor 26A and Inter-sensor position information between the sensors 26A and 26B is calculated based on the detected position information of the measurement object B1. Since the sensors 26A and 26B detect the same measurement object B1, the position of the measurement object B1 relative to the sensor 26A detected by the sensor 26A and the position of the measurement object B1 relative to the sensor 26B detected by the sensor 26B are , the position and orientation of the sensor 26B with respect to the sensor 26A can be calculated. The inter-sensor position information acquisition unit 42 calculates the position and orientation of the sensor 26B with respect to the sensor 26A (the position and orientation of the sensor 26B in the coordinate system of the sensor 26A) as inter-sensor position information between the sensors 26A and 26B. Furthermore, as shown in FIG. 5, the inter-sensor position information acquisition unit 42 uses a transformation for converting the coordinate system of the sensor 26B into the coordinate system of the sensor 26A as inter-sensor position information between the sensor 26A and the sensor 26B. Calculate the quantities (t XB , t YB , θ B ). Note that tXB is the amount of displacement in the X-axis direction of the coordinate system of sensor 26B with respect to the coordinate system of sensor 26A, tYB is the amount of displacement in the Y-axis direction of the coordinate system of sensor 26B with respect to the coordinate system of sensor 26A, θ B is the amount of rotation of the coordinate system of sensor 26B with respect to the coordinate system of sensor 26A.

同様に、センサ間位置情報取得部42は、測定対象物B2の測定対象物位置情報に基づき、言い換えればセンサ26Bが検出した測定対象物B2の位置情報と、センサ26Cが検出した測定対象物B2の位置情報とに基づき、センサ26Bとセンサ26Cとのセンサ間位置情報を算出する。センサ間位置情報取得部42は、センサ26Bとセンサ26Cとのセンサ間位置情報として、センサ26Bに対するセンサ26Cの位置及び姿勢(センサ26Bの座標系におけるセンサ26Cの位置及び姿勢)を算出する。さらに言えば、センサ間位置情報取得部42は、センサ26Bとセンサ26Cとのセンサ間位置情報として、センサ26Cの座標系をセンサ26Bの座標系に変換するための変換量(tXC、tYC、θ)を算出する。同様に、センサ間位置情報取得部42は、測定対象物B3の測定対象物位置情報に基づき、言い換えればセンサ26Cが検出した測定対象物B3の位置情報と、センサ26Dが検出した測定対象物B3の位置情報とに基づき、センサ26Cとセンサ26Dとのセンサ間位置情報を算出する。センサ間位置情報取得部42は、センサ26Cとセンサ26Dとのセンサ間位置情報として、センサ26Cに対するセンサ26Dの位置及び姿勢(センサ26Cの座標系におけるセンサ26Dの位置及び姿勢)を算出する。さらに言えば、センサ間位置情報取得部42は、センサ26Cとセンサ26Dとのセンサ間位置情報として、センサ26Dの座標系をセンサ26Cの座標系に変換するための変換量(tXD、tYD、θ)を算出する。 Similarly, the inter-sensor position information acquisition unit 42 obtains the position information of the measurement object B2 detected by the sensor 26B and the position information of the measurement object B2 detected by the sensor 26C based on the measurement object position information of the measurement object B2. Inter-sensor position information between the sensor 26B and the sensor 26C is calculated based on the position information of the sensor 26B and the sensor 26C. The inter-sensor position information acquisition unit 42 calculates the position and orientation of the sensor 26C with respect to the sensor 26B (the position and orientation of the sensor 26C in the coordinate system of the sensor 26B) as inter-sensor position information between the sensors 26B and 26C. In other words, the inter-sensor position information acquisition unit 42 obtains the inter-sensor position information between the sensors 26B and 26C by converting the coordinate system of the sensor 26C into the coordinate system of the sensor 26B (t XC , t YC , θ C ). Similarly, the inter-sensor position information acquisition unit 42 obtains the position information of the measurement object B3 detected by the sensor 26C and the position information of the measurement object B3 detected by the sensor 26D based on the measurement object position information of the measurement object B3. Inter-sensor position information between the sensor 26C and the sensor 26D is calculated based on the position information of the sensor 26C and the sensor 26D. The inter-sensor position information acquisition unit 42 calculates the position and orientation of the sensor 26D with respect to the sensor 26C (the position and orientation of the sensor 26D in the coordinate system of the sensor 26C) as inter-sensor position information between the sensors 26C and 26D. Furthermore, the inter-sensor position information acquiring unit 42 obtains the inter-sensor position information between the sensor 26C and the sensor 26D by converting the coordinate system of the sensor 26D into the coordinate system of the sensor 26C (t XD , t YD , θ D ).

(基準センサ位置情報取得部)
図6は、基準センサ位置情報を説明するための模式図である。基準センサ位置情報取得部44は、移動体10の基準位置Pに対する基準センサの位置及び姿勢の情報である、基準センサ位置情報を取得する。基準センサ位置情報は、移動体10の座標系における、基準センサの位置及び姿勢の情報ともいえる。基準センサとは、複数のセンサ26のうちで基準となるセンサ26である。本実施形態では、センサ26Aを基準センサとするが、基準センサとするセンサは任意に選択されてよい。基準センサ位置情報取得部44は、移動体10の設計情報に基づき、基準センサ位置情報を取得する。基準センサ位置情報取得部44は、記憶部32に予め記憶されていた移動体10の設計情報を読み出してもよいし、通信部34を介して、外部の装置から、移動体10の設計情報を取得してもよい。移動体10の設計情報とは、移動体10の寸法などの設計値が含まれる情報であり、本実施形態では、移動体10への基準センサの取り付け位置(座標)及び取り付け角度(姿勢)の設計値を含む。より詳しくは、本実施形態では、移動体10の設計情報には、移動体10の座標系における、移動体10の基準位置Pに対する基準センサの位置(本例ではセンサ26Aの位置PA)と、移動体10の基準方向AXPに対する基準センサの向いている方向(本例では方向AXA)の角度に関する情報が含まれている。基準センサ位置情報取得部44は、移動体10の座標系における、移動体10の基準位置Pに対する基準センサの位置(座標)と、移動体10の基準方向AXPに対する基準センサの向いている角度とを、基準センサ位置情報として取得する。図6の例では、基準センサ位置情報取得部44は、基準センサ位置情報として、基準センサ(センサ26A)の座標系を移動体10の座標系に変換するための変換量(tXA、tYA、θ)を算出する旨が示されている。tXAが、センサ26Aの座標系におけるX座標を移動体10の座標系におけるX座標に変換するための値であり、tYAが、センサ26Aの座標系におけるY座標を移動体10の座標系におけるX座標に変換するための値であり、θが、センサ26Aの座標系における姿勢(角度)を移動体10の座標系における姿勢(角度)に変換するための値である。
(Reference sensor position information acquisition unit)
FIG. 6 is a schematic diagram for explaining reference sensor position information. The reference sensor position information acquisition unit 44 acquires reference sensor position information, which is information on the position and orientation of the reference sensor with respect to the reference position P of the moving body 10 . The reference sensor position information can also be said to be information on the position and orientation of the reference sensor in the coordinate system of the moving body 10 . A reference sensor is a sensor 26 that serves as a reference among the plurality of sensors 26 . In this embodiment, the sensor 26A is used as the reference sensor, but the sensor used as the reference sensor may be arbitrarily selected. The reference sensor position information acquisition unit 44 acquires reference sensor position information based on the design information of the moving body 10 . The reference sensor position information acquisition unit 44 may read the design information of the moving body 10 stored in advance in the storage unit 32, or may receive the design information of the moving body 10 from an external device via the communication unit 34. may be obtained. The design information of the moving body 10 is information including design values such as dimensions of the moving body 10. In the present embodiment, the mounting position (coordinates) and mounting angle (attitude) of the reference sensor to the moving body 10 are specified. Includes design values. More specifically, in the present embodiment, the design information of the moving body 10 includes the position of the reference sensor relative to the reference position P of the moving body 10 in the coordinate system of the moving body 10 (in this example, the position PA of the sensor 26A); It contains information about the angle of the direction in which the reference sensor faces (the direction AXA in this example) with respect to the reference direction AXP of the moving body 10 . The reference sensor position information acquisition unit 44 obtains the position (coordinates) of the reference sensor with respect to the reference position P of the mobile body 10 in the coordinate system of the mobile body 10 and the angle at which the reference sensor faces with respect to the reference direction AXP of the mobile body 10. is acquired as the reference sensor position information. In the example of FIG. 6, the reference sensor position information acquisition unit 44 uses the conversion amounts (t XA , t YA , θ A ) are calculated. t XA is a value for converting the X coordinate in the coordinate system of the sensor 26A into the X coordinate in the coordinate system of the moving body 10, and t YA is the value for converting the Y coordinate in the coordinate system of the sensor 26A into the coordinate system of the moving body 10. , and θ A is a value for converting the orientation (angle) of the sensor 26A in the coordinate system into the orientation (angle) of the moving body 10 in the coordinate system.

(センサ位置情報取得部)
図7は、センサ位置情報の算出を説明するための模式図である。センサ位置情報取得部46は、センサ間位置情報取得部42が取得したセンサ間位置情報と、基準センサ位置情報取得部44が取得した基準センサ位置情報とに基づき、移動体10の基準位置Pに対する、それぞれのセンサ26の位置及び姿勢の情報であるセンサ位置情報を取得する。センサ位置情報は、移動体10の座標系における、それぞれのセンサ26の位置及び姿勢を指すともいえ、それぞれのセンサ26の座標系を移動体10の座標系に変換するための変換量であるともいえる。基準センサ位置情報で、移動体10の基準位置Pに対する基準センサの位置及び姿勢が示され、センサ間位置情報で、基準センサに対する他のセンサの位置及び姿勢が示されているので、基準センサ位置情報及びセンサ間位置情報に基づいて、基準位置Pに対するそれぞれのセンサ26の位置及び姿勢を算出できる。
(Sensor position information acquisition unit)
FIG. 7 is a schematic diagram for explaining calculation of sensor position information. Based on the inter-sensor position information acquired by the inter-sensor position information acquisition unit 42 and the reference sensor position information acquired by the reference sensor position information acquisition unit 44, the sensor position information acquisition unit 46 determines the position of the moving body 10 relative to the reference position P. , to acquire sensor position information, which is information on the position and orientation of each sensor 26 . The sensor position information can be said to indicate the position and orientation of each sensor 26 in the coordinate system of the moving body 10, and can also be said to be a transformation amount for transforming the coordinate system of each sensor 26 into the coordinate system of the moving body 10. I can say. The reference sensor position information indicates the position and orientation of the reference sensor with respect to the reference position P of the moving body 10, and the inter-sensor position information indicates the position and orientation of the other sensor with respect to the reference sensor. The position and orientation of each sensor 26 relative to the reference position P can be calculated based on the information and inter-sensor position information.

本実施形態では、センサ位置情報取得部46は、基準センサ位置情報を、すなわちここでは変換量(tXA、tYA、θ)を、センサ26A(基準センサ)のセンサ位置情報とする。 In the present embodiment, the sensor position information acquisition unit 46 uses the reference sensor position information, that is, the conversion amounts (t XA , t YA , θ A ) here as the sensor position information of the sensor 26A (reference sensor).

また、本実施形態では、センサ位置情報取得部46は、センサ26Aとセンサ26Bとのセンサ間位置情報と基準センサ位置情報とに基づいて、センサ26Bのセンサ位置情報(移動体10の座標系におけるセンサ26Bの位置及び姿勢)を算出する。例えば、センサ位置情報取得部46は、図7に示すように、変換量(tXB、tYB、θ)と変換量(tXA、tYA、θ)をこの順で乗じた値を、センサ26Bのセンサ位置情報として算出する。 Further, in the present embodiment, the sensor position information acquisition unit 46 obtains sensor position information of the sensor 26B (in position and orientation of the sensor 26B). For example, as shown in FIG. 7, the sensor position information acquisition unit 46 obtains a value obtained by multiplying the conversion amount (t XB , t YB , θ B ) by the conversion amount (t XA , t YA , θ A ) in this order. , as sensor position information of the sensor 26B.

また、本実施形態では、センサ位置情報取得部46は、センサ26Aとセンサ26Bとのセンサ間位置情報と、センサ26Bとセンサ26Cとのセンサ間位置情報と、基準センサ位置情報とに基づいて、センサ26Cのセンサ位置情報(移動体10の座標系におけるセンサ26Cの位置及び姿勢)を算出する。例えば、センサ位置情報取得部46は、変換量(tXC、tYC、θ)と変換量(tXB、tYB、θ)と変換量(tXA、tYA、θ)とをこの順で乗じた値を、センサ26Cのセンサ位置情報として算出する。 Further, in the present embodiment, the sensor position information acquisition unit 46, based on inter-sensor position information between the sensors 26A and 26B, inter-sensor position information between the sensors 26B and 26C, and reference sensor position information, Sensor position information of the sensor 26C (the position and orientation of the sensor 26C in the coordinate system of the moving body 10) is calculated. For example, the sensor position information acquisition unit 46 obtains the conversion amounts (t XC , t YC , θ C ), the conversion amounts (t XB , t YB , θ B ), and the conversion amounts (t XA , t YA , θ A ). The value multiplied in this order is calculated as the sensor position information of the sensor 26C.

また、本実施形態では、センサ位置情報取得部46は、センサ26Aとセンサ26Bとのセンサ間位置情報と、センサ26Bとセンサ26Cとのセンサ間位置情報と、センサ26Cとセンサ26Dとのセンサ間位置情報と、基準センサ位置情報とに基づいて、センサ26Dのセンサ位置情報(移動体10の座標系におけるセンサ26Dの位置及び姿勢)を算出する。例えば、センサ位置情報取得部46は、変換量(tXD、tYD、θ)と変換量(tXC、tYC、θ)と変換量(tXB、tYB、θ)と変換量(tXA、tYA、θ)とをこの順で乗じた値を、センサ26Dのセンサ位置情報として算出する。 Further, in the present embodiment, the sensor position information acquisition unit 46 obtains inter-sensor position information between the sensors 26A and 26B, inter-sensor position information between the sensors 26B and 26C, and inter-sensor position information between the sensors 26C and 26D. Based on the position information and the reference sensor position information, sensor position information of the sensor 26D (the position and orientation of the sensor 26D in the coordinate system of the moving body 10) is calculated. For example, the sensor position information acquisition unit 46 converts the conversion amounts (t XD , t YD , θ D ), the conversion amounts (t XC , t YC , θ C ), the conversion amounts (t XB , t YB , θ B ) and the conversion A value obtained by multiplying the amount (t XA , t YA , θ A ) in this order is calculated as the sensor position information of the sensor 26D.

センサ位置情報取得部46は、算出した各センサ26のセンサ位置情報を記憶部32に記憶させる。また、センサ位置情報取得部46は、算出した各センサ26のセンサ位置情報を、通信部34を介して、移動体10や別の機器などに送信してもよい。これにより、各センサ26のキャリブレーション処理が終了する。なお、以上の説明では、センサ26D、センサ26C、センサ26B、センサ26A、基準位置Pの順で座標変換を行っていたが、座標変換の順はこれに限られず任意であってよい。 The sensor position information acquisition unit 46 causes the storage unit 32 to store the calculated sensor position information of each sensor 26 . Further, the sensor position information acquisition unit 46 may transmit the calculated sensor position information of each sensor 26 to the moving body 10 or another device via the communication unit 34 . This completes the calibration process for each sensor 26 . In the above description, coordinate conversion is performed in the order of sensor 26D, sensor 26C, sensor 26B, sensor 26A, and reference position P, but the order of coordinate conversion is not limited to this and may be arbitrary.

(キャリブレーションフロー)
以上説明した、キャリブレーション装置30によるキャリブレーション処理のフローを説明する。図8は、本実施形態に係るキャリブレーション処理のフローを説明するフローチャートである。図8に示すように、キャリブレーション装置30は、測定対象物位置取得部40により、一対のセンサ26に同じ測定対象物Bを検出させて、測定対象物位置情報を算出する(ステップS10)。測定対象物位置取得部40は、一対のセンサ26毎に、すなわち隣り合う2つのセンサ26毎に、同じ測定対象物Bを検出させる。測定対象物位置取得部40は、一対のセンサ26による同じ測定対象物Bの検出結果から、その測定対象物の測定対象物位置情報を算出する。
(Calibration flow)
A flow of calibration processing by the calibration device 30 described above will be described. FIG. 8 is a flowchart for explaining the flow of calibration processing according to this embodiment. As shown in FIG. 8, the calibration device 30 causes the pair of sensors 26 to detect the same measurement object B by the measurement object position acquisition unit 40, and calculates measurement object position information (step S10). The measurement object position acquisition unit 40 causes each pair of sensors 26 , that is, each two adjacent sensors 26 to detect the same measurement object B. FIG. The measurement object position acquisition unit 40 calculates measurement object position information of the measurement object from the detection results of the same measurement object B by the pair of sensors 26 .

キャリブレーション装置30は、センサ間位置情報取得部42により、測定対象物位置情報に基づき、センサ26同士のセンサ間位置情報を算出する(ステップS12)。センサ間位置情報取得部42は、同じ測定対象物Bの測定対象物位置情報に基づき、その測定対象物Bを検出させたセンサ26同士のセンサ間位置情報を算出する。センサ間位置情報取得部42は、一対のセンサ26毎に、センサ間位置情報を算出する。 The calibration device 30 uses the inter-sensor position information acquisition unit 42 to calculate inter-sensor position information between the sensors 26 based on the measurement object position information (step S12). The inter-sensor position information acquisition unit 42 calculates inter-sensor position information between the sensors 26 that detect the measurement object B based on the measurement object position information of the same measurement object B. FIG. The inter-sensor position information acquisition unit 42 calculates inter-sensor position information for each pair of sensors 26 .

キャリブレーション装置30は、基準センサ位置情報取得部44により、移動体10の設計情報に基づき、基準センサ位置情報を取得する(ステップS14)。なお、ステップS14は、ステップS10、12の後に実行されることに限られず、ステップS14とステップS10、12の実行順は任意であってよい。例えば、ステップS14は、ステップS10の前に実行されてもよい。 The calibration device 30 acquires the reference sensor position information by the reference sensor position information acquisition unit 44 based on the design information of the moving body 10 (step S14). It should be noted that step S14 is not limited to be executed after steps S10 and S12, and the execution order of step S14 and steps S10 and S12 may be arbitrary. For example, step S14 may be performed before step S10.

次に、キャリブレーション装置30は、センサ位置情報取得部46により、センサ間位置情報と基準センサ位置情報とに基づき、それぞれのセンサ26のセンサ位置情報(移動体10の基準位置Pに対するそれぞれのセンサ26の位置及び姿勢)を算出する(ステップS16)。これにより、キャリブレーション処理が終了する。 Next, the calibration device 30 acquires the sensor position information of each sensor 26 (each sensor relative to the reference position P of the moving body 10) based on the inter-sensor position information and the reference sensor position information by the sensor position information acquisition unit 46 26) are calculated (step S16). This completes the calibration process.

(効果)
以上説明したように、本実施形態に係るキャリブレーション装置30は、少なくとも2つのセンサ26に同じ測定対象物Bを検出させて、その検出結果に基づき、センサ26同士の相対位置及び姿勢(センサ間位置情報)を算出し、センサ26同士の相対位置及び姿勢と、設計情報から取得した基準位置Pに対する基準センサの相対位置及び姿勢(基準センサ位置情報)とから、基準位置Pに対する各センサ26の相対位置及び姿勢を算出する。本実施形態によると、一対のセンサ26に同じ測定対象物Bを検出させるだけで、基準位置Pに対する各センサ26の相対位置及び姿勢を算出することが可能となる。そのため、本実施形態によると、一対のセンサ26の検出範囲に測定対象物Bがあれば、各センサ26のキャリブレーションが可能となるため、測定対象物Bの設置位置を特定するための専用の機器が不要となり、また、測定対象物Bの設置位置を特定するための作業負荷が高くなることを抑制でき、作業者の負荷を低減できる。また、本実施形態によると、キャリブレーション精度が作業者の熟練度に依存する度合いを減らして、キャリブレーション精度の低下も抑制できる。
(effect)
As described above, the calibration device 30 according to the present embodiment causes at least two sensors 26 to detect the same measurement object B, and based on the detection results, the relative positions and orientations of the sensors 26 (inter-sensor position information), and from the relative position and orientation of the sensors 26 and the relative position and orientation of the reference sensor with respect to the reference position P acquired from the design information (reference sensor position information), the position of each sensor 26 with respect to the reference position P Calculate the relative position and orientation. According to this embodiment, it is possible to calculate the relative position and orientation of each sensor 26 with respect to the reference position P simply by causing the pair of sensors 26 to detect the same object B to be measured. Therefore, according to the present embodiment, if the measurement object B is within the detection range of the pair of sensors 26, each sensor 26 can be calibrated. This eliminates the need for equipment, and prevents an increase in the work load for identifying the installation position of the measurement object B, thereby reducing the burden on the operator. Moreover, according to the present embodiment, it is possible to reduce the degree of dependence of the calibration accuracy on the skill level of the operator, and to suppress deterioration of the calibration accuracy.

なお、本実施形態の例では、キャリブレーション装置30は、移動体10に搭載されない、移動体10とは別体の装置であるが、それに限られず、移動体10に搭載されたものであってもよい。すなわち、移動体10の制御装置28が、キャリブレーション装置30として、キャリブレーション装置30の処理を実行するものであってもよい。 In the example of the present embodiment, the calibration device 30 is not mounted on the moving body 10 and is a device separate from the moving body 10, but is not limited to this, and may be mounted on the moving body 10. good too. That is, the control device 28 of the moving body 10 may perform the processing of the calibration device 30 as the calibration device 30 .

(他の例)
以上の説明では、基準センサ位置情報を、移動体10の設計情報のみから取得していたが、それに限られない。例えば、基準センサ位置情報取得部44は、移動体10の設計情報と、基準センサと他のセンサ26とのセンサ間位置情報とに基づき、基準センサ位置情報を算出してよい。以下、具体的に説明する。
(another example)
In the above description, the reference sensor position information was acquired only from the design information of the moving body 10, but it is not limited to this. For example, the reference sensor position information acquisition unit 44 may calculate the reference sensor position information based on the design information of the moving body 10 and inter-sensor position information between the reference sensor and the other sensor 26 . A specific description will be given below.

図9及び図10は、基準センサ位置情報の算出の他の例を説明する模式図である。図9は、基準位置Pに対するセンサ26A(基準センサ)の位置を算出する方法の例を示している。図9に示すように、基準センサ位置情報取得部44は、センサ間位置情報に基づき、センサ26Aの位置PAとセンサ26Dの位置PDとの中点P0の座標を算出する。例えば、基準センサ位置情報取得部44は、センサ26Aとセンサ26Bとのセンサ間位置情報、センサ26Bとセンサ26Cとのセンサ間位置情報、及びセンサ26Cとセンサ26Dとのセンサ間位置情報に基づき、センサ26Aの座標系におけるセンサ26Dの位置PDの座標を算出する。基準センサ位置情報取得部44は、センサ26Aの座標系におけるセンサ26Aの位置PAの座標と、センサ26Aの座標系におけるセンサ26Dの位置PDの座標から、センサ26Aの座標系における中点P0の座標を算出する。図9の距離D1は、位置PAと位置PDとの距離の半分の距離を指している。そして、基準センサ位置情報取得部44は、設計情報から、基準方向AXPの情報と、距離D2の情報とを取得する。距離D2は、基準方向AXPに沿った方向における、センサ26Aの位置PAと基準位置Pとの間の距離を指す。基準センサ位置情報取得部44は、中点P0の座標から、基準方向AXPに沿って距離D2だけ離れた位置を、基準位置Pの座標として算出する。基準センサ位置情報取得部44は、算出した基準位置Pの座標から、基準位置Pに対するセンサ26Aの位置を算出する。 9 and 10 are schematic diagrams illustrating another example of calculation of reference sensor position information. 9 shows an example of a method of calculating the position of the sensor 26A (reference sensor) with respect to the reference position P. FIG. As shown in FIG. 9, the reference sensor position information acquisition unit 44 calculates the coordinates of the middle point P0 between the position PA of the sensor 26A and the position PD of the sensor 26D based on the inter-sensor position information. For example, the reference sensor position information acquisition unit 44, based on inter-sensor position information between the sensors 26A and 26B, inter-sensor position information between the sensors 26B and 26C, and inter-sensor position information between the sensors 26C and 26D, The coordinates of the position PD of the sensor 26D in the coordinate system of the sensor 26A are calculated. The reference sensor position information acquisition unit 44 obtains the coordinates of the midpoint P0 in the coordinate system of the sensor 26A from the coordinates of the position PA of the sensor 26A in the coordinate system of the sensor 26A and the coordinates of the position PD of the sensor 26D in the coordinate system of the sensor 26A. Calculate The distance D1 in FIG. 9 indicates half the distance between the positions PA and PD. Then, the reference sensor position information acquisition unit 44 acquires information on the reference direction AXP and information on the distance D2 from the design information. A distance D2 refers to the distance between the position PA of the sensor 26A and the reference position P in the direction along the reference direction AXP. The reference sensor position information acquiring unit 44 calculates, as the coordinates of the reference position P, a position separated by a distance D2 along the reference direction AXP from the coordinates of the midpoint P0. The reference sensor position information acquiring unit 44 calculates the position of the sensor 26A with respect to the reference position P from the calculated coordinates of the reference position P. FIG.

図10は、基準方向AXPに対するセンサ26A(基準センサ)の向きを算出する方法の例を示している。図10に示すように、基準センサ位置情報取得部44は、移動体10の設計情報から、基準方向AXPと線分L0とのなす角度αを算出する。線分L0は、センサ26Aの位置PAとセンサ26Dの位置PDとを結ぶ線分である。基準センサ位置情報取得部44は、移動体10の設計情報から取得したセンサ26Aの位置PAの座標とセンサ26Dの位置PDの座標とに基づき、線分L0の方向を算出する。そして、基準センサ位置情報取得部44は、移動体10の設計情報から取得した基準方向AXPの情報を取得して、基準方向AXPと線分L0とのなす角度αを算出する。また、基準センサ位置情報取得部44は、センサ間位置情報に基づき、センサ26Aの向いている方向AXAと線分L0とのなす角度βを算出する。基準センサ位置情報取得部44は、センサ26Aとセンサ26Bとのセンサ間位置情報、センサ26Bとセンサ26Cとのセンサ間位置情報、及びセンサ26Cとセンサ26Dとのセンサ間位置情報に基づき、センサ26Aの座標系におけるセンサ26Dの位置PDの座標を算出し、センサ26の位置PAの座標とセンサ26Dの位置PDの座標とから、線分L0の方向を算出する。そして、基準センサ位置情報取得部44は、算出した線分L0の方向と、方向AXAとのなす角度を、角度βとして算出する。基準センサ位置情報取得部44は、角度αと角度βとに基づき、基準方向AXPに対するセンサ26Aの向きを算出する。すなわち、基準センサ位置情報取得部44は、角度αと角度βとを足し合わせた角度を、基準方向AXPに対するセンサ26Aの向きとして算出する。 FIG. 10 shows an example of a method of calculating the orientation of the sensor 26A (reference sensor) with respect to the reference direction AXP. As shown in FIG. 10 , the reference sensor position information acquisition unit 44 calculates the angle α between the reference direction AXP and the line segment L0 from the design information of the moving body 10 . A line segment L0 is a line segment connecting the position PA of the sensor 26A and the position PD of the sensor 26D. The reference sensor position information acquisition unit 44 calculates the direction of the line segment L0 based on the coordinates of the position PA of the sensor 26A and the coordinates of the position PD of the sensor 26D acquired from the design information of the moving body 10. FIG. Then, the reference sensor position information obtaining unit 44 obtains the information of the reference direction AXP obtained from the design information of the moving body 10, and calculates the angle α between the reference direction AXP and the line segment L0. Further, the reference sensor position information acquisition unit 44 calculates an angle β formed between the direction AXA in which the sensor 26A is facing and the line segment L0 based on the inter-sensor position information. Based on inter-sensor position information between the sensors 26A and 26B, inter-sensor position information between the sensors 26B and 26C, and inter-sensor position information between the sensors 26C and 26D, the reference sensor position information acquisition unit 44 acquires the sensor 26A , and the direction of the line segment L0 is calculated from the coordinates of the position PA of the sensor 26 and the coordinates of the position PD of the sensor 26D. Then, the reference sensor position information acquiring unit 44 calculates an angle between the direction of the calculated line segment L0 and the direction AXA as an angle β. The reference sensor position information acquisition unit 44 calculates the orientation of the sensor 26A with respect to the reference direction AXP based on the angles α and β. That is, the reference sensor position information acquiring unit 44 calculates an angle obtained by adding the angle α and the angle β as the orientation of the sensor 26A with respect to the reference direction AXP.

以上のように、基準センサと他のセンサ26とのセンサ間位置情報にも基づき、基準センサ位置情報を算出することで、例えば基準センサの位置や姿勢が設計情報からずれていた場合にも、実際の基準センサの位置や姿勢を反映できるため、キャリブレーション精度を向上できる。なお、上記で説明した基準センサと他のセンサ26とのセンサ間位置情報にも基づいたセンサ間位置情報の算出方法は、一例である。 As described above, by calculating the reference sensor position information based on the inter-sensor position information between the reference sensor and the other sensor 26, for example, even if the position or orientation of the reference sensor deviates from the design information, Since the position and orientation of the actual reference sensor can be reflected, calibration accuracy can be improved. The method of calculating the inter-sensor position information based on the inter-sensor position information between the reference sensor and the other sensor 26 described above is just an example.

(第2実施形態)
次に、第2実施形態について説明する。第2実施形態においては、測定対象物Bの形状が既知である点で、第1実施形態とは異なる。第2実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
(Second embodiment)
Next, a second embodiment will be described. The second embodiment differs from the first embodiment in that the shape of the object B to be measured is known. In the second embodiment, descriptions of the parts that are common to the first embodiment will be omitted.

図11は、測定対象物の形状例を説明する図である。第2実施形態においては、測定対象物Bの表面Baの形状が既知となっている。すなわち、キャリブレーション装置30は、測定対象物Bの表面Baの形状に関する情報を、取得可能である。測定対象物Bの形状は任意であってよいが、例えば平面状であってもよい。すなわち、測定対象物Bは、図11の左側に示すように、Z方向から見た場合の表面Baが、直線状であってもよい。また例えば、測定対象物Bは、平面が交差した形状であってもよい。すなわち、測定対象物Bは、図11の中央に示すように、Z方向から見た場合の表面Baが、直線同士が交差する形状となっていてもよい。また、測定対象物Bは、円筒状であってもよい。すなわち、測定対象物Bは、図11の右側に示すように、Z方向から見た場合の表面Baが、円弧形状となっていてもよい。 FIG. 11 is a diagram for explaining an example of the shape of the object to be measured. In the second embodiment, the shape of the surface Ba of the measuring object B is known. That is, the calibration device 30 can acquire information about the shape of the surface Ba of the measurement object B. FIG. The object B to be measured may have any shape, and may be planar, for example. That is, the measurement object B may have a linear surface Ba when viewed from the Z direction, as shown on the left side of FIG. Further, for example, the measurement object B may have a shape in which planes intersect. That is, as shown in the center of FIG. 11, the measurement object B may have a surface Ba when viewed from the Z direction, in which straight lines intersect each other. Moreover, the measurement object B may be cylindrical. That is, as shown in the right side of FIG. 11, the measurement object B may have an arcuate surface Ba when viewed from the Z direction.

(測定対象物位置情報の算出方法)
次に、第2実施形態における測定対象物位置情報の算出方法について説明する。図12は、測定対象物の検出方法を説明する模式図である。図12に示すように、測定対象物位置取得部40は、センサ26に、測定対象物Bの表面Baへレーザ光Lを走査しつつ照射させる。すなわち、測定対象物位置取得部40は、表面Baの異なる位置のそれぞれに、レーザ光Lを照射させる。測定対象物位置取得部40は、表面Baの各位置で反射されたレーザ光Lを、反射光としてセンサ26に受光させる。以下、表面Baでレーザ光Lが反射された位置(レーザ光Lが照射された位置)を、適宜、反射位置と記載する。測定対象物位置取得部40は、センサ26が受光したそれぞれの反射光の情報に基づき、それぞれの反射位置の座標を算出して、測定対象物位置情報とする。なお、図12は、センサ26A、26Bに、同じ測定対象物B1を検出させた場合を例示している。
(Method for calculating position information of measurement object)
Next, a method of calculating the measurement object position information in the second embodiment will be described. 12A and 12B are schematic diagrams for explaining a method of detecting a measurement object. As shown in FIG. 12, the measurement object position acquisition unit 40 causes the sensor 26 to scan and irradiate the surface Ba of the measurement object B with the laser light L. As shown in FIG. That is, the measurement object position acquisition unit 40 irradiates the laser light L to each different position on the surface Ba. The measurement object position acquisition unit 40 causes the sensor 26 to receive the laser light L reflected at each position on the surface Ba as reflected light. Hereinafter, the position where the laser beam L is reflected on the surface Ba (the position where the laser beam L is irradiated) will be referred to as a reflection position as appropriate. The measurement object position acquisition unit 40 calculates the coordinates of each reflection position based on the information of each reflected light received by the sensor 26, and uses them as measurement object position information. Note that FIG. 12 illustrates a case where the same measurement object B1 is detected by the sensors 26A and 26B.

図13は、測定対象物位置情報の算出方法を説明する図である。図13の(A)は、センサ26Aによって検出された反射位置の座標の例を示している。すなわち、図13の(A)は、センサ26Aが、図12に示すように測定対象物B1にレーザ光Lを照射し、測定対象物B1の各反射位置で反射された反射光を受光した場合に、測定対象物位置取得部40によって算出された反射位置の座標を、点群Mとしてプロットした図を示している。すなわち、点群Mとは、反射位置の座標を示す点(計測点)といえる。図13の(A)の横軸は、センサ26Aの座標系でのX座標を示し、縦軸は、センサ26Aの座標系でのY座標を示している。測定対象物位置取得部40は、それぞれの点群Mの座標を、測定対象物B1の測定対象物位置情報として算出する。また例えば、測定対象物位置取得部40は、それぞれの点群Mを繋ぐ線分LIを生成し、線分LIの座標及び方向を、測定対象物位置情報(測定対象物Bの位置及び姿勢の情報)として算出してもよい。線分LIは、点群Mを通る線分であることに限られず、例えば点群M同士の近似線であってもよい。線分LIは、点群Mの座標に基づき任意の方法で生成してもよい。 13A and 13B are diagrams for explaining a method of calculating the measurement object position information. (A) of FIG. 13 shows an example of the coordinates of the reflection position detected by the sensor 26A. That is, FIG. 13A shows the case where the sensor 26A irradiates the measurement object B1 with the laser light L as shown in FIG. 12 and receives the reflected light reflected at each reflection position of the measurement object B1. 4 shows a diagram in which the coordinates of the reflection positions calculated by the measurement object position acquisition unit 40 are plotted as a point group M. FIG. That is, the point group M can be said to be points (measurement points) indicating the coordinates of the reflection position. The horizontal axis in (A) of FIG. 13 indicates the X coordinate in the coordinate system of the sensor 26A, and the vertical axis indicates the Y coordinate in the coordinate system of the sensor 26A. The measurement object position acquisition unit 40 calculates the coordinates of each point group M as the measurement object position information of the measurement object B1. Further, for example, the measurement object position acquisition unit 40 generates a line segment LI connecting each point group M, and obtains the coordinates and direction of the line segment LI from the measurement object position information (the position and orientation of the measurement object B). information). The line segment LI is not limited to being a line segment passing through the point group M, and may be an approximation line between the point groups M, for example. The line segment LI may be generated by any method based on the coordinates of the point cloud M.

このように、測定対象物位置取得部40は、測定対象物Bで反射された光をセンサ26に検出させ、センサ26が検出した光の情報に基づき、測定対象物Bの反射位置の、センサ26の座標系における座標の情報を、測定対象物Bの位置情報として算出するといえる。 In this way, the measurement object position acquiring unit 40 causes the sensor 26 to detect the light reflected by the measurement object B, and based on the information of the light detected by the sensor 26, the sensor detects the reflection position of the measurement object B. It can be said that the information of the coordinates in the 26 coordinate system is calculated as the position information of the object B to be measured.

ここで、センサ26は、測定対象物Bではない箇所にも向けてレーザ光Lを照射し、測定対象物Bではない箇所からの反射光を検出する場合がある。しかし、測定対象物Bではない箇所から反射された反射光に基づいて測定対象物位置情報を算出してしまうと、実際の測定対象物Bの表面Baに対する誤差が大きくなるため、測定対象物位置情報に基づいて算出されるセンサ間位置情報の算出精度が低下するおそれがある。そのため、本実施形態に係る測定対象物位置取得部40は、測定対象物Bの表面Baの形状に基づき、センサ間位置情報を算出するために用いる点群M(反射位置の座標)を、選択する。具体的には、測定対象物位置取得部40は、検出された点群Mのうちから、表面Baの形状に相当する複数の点群Mを抽出し、抽出した複数の点群Mの座標を測定対象物位置情報とする。表面Baの形状に相当する点群Mを選択する方法は任意であるが、例えば、点群M間の線分LIと、Z方向から見た場合の表面Baに沿った線分との差分が所定値以下となる点群Mを、表面Baの形状に相当する点群Mとして選択してよい。 Here, the sensor 26 may irradiate the laser light L toward a portion other than the measurement object B and detect the reflected light from the portion other than the measurement object B. However, if the measurement object position information is calculated based on the reflected light reflected from a place other than the measurement object B, the error with respect to the surface Ba of the actual measurement object B becomes large. There is a possibility that the calculation accuracy of the inter-sensor position information calculated based on the information may be degraded. Therefore, the measurement object position acquisition unit 40 according to the present embodiment selects the point group M (coordinates of the reflection positions) used for calculating the inter-sensor position information based on the shape of the surface Ba of the measurement object B. do. Specifically, the measurement object position acquisition unit 40 extracts a plurality of point groups M corresponding to the shape of the surface Ba from the detected point group M, and obtains the coordinates of the plurality of extracted point groups M as This is the measurement object position information. Any method can be used to select the point group M corresponding to the shape of the surface Ba. A point group M having a predetermined value or less may be selected as the point group M corresponding to the shape of the surface Ba.

なお、測定対象物Bの形状は既知であることに限られない。この場合、測定対象物位置取得部40は、表面Baの形状に相当する複数の点群Mを抽出する処理を行わなくてもよい。この場合には、例えばセンサ26に対する測定対象物Bのおおよその位置は既知であるため、検出された点群Mのうちから、測定対象物Bのおおよその位置にある点群Mを、表面Baに対応する点群Mとして抽出して、抽出した点群Mの座標を、測定対象物位置情報としてよい。 Note that the shape of the measurement object B is not limited to being known. In this case, the measurement object position acquisition unit 40 does not have to perform the process of extracting a plurality of point groups M corresponding to the shape of the surface Ba. In this case, for example, since the approximate position of the measurement object B with respect to the sensor 26 is known, the point group M at the approximate position of the measurement object B is selected from the detected point cloud M as the surface Ba , and the coordinates of the extracted point group M may be used as the measurement object position information.

また、本実施形態では、一対のセンサ26に、同じ測定対象物Bの検出を複数回実行させることが好ましい。例えば、測定対象物位置取得部40は、センサ26A、26Bに、測定対象物B1の検出を複数のスキャン分行わせる。そして、移動体10に対する測定対象物B1の相対位置及び姿勢の少なくとも一方を変化させて、センサ26A、26Bに、測定対象物B1の検出を更に複数のスキャン分行わせる。この場合、以上の処理を任意の回数繰り返してもよい。測定対象物位置取得部40は、このようにして検出された複数の検出データのそれぞれについて、点群M(反射位置の座標)を算出して、測定対象物位置情報とする。測定対象物位置取得部40は、全ての一対のセンサ26に対して、これらの処理を行わせる。このように、同じ測定対象物Bの検出を複数回実行させて、同じ測定対象物Bについて測定対象物位置情報を複数算出することで、測定対象物位置情報に基づいて算出されるセンサ間位置情報の算出精度を向上できる。 Further, in the present embodiment, it is preferable to cause the pair of sensors 26 to detect the same measurement object B multiple times. For example, the measurement object position acquisition unit 40 causes the sensors 26A and 26B to detect the measurement object B1 for a plurality of scans. Then, at least one of the relative position and orientation of the object B1 to be measured with respect to the moving body 10 is changed, and the sensors 26A and 26B are made to detect the object B1 to be measured by a plurality of scans. In this case, the above processing may be repeated any number of times. The measurement object position acquisition unit 40 calculates the point group M (coordinates of the reflection positions) for each of the plurality of detection data thus detected, and uses the measurement object position information. The measurement object position acquisition unit 40 causes all the pairs of sensors 26 to perform these processes. In this way, by executing the detection of the same measurement object B multiple times and calculating a plurality of measurement object position information for the same measurement object B, the inter-sensor position calculated based on the measurement object position information Information calculation accuracy can be improved.

(センサ間位置情報の算出方法)
次に、第2実施形態におけるセンサ間位置情報の算出方法について説明する。図13の(A)は、上述のように、センサ26Aが検出した点群Mを示しており、より詳しくは、図12に示すように測定対象物B1にレーザ光Lを照射した場合に検出された、測定対象物B1の表面Baの各反射位置の座標を示す点群Mを、センサ26Aの座標系においてプロットしたものである。一方、図13の(B)は、センサ26Bが検出した点群Mを示しており、より詳しくは、センサ26Bが図12に示すように測定対象物B1にレーザ光Lを照射した場合に検出された、測定対象物B1の表面Baの各反射位置の座標を示す点群Mを、センサ26Bの座標系においてプロットしたものである。ここで、センサ26Aとセンサ26Bとは、同じ測定対象物B1を検出している。そのため、センサ26Aが検出した点群Mをセンサ26Bの座標系に変換した場合には、図13の(C)に示すように、それらの点群(センサ26Bの座標系に変換された点群M)の線分LIと、センサ26Bによって検出されたセンサ26Bの座標系の点群Mの線分LIとは、一致する。第2実施形態に係るセンサ間位置情報取得部42は、この原理に基づいて、一方のセンサ26の座標系から他方のセンサ26の座標系に変換するための変換量を算出する。
(Calculation method of inter-sensor position information)
Next, a method for calculating inter-sensor position information in the second embodiment will be described. FIG. 13A shows the point group M detected by the sensor 26A as described above. More specifically, as shown in FIG. The point group M indicating the coordinates of each reflection position on the surface Ba of the measurement object B1 is plotted in the coordinate system of the sensor 26A. On the other hand, (B) of FIG. 13 shows the point group M detected by the sensor 26B. The point group M indicating the coordinates of each reflection position on the surface Ba of the measurement object B1 is plotted in the coordinate system of the sensor 26B. Here, the sensors 26A and 26B detect the same measurement object B1. Therefore, when the point group M detected by the sensor 26A is transformed into the coordinate system of the sensor 26B, those point groups (the point group transformed into the coordinate system of the sensor 26B M) coincides with the line segment LI of the point group M in the coordinate system of the sensor 26B detected by the sensor 26B. The inter-sensor position information acquisition unit 42 according to the second embodiment calculates a conversion amount for converting from the coordinate system of one sensor 26 to the coordinate system of the other sensor 26 based on this principle.

以下、具体的に説明する。ここで、一方のセンサ26(例えばセンサ26B)によって検出された一方のセンサ26の座標系における測定対象物B(例えば測定対象物B1)の反射位置の座標を、第1座標とする。また、第1座標を、他方のセンサ26(例えばセンサ26A)の座標系に変換した座標を、第1変換座標とする。また、他方のセンサ26によって検出された他方のセンサ26の座標系における同じ測定対象物B(例えば測定対象物B1)の同じ反射位置の座標を、第2座標とする。この場合、例えば、センサ間位置情報取得部42は、第1変換座標と第2座標の差分が、すなわち第1変換座標と第2座標との間の距離が、所定値以下となるような、一方のセンサ26の座標系から他方のセンサ26の座標系への変換量(例えば変換量(tXB、tYB、θ))を、算出する。 A specific description will be given below. Here, let the coordinates of the reflection position of the measurement object B (for example, the measurement object B1) in the coordinate system of the one sensor 26 (for example, the sensor 26B) detected by the one sensor 26 (for example, the sensor 26B) be the first coordinates. Coordinates obtained by converting the first coordinates into the coordinate system of the other sensor 26 (for example, the sensor 26A) are referred to as first converted coordinates. Also, the coordinates of the same reflection position of the same measurement object B (for example, measurement object B1) in the coordinate system of the other sensor 26 detected by the other sensor 26 are defined as second coordinates. In this case, for example, the inter-sensor position information acquisition unit 42 is configured such that the difference between the first converted coordinates and the second coordinates, that is, the distance between the first converted coordinates and the second coordinates is equal to or less than a predetermined value. A conversion amount (for example, a conversion amount (t XB , t YB , θ B )) from the coordinate system of one sensor 26 to the coordinate system of the other sensor 26 is calculated.

図14は、一方のセンサの座標系から他方のセンサの座標系に変換するための変換量の算出を説明するための図である。上記のように第1変換座標及び第2座標から変換量を算出する場合には、例えば、図14に示すように、センサ26に、点群Mを結んだ線分LI同士が交差するように、レーザ光Lを走査させてよい。そして、一方のセンサ26の線分LI同士の交点MAの座標を第1座標とし、他方のセンサ26の線分LI同士の交点MBの座標を第2座標として、センサ26同士の座標の変換量を算出する。 FIG. 14 is a diagram for explaining calculation of a conversion amount for converting from the coordinate system of one sensor to the coordinate system of the other sensor. When calculating the conversion amount from the first conversion coordinates and the second coordinates as described above, for example, as shown in FIG. , laser light L may be scanned. Then, the coordinates of the intersection point MA between the line segments LI of one sensor 26 are set as the first coordinates, and the coordinates of the intersection point MB of the line segments LI of the other sensor 26 are set as the second coordinates. Calculate

以下、センサ26Bの座標系をセンサ26Aの座標系に変換するための変換量(t、t、θ)を算出する場合を例にして、より具体的に説明する。以下では、センサ26Bが検出した測定対象物B1の反射位置の座標である第1座標を(x2、y2)とし、センサ26Aが検出した測定対象物B1の同じ反射位置の座標である第2座標を(x1、y1)とする。 A more specific description will be given below by taking as an example a case of calculating the conversion amounts (t X , t Y , θ) for converting the coordinate system of the sensor 26B into the coordinate system of the sensor 26A. In the following, the first coordinates, which are the coordinates of the reflection position of the measurement object B1 detected by the sensor 26B, are defined as (x2, y2), and the second coordinates, which are the coordinates of the same reflection position of the measurement object B1 detected by the sensor 26A. be (x1, y1).

第2座標(x1、y1)と第1座標(x2、y2)が実空間上で同じ点である場合、以下の式(1)が成り立つ。 When the second coordinates (x1, y1) and the first coordinates (x2, y2) are the same point on the real space, the following equation (1) holds.

Figure 0007209755000001
Figure 0007209755000001

センサ26A、26Bに同じ測定対象物Bの検出をN回測定させて、第1座標と第2座標とがN回算出されたとする。この場合、センサ間位置情報取得部42は、次の式(2)に示すJ(t、ty、θ)が最小となるような、変換量(t、t、θ)を算出する。すなわち、センサ間位置情報取得部42は、最小二乗法を用いて、それぞれの第1変換座標と第2座標との差分の合計値の二乗が最小となるような、変換量(t、t、θ)を算出するといえる。ただし、センサ間位置情報取得部42は、最小二乗法を用いることに限られず、例えば、それぞれの第1変換座標と第2座標との差分に基づいた任意の方法で、変換量(t、t、θ)を算出してよい。 Assume that the sensors 26A and 26B are caused to detect the same measurement object B N times, and the first coordinates and the second coordinates are calculated N times. In this case, the inter-sensor position information acquisition unit 42 calculates the conversion amount (t X , t Y , θ) such that J (t x , ty, θ) shown in the following equation (2) is minimized. . That is, the inter-sensor position information acquisition unit 42 uses the method of least squares to minimize the square of the total value of the differences between the first transformed coordinates and the second coordinates, the transformed amount (t X , t Y , θ) can be calculated. However, the inter-sensor position information acquisition unit 42 is not limited to using the least squares method. For example, the conversion amount (t X , t Y , θ) may be calculated.

Figure 0007209755000002
Figure 0007209755000002

次に、変換量の算出方法の他の具体例について説明する。図15は、変換量の算出の他の例を説明するための図である。ここで、一方のセンサ26によって検出された一方のセンサ26の座標系における測定対象物B1の点群Mを結ぶ線分LIを、線分LIBとし、他方のセンサ26によって検出された他方のセンサ26の座標系の点群Mを結ぶ線分LIを、線分LIAとする。この場合、本例のセンサ間位置情報取得部42は、線分LIBを他方のセンサ26の座標系に変換した場合に、その線分LIB(他方のセンサ26の座標系に変換された線分LIB)と線分LIAとの差分が、所定値以下となるような、一方のセンサ26の座標系から他方のセンサ26の座標系への変換量を算出する。なお、線分LI同士の差分とは、例えば、線分LIの行列同士の差分を指してもよい。 Next, another specific example of the conversion amount calculation method will be described. FIG. 15 is a diagram for explaining another example of conversion amount calculation. Here, the line segment LI connecting the point group M of the measurement object B1 in the coordinate system of the one sensor 26 detected by the one sensor 26 is defined as the line segment LIB, and the other sensor 26 detected by the other sensor 26 A line segment LI connecting the point group M of the 26 coordinate systems is assumed to be a line segment LIA. In this case, the inter-sensor position information acquisition unit 42 of this example converts the line segment LIB (the line segment converted into the coordinate system of the other sensor 26) into the coordinate system of the other sensor 26. LIB) and the line segment LIA, the amount of conversion from the coordinate system of one sensor 26 to the coordinate system of the other sensor 26 is calculated such that the difference is equal to or less than a predetermined value. Note that the difference between the line segments LI may refer to, for example, the difference between the matrices of the line segments LI.

ここで、センサ26Aが検出した測定対象物B1の点群Mを結ぶ線分LIAが、以下の式(3)で表されるとし、センサ26Bが検出した測定対象物B1の点群Mを結ぶ線分LIBが、以下の式(4)で表されるとする。この場合、線分LIAと線分LIBとが実空間で一致する場合には、次の式(5)が成り立つ。 Here, it is assumed that the line segment LIA connecting the point group M of the measurement object B1 detected by the sensor 26A is represented by the following equation (3), and the line segment LIA connecting the point group M of the measurement object B1 detected by the sensor 26B is Suppose that the line segment LIB is represented by the following equation (4). In this case, when the line segment LIA and the line segment LIB match in real space, the following equation (5) holds.

Figure 0007209755000003
Figure 0007209755000003
Figure 0007209755000004
Figure 0007209755000004
Figure 0007209755000005
Figure 0007209755000005

式(5)をセンサ26Aの座標系の線分LIAに適用すると、次の式(6)のようになる。 Applying the equation (5) to the line segment LIA of the coordinate system of the sensor 26A results in the following equation (6).

Figure 0007209755000006
Figure 0007209755000006

センサ26A、26Bに同じ測定対象物Bの検出をN回測定させて、線分LIAと線分LIBとがN回算出されたとする。この場合、センサ間位置情報取得部42は、次の式(7)に示すJ(t、ty、θ)が最小となるような、変換量(t、t、θ)を算出する。すなわち、センサ間位置情報取得部42は、最小二乗法を用いて、それぞれの線分LIAと線分LIBとの差分の合計値の二乗が最小となるような、変換量(t、t、θ)を算出するといえる。 Assume that the sensors 26A and 26B are caused to detect the same measurement object B N times, and the line segment LIA and the line segment LIB are calculated N times. In this case, the inter-sensor position information acquisition unit 42 calculates the conversion amount (t X , t Y , θ) such that J (t x , ty, θ) shown in the following equation (7) is minimized. . That is, the inter-sensor position information acquisition unit 42 uses the method of least squares to obtain a transformation amount (t X , t Y , θ).

Figure 0007209755000007
Figure 0007209755000007

センサ間位置情報取得部42は、以上説明したような方法で、一対のセンサ26毎に、座標系を変換させるための変換量を算出する。ただし、上述で説明した変換量の算出方法は一例であり、他の方法で変換量を算出してもよい。 The inter-sensor position information acquisition unit 42 calculates the conversion amount for converting the coordinate system for each pair of sensors 26 by the method described above. However, the conversion amount calculation method described above is an example, and the conversion amount may be calculated by other methods.

(効果)
以上説明したように、第2実施形態においては、測定対象物Bの形状が既知であり、測定対象物Bの形状に基づき、センサ間位置情報を算出するために用いる点群M(反射位置の座標)を、選択する。これにより、センサ間位置情報の算出精度の低下を抑制できる。また、第2実施形態においては、一方のセンサ26によって検出された点群Mや線分LIを他方のセンサ26の座標系に変換した場合に、他方のセンサ26によって検出された点群Mや線分LIとの差分が所定値以下となるように、一方のセンサ26の座標系から他方のセンサ26の座標系への変換量を算出する。そのため、第2実施形態によると、センサ間位置情報の算出精度の低下を抑制できる。
(effect)
As described above, in the second embodiment, the shape of the measurement object B is known, and based on the shape of the measurement object B, the point group M (reflection position coordinates). As a result, it is possible to suppress a decrease in the calculation accuracy of the inter-sensor position information. Further, in the second embodiment, when the point group M and the line segment LI detected by one sensor 26 are converted into the coordinate system of the other sensor 26, the point group M and the line segment LI detected by the other sensor 26 are The amount of conversion from the coordinate system of one sensor 26 to the coordinate system of the other sensor 26 is calculated so that the difference from the line segment LI is equal to or less than a predetermined value. Therefore, according to the second embodiment, it is possible to suppress a decrease in the calculation accuracy of the inter-sensor position information.

(第3実施形態)
次に、第3実施形態について説明する。第3実施形態においては、センサ26Dの座標系からセンサ26Aの座標系への変換量も算出する点で、つまり、全てのセンサ間のセンサ間位置情報を考慮する点で、第2実施形態とは異なる。第3実施形態において第2実施形態と構成が共通する箇所は、説明を省略する。なお、第3実施形態は、第1実施形態にも適用可能である。
(Third embodiment)
Next, a third embodiment will be described. The third embodiment differs from the second embodiment in that the amount of conversion from the coordinate system of the sensor 26D to the coordinate system of the sensor 26A is also calculated, that is, in that inter-sensor position information between all sensors is considered. is different. In the third embodiment, descriptions of parts that have the same configuration as in the second embodiment will be omitted. In addition, 3rd Embodiment is applicable also to 1st Embodiment.

第3実施形態においては、センサ26Dの座標系からセンサ26Aの座標系への変換量を算出するために、センサ26Dとセンサ26Aとに同じ測定対象物B4(図示略)を検出させる。すなわち、第4実施形態においては、センサ26Dとセンサ26Aの検出範囲が重複する位置に、測定対象物Bとしての測定対象物B4を配置する。測定対象物位置取得部40は、センサ26Dとセンサ26Aに、測定対象物B4に対してレーザ光Lを照射させて、測定対象物B4からのレーザ光Lの反射光を受光させることで、同じ測定対象物B4の測定対象物位置情報を取得する。測定対象物位置取得部40は、測定対象物B4についての測定対象物位置情報として、センサ26Dに対する測定対象物B4の位置情報と、センサ26Aに対する測定対象物B4の位置情報とを算出する。 In the third embodiment, in order to calculate the amount of conversion from the coordinate system of sensor 26D to the coordinate system of sensor 26A, sensor 26D and sensor 26A are caused to detect the same measurement object B4 (not shown). That is, in the fourth embodiment, the measurement object B4 as the measurement object B is arranged at a position where the detection ranges of the sensor 26D and the sensor 26A overlap. The measurement object position acquisition unit 40 causes the sensor 26D and the sensor 26A to irradiate the measurement object B4 with the laser light L and receive the reflected light of the laser light L from the measurement object B4. The measurement object position information of the measurement object B4 is acquired. The measurement object position acquisition unit 40 calculates the position information of the measurement object B4 with respect to the sensor 26D and the position information of the measurement object B4 with respect to the sensor 26A as the measurement object position information about the measurement object B4.

図16は、センサ間位置情報の算出を説明するための模式図である。第3実施形態においては、センサ間位置情報取得部42は、測定対象物B4の測定対象物位置情報に基づき、言い換えればセンサ26Dに対する測定対象物B4の位置情報と、センサ26Aに対する測定対象物B4の位置情報とに基づき、センサ26Dとセンサ26Aとのセンサ間位置情報を算出する。センサ間位置情報取得部42は、図16に示すように、センサ26Dとセンサ26Aとのセンサ間位置情報として、センサ26Dに対するセンサ26Aの位置及び姿勢(センサ26Dの座標系におけるセンサ26Aの位置及び姿勢)を算出する。センサ間位置情報取得部42は、センサ26Dとセンサ26Aとのセンサ間位置情報として、センサ26Aの座標系をセンサ26Dの座標系に変換するための変換量(tXA1、tYA1、θA1)を算出する。 FIG. 16 is a schematic diagram for explaining calculation of inter-sensor position information. In the third embodiment, the inter-sensor position information acquisition unit 42 is based on the measurement object position information of the measurement object B4. Inter-sensor position information between the sensor 26D and the sensor 26A is calculated based on the position information of the sensor 26D and the sensor 26A. As shown in FIG. 16, the inter-sensor position information acquisition unit 42 obtains the position and orientation of the sensor 26A with respect to the sensor 26D (the position and orientation of the sensor 26A in the coordinate system of the sensor 26D) as inter-sensor position information between the sensor 26D and the sensor 26A. Posture) is calculated. The inter-sensor position information acquisition unit 42 obtains the conversion amounts (t XA1 , t YA1 , θ A1 ) for converting the coordinate system of the sensor 26A into the coordinate system of the sensor 26D as inter-sensor position information between the sensor 26D and the sensor 26A. Calculate

ここで、センサ26Aの座標系におけるセンサ26Dの位置及び姿勢は、センサ26Dの座標系におけるセンサ26Dの位置及び姿勢を、変換量(tXD、tYD、θ)で変換し、さらに変換量(tXC、tYC、θ)で変換し、さらに変換量(tXB、tYB、θ)で変換することで算出される。このようにして算出したセンサ26Aの座標系におけるセンサ26Dの位置及び姿勢は、変換量(tXA1、tYA1、θA1)で変換して、センサ26Dの座標系におけるセンサ26Dの位置及び姿勢に戻した場合に、元々検出していたセンサ26Dの座標系におけるセンサ26Dの位置及び姿勢と合致することが好ましい。すなわち、各変換量を用いた座標系の変換は、恒等変換であることが好ましい。そのため、センサ間位置情報取得部42は、座標系の変換が恒等変換に近づくように、各変換量を算出して、各センサ26同士のセンサ間位置情報を算出する。例えば、センサ26Dの座標系における任意の位置及び姿勢を、座標変換によってセンサ26Aの座標系における位置及び姿勢に変換し、さらに、変換量(tXA1、tYA1、θA1)で変換してセンサ26Dの座標系に戻した場合の、位置及び姿勢を、回帰位置及び回帰姿勢とする。この場合、センサ間位置情報取得部42は、回帰位置及び回帰姿勢と、座標変換を経なかった元々のセンサ26Dの座標系における位置及び姿勢との差分が、所定値以下となるように、変換量を算出することが好ましい。以下、具体例を説明する。 Here, the position and orientation of the sensor 26D in the coordinate system of the sensor 26A are obtained by transforming the position and orientation of the sensor 26D in the coordinate system of the sensor 26D with the transformation amounts (t XD , t YD , θ D ), and furthermore, the transformation amounts It is calculated by transforming with (t XC , t YC , θ C ) and further transforming with the transformation amount (t XB , t YB , θ B ). The position and orientation of the sensor 26D in the coordinate system of the sensor 26A calculated in this manner are converted by the conversion amounts (t XA1 , t YA1 , θ A1 ) into the position and orientation of the sensor 26D in the coordinate system of the sensor 26D. When returned, it preferably matches the position and orientation of sensor 26D in the coordinate system of sensor 26D that was originally detected. That is, the transformation of the coordinate system using each transformation amount is preferably an identity transformation. Therefore, the inter-sensor position information acquisition unit 42 calculates each transformation amount so that the coordinate system transformation approaches the identity transformation, and calculates the inter-sensor position information between the sensors 26 . For example, an arbitrary position and orientation in the coordinate system of the sensor 26D is transformed into a position and orientation in the coordinate system of the sensor 26A by coordinate transformation, and further transformed by transformation amounts (t XA1 , t YA1 , θ A1 ) to The position and orientation when returned to the 26D coordinate system are assumed to be the return position and return orientation. In this case, the inter-sensor position information acquisition unit 42 performs conversion so that the difference between the return position and return orientation and the original position and orientation in the coordinate system of the sensor 26D that has not undergone coordinate conversion is equal to or less than a predetermined value. It is preferred to calculate the amount. A specific example will be described below.

ここで、センサ26同士の座標系を変換するための変換量を、(tix、tiy、θ)とする。ただし、iは1、2、3、4のいずれかである。iが1の場合の変換量(t1x、t1y、θ)が、センサ26Bの座標系をセンサ26Aの座標系に変換するための変換量(tXB、tYB、θ)に相当し、iが2の場合の変換量(t2x、t2y、θ)が、センサ26Cの座標系をセンサ26Bの座標系に変換するための変換量(tXC、tYC、θ)に相当し、iが3の場合の変換量(t3x、t3y、θ)が、センサ26Dの座標系をセンサ26Cの座標系に変換するための変換量(tXD、tYD、θ)に相当し、iが4の場合の変換量(t4x、t4y、θ)が、センサ26Aの座標系をセンサ26Dの座標系に変換するための変換量(tXA1、tYA1、θA1)に相当するとする。この場合、次の式(8)を満たす場合に、座標系の変換が恒等変換を満たすといえる。 Here, let the transformation amount for transforming the coordinate system between the sensors 26 be (t ix , t iy , θ i ). However, i is either 1, 2, 3, or 4. The transformation amounts (t 1x , t 1y , θ 1 ) when i is 1 correspond to the transformation amounts (t XB , t YB , θ B ) for transforming the coordinate system of the sensor 26B into the coordinate system of the sensor 26A. Then, the transformation amounts (t 2x , t 2y , θ 2 ) when i is 2 are the transformation amounts (t XC , t YC , θ C ) for transforming the coordinate system of the sensor 26C into the coordinate system of the sensor 26B. and the transformation amounts (t 3x , t 3y , θ 3 ) when i is 3 are the transformation amounts (t XD , t YD , θ D ), and the transformation amounts (t 4x , t 4y , θ 4 ) when i is 4 are the transformation amounts (t XA1 , t YA1 , θ A1 ). In this case, it can be said that the transformation of the coordinate system satisfies the identity transformation when the following equation (8) is satisfied.

Figure 0007209755000008
Figure 0007209755000008

第3実施形態に係るセンサ間位置情報取得部42は、次の式(9)に示すJ(t1x、t1y、θ、t2x、・・・、θ)が最小となるような、変換量(tix、tiy、θ)を算出する。なお、式(9)の右辺の1項目(左側の項)は、第1実施形態で示したJ(t、ty、θ)の、一対のセンサ26毎の合計値である。 The inter-sensor position information acquisition unit 42 according to the third embodiment minimizes J(t 1x , t 1y , θ 1 , t 2x , . , the transformation amount (t ix , t iy , θ i ) is calculated. Note that one item (left term) on the right side of Equation (9) is the total value of J(t x , ty, θ) shown in the first embodiment for each pair of sensors 26 .

Figure 0007209755000009
Figure 0007209755000009

(効果)
以上説明したように、第3実施形態に係るセンサ間位置情報取得部42は、第1センサ(例えばセンサ26D)の座標系から第2センサ(例えばセンサ26A)の座標系への変換量(例えば、変換量(tXD、tYD、θ)、変換量(tXC、tYC、θ)及び変換量(tXB、tYB、θ)を用いて、第1センサの座標系における任意の位置及び姿勢を第2センサの座標系における位置及び姿勢に変換し、第2センサの座標系から第1センサの座標系への変換量(例えば変換量(tXA1、tYA1、θA1))を用いて、第2センサの座標系における位置及び姿勢を第1センサの座標系における位置及び姿勢に変換した場合に、変換前の第1センサの座標系における位置及び姿勢と、変換後の第1センサの座標系における位置及び姿勢との差分が所定値以下となるように、第1センサの座標系から第2センサの座標系への変換量を設定する。このように、第3実施形態においては、座標系の変換が恒等変換に近づくように、変換量を算出するため、センサ間位置情報の算出精度の低下を適切に抑制できる。
(effect)
As described above, the inter-sensor position information acquisition unit 42 according to the third embodiment performs a conversion amount (for example, , the transformation amounts (t XD , t YD , θ D ), the transformation amounts (t XC , t YC , θ C ) and the transformation amounts (t XB , t YB , θ B ), in the coordinate system of the first sensor An arbitrary position and orientation are converted into a position and orientation in the coordinate system of the second sensor, and the amount of conversion from the coordinate system of the second sensor to the coordinate system of the first sensor (for example, the amount of conversion (t XA1 , t YA1 , θ A1 )) is used to transform the position and orientation in the coordinate system of the second sensor into the position and orientation in the coordinate system of the first sensor, the position and orientation in the coordinate system of the first sensor before conversion and the position and orientation in the coordinate system of the first sensor after conversion The amount of transformation from the coordinate system of the first sensor to the coordinate system of the second sensor is set such that the difference between the position and orientation in the coordinate system of the first sensor is equal to or less than a predetermined value. In the embodiment, since the transformation amount is calculated so that the transformation of the coordinate system approaches the identity transformation, it is possible to appropriately suppress the deterioration of the calculation accuracy of the inter-sensor position information.

(第4実施形態)
第4実施形態においては、レーザ光Lの走査方向における両端の一部の点群Mを除外して、残った点群Mを測定対象物位置情報として用いる点で、第2実施形態とは異なる。第4実施形態において、第2実施形態と構成が共通する箇所は、説明を省略する。なお、第4実施形態は、第1実施形態や第3実施形態にも適用可能である。
(Fourth embodiment)
The fourth embodiment differs from the second embodiment in that the point clouds M at both ends in the scanning direction of the laser beam L are excluded and the remaining point clouds M are used as the measurement object position information. . In the fourth embodiment, descriptions of parts having the same configuration as in the second embodiment will be omitted. In addition, 4th Embodiment is applicable also to 1st Embodiment and 3rd Embodiment.

センサ26は、走査方向に沿って走査させながら、測定対象物Bにレーザ光Lを照射させて、点群Mを検出する。この場合、走査方向における測定対象物Bの端部付近では、検出が不安定となり、キャリブレーション精度が低下する可能性がある。それに対して、第4実施形態においては、走査方向における測定対象物Bの端部付近の点群Mを除外することで、キャリブレーション精度の低下を抑制している。以下、具体的な処理を説明する。 The sensor 26 detects the point group M by irradiating the measurement object B with the laser light L while scanning along the scanning direction. In this case, near the edge of the object B to be measured in the scanning direction, detection may become unstable and the calibration accuracy may decrease. On the other hand, in the fourth embodiment, the reduction in calibration accuracy is suppressed by excluding the point group M near the edge of the measurement object B in the scanning direction. Specific processing will be described below.

図17は、点群の選択方法を説明するための模式図であり、図18は、第4実施形態における点群の選択方法を説明するフローチャートである。測定対象物位置取得部40は、センサ26に、走査方向に沿った表面Baの異なる位置のそれぞれに向けて、レーザ光Lを照射させて、走査方向に沿ったそれぞれの反射位置で反射された反射光を、受光させる。従って、点群M(反射位置の座標)は、図17に示すように、走査方向SCに沿って並ぶ。言い換えれば、測定対象物位置取得部40は、点群Mが走査方向SCに並ぶように、センサ26に走査方向SCに沿って反射光を受光させる。図18に示すように、測定対象物位置取得部40は、点群Mを選択する際には、最初に、測定対象物Bの表面Baの形状に基づき、センサ26が検出した複数の点群M(反射位置の座標)のうちから、使用する点群Mを抽出する(ステップS20)。測定対象物位置取得部40は、表面Baの形状に相当する複数の点群Mを、使用する点群Mとして抽出する。図17の例では、表面Baの形状に相当しない点群M0が除外されて、表面Baの形状に相当する点群Mのみが、使用する点群Mとして抽出されている。 FIG. 17 is a schematic diagram for explaining the point group selection method, and FIG. 18 is a flowchart for explaining the point group selection method in the fourth embodiment. The measurement object position acquisition unit 40 causes the sensor 26 to irradiate the laser light L toward different positions on the surface Ba along the scanning direction, and the laser light L is reflected at each reflection position along the scanning direction. Reflected light is received. Therefore, the point group M (coordinates of the reflection positions) is arranged along the scanning direction SC as shown in FIG. In other words, the measurement object position acquisition unit 40 causes the sensor 26 to receive reflected light along the scanning direction SC so that the point group M is aligned in the scanning direction SC. As shown in FIG. 18, when selecting the point group M, the measurement object position acquisition unit 40 first selects a plurality of point groups detected by the sensor 26 based on the shape of the surface Ba of the measurement object B. A point group M to be used is extracted from M (coordinates of reflection positions) (step S20). The measurement object position acquisition unit 40 extracts a plurality of point groups M corresponding to the shape of the surface Ba as point groups M to be used. In the example of FIG. 17, the point group M0 that does not correspond to the shape of the surface Ba is excluded, and only the point group M that corresponds to the shape of the surface Ba is extracted as the point group M to be used.

次に、測定対象物位置取得部40は、抽出した点群Mに対して、走査方向SC(点群Mが並ぶ方向)における両端部から順に付番する(ステップS22)。すなわち、測定対象物位置取得部40は、抽出した点群Mに対し、走査方向SCに沿った最も一方側に位置する点群M1、走査方向SCに沿った最も他方側に位置する点群M2、走査方向SCに沿った最も一方側の点群に対して他方側に隣り合う点群M3、走査方向SCに沿った最も他方側の点群に対して一方側に隣り合う点群M4、・・・の順で、それぞれの点群Mに番号を付与する。また、測定対象物位置取得部40は、抽出した点群Mに基づき、測定対象物Bの形状を推定する(ステップS24)。言い換えれば、測定対象物位置取得部40は、抽出した点群Mを結ぶ線分LIを生成する。図17の例では、点群M1~M4を含む、抽出した全体の点群Mから、線分LIを生成している。なお、ステップS24は、ステップS22の後に行われることに限られず、ステップS22、S24の処理順番は任意であってよい。 Next, the measurement object position acquisition unit 40 sequentially assigns numbers to the extracted point group M from both ends in the scanning direction SC (the direction in which the point group M is arranged) (step S22). That is, the measurement object position acquisition unit 40 acquires the point group M1 located on the most one side along the scanning direction SC and the point group M2 located on the othermost side along the scanning direction SC with respect to the extracted point group M. , a point group M3 adjacent to the point group on the othermost side along the scanning direction SC on the other side, a point group M4 adjacent to the point group on the othermost side along the scanning direction SC on one side, A number is assigned to each point group M in the order of . Further, the measurement object position acquisition unit 40 estimates the shape of the measurement object B based on the extracted point group M (step S24). In other words, the measurement object position acquisition unit 40 generates a line segment LI connecting the extracted point group M. FIG. In the example of FIG. 17, the line segment LI is generated from the entire extracted point group M including the point groups M1 to M4. Note that step S24 is not limited to being performed after step S22, and the processing order of steps S22 and S24 may be arbitrary.

その後、測定対象物位置取得部40は、抽出した点群Mのうちの一部を、番号順に除去する(ステップS26)。測定対象物位置取得部40は、番号が若い点群Mから、すなわち走査方向SCに沿った両端側から順に、所定数だけ点群Mを除去する。ここでの所定数は、任意に設定してよい。そして、測定対象物位置取得部40は、除去されずに残った点群Mに基づき、測定対象物Bの形状を推定する(ステップS28)。言い換えれば、測定対象物位置取得部40は、除去されずに残った点群Mを結ぶ線分LIを生成する。図17の例では、点群M1~M4が除去されて、点群M1~M4以外の点群Mを結ぶ線分LIを生成している。 After that, the measurement object position acquisition unit 40 removes part of the extracted point group M in numerical order (step S26). The measurement object position acquisition unit 40 removes a predetermined number of point groups M from the point group M having the smallest number, that is, from both end sides along the scanning direction SC. The predetermined number here may be set arbitrarily. Then, the measurement object position acquiring unit 40 estimates the shape of the measurement object B based on the point group M that remains without being removed (step S28). In other words, the measurement object position acquisition unit 40 generates a line segment LI that connects the remaining point group M without being removed. In the example of FIG. 17, the point groups M1 to M4 are removed to generate a line segment LI connecting the point groups M other than the point groups M1 to M4.

測定対象物位置取得部40は、除去前後で形状が閾値以上異なるかを判断する(ステップS30)。すなわち、測定対象物位置取得部40は、ステップS24で点群Mから生成した線分LIと、ステップS28で除去されずに残った点群Mから生成した線分LIとの差分が、閾値以上であるかを判断する。線分LI同士の差分とは、例えば線分LIの行列同士の差分であってもよい。また、閾値は任意に設定してよい。除去前後で形状が閾値以上異ならない場合(ステップS30;No)、すなわち線分LI同士の差分が閾値未満である場合、残っている点群Mを、測定対象物位置情報として用いる(ステップS32)。センサ間位置情報取得部42は、測定対象物位置情報として用いるとして決定された点群Mに基づき、センサ間位置情報を算出する。すなわち、測定対象物位置取得部40は、両端部の点群Mの除去前後で線分LIの変化が少ない場合には、検出が安定しない点群Mを除去できたと判断して、残った点群Mを測定対象物位置情報として用いる。一方、除去前後で形状が閾値以上異なる場合(ステップS30;Yes)、すなわち線分LI同士の差分が閾値以上である場合、ステップS26に戻り、残っている点群Mの一部を、番号が若い順に所定数除去する処理を繰り返す。この場合、測定対象物位置取得部40は、ステップS30において、前回生成した線分LIと、今回更に点群Mを除去して生成された線分LIとの差分が閾値以上かを判断する。すなわち、測定対象物位置取得部40は、両端部の点群Mを所定数ずつ除去しながら、線分LIの形状を都度比較して、線分LIの形状差が小さくなったら、その時点で残っている点群Mを、測定対象物位置情報として用いる。 The measurement object position acquisition unit 40 determines whether the shape before and after removal differs by a threshold value or more (step S30). That is, the measurement object position acquisition unit 40 determines that the difference between the line segment LI generated from the point group M in step S24 and the line segment LI generated from the point group M remaining without being removed in step S28 is equal to or greater than a threshold. to determine whether The difference between line segments LI may be, for example, the difference between matrices of line segments LI. Also, the threshold may be set arbitrarily. If the shapes before and after removal do not differ by a threshold value or more (step S30; No), that is, if the difference between the line segments LI is less than the threshold value, the remaining point cloud M is used as measurement object position information (step S32). . The inter-sensor position information acquisition unit 42 calculates inter-sensor position information based on the point group M determined to be used as the measurement object position information. That is, when the change in the line segment LI is small before and after removing the point group M at both ends, the measurement object position acquiring unit 40 determines that the point group M whose detection is not stable has been removed, and the remaining points The group M is used as measurement object position information. On the other hand, if the shapes before and after removal differ by a threshold value or more (step S30; Yes), that is, if the difference between the line segments LI is a threshold value or more, the process returns to step S26, and part of the remaining point group M is replaced with a number The process of removing a predetermined number in ascending order is repeated. In this case, in step S30, the measurement object position acquiring unit 40 determines whether the difference between the line segment LI generated last time and the line segment LI generated by further removing the point group M is a threshold value or more. That is, the measurement object position acquisition unit 40 removes a predetermined number of point groups M at both ends while comparing the shapes of the line segments LI each time. The remaining point cloud M is used as measurement object position information.

(効果)
このように、第4実施形態においては、走査方向SC(所定方向)における両端の所定数の点群M(反射位置の座標)以外の点群Mに基づき、センサ間位置情報を算出する。第4実施形態によると、走査方向における測定対象物Bの端部付近の点群Mを除外することで、キャリブレーション精度の低下を抑制できる。
(effect)
Thus, in the fourth embodiment, inter-sensor position information is calculated based on point groups M other than a predetermined number of point groups M (coordinates of reflection positions) at both ends in the scanning direction SC (predetermined direction). According to the fourth embodiment, by excluding the point group M near the edge of the measurement object B in the scanning direction, it is possible to suppress deterioration in calibration accuracy.

(第5実施形態)
次に、第5実施形態について説明する。第5実施形態は、測定対象物Bとの位置及び姿勢が既知の治具に移動体10を固定させて、キャリブレーションを実行する点で、第1実施形態とは異なる。第5実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。なお、第5実施形態は、第2~第4実施形態にも適用可能である。
(Fifth embodiment)
Next, a fifth embodiment will be described. The fifth embodiment differs from the first embodiment in that the moving body 10 is fixed to a jig whose position and orientation with respect to the measurement object B are known, and calibration is performed. In the fifth embodiment, descriptions of parts that are common to the first embodiment will be omitted. Note that the fifth embodiment can also be applied to the second to fourth embodiments.

(治具)
図19は、第5実施形態に係る治具の模式図である。治具100は、移動体10の位置を固定するための治具である。治具100には、固定部100Aが設けられている。固定部100Aは、移動体10を治具100に対して固定する機能を有している。例えば、固定部100Aは、移動体10の一部が挿入される窪みであってよい。この場合、移動体10は、一部が窪みである固定部100A内に挿入されることで、治具100に対する位置が固定される。図19の例では、固定部100Aは、支持部25の先端が挿入可能な窪みであり、移動体10は、支持部25が窪みである固定部100A内に挿入されることで、治具100に対する位置が固定される。
(jig)
FIG. 19 is a schematic diagram of a jig according to the fifth embodiment. A jig 100 is a jig for fixing the position of the moving body 10 . The jig 100 is provided with a fixing portion 100A. The fixing section 100</b>A has a function of fixing the moving body 10 to the jig 100 . For example, the fixed part 100A may be a recess into which a part of the moving body 10 is inserted. In this case, the movable body 10 is fixed in position with respect to the jig 100 by being inserted into the fixing portion 100A, which is partially recessed. In the example of FIG. 19, the fixing portion 100A is a recess into which the tip of the support portion 25 can be inserted, and the moving body 10 is inserted into the fixing portion 100A, which is the recess, so that the jig 100 can be moved. position relative to is fixed.

このように、治具100は、移動体10を固定するため、移動体10が治具100に対して固定された状態においては、治具100の基準位置PJに対して、移動体10の基準位置Pの位置及び姿勢が固定されるといえる。基準位置PJは、図19の例では、移動体10が治具100に対して固定された状態において移動体10の基準位置Pと重なる位置となっているが、それに限られない。 As described above, since the jig 100 fixes the moving body 10 , in a state where the moving body 10 is fixed to the jig 100 , the reference position PJ of the moving body 10 is shifted from the reference position PJ of the jig 100 . It can be said that the position and orientation of the position P are fixed. In the example of FIG. 19, the reference position PJ overlaps with the reference position P of the moving body 10 when the moving body 10 is fixed to the jig 100, but it is not limited to this.

また、治具100は、基準位置PJに対する測定対象物Bの位置及び姿勢が既知となっている。本実施形態では、測定対象物Bが治具100に取り付けられることで、治具100の基準位置PJに対する測定対象物Bの位置及び姿勢が固定されている。ただし、測定対象物Bは、基準位置PJに対する位置及び姿勢が既知であれば、治具100に取り付けられていることに限られない。また、測定対象物Bの位置及び姿勢は、治具100の基準位置PJに対して固定されていることに限られず、治具100の基準位置PJに対して可変であってもよい。例えば、図19に示すように、測定対象物Bは、レール102を介して治具100に取り付けられており、レール102に沿って移動可能となっていてもよい。この場合例えば、レール102には、レール102の延在方向に沿って複数のストッパが設けられており、測定対象物Bは、いずれかのストッパによって位置が固定されることが好ましい。ストッパの位置及び姿勢は、治具100の基準位置PJに対して固定されているため、測定対象物Bを移動させたとしても、いずれかのストッパで位置を固定した状態でキャリブレーションを実行することで、基準位置PJに対する測定対象物Bの位置及び姿勢が既知のまま、キャリブレーションを実行できる。 Further, the jig 100 has a known position and orientation of the measuring object B with respect to the reference position PJ. In the present embodiment, by attaching the measurement object B to the jig 100, the position and orientation of the measurement object B with respect to the reference position PJ of the jig 100 are fixed. However, the measurement object B is not limited to being attached to the jig 100 as long as the position and orientation with respect to the reference position PJ are known. Moreover, the position and orientation of the measurement object B are not limited to being fixed with respect to the reference position PJ of the jig 100 , and may be variable with respect to the reference position PJ of the jig 100 . For example, as shown in FIG. 19, the object B to be measured may be attached to a jig 100 via rails 102 and may be movable along the rails 102 . In this case, for example, the rail 102 is provided with a plurality of stoppers along the extending direction of the rail 102, and the position of the measuring object B is preferably fixed by one of the stoppers. Since the positions and postures of the stoppers are fixed with respect to the reference position PJ of the jig 100, even if the measuring object B is moved, the calibration is executed with the position fixed by one of the stoppers. Thus, calibration can be performed while the position and orientation of the measurement object B with respect to the reference position PJ are known.

なお、以上説明した治具100の構造や、治具100に対する測定対象物Bの取り付け状態は、一例である。例えば、治具100は、基準位置PJに対して、移動体10の基準位置Pの位置及び姿勢が固定可能なものであれば、任意の構造であってもよい。また、治具100に対する測定対象物Bの取り付け状態は、基準位置PJに対する測定対象物Bの位置及び姿勢が既知となる任意のものであってよい。 It should be noted that the structure of the jig 100 and the attachment state of the measuring object B to the jig 100 described above are examples. For example, the jig 100 may have any structure as long as the position and attitude of the reference position P of the moving body 10 can be fixed with respect to the reference position PJ. Moreover, the mounting state of the measurement object B to the jig 100 may be any one in which the position and orientation of the measurement object B with respect to the reference position PJ are known.

(キャリブレーション処理)
図20は、第5実施形態に係るキャリブレーション処理のフローを説明するフローチャートである。図20に示すように、第5実施形態においては、最初に、移動体10の基準位置Pを、治具100の基準位置PJに対して固定する(ステップS40)。この場合、例えば移動体10を治具100の固定部100Aで固定することで、移動体10の基準位置Pの位置及び姿勢を、治具100の基準位置PJに対して固定させる。
(Calibration processing)
FIG. 20 is a flowchart for explaining the flow of calibration processing according to the fifth embodiment. As shown in FIG. 20, in the fifth embodiment, first, the reference position P of the moving body 10 is fixed with respect to the reference position PJ of the jig 100 (step S40). In this case, for example, by fixing the moving body 10 with the fixing portion 100A of the jig 100, the position and attitude of the reference position P of the moving body 10 are fixed with respect to the reference position PJ of the jig 100. FIG.

次に、キャリブレーション装置30は、移動体10の基準位置Pが治具100の基準位置PJに対して固定された状態で、測定対象物位置取得部40により、センサ26に測定対象物Bの位置情報(測定対象物位置情報)を検出させる(ステップS42)。測定対象物位置取得部40は、センサ26の座標系における測定対象物Bの位置情報を、測定対象物位置情報として取得する。測定対象物位置取得部40は、移動体10の基準位置Pが治具100の基準位置PJに対して固定された状態で、センサ26に測定対象物Bへ向けてレーザ光Lを照射させ、測定対象物Bからの反射光を受光させて、測定対象物位置情報を算出する。この処理は第1実施形態から第4実施形態と同様である。 Next, in the state where the reference position P of the moving body 10 is fixed with respect to the reference position PJ of the jig 100, the calibration device 30 causes the sensor 26 to detect the position of the measurement object B by the measurement object position acquisition unit 40. Position information (measurement object position information) is detected (step S42). The measurement object position acquisition unit 40 acquires position information of the measurement object B in the coordinate system of the sensor 26 as measurement object position information. The measurement object position acquisition unit 40 causes the sensor 26 to irradiate the laser light L toward the measurement object B in a state where the reference position P of the moving body 10 is fixed with respect to the reference position PJ of the jig 100, Reflected light from the measurement object B is received to calculate position information of the measurement object. This processing is the same as in the first to fourth embodiments.

次に、キャリブレーション装置30は、センサ位置情報取得部46により、移動体10の基準位置Pに対する測定対象物Bの位置情報と、センサ26に対する測定対象物Bの位置情報である測定対象物位置情報とに基づき、移動体10の基準位置Pに対するセンサ26の位置及び姿勢の情報であるセンサ位置情報を取得する(ステップS44)。 Next, the calibration device 30 acquires the position information of the measurement object B with respect to the reference position P of the moving body 10 and the measurement object position, which is the position information of the measurement object B with respect to the sensor 26, by the sensor position information acquisition unit 46. Based on the information, sensor position information, which is information on the position and attitude of the sensor 26 with respect to the reference position P of the moving body 10, is obtained (step S44).

以下、ステップS44の処理を具体的に説明する。ここで、移動体10の基準位置Pに対する測定対象物Bの位置は、治具100の基準位置PJに対する移動体10の基準位置Pの位置と、基準位置PJに対する測定対象物Bの位置とから算出できる。移動体10が治具100に対して固定されたら、治具100の基準位置PJに対する移動体10の基準位置Pの位置は、一義に定まるため、予め算出できる。また、基準位置PJに対する測定対象物Bの位置も、既知であるため、予め算出できる。そのため、移動体10の基準位置Pに対する測定対象物Bの位置も、予め算出可能といえる。センサ位置情報取得部46は、予め算出された、移動体10の基準位置Pに対する測定対象物Bの位置情報を、取得する。センサ位置情報取得部46は、移動体10の基準位置Pに対する測定対象物Bの位置情報として、移動体10の座標系における測定対象物Bの位置情報を取得するともいえる。 The processing of step S44 will be specifically described below. Here, the position of the measurement object B with respect to the reference position P of the moving body 10 is obtained from the position of the reference position P of the moving body 10 with respect to the reference position PJ of the jig 100 and the position of the measurement object B with respect to the reference position PJ. can be calculated. When the moving body 10 is fixed to the jig 100, the position of the reference position P of the moving body 10 with respect to the reference position PJ of the jig 100 is uniquely defined and can be calculated in advance. Further, since the position of the measuring object B with respect to the reference position PJ is also known, it can be calculated in advance. Therefore, it can be said that the position of the measuring object B with respect to the reference position P of the moving body 10 can also be calculated in advance. The sensor position information acquisition unit 46 acquires the position information of the measurement object B with respect to the reference position P of the moving body 10, which has been calculated in advance. It can be said that the sensor position information acquisition unit 46 acquires the position information of the measurement object B in the coordinate system of the mobile body 10 as the position information of the measurement object B with respect to the reference position P of the mobile body 10 .

センサ位置情報取得部46は、移動体10の座標系における測定対象物Bの位置情報と、センサ26の座標系における測定対象物Bの位置情報(測定対象物位置情報)とから、移動体10の座標系におけるセンサ26の位置及び姿勢を、センサ位置情報として算出する。言い換えれば、センサ位置情報取得部46は、センサ26の座標系を移動体10の座標系に変換するための変換量を、センサ位置情報として算出する。 The sensor position information acquisition unit 46 acquires the position information of the measurement object B in the coordinate system of the moving body 10 and the position information of the measurement object B in the coordinate system of the sensor 26 (measurement object position information) to determine the position of the moving body 10. is calculated as sensor position information. In other words, the sensor position information acquisition unit 46 calculates the conversion amount for converting the coordinate system of the sensor 26 into the coordinate system of the moving body 10 as the sensor position information.

このように、第5実施形態によれば、移動体10の位置及び姿勢を治具100に対して固定した状態でキャリブレーションを実行するため、移動体10の座標系における測定対象物Bの位置が既知となる。そのため、センサ26の座標系における測定対象物Bの位置情報を検出させるだけで、センサ位置情報を算出してセンサ26のキャリブレーションを行うことができる。すなわち、第3実施形態では、治具100を用いてキャリブレーションを実行するため、第1実施形態のように設計情報を用いた基準センサ位置情報を用いる必要がなくなる。第5実施形態によると、設計情報を用いる必要がないため、例えば設計情報と実際の状態がずれている場合などでも、センサ位置情報の算出精度の低下を抑制できる。 As described above, according to the fifth embodiment, since the calibration is executed with the position and orientation of the moving body 10 fixed with respect to the jig 100, the position of the measuring object B in the coordinate system of the moving body 10 is is known. Therefore, the sensor position information can be calculated and the sensor 26 can be calibrated simply by detecting the position information of the measuring object B in the coordinate system of the sensor 26 . That is, in the third embodiment, since calibration is performed using the jig 100, it is not necessary to use reference sensor position information using design information as in the first embodiment. According to the fifth embodiment, since it is not necessary to use design information, it is possible to suppress deterioration in the calculation accuracy of the sensor position information even when the design information and the actual state are deviated from each other.

また、第5実施形態においては、全てのセンサ26に、治具100に対して位置が固定された測定対象物Bを検出させてよい。この場合、全てのセンサ26について、図20で説明した処理を実行することで、センサ26毎にセンサ位置情報を直接算出することが可能となる。この場合、第1~第4実施形態のような、センサ26間のキャリブレーション、すなわちセンサ間位置情報の算出が不要となる。なお、複数のセンサ26に治具100に対して位置が固定された測定対象物Bを検出させる場合には、複数のセンサ26に、同じ測定対象物Bを検出させてもよいし、治具100に対して位置が固定された異なる測定対象物Bを検出させてもよい。 Further, in the fifth embodiment, all the sensors 26 may detect the measuring object B whose position is fixed with respect to the jig 100 . In this case, it is possible to directly calculate the sensor position information for each sensor 26 by executing the processing described with reference to FIG. In this case, the calibration between the sensors 26, that is, the calculation of the inter-sensor positional information, as in the first to fourth embodiments, becomes unnecessary. When a plurality of sensors 26 are caused to detect the measuring object B whose position is fixed with respect to the jig 100, the plurality of sensors 26 may be made to detect the same measuring object B, or the jig may A different measuring object B whose position is fixed with respect to 100 may be detected.

ただし、第5実施形態においては、少なくとも一部のセンサ26に、治具100に対して位置が固定された測定対象物Bを検出させればよい。この場合、治具100に対して位置が固定された測定対象物Bを検出させなかったセンサ26に対しては、第1~第4実施形態と同様の方法で、センサ位置情報を算出すればよい。すなわちこの場合、図20で説明した処理によってセンサ位置情報が算出されたセンサ26と、他のセンサ26とに、位置及び姿勢が未知の測定対象物B(対象物)を検出させて、センサ間位置情報を算出し、そのセンサ間位置情報に基づき、他のセンサ26のセンサ位置情報を算出できる。 However, in the fifth embodiment, at least some of the sensors 26 may be caused to detect the measuring object B whose position is fixed with respect to the jig 100 . In this case, for the sensor 26 that did not detect the measuring object B whose position is fixed with respect to the jig 100, the sensor position information can be calculated by the same method as in the first to fourth embodiments. good. That is, in this case, the sensor 26 whose sensor position information has been calculated by the processing described with reference to FIG. Position information can be calculated, and sensor position information of the other sensors 26 can be calculated based on the inter-sensor position information.

(効果)
以上説明したように、本開示に係るキャリブレーション方法は、移動体10に備えられて周囲を検出する複数のセンサ26のキャリブレーションを行う。本キャリブレーション方法は、複数のセンサ26のうちの少なくとも2つのセンサ26に、同じ測定対象物Bの位置情報(測定対象物位置情報)を検出させるステップと、同じ測定対象物Bの位置情報に基づき、センサ26同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するステップと、移動体10の設計情報に基づき、移動体10の基準位置Pに対する、複数のセンサ26のうちの基準となるセンサである基準センサの位置及び姿勢の情報である基準センサ位置情報を取得するステップと、センサ間位置情報及び基準センサ位置情報に基づき、移動体10の基準位置Pに対する、それぞれのセンサ26の位置及び姿勢の情報であるセンサ位置情報を取得するステップと、を含む。本方法によると、少なくとも2つのセンサ26に同じ測定対象物Bを検出させるだけで、基準位置Pに対する各センサ26の相対位置及び姿勢を算出することが可能となる。そのため、本方法によると、一対のセンサ26の検出範囲に測定対象物Bがあれば、各センサ26のキャリブレーションが可能となるため、作業者の負荷を低減できる。また、本方法によると、キャリブレーション精度が作業者の熟練度に依存する度合いを減らして、キャリブレーション精度の低下も抑制できる。
(effect)
As described above, the calibration method according to the present disclosure calibrates the plurality of sensors 26 provided in the moving body 10 to detect the surroundings. This calibration method includes a step of causing at least two sensors 26 out of the plurality of sensors 26 to detect the position information of the same measurement object B (measurement object position information); obtaining inter-sensor position information, which is information on the relative positions and relative orientations of the sensors 26; a step of acquiring reference sensor position information, which is information on the position and orientation of a reference sensor that serves as a reference; obtaining sensor location information, which is 26 position and orientation information. According to this method, it is possible to calculate the relative position and orientation of each sensor 26 with respect to the reference position P simply by causing at least two sensors 26 to detect the same object B to be measured. Therefore, according to this method, if the measurement object B is within the detection range of the pair of sensors 26, each sensor 26 can be calibrated, so that the burden on the operator can be reduced. Moreover, according to this method, it is possible to reduce the degree of dependence of the calibration accuracy on the skill level of the operator, and to suppress deterioration of the calibration accuracy.

基準センサ位置情報を取得するステップにおいては、基準センサと他のセンサ26とのセンサ間位置情報にも基づき、基準センサ位置情報を取得する。本方法によると、移動体10の設計情報に加えて、センサ間位置情報にも基づき基準センサ位置情報を取得するため、キャリブレーション精度の低下が抑制できる。 In the step of acquiring the reference sensor position information, the reference sensor position information is also acquired based on inter-sensor position information between the reference sensor and the other sensor 26 . According to this method, the reference sensor position information is obtained based on the inter-sensor position information in addition to the design information of the moving body 10, so that deterioration in calibration accuracy can be suppressed.

測定対象物Bの位置情報を検出させるステップにおいては、測定対象物Bで反射された光をセンサ26に検出させ、センサ26が検出した光の情報に基づき、センサ26の座標系における反射位置の座標を算出し、反射位置の座標に基づき、測定対象物Bの位置情報を算出する。本方法によると、測定対象物Bの反射位置の座標に基づき測定対象物Bの位置情報を算出するため、センサ26のキャリブレーションを適切に実行できる。 In the step of detecting the position information of the measurement object B, the light reflected by the measurement object B is detected by the sensor 26, and the reflection position in the coordinate system of the sensor 26 is determined based on the information of the light detected by the sensor 26. The coordinates are calculated, and the position information of the measuring object B is calculated based on the coordinates of the reflection position. According to this method, since the position information of the measurement object B is calculated based on the coordinates of the reflection position of the measurement object B, the sensor 26 can be properly calibrated.

また、本開示では、測定対象物Bの形状が既知であり、センサ間位置情報を取得するステップにおいては、測定対象物Bの形状に基づき、センサ間位置情報を算出するために用いる反射位置の座標(点群M)を選択する。本方法によると、センサ間位置情報の算出精度の低下を抑制できる。 Further, in the present disclosure, the shape of the measurement object B is known, and in the step of acquiring the inter-sensor position information, based on the shape of the measurement object B, the reflection position used for calculating the inter-sensor position information Select coordinates (point cloud M). According to this method, it is possible to suppress a decrease in the calculation accuracy of the inter-sensor position information.

センサ間位置情報を取得するステップにおいては、第1センサ(例えばセンサ26B)によって検出された第1センサの座標系における反射位置の第1座標を第2センサ(例えばセンサ26B)の座標系に変換した第1変換座標と、第2センサによって検出された第2センサの座標系における反射位置の第2座標との差分が、所定値以下となるように、第1センサの座標系から前記第2センサの座標系への変換量を設定する。本方法によると、第1変換座標と第2座標との差分が所定値以下となるように座標系の変換量を設定するため、センサ26のキャリブレーション精度の低下を抑制できる。 In the step of acquiring inter-sensor position information, the first coordinates of the reflected position in the coordinate system of the first sensor detected by the first sensor (eg, sensor 26B) are converted into the coordinate system of the second sensor (eg, sensor 26B). and the second coordinates of the reflection position in the coordinate system of the second sensor detected by the second sensor are equal to or less than a predetermined value. Sets the amount of transformation to the coordinate system of the sensor. According to this method, since the coordinate system conversion amount is set so that the difference between the first converted coordinates and the second coordinates is equal to or less than the predetermined value, deterioration in the calibration accuracy of the sensor 26 can be suppressed.

測定対象物Bの位置情報を検出させるステップにおいては、第1センサ(例えばセンサ26B)と第2センサ(例えばセンサ26A)とに、反射位置の座標を複数回検出させる。そして、センサ間位置情報を取得するステップにおいては、それぞれの第1変換座標と第2座標との差分に基づいて、変換量を設定する。本方法によると、複数のデータを用いて変換量を設定するため、センサ26のキャリブレーション精度の低下を抑制できる。 In the step of detecting the position information of the measurement object B, the first sensor (eg sensor 26B) and the second sensor (eg sensor 26A) are caused to detect the coordinates of the reflection position multiple times. Then, in the step of acquiring the inter-sensor position information, the conversion amount is set based on the difference between the first conversion coordinates and the second coordinates. According to this method, since the conversion amount is set using a plurality of data, deterioration in the calibration accuracy of the sensor 26 can be suppressed.

センサ間位置情報を取得するステップにおいては、第1センサ(例えばセンサ26D)の座標系から第2センサ(例えばセンサ26A)の座標系への変換量を用いて、第1センサの座標系における任意の位置及び姿勢を、第2センサの座標系における位置及び姿勢に変換し、第2センサの座標系から第1センサの座標系への変換量を用いて、第2センサの座標系における位置及び姿勢を第1センサの座標系における位置及び姿勢に変換した場合に、変換前の第1センサの座標系における位置及び姿勢と、変換後の第1センサの座標系における位置及び姿勢との差分が所定値以下となるように、第1センサの座標系から第2センサの座標系への変換量を設定する。本方法によると、座標系の変換が恒等変換に近づくように変換量を設定するため、センサ26のキャリブレーション精度の低下を抑制できる。 In the step of acquiring the inter-sensor position information, an arbitrary to the position and orientation in the coordinate system of the second sensor, and using the amount of transformation from the coordinate system of the second sensor to the coordinate system of the first sensor, the position and orientation in the coordinate system of the second sensor When the orientation is converted into the position and orientation in the coordinate system of the first sensor, the difference between the position and orientation in the coordinate system of the first sensor before conversion and the position and orientation in the coordinate system of the first sensor after conversion is A conversion amount from the coordinate system of the first sensor to the coordinate system of the second sensor is set so as to be equal to or less than a predetermined value. According to this method, since the transformation amount is set so that the transformation of the coordinate system approaches the identity transformation, deterioration in the calibration accuracy of the sensor 26 can be suppressed.

測定対象物Bの位置情報を検出させるステップにおいては、反射位置の座標を示す点群Mが所定方向(走査方法SC)に並ぶように、センサ26に所定方向に沿って光を検出させる。また、センサ間位置情報を取得するステップにおいては、所定方向における両端の所定数の点群M(反射位置の座標)以外の反射位置の座標に基づき、センサ間位置情報を算出する。本方法によると、走査方向における測定対象物Bの端部付近の点群Mを除外することで、キャリブレーション精度の低下を抑制できる。 In the step of detecting the position information of the measuring object B, the sensor 26 is caused to detect light along a predetermined direction so that the point group M indicating the coordinates of the reflection position is aligned in the predetermined direction (scanning method SC). Further, in the step of acquiring the inter-sensor position information, the inter-sensor position information is calculated based on the coordinates of the reflection positions other than the predetermined number of point groups M (coordinates of the reflection positions) at both ends in the predetermined direction. According to this method, the reduction in calibration accuracy can be suppressed by excluding the point cloud M near the edge of the measurement object B in the scanning direction.

センサ間位置情報を取得するステップにおいては、両端の座標を除去する前の点群Mに基づいて特定された測定対象物Bの形状(線分LI)と、両端の座標を除去した後の点群Mに基づいて特定された測定対象物Bの形状(線分LI)との差が、閾値以上であるかを判定する。そして、差が閾値以上である場合には、両端の座標の除去前後で特定された測定対象物Bの形状(線分LI)の差が閾値未満となるまで、両端の座標を除去した後の点群Mからさらに両端の座標を除去する処理を繰り返し、差が閾値未満となった際に残っている点群Mに基づき、センサ間位置情報を算出する。本方法によると、特定される形状が安定するまで点群Mの除去を行うため、精度が低い点群Mを適切に除去して、キャリブレーション精度の低下を抑制できる。 In the step of acquiring inter-sensor position information, the shape (line segment LI) of the measurement object B specified based on the point group M before removing the coordinates at both ends, and the point after removing the coordinates at both ends It is determined whether the difference from the shape (line segment LI) of the measurement object B specified based on the group M is equal to or greater than a threshold. Then, when the difference is equal to or greater than the threshold, the difference between the shape (line segment LI) of the measurement object B specified before and after the coordinates at both ends are removed is less than the threshold, until the difference after the coordinates at both ends are removed is less than the threshold. The processing of further removing the coordinates of both ends from the point group M is repeated, and inter-sensor position information is calculated based on the remaining point group M when the difference becomes less than the threshold value. According to this method, since the point group M is removed until the specified shape is stabilized, it is possible to appropriately remove the point group M with low accuracy, thereby suppressing deterioration in calibration accuracy.

本開示に係るプログラムは、移動体10に備えられて周囲を検出する複数のセンサ26のキャリブレーション方法をコンピュータに実行させる。本プログラムは、複数のセンサ26のうちの少なくとも2つのセンサ26に、同じ測定対象物Bの位置情報(測定対象物位置情報)を検出させるステップと、同じ測定対象物Bの位置情報に基づき、センサ26同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するステップと、移動体10の設計情報に基づき、移動体10の基準位置Pに対する、複数のセンサ26のうちの基準となるセンサである基準センサの位置及び姿勢の情報である基準センサ位置情報を取得するステップと、センサ間位置情報及び基準センサ位置情報に基づき、移動体10の基準位置Pに対する、それぞれのセンサ26の位置及び姿勢の情報であるセンサ位置情報を取得するステップと、を、コンピュータに実行させる。本プログラムによると、作業者の負荷を低減できる。 A program according to the present disclosure causes a computer to execute a method of calibrating a plurality of sensors 26 provided in the mobile object 10 to detect the surroundings. This program comprises a step of causing at least two sensors 26 out of the plurality of sensors 26 to detect position information of the same measurement object B (measurement object position information), and based on the position information of the same measurement object B, a step of obtaining inter-sensor position information, which is information on the relative positions and relative orientations of the sensors 26; a step of acquiring reference sensor position information, which is information on the position and orientation of a reference sensor that is a sensor that is a sensor, and based on the inter-sensor position information and the reference sensor position information, the position of each sensor 26 with respect to the reference position P of the moving body 10 and obtaining sensor position information, which is position and orientation information. According to this program, the burden on workers can be reduced.

本開示に係るキャリブレーション装置30は、移動体10に備えられて周囲を検出する複数のセンサ26のキャリブレーションを実行するものであり、測定対象物位置取得部40と、センサ間位置情報取得部42と、基準センサ位置情報取得部44と、センサ位置情報取得部46とを含む。測定対象物位置取得部40は、複数のセンサ26のうちの少なくとも2つのセンサ26に、同じ測定対象物Bの位置情報(測定対象物位置情報)を検出させる。センサ間位置情報取得部42は、同じ測定対象物Bの位置情報に基づき、センサ26同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得する。基準センサ位置情報取得部44は、移動体10の設計情報に基づき、移動体10の基準位置Pに対する、複数のセンサ26のうちの基準となるセンサである基準センサの位置及び姿勢の情報である基準センサ位置情報を取得する。センサ位置情報取得部46は、センサ間位置情報及び基準センサ位置情報に基づき、移動体10の基準位置Pに対する、それぞれのセンサ26の位置及び姿勢の情報であるセンサ位置情報を取得する。本装置によると、作業者の負荷を低減できる。 The calibration device 30 according to the present disclosure performs calibration of a plurality of sensors 26 that are provided in the mobile body 10 and detect the surroundings. 42 , a reference sensor position information acquisition unit 44 , and a sensor position information acquisition unit 46 . The measurement object position acquisition unit 40 causes at least two sensors 26 out of the plurality of sensors 26 to detect the position information of the same measurement object B (measurement object position information). The inter-sensor position information acquisition unit 42 acquires inter-sensor position information, which is information on the relative positions and relative orientations of the sensors 26 based on the position information of the same measurement object B. FIG. The reference sensor position information acquisition unit 44 is based on the design information of the moving body 10, and is information on the position and orientation of the reference sensor, which is the reference sensor among the plurality of sensors 26, with respect to the reference position P of the moving body 10. Acquire reference sensor position information. The sensor position information acquisition unit 46 acquires sensor position information, which is information on the position and orientation of each sensor 26 with respect to the reference position P of the moving body 10, based on the inter-sensor position information and the reference sensor position information. According to this device, the burden on the operator can be reduced.

本開示に係るキャリブレーション方法は、移動体10に備えられて周囲を検出するセンサ26のキャリブレーション方法である。本キャリブレーション方法は、治具10の基準位置PJに対して、移動体10の基準位置Pの位置及び姿勢を固定させるステップと、センサ26に、治具100の基準位置PJに対する位置及び姿勢が既知である測定対象物Bの位置情報を検出させるステップと、測定対象物Bの位置情報の検出結果と、移動体10の基準位置に対する測定対象物Bの位置情報とに基づき、移動体10の基準位置Pに対する、センサ26の位置及び姿勢の情報であるセンサ位置情報を取得するステップと、を含む。本方法によると、作業者の負荷を低減できる。 A calibration method according to the present disclosure is a method for calibrating the sensor 26 provided in the moving body 10 to detect the surroundings. This calibration method includes steps of fixing the position and orientation of the reference position P of the moving body 10 with respect to the reference position PJ of the jig 10, Based on the step of detecting the known position information of the measurement object B, the detection result of the position information of the measurement object B, and the position information of the measurement object B with respect to the reference position of the mobile object 10, and obtaining sensor position information, which is information of the position and orientation of the sensor 26 with respect to the reference position P. According to this method, the burden on the worker can be reduced.

また、移動体10は複数のセンサ26を備えており、本開示に係るキャリブレーション方法は、複数のセンサ26のうちの少なくとも2つのセンサ26に、同じ対象物の位置情報を検出させるステップと、同じ対象物の位置情報に基づき、センサ26同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するステップと、をさらに含む。また、センサ位置情報を取得するステップにおいては、測定対象物Bの位置情報の検出結果と、センサ間位置情報と、移動体10の基準位置Pに対する測定対象物Bの位置情報とに基づき、それぞれのセンサ26についてのセンサ位置情報を取得する。本方法によると、作業者の負荷を低減できる。 In addition, the moving body 10 includes a plurality of sensors 26, and the calibration method according to the present disclosure includes the step of causing at least two sensors 26 out of the plurality of sensors 26 to detect the position information of the same object; and obtaining inter-sensor position information, which is information on the relative positions and relative orientations of the sensors 26 based on the position information of the same object. Further, in the step of acquiring the sensor position information, based on the detection result of the position information of the measurement object B, the inter-sensor position information, and the position information of the measurement object B with respect to the reference position P of the moving body 10, acquires sensor position information about the sensor 26 of . According to this method, the burden on the worker can be reduced.

以上、本発明の実施形態を説明したが、この実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。 Although the embodiment of the present invention has been described above, the embodiment is not limited by the contents of this embodiment. In addition, the components described above include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those within the so-called equivalent range. Furthermore, the components described above can be combined as appropriate. Furthermore, various omissions, replacements, or modifications of components can be made without departing from the gist of the above-described embodiments.

10 移動体
26、26A、26B、26C、26D センサ
30 キャリブレーション装置
40 測定対象物位置取得部
42 センサ間位置情報取得部
44 基準センサ位置情報取得部
46 センサ位置情報取得部
B 測定対象物
P 基準位置
REFERENCE SIGNS LIST 10 moving body 26, 26A, 26B, 26C, 26D sensor 30 calibration device 40 measurement object position acquisition unit 42 inter-sensor position information acquisition unit 44 reference sensor position information acquisition unit 46 sensor position information acquisition unit B measurement object P reference position

Claims (10)

移動体に備えられて周囲を検出する複数のセンサのキャリブレーション方法であって、
前記複数のセンサのうちの少なくとも2つのセンサに、同じ測定対象物の位置情報を検出させるステップと、
前記同じ測定対象物の位置情報に基づき、前記センサ同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するステップと、
前記移動体の設計情報に基づき、前記移動体の基準位置に対する、前記複数のセンサのうちの基準となるセンサである基準センサの位置と、前記移動体の基準方向に対する基準センサの向いている方向の角度との情報である基準センサ位置情報を取得するステップと、
前記センサ間位置情報及び前記基準センサ位置情報に基づき、前記移動体の基準位置に対する、それぞれの前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するステップと、
を含
前記測定対象物の位置情報を検出させるステップにおいては、前記測定対象物で反射された光を前記センサに検出させ、前記センサが検出した光の情報に基づき、前記センサの座標系における、前記測定対象物の前記光が反射された箇所である反射位置の座標を算出し、前記反射位置の座標に基づき、前記測定対象物の位置情報を算出し、
前記センサ間位置情報を取得するステップにおいては、
前記センサ間位置情報を算出するために用いる前記反射位置の座標を選択し、
第1センサによって検出された前記第1センサの座標系における前記反射位置の第1座標を第2センサの座標系に変換した第1変換座標と、前記第2センサによって検出された前記第2センサの座標系における前記反射位置の第2座標との差分が、所定値以下となるように、前記第1センサの座標系から前記第2センサの座標系への変換量を設定する、
キャリブレーション方法。
A method for calibrating a plurality of sensors provided on a moving body for detecting the surroundings,
causing at least two of the plurality of sensors to detect position information of the same measurement object;
obtaining inter-sensor position information, which is information on relative positions and relative orientations of the sensors, based on the position information of the same object to be measured;
Based on design information of the moving body, a position of a reference sensor among the plurality of sensors, which is a reference sensor, with respect to a reference position of the moving body, and a direction in which the reference sensor faces with respect to a reference direction of the moving body. obtaining reference sensor position information, which is information about the angle of
a step of acquiring sensor position information, which is information on the position and orientation of each of the sensors with respect to the reference position of the moving object, based on the inter-sensor position information and the reference sensor position information;
including
In the step of detecting position information of the object to be measured, the sensor is caused to detect light reflected by the object to be measured, and based on the information of the light detected by the sensor, the measurement is performed in the coordinate system of the sensor. calculating coordinates of a reflection position, which is a portion of an object where the light is reflected, and calculating position information of the measurement object based on the coordinates of the reflection position;
In the step of acquiring the inter-sensor position information,
selecting the coordinates of the reflection position used to calculate the inter-sensor position information;
First converted coordinates obtained by converting the first coordinates of the reflection position in the coordinate system of the first sensor detected by the first sensor into the coordinate system of the second sensor, and the second sensor detected by the second sensor. setting the amount of conversion from the coordinate system of the first sensor to the coordinate system of the second sensor such that the difference between the second coordinate of the reflection position in the coordinate system of is equal to or less than a predetermined value;
calibration method.
前記基準センサ位置情報を取得するステップにおいては、前記基準センサと他の前記センサとの前記センサ間位置情報にも基づき、前記基準センサ位置情報を取得する、請求項1に記載のキャリブレーション方法。 2. The calibration method according to claim 1, wherein in the step of acquiring the reference sensor position information, the reference sensor position information is also acquired based on the inter-sensor position information between the reference sensor and the other sensor. 前記測定対象物は形状が既知であり、
前記センサ間位置情報を取得するステップにおいては、前記測定対象物の形状に基づき、前記センサ間位置情報を算出するために用いる前記反射位置の座標を選択する、請求項に記載のキャリブレーション方法。
The measurement object has a known shape,
The calibration method according to claim 1 , wherein in the step of acquiring the inter-sensor position information, the coordinates of the reflection position used for calculating the inter-sensor position information are selected based on the shape of the measurement object. .
前記測定対象物の位置情報を検出させるステップにおいては、前記第1センサと前記第2センサとに、前記反射位置の座標を複数回検出させ、
前記センサ間位置情報を取得するステップにおいては、それぞれの前記第1変換座標と前記第2座標との差分に基づいて、前記変換量を設定する、請求項に記載のキャリブレーション方法。
In the step of detecting the position information of the measurement object, the first sensor and the second sensor are caused to detect the coordinates of the reflection position a plurality of times,
2. The calibration method according to claim 1 , wherein in the step of acquiring the inter-sensor position information, the conversion amount is set based on a difference between each of the first conversion coordinates and the second coordinates.
前記センサ間位置情報を取得するステップにおいては、前記第1センサの座標系から前記第2センサの座標系への変換量を用いて、前記第1センサの座標系における任意の位置及び姿勢を前記第2センサの座標系における位置及び姿勢に変換し、前記第2センサの座標系から前記第1センサの座標系への変換量を用いて、前記第2センサの座標系における位置及び姿勢を前記第1センサの座標系における位置及び姿勢に変換した場合に、変換前の前記第1センサの座標系における位置及び姿勢と、変換後の前記第1センサの座標系における位置及び姿勢との差分が所定値以下となるように、前記第1センサの座標系から前記第2センサの座標系への変換量を設定する、請求項又は請求項に記載のキャリブレーション方法。 In the step of acquiring the inter-sensor position information, an arbitrary position and orientation in the coordinate system of the first sensor is obtained by using a transformation amount from the coordinate system of the first sensor to the coordinate system of the second sensor. transforming the position and orientation in the coordinate system of the second sensor, and using the amount of transformation from the coordinate system of the second sensor to the coordinate system of the first sensor, transforming the position and orientation in the coordinate system of the second sensor into the When converted to the position and orientation in the coordinate system of the first sensor, the difference between the position and orientation in the coordinate system of the first sensor before conversion and the position and orientation in the coordinate system of the first sensor after conversion is 5. The calibration method according to claim 1 , wherein the amount of transformation from the coordinate system of said first sensor to the coordinate system of said second sensor is set so as to be equal to or less than a predetermined value. 前記測定対象物の位置情報を検出させるステップにおいては、前記反射位置の座標を示す点群が所定方向に並ぶように、前記センサに前記所定方向に沿って光を検出させ、
前記センサ間位置情報を取得するステップにおいては、前記所定方向における両端の所定数の前記反射位置の座標以外の前記反射位置の座標に基づき、前記センサ間位置情報を算出する、請求項から請求項のいずれか1項に記載のキャリブレーション方法。
In the step of detecting the position information of the object to be measured, causing the sensor to detect light along the predetermined direction so that the point group indicating the coordinates of the reflection position is aligned in the predetermined direction;
In the step of acquiring the inter-sensor position information, the inter-sensor position information is calculated based on the coordinates of the reflection positions other than the coordinates of the reflection positions of a predetermined number at both ends in the predetermined direction. Item 6. The calibration method according to any one of items 5 .
前記センサ間位置情報を取得するステップにおいては、
両端の座標を除去する前の点群に基づいて特定された前記測定対象物の形状と、両端の座標を除去した後の点群に基づいて特定された前記測定対象物の形状との差が、閾値以上であるかを判定し、
前記差が閾値以上である場合には、両端の座標の除去前後で特定された前記測定対象物の形状の差が閾値未満となるまで、両端の座標を除去した後の点群からさらに両端の座標を除去する処理を繰り返し、前記差が閾値未満となった際に残っている点群に基づき、前記センサ間位置情報を算出する、請求項に記載のキャリブレーション方法。
In the step of acquiring the inter-sensor position information,
The difference between the shape of the measurement object specified based on the point group before the coordinates of both ends are removed and the shape of the measurement object specified based on the point group after the coordinates of both ends are removed , to determine if it is greater than or equal to the threshold,
When the difference is equal to or greater than the threshold, the point cloud after removing the coordinates at both ends is further removed until the difference in the shape of the measurement object specified before and after the coordinates at both ends are removed is less than the threshold. 7. The calibration method according to claim 6 , wherein the process of removing coordinates is repeated, and the inter-sensor position information is calculated based on points remaining when the difference is less than a threshold.
移動体に備えられて周囲を検出する複数のセンサのキャリブレーション方法をコンピュータに実行させるプログラムであって、
前記複数のセンサのうちの少なくとも2つのセンサに、同じ測定対象物の位置情報を検出させるステップと、
前記同じ測定対象物の位置情報に基づき、前記センサ同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するステップと、
前記移動体の設計情報に基づき、前記移動体の基準位置に対する、前記複数のセンサのうちの基準となるセンサである基準センサの位置と、前記移動体の基準方向に対する基準センサの向いている方向の角度との情報である基準センサ位置情報を取得するステップと、
前記センサ間位置情報及び前記基準センサ位置情報に基づき、前記移動体の基準位置に対する、それぞれの前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するステップと、
含み、
前記測定対象物の位置情報を検出させるステップにおいては、前記測定対象物で反射された光を前記センサに検出させ、前記センサが検出した光の情報に基づき、前記センサの座標系における、前記測定対象物の前記光が反射された箇所である反射位置の座標を算出し、前記反射位置の座標に基づき、前記測定対象物の位置情報を算出し、
前記センサ間位置情報を取得するステップにおいては、
前記センサ間位置情報を算出するために用いる前記反射位置の座標を選択し、
第1センサによって検出された前記第1センサの座標系における前記反射位置の第1座標を第2センサの座標系に変換した第1変換座標と、前記第2センサによって検出された前記第2センサの座標系における前記反射位置の第2座標との差分が、所定値以下となるように、前記第1センサの座標系から前記第2センサの座標系への変換量を設定する、ことを、コンピュータに実行させる、
プログラム。
A program for causing a computer to execute a method of calibrating a plurality of sensors provided in a mobile body for detecting the surroundings,
causing at least two of the plurality of sensors to detect position information of the same measurement object;
obtaining inter-sensor position information, which is information on relative positions and relative orientations of the sensors, based on the position information of the same object to be measured;
Based on design information of the moving body, a position of a reference sensor among the plurality of sensors, which is a reference sensor, with respect to a reference position of the moving body, and a direction in which the reference sensor faces with respect to a reference direction of the moving body. obtaining reference sensor position information, which is information about the angle of
a step of acquiring sensor position information, which is information on the position and orientation of each of the sensors with respect to the reference position of the moving object, based on the inter-sensor position information and the reference sensor position information;
including
In the step of detecting position information of the object to be measured, the sensor is caused to detect light reflected by the object to be measured, and based on the information of the light detected by the sensor, the measurement is performed in the coordinate system of the sensor. calculating coordinates of a reflection position, which is a portion of an object where the light is reflected, and calculating position information of the measurement object based on the coordinates of the reflection position;
In the step of acquiring the inter-sensor position information,
selecting the coordinates of the reflection position used to calculate the inter-sensor position information;
First converted coordinates obtained by converting the first coordinates of the reflection position in the coordinate system of the first sensor detected by the first sensor into the coordinate system of the second sensor, and the second sensor detected by the second sensor. setting the amount of conversion from the coordinate system of the first sensor to the coordinate system of the second sensor such that the difference between the second coordinate of the reflection position in the coordinate system of is equal to or less than a predetermined value; make the computer run
program.
移動体に備えられて周囲を検出する複数のセンサのキャリブレーション装置であって、
前記複数のセンサのうちの少なくとも2つのセンサに、同じ測定対象物の位置情報を検出させる測定対象物位置取得部と、
前記同じ測定対象物の位置情報に基づき、前記センサ同士の相対位置及び相対姿勢の情報であるセンサ間位置情報を取得するセンサ間位置情報取得部と、
前記移動体の設計情報に基づき、前記移動体の基準位置に対する、前記複数のセンサのうちの基準となるセンサである基準センサの位置と、前記移動体の基準方向に対する基準センサの向いている方向の角度との情報である基準センサ位置情報を取得する基準センサ位置情報取得部と、
前記センサ間位置情報及び前記基準センサ位置情報に基づき、前記移動体の基準位置に対する、それぞれの前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するセンサ位置情報取得部と、
を含
前記測定対象物位置情報取得部は、前記測定対象物で反射された光を前記センサに検出させ、前記センサが検出した光の情報に基づき、前記センサの座標系における、前記測定対象物の前記光が反射された箇所である反射位置の座標を算出し、前記反射位置の座標に基づき、前記測定対象物の位置情報を算出し、
前記センサ間位置情報取得部は、
前記センサ間位置情報を算出するために用いる前記反射位置の座標を選択し、
第1センサによって検出された前記第1センサの座標系における前記反射位置の第1座標を第2センサの座標系に変換した第1変換座標と、前記第2センサによって検出された前記第2センサの座標系における前記反射位置の第2座標との差分が、所定値以下となるように、前記第1センサの座標系から前記第2センサの座標系への変換量を設定する、
キャリブレーション装置。
A calibration device for a plurality of sensors provided in a moving body to detect the surroundings,
a measurement object position acquisition unit that causes at least two sensors among the plurality of sensors to detect position information of the same measurement object;
an inter-sensor position information acquisition unit that acquires inter-sensor position information, which is information on the relative positions and relative orientations of the sensors, based on the position information of the same measurement object;
Based on design information of the moving body, a position of a reference sensor among the plurality of sensors, which is a reference sensor, with respect to a reference position of the moving body, and a direction in which the reference sensor faces with respect to a reference direction of the moving body. A reference sensor position information acquisition unit that acquires reference sensor position information that is information about the angle of
a sensor position information acquisition unit that acquires sensor position information, which is information on the position and orientation of each of the sensors with respect to the reference position of the moving object, based on the inter-sensor position information and the reference sensor position information;
including
The measurement object position information acquisition unit causes the sensor to detect the light reflected by the measurement object, and based on the information of the light detected by the sensor, the measurement object position information acquisition unit in the coordinate system of the sensor. calculating the coordinates of the reflection position where the light is reflected, and calculating the position information of the measurement object based on the coordinates of the reflection position;
The inter-sensor position information acquisition unit
selecting the coordinates of the reflection position used to calculate the inter-sensor position information;
First converted coordinates obtained by converting the first coordinates of the reflection position in the coordinate system of the first sensor detected by the first sensor into the coordinate system of the second sensor, and the second sensor detected by the second sensor. setting the amount of conversion from the coordinate system of the first sensor to the coordinate system of the second sensor such that the difference between the second coordinate of the reflection position in the coordinate system of is equal to or less than a predetermined value;
calibration device.
移動体に備えられて周囲を検出するセンサのキャリブレーション方法であって、
治具の基準位置に対して、前記移動体の基準位置の位置及び姿勢を固定させるステップと、
前記センサに、前記治具の基準位置に対する位置及び姿勢が既知である測定対象物の位置情報を検出させるステップと、
前記測定対象物の位置情報の検出結果と、前記移動体の基準位置に対する前記測定対象物の位置情報とに基づき、前記移動体の基準位置に対する、前記センサの位置及び姿勢の情報であるセンサ位置情報を取得するステップと、
を含む、請求項1から請求項のいずれか1項に記載のキャリブレーション方法。
A method for calibrating a sensor provided in a moving body for detecting the surroundings,
a step of fixing the position and orientation of the reference position of the moving body with respect to the reference position of the jig;
a step of causing the sensor to detect position information of an object whose position and orientation with respect to the reference position of the jig are known;
A sensor position, which is information on the position and orientation of the sensor with respect to the reference position of the mobile object, based on the detection result of the position information of the measurement object and the position information of the measurement object with respect to the reference position of the mobile object. obtaining information;
A calibration method according to any one of claims 1 to 6 , comprising:
JP2021020135A 2021-02-10 2021-02-10 CALIBRATION METHOD, PROGRAM AND CALIBRATION DEVICE Active JP7209755B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021020135A JP7209755B2 (en) 2021-02-10 2021-02-10 CALIBRATION METHOD, PROGRAM AND CALIBRATION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021020135A JP7209755B2 (en) 2021-02-10 2021-02-10 CALIBRATION METHOD, PROGRAM AND CALIBRATION DEVICE

Publications (2)

Publication Number Publication Date
JP2022122712A JP2022122712A (en) 2022-08-23
JP7209755B2 true JP7209755B2 (en) 2023-01-20

Family

ID=82939268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021020135A Active JP7209755B2 (en) 2021-02-10 2021-02-10 CALIBRATION METHOD, PROGRAM AND CALIBRATION DEVICE

Country Status (1)

Country Link
JP (1) JP7209755B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253758A (en) 2011-06-01 2012-12-20 Harman Becker Automotive Systems Gmbh Method of calibrating vehicle vision system and vehicle vision system
JP2018017617A (en) 2016-07-28 2018-02-01 株式会社神戸製鋼所 Construction machine
CN109308714A (en) 2018-08-29 2019-02-05 清华大学苏州汽车研究院(吴江) Camera and laser radar information method for registering based on classification punishment
WO2019082700A1 (en) 2017-10-26 2019-05-02 パイオニア株式会社 Control device, control method, program, and storage medium
WO2020003497A1 (en) 2018-06-29 2020-01-02 株式会社小松製作所 Calibration device for imaging device, monitoring device, work machine and calibration method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102539287B1 (en) * 2019-06-04 2023-06-02 현대모비스 주식회사 Apparatus for controlling vehicle based on reliablity of multi lidar and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012253758A (en) 2011-06-01 2012-12-20 Harman Becker Automotive Systems Gmbh Method of calibrating vehicle vision system and vehicle vision system
JP2018017617A (en) 2016-07-28 2018-02-01 株式会社神戸製鋼所 Construction machine
WO2019082700A1 (en) 2017-10-26 2019-05-02 パイオニア株式会社 Control device, control method, program, and storage medium
WO2020003497A1 (en) 2018-06-29 2020-01-02 株式会社小松製作所 Calibration device for imaging device, monitoring device, work machine and calibration method
CN109308714A (en) 2018-08-29 2019-02-05 清华大学苏州汽车研究院(吴江) Camera and laser radar information method for registering based on classification punishment

Also Published As

Publication number Publication date
JP2022122712A (en) 2022-08-23

Similar Documents

Publication Publication Date Title
US10203402B2 (en) Method of error correction for 3D imaging device
CN111742241B (en) Optical distance measuring device
US9046599B2 (en) Object detection apparatus and method
US8917942B2 (en) Information processing apparatus, information processing method, and program
CN107710094B (en) Online calibration check during autonomous vehicle operation
JP2016210586A (en) Fork lift
CN108562908A (en) Laser navigation hybrid locating method, robot navigation method and Laser navigation system
JP2006322937A (en) Determination method of 3d coordinates of object surface
US20140003671A1 (en) Object recognition device
JP2010271166A (en) Obstacle detection device
JP2011027598A (en) Environment recognition device and moving body with the same
JP7209755B2 (en) CALIBRATION METHOD, PROGRAM AND CALIBRATION DEVICE
JP5763986B2 (en) MOBILE BODY AND METHOD FOR CONTROLLING MOBILE BODY
JP5874252B2 (en) Method and apparatus for measuring relative position with object
US20230280451A1 (en) Apparatus and method for calibrating three-dimensional scanner and refining point cloud data
CN116685866A (en) Method and technical installation for calibrating a laser scanner
JP5698969B2 (en) Measuring apparatus, position measuring system, measuring method, calibration method, and program
US9062975B2 (en) Carrier
JP6825093B2 (en) Detection devices, driving assistance systems, powered vehicles, and methods for powered vehicles
JP7179102B2 (en) Mobile object control method, mobile object and program
CN109752730B (en) Laser positioning method and system based on V-groove detection
CN113281771A (en) Double-radar fusion method and equipment applied to mobile robot
JP6539958B2 (en) Carrier
CN115004056A (en) Calibration of solid state lidar devices
KR101833055B1 (en) 3-dimensional measuring system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220607

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230110

R150 Certificate of patent or registration of utility model

Ref document number: 7209755

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150