JP2023076925A - Position/attitude estimation device - Google Patents

Position/attitude estimation device Download PDF

Info

Publication number
JP2023076925A
JP2023076925A JP2021189959A JP2021189959A JP2023076925A JP 2023076925 A JP2023076925 A JP 2023076925A JP 2021189959 A JP2021189959 A JP 2021189959A JP 2021189959 A JP2021189959 A JP 2021189959A JP 2023076925 A JP2023076925 A JP 2023076925A
Authority
JP
Japan
Prior art keywords
pallet
plane
point cloud
cloud data
post
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021189959A
Other languages
Japanese (ja)
Inventor
匡弘 岸田
Masahiro Kishida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2021189959A priority Critical patent/JP2023076925A/en
Publication of JP2023076925A publication Critical patent/JP2023076925A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a position/attitude estimation device capable of estimating with high accuracy a post pallet position and a post pallet attitude with respect to a forklift.SOLUTION: A position/attitude estimation device 21 comprise: a laser sensor 12 configured to irradiate laser toward the front face of a post pallet 5 and receive laser reflected light so as to detect a distance to the post pallet 5 and acquire point group data; a plane detection unit 17 configured to detect a plane corresponding to a front face 7a of a pallet part 7 and to a front face 8a of a column part 8 based on the point group data; and an estimation calculation unit 18 configured to perform calculation for estimating position and attitude of the post pallet 5 with respect to a forklift 1 using the plane corresponding to the front faces 7a, 8a. The estimation calculation unit 18 extracts a transverse line corresponding to the pallet part 7 and a vertical line corresponding to the column part 8 based on the plane corresponding to the front faces 7a, 8a, and calculates the position and the attitude of the post pallet 5 with respect to the forklift 1 based on the transverse line and the vertical line.SELECTED DRAWING: Figure 3

Description

本発明は、位置姿勢推定装置に関する。 The present invention relates to a position and orientation estimation device.

従来の位置姿勢推定装置としては、例えば特許文献1に記載されている技術が知られている。特許文献1に記載の位置姿勢推定装置は、パレットを検出する単眼カメラと、この単眼カメラと接続されたコントローラとを備えている。コントローラは、単眼カメラの撮像画像データに基づいてパレットを検知し、撮像画像データにおいてパレットの前面と2つのパレット穴とを取り囲むような枠線が指定された枠付き撮像画像データを作成するパレット検知部と、枠付き撮像画像データを用いてパレットの位置及び姿勢を推定する推定演算部とを有している。 As a conventional position/orientation estimation device, for example, the technology described in Patent Document 1 is known. The position/orientation estimation apparatus described in Patent Document 1 includes a monocular camera that detects a palette, and a controller connected to the monocular camera. The controller detects the pallet based on the image data captured by the monocular camera, and creates framed captured image data in which a frame surrounding the front surface of the pallet and the two pallet holes is specified in the captured image data. and an estimation calculation unit for estimating the position and orientation of the pallet using framed captured image data.

特開2021-24718号公報Japanese Patent Application Laid-Open No. 2021-24718

ところで、フォークリフトによる荷役作業に使用されるパレットの一つとして、荷物が載置された状態で段重ねすることが可能なポストパレットがある。そのようなポストパレットについても、フォークリフトに対する位置及び姿勢を高精度に推定する必要がある。 By the way, as one of the pallets used for cargo handling work by a forklift, there is a post pallet that can be stacked in a state where cargo is placed. For such a post pallet, it is also necessary to estimate the position and orientation with respect to the forklift with high accuracy.

本発明の目的は、フォークリフトに対するポストパレットの位置及び姿勢を高精度に推定することができる位置姿勢推定装置を提供することである。 SUMMARY OF THE INVENTION An object of the present invention is to provide a position/orientation estimation device capable of estimating the position and orientation of a post pallet with respect to a forklift with high accuracy.

本発明の一態様は、フォークリフトに搭載され、荷物を載せるパレット部とパレット部の前後左右の角部に立設された4本の柱部とを有するポストパレットの位置及び姿勢を推定する位置姿勢推定装置であって、ポストパレットの前面に向けてレーザを照射し、レーザの反射光を受光することにより、ポストパレットまでの距離を検出して点群データを取得するレーザ距離検出部と、レーザ距離検出部により取得された点群データに基づいて、パレット部及び柱部の前面に相当する平面を検知する平面検知部と、平面検知部により検知されたパレット部及び柱部の前面に相当する平面を用いて、フォークリフトに対するポストパレットの位置及び姿勢の推定演算を行う推定演算部とを備え、推定演算部は、パレット部及び柱部の前面に相当する平面に基づいて、パレット部に相当する横線と柱部に相当する縦線とを抽出し、横線及び縦線に基づいて、フォークリフトに対するポストパレットの位置及び姿勢を算出する。 One aspect of the present invention is a position and orientation for estimating the position and orientation of a post pallet that is mounted on a forklift and has a pallet on which a load is placed and four pillars erected at the front, rear, left, and right corners of the pallet. a laser distance detection unit that detects the distance to the post pallet and acquires point cloud data by irradiating a laser toward the front surface of the post pallet and receiving the reflected light of the laser; Based on the point cloud data acquired by the distance detection unit, the plane detection unit detects the plane corresponding to the front surface of the pallet and the pillar, and the front surface of the pallet and the pillar detected by the plane detection unit. an estimation calculation unit that performs estimation calculation of the position and posture of the post pallet with respect to the forklift using a plane, and the estimation calculation unit corresponds to the pallet unit based on the plane corresponding to the front surface of the pallet unit and the pillar unit. A horizontal line and a vertical line corresponding to the pillar are extracted, and the position and posture of the post pallet with respect to the forklift are calculated based on the horizontal line and the vertical line.

このような位置姿勢推定装置においては、レーザ距離検出部によってポストパレットの前面に向けてレーザが照射されることで、ポストパレットに対応する点群データが取得される。そして、ポストパレットに対応する点群データに基づいて、ポストパレットにおけるパレット部及び柱部の前面に相当する平面が検知される。そして、パレット部及び柱部の前面に相当する平面に基づいて、パレット部に相当する横線と柱部に相当する縦線とが抽出される。そして、横線及び縦線に基づいて、フォークリフトに対するポストパレットの位置及び姿勢が算出される。このとき、柱部は上下方向に長く延びているため、ポストパレットの上下方向の位置及び角度の精度が出やすい。これにより、フォークリフトに対するポストパレットの位置及び姿勢が高精度に推定される。 In such a position/orientation estimation apparatus, the point cloud data corresponding to the post pallet is obtained by irradiating the front surface of the post pallet with laser by the laser distance detection unit. Then, based on the point cloud data corresponding to the post pallet, a plane corresponding to the front surface of the pallet portion and the pillar portion of the post pallet is detected. Then, horizontal lines corresponding to the pallet portion and vertical lines corresponding to the pillar portion are extracted based on the plane corresponding to the front surface of the pallet portion and the pillar portion. Then, the position and orientation of the post pallet with respect to the forklift are calculated based on the horizontal and vertical lines. At this time, since the pillars are elongated in the vertical direction, it is easy to achieve accuracy in the vertical position and angle of the post pallet. As a result, the position and orientation of the post pallet with respect to the forklift can be estimated with high accuracy.

位置姿勢推定装置は、ポストパレットの前面を撮像して画像データを取得する撮像部と、撮像部により取得された画像データに基づいて、ポストパレットを認識するポストパレット認識部と、レーザ距離検出部により取得された点群データのうちポストパレット認識部により認識されたポストパレットに対応する点群データを抽出する点群処理部とを更に備え、平面検知部は、点群処理部により抽出された点群データに基づいて、パレット部及び柱部の前面に相当する平面を検知してもよい。 The position and orientation estimation device includes an imaging unit that acquires image data by imaging the front surface of the post pallet, a post pallet recognition unit that recognizes the post pallet based on the image data acquired by the imaging unit, and a laser distance detection unit. and a point cloud processing unit for extracting point cloud data corresponding to the post pallet recognized by the post pallet recognition unit from among the point cloud data acquired by the plane detection unit. A plane corresponding to the front surface of the pallet portion and the column portion may be detected based on the point cloud data.

このような構成では、撮像部により取得された画像データに基づいてポストパレットが認識され、レーザ距離検出部により取得された点群データのうち認識されたポストパレットに対応する点群データが抽出される。画像データは、点群データに比べて解像度が高い。このため、ポストパレットの認識精度が高くなる。従って、フォークリフトに対するポストパレットの位置及び姿勢が更に高精度に推定される。 In such a configuration, the post-pallet is recognized based on the image data acquired by the imaging unit, and the point cloud data corresponding to the recognized post-pallet is extracted from the point cloud data acquired by the laser distance detection unit. be. Image data has a higher resolution than point cloud data. As a result, post-pallet recognition accuracy is enhanced. Therefore, the position and orientation of the post pallet with respect to the forklift can be estimated with higher accuracy.

推定演算部は、縦線の傾き及び寸法に基づいて柱部の姿勢を算出することで、フォークリフトに対するポストパレットの姿勢を算出すると共に、横線と縦線との交点を求め、交点の位置に基づいてパレット部の位置を算出することで、フォークリフトに対するポストパレットの位置を算出してもよい。 The estimation calculation unit calculates the posture of the post pallet with respect to the forklift by calculating the posture of the pillar based on the inclination and size of the vertical line, obtains the intersection of the horizontal line and the vertical line, and calculates the position of the intersection based on the position of the intersection. The position of the post pallet with respect to the forklift may be calculated by calculating the position of the pallet unit with the forklift.

このような構成では、柱部に相当する縦線の傾き及び寸法に基づいて柱部の姿勢が算出されると共に、パレット部に相当する横線と柱部に相当する縦線との交点の位置に基づいてパレット部の位置が算出される。従って、フォークリフトに対するポストパレットの位置及び姿勢を簡単に算出することができる。 In such a configuration, the posture of the pillar is calculated based on the inclination and size of the vertical line corresponding to the pillar, and the position of the intersection of the horizontal line corresponding to the pallet and the vertical line corresponding to the pillar is calculated. Based on this, the position of the pallet unit is calculated. Therefore, the position and orientation of the post pallet with respect to the forklift can be easily calculated.

平面検知部は、ポストパレットに対応する第1点群データに対して点群が除去された第2点群データを取得し、第2点群データに対して規定厚よりも大きい厚さに平面近似を行って第1平面を求め、その後第1点群データのうち第1平面に含まれる第3点群データを取り出し、第3点群データに対して規定厚に平面近似を行って第2平面を求めることにより、パレット部及び柱部の前面に相当する平面を検知してもよい。 The plane detection unit obtains second point cloud data from which the point cloud is removed from the first point cloud data corresponding to the post pallet, and adds a plane to a thickness greater than the specified thickness for the second point cloud data. Approximation is performed to obtain the first plane, then the third point cloud data included in the first plane is extracted from the first point cloud data, plane approximation is performed on the third point cloud data to a specified thickness, and the second plane is obtained. By determining the plane, the plane corresponding to the front surface of the pallet and the column may be detected.

このような構成では、点群が除去された第2点群データに対して規定厚よりも大きい厚さに平面近似を行って第1平面を求めることにより、平面近似を繰り返し行った際に第2点群データのばらつきに対応することができる。そして、第1点群データのうち第1平面に含まれる第3点群データを取り出し、第3点群データに対して規定厚に平面近似を行って第2平面を求めることにより、パレット部及び柱部の前面に相当する平面に欠けが生じにくくなると共に、パレット部及び柱部の前面に相当する平面に含まれない不要な点群が削除される。また、パレット部及び柱部の前面に相当する平面の位置及び角度のブレが抑制される。以上により、フォークリフトに対するポストパレットの位置及び姿勢が更に高精度に推定される。 In such a configuration, by performing plane approximation on the second point group data from which the point group has been removed to a thickness larger than the specified thickness to obtain the first plane, when plane approximation is repeatedly performed, the first plane Variations in two-point cloud data can be dealt with. Then, the third point cloud data included in the first plane is extracted from the first point cloud data, and the second plane is obtained by performing plane approximation on the third point cloud data to a specified thickness to obtain the pallet part and the The plane corresponding to the front surface of the pillar section is less likely to be chipped, and unnecessary point groups not included in the plane corresponding to the front surface of the pallet section and the pillar section are deleted. In addition, deviation of the position and angle of the plane corresponding to the front surface of the pallet portion and the column portion is suppressed. As described above, the position and orientation of the post pallet with respect to the forklift can be estimated with higher accuracy.

推定演算部は、パレット部及び柱部の前面に相当する平面に含まれる平面点群データに対して直線近似を行って直線を求め、その後平面点群データのうち直線上にある点群データを取り出すことで、横線及び縦線を抽出してもよい。 The estimation calculation unit performs straight line approximation on the plane point cloud data included in the plane corresponding to the front surface of the pallet part and the column part to obtain a straight line, and then calculates the point cloud data on the straight line among the plane point cloud data. By taking out, horizontal lines and vertical lines may be extracted.

このような構成では、パレット部及び柱部の前面に相当する平面に含まれる平面点群データに対して直線近似を行って直線を求めた後、平面点群データのうち直線上にある点群データを取り出すことにより、パレット部に相当する横線及び柱部に相当する縦線に欠けが生じにくくなると共に、横線及び縦線に含まれない不要な点群が削除される。従って、フォークリフトに対するポストパレットの位置及び姿勢が更に高精度に推定される。 In such a configuration, after linear approximation is performed on the plane point cloud data included in the plane corresponding to the front surface of the pallet part and the column part to obtain a straight line, the point cloud on the straight line among the plane point cloud data By extracting the data, the horizontal lines corresponding to the pallet portions and the vertical lines corresponding to the column portions are less likely to be missing, and unnecessary point groups not included in the horizontal lines and vertical lines are deleted. Therefore, the position and orientation of the post pallet with respect to the forklift can be estimated with higher accuracy.

推定演算部は、パレット部及び柱部の前面に相当する平面に含まれる平面点群データが仮想的にレーザ距離検出部に正対するように平面点群データを回転させることで、平面点群データの座標系を変換した状態で、横線及び縦線に基づいて、フォークリフトに対するポストパレットの位置及び姿勢を算出し、その後ポストパレットの位置及び姿勢を元の状態に戻すように逆回転させることにより、フォークリフトに対する最終的なポストパレットの位置及び姿勢を求めてもよい。 The estimation calculation unit rotates the plane point cloud data so that the plane point cloud data included in the plane corresponding to the front surface of the pallet part and the pillar virtually faces the laser distance detection part, thereby obtaining the plane point cloud data. After converting the coordinate system of , calculate the position and orientation of the post pallet with respect to the forklift based on the horizontal and vertical lines, and then reverse rotate the post pallet to return the position and orientation to the original state. The final post pallet position and orientation relative to the forklift may be determined.

このような構成では、パレット部及び柱部の前面に相当する平面に含まれる平面点群データが仮想的にレーザ距離検出部に正対するように平面点群データを回転させることにより、ポストパレットの前後方向を無視して2次元的に横線と縦線との交点が求められる。このため、横線と縦線との交点が精度良く抽出される。従って、フォークリフトに対するポストパレットの位置及び姿勢が更に高精度に推定される。 In such a configuration, by rotating the plane point cloud data included in the plane corresponding to the front surface of the pallet part and the column part so that the plane point cloud data virtually faces the laser distance detection part, the post pallet The crossing point of the horizontal line and the vertical line is obtained two-dimensionally, ignoring the front-rear direction. Therefore, the intersections of horizontal lines and vertical lines can be extracted with high accuracy. Therefore, the position and orientation of the post pallet with respect to the forklift can be estimated with higher accuracy.

推定演算部は、フォークリフトに対するポストパレットの位置及び姿勢を算出した後、横線及び縦線の傾き及び寸法に基づいて、平面検知部により検知された平面がポストパレットの前面に該当するかどうかを最終的に判定し、平面検知部により検知された平面がポストパレットの前面に該当しないと判定したときは、平面検知部により検知された平面に含まれる点群データを削除し、平面検知部に対してパレット部及び柱部の前面に相当する平面の検知処理を再度実行させてもよい。 After calculating the position and orientation of the post pallet with respect to the forklift, the estimation calculation unit finally determines whether the plane detected by the plane detection unit corresponds to the front surface of the post pallet based on the inclination and dimensions of the horizontal and vertical lines. When it is determined that the plane detected by the plane detection unit does not correspond to the front surface of the post pallet, the point cloud data included in the plane detected by the plane detection unit is deleted, and the plane detection unit Alternatively, the detection process of the plane corresponding to the front surface of the pallet portion and the pillar portion may be executed again.

このような構成では、検知された平面がポストパレットの前面に該当しないと判定されたときは、当該平面に含まれる点群データが削除され、平面の検知処理が再度実行されるので、パレット部及び柱部の前面に相当する正確な平面が得られる。従って、フォークリフトに対するポストパレットの位置及び姿勢が更に高精度に推定される。 With such a configuration, when it is determined that the detected plane does not correspond to the front surface of the post-pallet, the point cloud data included in the plane is deleted and the plane detection processing is executed again. and an exact plane corresponding to the front face of the column is obtained. Therefore, the position and orientation of the post pallet with respect to the forklift can be estimated with higher accuracy.

本発明によれば、フォークリフトに対するポストパレットの位置及び姿勢を高精度に推定することができる。 ADVANTAGE OF THE INVENTION According to this invention, the position and attitude|position of the post pallet with respect to a forklift can be estimated with high precision.

本発明の一実施形態に係る位置姿勢推定装置が搭載されたフォークリフトをポストパレットと共に示す概略平面図である。1 is a schematic plan view showing a forklift equipped with a position and orientation estimation device according to an embodiment of the present invention together with a post pallet; FIG. 図1に示されたポストパレットの正面図である。2 is a front view of the post pallet shown in FIG. 1; FIG. 本発明の一実施形態に係る位置姿勢推定装置を具備した走行制御装置を示す概略構成図である。1 is a schematic configuration diagram showing a traveling control device equipped with a position and orientation estimation device according to an embodiment of the present invention; FIG. レーザセンサにより取得された点群データと点群処理部により抽出された点群データとを示す図である。It is a figure which shows the point-group data acquired by the laser sensor, and the point-group data extracted by the point-group process part. 図3に示された平面検知部により実行される平面検知処理の手順を示すフローチャートである。FIG. 4 is a flowchart showing a procedure of plane detection processing executed by the plane detection unit shown in FIG. 3; FIG. 点群データに対して通常の平面近似を行う平面検知処理を簡略化して示す概念図である。FIG. 4 is a conceptual diagram showing a simplified plane detection process for performing normal plane approximation on point cloud data. 図3に示された平面検知部により実行される平面検知処理を簡略化して示す概念図である。4 is a conceptual diagram showing a simplified plane detection process executed by the plane detection unit shown in FIG. 3; FIG. 図3に示された推定演算部により実行される推定演算処理の手順を示すフローチャートである。FIG. 4 is a flow chart showing a procedure of estimation calculation processing executed by an estimation calculation unit shown in FIG. 3; FIG. 平面点群データの座標変換が行われる様子を示す概念図である。FIG. 4 is a conceptual diagram showing how coordinate transformation of planar point cloud data is performed; パレット部に相当する横線、柱部に相当する縦線及び横線と縦線との交点を示す図である。It is a figure which shows the horizontal line corresponded to a pallet part, the vertical line corresponded to a column part, and the intersection of a horizontal line and a vertical line. 図8に示された手順S122による直線抽出処理手順の詳細を示すフローチャートである。FIG. 9 is a flow chart showing the details of a straight line extraction process procedure in step S122 shown in FIG. 8; FIG. 平面点群データに対して直線近似を行う処理を簡略化して示す概念図である。FIG. 4 is a conceptual diagram showing a simplified process of performing linear approximation on plane point cloud data; ポストパレットのロール角、ヨー角及びピッチ角を示す概念図である。FIG. 4 is a conceptual diagram showing the roll angle, yaw angle and pitch angle of a post pallet;

以下、本発明の実施形態について図面を参照して詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る位置姿勢推定装置が搭載されたフォークリフトをポストパレットと共に示す概略平面図である。図1において、フォークリフト1は、車体2と、この車体2の前側に配置され、荷役を行う荷役装置3とを備えている。荷役装置3は、車体2の前端部に取り付けられたマスト4と、このマスト4に昇降可能に取り付けられ、ポストパレット5を持ち上げる左右1対のフォーク6とを有している。 FIG. 1 is a schematic plan view showing a forklift equipped with a position and orientation estimation device according to an embodiment of the present invention together with a post pallet. In FIG. 1, a forklift 1 includes a vehicle body 2 and a cargo handling device 3 arranged in front of the vehicle body 2 for cargo handling. The cargo handling device 3 has a mast 4 attached to the front end of the vehicle body 2 and a pair of left and right forks 6 attached to the mast 4 so as to be able to move up and down and lift a post pallet 5 .

ポストパレット5は、図2にも示されるように、平面視で正方形状のパレット部7と、このパレット部7の前後左右4つの角部にそれぞれ立設された4本の柱部8とを有している。なお、ポストパレット5の前後方向はX方向に相当し、ポストパレット5の左右方向はY方向に相当し、ポストパレット5の上下方向はZ方向に相当する。 As shown in FIG. 2, the post pallet 5 includes a square pallet portion 7 in a plan view and four pillars 8 erected at the four corners of the pallet portion 7 on the front, back, left and right. have. The longitudinal direction of the post pallet 5 corresponds to the X direction, the lateral direction of the post pallet 5 corresponds to the Y direction, and the vertical direction of the post pallet 5 corresponds to the Z direction.

パレット部7は、荷物Mを載せる荷役台である。パレット部7は、フォーク6によりポストパレット5を持ち上げる際に、フォークリフト1と向き合う前面7aを有している。パレット部7には、1対のフォーク6が差し込まれる2つのフォーク穴9が設けられている。フォーク穴9は、パレット部7の前面7aから後面7bまで延びている。フォーク穴9の形状は、正面視で矩形状である。 The pallet part 7 is a loading platform on which the cargo M is placed. The pallet part 7 has a front surface 7a facing the forklift 1 when the post pallet 5 is lifted by the fork 6. - 特許庁The pallet part 7 is provided with two fork holes 9 into which a pair of forks 6 are inserted. The fork holes 9 extend from the front surface 7a of the pallet portion 7 to the rear surface 7b. The shape of the fork hole 9 is rectangular when viewed from the front.

柱部8は、四角柱状を呈している。柱部8は、パレット部7の角部に折り畳み可能に連結されている。柱部8は、前面8aを有している。前面8aは、パレット部7の前面7aと同じ側の面である。 The columnar portion 8 has a square columnar shape. The column portion 8 is connected to a corner portion of the pallet portion 7 so as to be foldable. The column portion 8 has a front surface 8a. The front surface 8a is a surface on the same side as the front surface 7a of the pallet part 7. As shown in FIG.

このようなポストパレット5は、各柱部8がパレット部7に対して立ったときには、パレット部7に荷物Mを載置した状態で段重ねすることが可能である。この場合、下側のポストパレット5の各柱部8の上面に、上側のポストパレット5のパレット部7が置かれた状態となる。 Such a post pallet 5 can be stacked with the load M placed on the pallet portion 7 when the pillars 8 stand against the pallet portion 7 . In this case, the pallet portion 7 of the upper post pallet 5 is placed on the upper surface of each column portion 8 of the lower post pallet 5 .

図3は、本発明の一実施形態に係る位置姿勢推定装置を備えた走行制御装置を示す概略構成図である。図3において、走行制御装置10は、フォークリフト1がトラック荷台Т(図1参照)に積まれたポストパレット5の荷取りを行う際に、フォークリフト1を荷取り位置まで自動的に走行させる装置である。荷取り位置は、フォークリフト1の各フォーク6がポストパレット5のフォーク穴9に差し込まれる位置である。 FIG. 3 is a schematic configuration diagram showing a cruise control device including a position and orientation estimation device according to an embodiment of the present invention. In FIG. 3, the travel control device 10 is a device that automatically travels the forklift 1 to a pick-up position when the forklift 1 picks up the post pallet 5 loaded on the truck bed T (see FIG. 1). be. The unloading position is a position where each fork 6 of the forklift 1 is inserted into the fork hole 9 of the post pallet 5 .

走行制御装置10は、フォークリフト1に搭載されている。走行制御装置10は、カメラ11と、レーザセンサ12と、コントローラ13と、駆動部14とを備えている。 A travel control device 10 is mounted on the forklift 1 . The travel control device 10 includes a camera 11 , a laser sensor 12 , a controller 13 and a driving section 14 .

カメラ11は、ポストパレット5の前面(正面)を撮像して画像データを取得する撮像部である。カメラ11としては、例えば単眼カメラやステレオカメラ等が使用される。 The camera 11 is an imaging unit that captures an image of the front surface (front) of the post pallet 5 to obtain image data. As the camera 11, for example, a monocular camera, a stereo camera, or the like is used.

レーザセンサ12は、ポストパレット5の前面に向けてレーザを照射し、レーザの反射光を受光することにより、ポストパレット5までの距離を検出して点群データを取得するレーザ距離検出部である。点群は、ポストパレット5を含む物体におけるレーザの反射点の集まりである。レーザセンサ12は、点密度が高い2Dまたは3Dのレーザを照射する。レーザセンサ12としては、例えばLIDARやレーザレンジファインダ等が使用される。 The laser sensor 12 is a laser distance detector that detects the distance to the post pallet 5 by irradiating a laser toward the front surface of the post pallet 5 and receiving the reflected light of the laser to acquire point cloud data. . A point cloud is a collection of laser reflection points on an object including the post pallet 5 . The laser sensor 12 irradiates a 2D or 3D laser with a high point density. As the laser sensor 12, for example, a LIDAR, a laser range finder, or the like is used.

コントローラ13は、CPU、RAM、ROM及び入出力インターフェース等により構成されている。コントローラ13は、カメラ11により取得された画像データとレーザセンサ12により取得された点群データとを入力し、所定の処理を実行し、駆動部14を制御する。駆動部14は、特に図示はしないが、例えばフォークリフト1の駆動輪を回転させる走行モータと、フォークリフト1の操舵輪を転舵させる操舵モータとを有している。 The controller 13 includes a CPU, RAM, ROM, input/output interface, and the like. The controller 13 inputs the image data acquired by the camera 11 and the point cloud data acquired by the laser sensor 12 , executes predetermined processing, and controls the driving section 14 . The driving unit 14 has, although not shown, a traveling motor that rotates the driving wheels of the forklift 1 and a steering motor that steers the steering wheels of the forklift 1, for example.

コントローラ13は、ポストパレット認識部15と、点群処理部16と、平面検知部17と、推定演算部18と、経路生成部19と、走行制御部20とを有している。 The controller 13 has a post-pallet recognition unit 15 , a point group processing unit 16 , a plane detection unit 17 , an estimation calculation unit 18 , a route generation unit 19 and a travel control unit 20 .

ここで、ポストパレット認識部15、点群処理部16、平面検知部17及び推定演算部18は、カメラ11及びレーザセンサ12と協働して、本実施形態の位置姿勢推定装置21を構成している。位置姿勢推定装置21は、フォークリフト1がポストパレット5の正面側に位置している状態で、フォークリフト1に対するポストパレット5の位置及び姿勢を推定する装置である。 Here, the post-pallet recognition unit 15, the point group processing unit 16, the plane detection unit 17, and the estimation calculation unit 18 cooperate with the camera 11 and the laser sensor 12 to configure the position/orientation estimation device 21 of the present embodiment. ing. The position/posture estimation device 21 is a device that estimates the position and posture of the post pallet 5 with respect to the forklift 1 when the forklift 1 is positioned in front of the post pallet 5 .

ポストパレット認識部15は、カメラ11により取得された画像データに基づいて、ポストパレット5を認識する。ポストパレット認識部15は、例えばディープラーニング(深層学習)を利用した画像処理技術によって、ポストパレット5の大凡の位置及び寸法を認識する。 The post-palette recognition unit 15 recognizes the post-palette 5 based on the image data acquired by the camera 11 . The post-palette recognition unit 15 recognizes the approximate position and size of the post-palette 5 by image processing technology using deep learning, for example.

点群処理部16は、レーザセンサ12により取得された点群データのうちポストパレット認識部15により認識されたポストパレット5に対応する点群データを抽出する。例えば、レーザセンサ12によって図4(a)に示されるような点群データDpが取得された場合、ポストパレット認識部15によりポストパレット5が認識されると、図4(b)に示されるように、ポストパレット5に対応する点群データDppが得られる。点群データDppでは、点群データDpに比べて点群データの範囲が左右方向(Y方向)に多少狭まるようになる。 The point cloud processing unit 16 extracts point cloud data corresponding to the post pallet 5 recognized by the post pallet recognition unit 15 from the point cloud data acquired by the laser sensor 12 . For example, when the laser sensor 12 acquires point cloud data Dp as shown in FIG. , the point cloud data Dpp corresponding to the post palette 5 is obtained. In the point cloud data Dpp, the range of the point cloud data is somewhat narrowed in the horizontal direction (Y direction) compared to the point cloud data Dp.

平面検知部17は、点群処理部16により抽出されたポストパレット5に対応する点群データに基づいて、ポストパレット5におけるパレット部7の前面7a及び柱部8の前面8a(以下、単に前面7a,8aということがある)に相当する平面を検知する。 Based on the point cloud data corresponding to the post pallet 5 extracted by the point cloud processing unit 16, the plane detection unit 17 detects the front surface 7a of the pallet portion 7 and the front surface 8a of the column portion 8 (hereinafter simply referred to as the front surface 7a and 8a) are detected.

平面検知部17は、例えば点群データに対して平面をフィッティングして平面方程式の係数を求めることで、前面7a,8aに相当する平面を検知する。このとき、平面検知部17は、例えばRANSAC(Random sample consensus)を用いて、点群データの何点かをランダムにピックアップして平面をフィッティングする。 The plane detection unit 17 detects the planes corresponding to the front surfaces 7a and 8a by, for example, fitting the planes to the point cloud data and obtaining the coefficients of the plane equation. At this time, the plane detection unit 17 uses, for example, RANSAC (Random sample consensus) to randomly pick up some points of the point cloud data and fit the plane.

図5は、平面検知部17により実行される平面検知処理の手順を示すフローチャートである。図5において、平面検知部17は、まず点群処理部16により抽出されたポストパレット5に対応する点群データ(以下、第1点群データとする)を取得する(手順S101)。 FIG. 5 is a flowchart showing the procedure of plane detection processing executed by the plane detection unit 17. As shown in FIG. In FIG. 5, the plane detection unit 17 first acquires point cloud data (hereinafter referred to as first point cloud data) corresponding to the post-pallet 5 extracted by the point cloud processing unit 16 (step S101).

続いて、平面検知部17は、第1点群データ(図7(a)参照)に対して平面検知により不要な平面上にあった点群が除去された後述する第2点群データ(図7(b)参照)を取得する(手順S102)。なお、第2点群データの初期データは、例えば第1点群データと同じ点群データである。 Subsequently, the plane detection unit 17 detects second point cloud data (see FIG. 7A), which will be described later, in which unnecessary point groups on the plane have been removed by plane detection. 7(b)) is acquired (step S102). Note that the initial data of the second point cloud data is, for example, the same point cloud data as the first point cloud data.

続いて、平面検知部17は、第2点群データに対して規定厚よりも大きい厚さに平面近似を行い(図7(c)参照)、第1平面を求める(手順S103)。規定厚は、パレット部7及び柱部8の奥行方向(前後方向)の寸法である。 Subsequently, the plane detection unit 17 performs plane approximation on the second point cloud data to a thickness larger than the specified thickness (see FIG. 7C), and obtains a first plane (step S103). The specified thickness is the dimension of the pallet portion 7 and the column portion 8 in the depth direction (front-rear direction).

続いて、平面検知部17は、第1点群データのうち第1平面に含まれる点群データ(第3点群データとする)を取り出す(手順S104)。続いて、平面検知部17は、第3点群データに対して規定厚に平面近似を行い(図7(d)参照)、第2平面を求める(手順S105)。つまり、平面検知部17は、第3点群データに対して、手順S103よりも薄く平面近似を行う。 Subsequently, the plane detection unit 17 extracts point cloud data (referred to as third point cloud data) included in the first plane from the first point cloud data (step S104). Subsequently, the plane detection unit 17 performs plane approximation on the third point cloud data to a specified thickness (see FIG. 7D), and obtains a second plane (step S105). That is, the plane detection unit 17 performs plane approximation on the third point cloud data more thinly than in step S103.

続いて、平面検知部17は、第1点群データのうち第2平面に含まれる点群データ(第4点群データとする)を取り出す(手順S106)。そして、平面検知部17は、第2平面に含まれる第4点群データの反射点の数を記録する(手順S107)。 Subsequently, the plane detection unit 17 extracts point cloud data (referred to as fourth point cloud data) included in the second plane from the first point cloud data (step S106). Then, the plane detection unit 17 records the number of reflection points of the fourth point cloud data included in the second plane (step S107).

続いて、平面検知部17は、平面検知処理が所定回数(例えば100回)行われたかどうかを判断する(手順S108)。平面検知部17は、平面検知処理が所定回数行われていないと判断したときは、不要な平面上の反射点が消去された点群データを第2点群データとして設定し(手順S112)、上記の手順S102~手順S107を再度実行する。 Subsequently, the plane detection unit 17 determines whether the plane detection process has been performed a predetermined number of times (for example, 100 times) (step S108). When the plane detection unit 17 determines that the plane detection process has not been performed the predetermined number of times, it sets the point cloud data from which unnecessary reflection points on the plane are deleted as the second point cloud data (step S112), The above steps S102 to S107 are executed again.

平面検知部17は、平面検知処理が所定回数行われたと判断したときは、記録された反射点の数が最も多い第4点群データに対応する第2平面を選択する(手順S109)。続いて、平面検知部17は、選択された第2平面の法線ベクトルを算出する(手順S110)。 When the plane detection unit 17 determines that the plane detection process has been performed a predetermined number of times, it selects the second plane corresponding to the fourth point cloud data having the largest number of recorded reflection points (step S109). Subsequently, the plane detector 17 calculates the normal vector of the selected second plane (step S110).

平面検知部17は、第2平面の法線ベクトルに基づいて、選択された第2平面がポストパレット5の前面らしい平面であるかどうかを判断する(手順S111)。例えば法線ベクトルの向き等に基づいて、第2平面がポストパレット5の前面らしい平面であるかを判断することが可能である。 The plane detector 17 determines whether the selected second plane is a plane likely to be the front surface of the post pallet 5 based on the normal vector of the second plane (step S111). For example, it is possible to determine whether the second plane is a plane likely to be the front surface of the post pallet 5 based on the direction of the normal vector or the like.

平面検知部17は、選択された第2平面がポストパレット5の前面らしい平面でないと判断したときは、上記の手順S101~手順S110を再度実行する。 When the plane detection unit 17 determines that the selected second plane is not a plane likely to be the front surface of the post pallet 5, the above steps S101 to S110 are executed again.

平面検知部17は、選択された第2平面がポストパレット5の前面らしい平面であると判断したときは、選択された第2平面を前面7a,8aに相当する平面として決定し、当該第2平面の姿勢を検知する(手順S113)。 When the plane detection unit 17 determines that the selected second plane is a plane likely to be the front surface of the post pallet 5, the plane detection unit 17 determines the selected second plane as planes corresponding to the front surfaces 7a and 8a, The orientation of the plane is detected (step S113).

図6は、点群データに対して通常の平面近似を行う平面検知処理を簡略化して示す概念図である。点群処理部16により抽出されたポストパレット5に対応する点群データに対する平面検知処理によって、図6(a)に示されるような点群データDp0が得られる。なお、点群データDp0は、複数の反射点P0からなっている。 FIG. 6 is a conceptual diagram showing a simplified plane detection process for performing normal plane approximation on point cloud data. Point cloud data Dp0 as shown in FIG. 6A is obtained by plane detection processing on the point cloud data corresponding to the post-pallet 5 extracted by the point cloud processing unit 16. FIG. Note that the point cloud data Dp0 consists of a plurality of reflection points P0.

そのような点群データDp0に対して、図6(b)に示されるような平面近似が行われた場合には、ポストパレット5の前面に対応する点群は取れている。ただし、レーザセンサ12の誤差やポストパレット5の材質等に起因した点群のばらつきがあるため、全ての点群は取れず、検知された平面に欠け(図中のK参照)が生じている。なお、丸印Pは、平面近似で抽出された反射点である。三角印Qは、平面近似で抽出されなかった反射点である。 When plane approximation as shown in FIG. 6B is performed on such point cloud data Dp0, the point cloud corresponding to the front surface of the post pallet 5 is obtained. However, due to the error of the laser sensor 12 and the variation of the point cloud due to the material of the post pallet 5, etc., not all the point cloud can be obtained, and the detected plane is missing (see K in the figure). . Circles P are reflection points extracted by plane approximation. Triangular marks Q are reflection points that are not extracted by plane approximation.

また、点群データDp0に対して、図6(c)に示されるような平面近似が行われた場合には、検知された平面がポストパレット5の前面に相当する平面でないと判定されるため、当該平面に含まれる点群データDp0の反射点P0が全て消去される。 Further, when plane approximation as shown in FIG. 6C is performed on the point cloud data Dp0, it is determined that the detected plane is not the plane corresponding to the front surface of the post pallet 5. , all the reflection points P0 of the point cloud data Dp0 included in the plane are erased.

その状態で、図6(d)に示されるように、次の平面検知処理によって平面近似が行われると、点群データDp0の左側の反射点P0が欠けている。このため、ポストパレット5の前面に相当する正確な平面が得られない。なお、白丸印Rは、消去された反射点である。 In this state, as shown in FIG. 6D, when plane approximation is performed by the next plane detection process, the left reflection point P0 of the point cloud data Dp0 is missing. Therefore, an accurate plane corresponding to the front surface of the post pallet 5 cannot be obtained. A white circle mark R is an erased reflection point.

そこで、まず図7(a)に示されるように、点群処理部16により抽出されたポストパレット5に対応する第1点群データDp1が取得されると共に、図7(b)に示されるように、第1点群データDp1に対する平面検知処理によって第2点群データDp2が取得される。第1点群データDp1は、点群が欠けていない点群データである。第2点群データDp2は、他の平面を消去する過程で点群が欠けた点群データである。なお、第1点群データDp1及び第2点群データDp2は、複数の反射点P1からなっている。 Therefore, first, as shown in FIG. 7(a), first point cloud data Dp1 corresponding to the post-pallet 5 extracted by the point group processing unit 16 is acquired, and as shown in FIG. 7(b), Then, the second point cloud data Dp2 is acquired by the plane detection processing for the first point cloud data Dp1. The first point cloud data Dp1 is point cloud data in which no point cloud is missing. The second point cloud data Dp2 is point cloud data in which the point cloud is missing in the process of erasing other planes. The first point cloud data Dp1 and the second point cloud data Dp2 consist of a plurality of reflection points P1.

そして、図7(c)に示されるように、第2点群データDp2に対して、規定厚よりも大きい厚さに平面近似を行って第1平面F1を求める。これにより、第2点群データDp2の大部分の点群が取れる。 Then, as shown in FIG. 7(c), the second point cloud data Dp2 is approximated to a thickness larger than the specified thickness to obtain a first plane F1. As a result, most of the point group of the second point group data Dp2 can be obtained.

そして、第1点群データDp1のうち第1平面F1に含まれる第3点群データDp3を取り出す。第3点群データDp3には、ポストパレット5の前面の点群がほぼ全て含まれている。このため、第3点群データDp3は、ほぼ前面7a,8aに相当する平面を形成することとなる。ただし、第1平面F1が斜めに延びているため、ポストパレット5の角度誤差が大きくなる。 Then, the third point cloud data Dp3 included in the first plane F1 is extracted from the first point cloud data Dp1. The third point cloud data Dp3 includes almost all of the point cloud on the front surface of the post pallet 5 . Therefore, the third point cloud data Dp3 forms a plane substantially corresponding to the front surfaces 7a and 8a. However, since the first plane F1 extends obliquely, the angular error of the post pallet 5 increases.

その後、図7(d)に示されるように、第3点群データDp3に対して規定厚に平面近似を行って第2平面F2を求める。第2平面F2は正しい角度で延びているため、ポストパレット5の前面の正確な姿勢(ヨー角)が得られる。 Thereafter, as shown in FIG. 7D, a second plane F2 is obtained by performing plane approximation on the third point cloud data Dp3 to a specified thickness. Since the second plane F2 extends at a correct angle, the correct orientation (yaw angle) of the front surface of the post pallet 5 can be obtained.

図3に戻り、推定演算部18は、平面検知部17により検知されたパレット部7の前面7a及び柱部8の前面8aに相当する平面を用いて、フォークリフト1に対するポストパレット5の位置及び姿勢の推定演算を行う。 Returning to FIG. 3 , the estimation calculation unit 18 uses the plane corresponding to the front surface 7 a of the pallet unit 7 and the front surface 8 a of the column unit 8 detected by the plane detection unit 17 to determine the position and attitude of the post pallet 5 with respect to the forklift 1 . perform an estimation operation.

推定演算部18は、前面7a,8aに相当する平面に基づいて、パレット部7に相当する横線と柱部8に相当する縦線とを抽出し、横線及び縦線に基づいて、フォークリフト1に対するポストパレット5の位置及び姿勢を算出する。 The estimation calculation unit 18 extracts a horizontal line corresponding to the pallet unit 7 and a vertical line corresponding to the column unit 8 based on the planes corresponding to the front surfaces 7a and 8a, and based on the horizontal and vertical lines, the forklift 1 The position and orientation of the post pallet 5 are calculated.

図8は、推定演算部18により実行される推定演算処理の手順を示すフローチャートである。図8において、推定演算部18は、まず前面7a,8aに相当する平面に含まれる平面点群データが仮想的にレーザセンサ12に正対するように平面点群データを回転させる(手順S121)。つまり、平面点群データが仮想的にレーザセンサ12に正対するように平面点群データのXYZ座標系を変換する。 FIG. 8 is a flow chart showing the procedure of the estimation calculation process executed by the estimation calculation unit 18. As shown in FIG. In FIG. 8, the estimation calculation unit 18 first rotates the plane point cloud data included in the planes corresponding to the front surfaces 7a and 8a so that the plane point cloud data virtually faces the laser sensor 12 (step S121). That is, the XYZ coordinate system of the planar point cloud data is transformed so that the planar point cloud data virtually faces the laser sensor 12 .

このため、図9(a)に示されるように、平面点群データDfがレーザセンサ12からのレーザの照射方向に対して傾いて配置されていても、図9(b)に示されるように、平面点群データDfが仮想的にレーザセンサ12からのレーザの照射方向に対して真正面に向き合うこととなる。 Therefore, as shown in FIG. 9(a), even if the plane point cloud data Df is arranged to be inclined with respect to the irradiation direction of the laser from the laser sensor 12, as shown in FIG. 9(b) , the planar point group data Df virtually face the direction of laser irradiation from the laser sensor 12 directly in front.

続いて、推定演算部18は、前面7a,8aに相当する平面に基づいて、パレット部7に相当する横線と柱部8に相当する縦線とを抽出する(手順S122)。このとき、推定演算部18は、図10に示されるように、パレット部7の上端面及び下端面に相当する2本の横線Laと、パレット部7の左右両側に配置された柱部8に相当する2本の縦線Lbとを抽出する。縦線Lbは、例えば柱部8の前面8aに相当する平面の中心線である。中心線は、柱部8の前面8aに相当する平面における左右方向(Y方向)の中心が上下方向(Z方向)に延びる線である。 Subsequently, the estimation calculation unit 18 extracts a horizontal line corresponding to the pallet portion 7 and a vertical line corresponding to the column portion 8 based on the planes corresponding to the front surfaces 7a and 8a (step S122). At this time, as shown in FIG. The corresponding two vertical lines Lb are extracted. The vertical line Lb is the center line of the plane corresponding to the front surface 8a of the pillar 8, for example. The center line is a line that extends in the vertical direction (Z direction) from the center in the horizontal direction (Y direction) on a plane corresponding to the front surface 8a of the column portion 8 .

推定演算部18は、例えばRANSAC(前述)を用いて、平面点群データの何点かをランダムにピックアップして直線をフィッティングすることにより、横線及び縦線である直線を抽出する。 The estimation calculation unit 18 extracts straight lines, which are horizontal and vertical lines, by randomly picking up several points of the plane point cloud data and fitting straight lines using, for example, RANSAC (described above).

図11は、手順S122による直線抽出処理手順の詳細を示すフローチャートである。図11において、推定演算部18は、まず回転処理後の平面点群データに対して直線近似を行って直線を求める(手順S151)。 FIG. 11 is a flow chart showing the details of the straight line extraction processing procedure in step S122. In FIG. 11, the estimation calculation unit 18 first obtains a straight line by performing straight line approximation on the plane point group data after rotation processing (step S151).

続いて、推定演算部18は、回転処理後の平面点群データのうち直線上にある点群データを取り出す(手順S152)。続いて、推定演算部18は、直線上にある点群データの反射点の数を記録する(手順S153)。 Subsequently, the estimation calculation unit 18 extracts the point cloud data on the straight line from the planar point cloud data after the rotation processing (step S152). Subsequently, the estimation calculation unit 18 records the number of reflection points of the point cloud data on the straight line (step S153).

続いて、推定演算部18は、平面点群データに対する直線近似処理が所定回数(例えば100回)だけ行われたかどうかを判断する(手順S154)。推定演算部18は、平面点群データに対する直線近似処理が所定回数だけ行われていないと判断したときは、上記の手順S151~手順S153を再度実行する。 Subsequently, the estimation calculation unit 18 determines whether or not the linear approximation process for the plane point cloud data has been performed a predetermined number of times (for example, 100 times) (step S154). When the estimation calculation unit 18 determines that the linear approximation process for the plane point cloud data has not been performed the predetermined number of times, the above steps S151 to S153 are executed again.

推定演算部18は、平面点群データに対する直線近似処理が所定回数だけ行われたと判断したときは、記録された反射点の数が最も多い点群データに対応する直線を選択する(手順S155)。そして、推定演算部18は、選択された直線を横線及び縦線に相当する直線として決定する(手順S156)。 When the estimation calculation unit 18 determines that the straight line approximation process for the planar point cloud data has been performed a predetermined number of times, it selects a straight line corresponding to the point cloud data with the largest number of recorded reflection points (step S155). . Then, the estimation calculation unit 18 determines the selected straight line as the straight line corresponding to the horizontal line and the vertical line (step S156).

例えば、図12(a)に示されるような平面点群データDf1が得られた場合、平面点群データDf1が変に直線近似されると、図12(b),(c)に示されるように、点群が欠けることがある。なお、平面点群データDf1は、複数の反射点P1からなっている。 For example, when planar point cloud data Df1 as shown in FIG. 12(a) is obtained, if the planar point cloud data Df1 is strangely linearly approximated, as shown in FIGS. 12(b) and 12(c), , the point cloud may be missing. The plane point cloud data Df1 consists of a plurality of reflection points P1.

そこで、図12(c),(d)に示されるように、点群の欠けが存在する点群データDf2に対して直線近似が行われた後、図12(e)に示されるように、平面点群データDf1のうち直線L上にある点を取り出す。これにより、適切な横線及び縦線が抽出されるため、その後のポストパレット5の位置及び姿勢の計算において誤差が生じにくくなる。 Therefore, as shown in FIGS. 12(c) and 12(d), after linear approximation is performed on the point cloud data Df2 in which the point group lacks, as shown in FIG. 12(e), Points on the straight line L are extracted from the plane point cloud data Df1. As a result, appropriate horizontal lines and vertical lines are extracted, so errors are less likely to occur in subsequent calculations of the position and orientation of the post-pallet 5 .

図8に戻り、推定演算部18は、上記の手順S122を実行した後、横線と縦線との交点を算出する(手順S123)。このとき、図10に示されるように、2本の横線Laと2本の縦線Lbとの4つの交点Iが得られる。 Returning to FIG. 8, the estimation calculation unit 18 calculates the intersection of the horizontal line and the vertical line after executing the above step S122 (step S123). At this time, as shown in FIG. 10, four intersections I of two horizontal lines La and two vertical lines Lb are obtained.

続いて、推定演算部18は、2本の縦線の傾き及び寸法に基づいて柱部8の姿勢を算出することで、ポストパレット5の姿勢を算出する(手順S124)。ポストパレット5の姿勢としては、ポストパレット5のロール角θa、ヨー角θb及びピッチ角θcが算出される。ポストパレット5のロール角θa、ヨー角θb及びピッチ角θcは、図13に示されるように、柱部8に相当する縦線から算出される。図13(a)は、柱部8の正面図である。図13(b)は、柱部8の平面図である。図13(c)は、柱部8の側面図である。 Subsequently, the estimation calculation unit 18 calculates the attitude of the post-pallet 5 by calculating the attitude of the column part 8 based on the inclination and the size of the two vertical lines (step S124). As the posture of the post pallet 5, the roll angle θa, yaw angle θb, and pitch angle θc of the post pallet 5 are calculated. The roll angle θa, yaw angle θb, and pitch angle θc of the post pallet 5 are calculated from vertical lines corresponding to the column portions 8, as shown in FIG. FIG. 13(a) is a front view of the column portion 8. FIG. 13(b) is a plan view of the column portion 8. FIG. FIG. 13(c) is a side view of the column portion 8. FIG.

推定演算部18は、例えば2本の縦線の寸法及び傾き等の基準値を予め記憶しておき、2本の縦線の寸法及び傾き等を基準値と比較することにより、ポストパレット5のロール角θa、ヨー角θb及びピッチ角θcが算出する。柱部8は上下方向に長く延びているため、ポストパレット5のロール角θa、ヨー角θb及びピッチ角θcの精度が出やすい。ただし、柱部8がパレット部7に完全に固定されていないと、ポストパレット5のロール角θa、ヨー角θb及びピッチ角θcの値がばらつきやすい。このため、2本の縦線の値の平均値をとることで、ポストパレット5のロール角θa、ヨー角θb及びピッチ角θcの精度を上げることができる。 The estimation calculation unit 18 preliminarily stores reference values such as the dimensions and inclination of the two vertical lines, and compares the dimensions and inclination of the two vertical lines with the reference values to determine the post pallet 5. A roll angle θa, a yaw angle θb, and a pitch angle θc are calculated. Since the pillars 8 are elongated in the vertical direction, the accuracy of the roll angle θa, yaw angle θb, and pitch angle θc of the post pallet 5 can be easily obtained. However, if the column portion 8 is not completely fixed to the pallet portion 7, the values of the roll angle θa, yaw angle θb, and pitch angle θc of the post pallet 5 tend to vary. Therefore, the accuracy of the roll angle θa, yaw angle θb, and pitch angle θc of the post pallet 5 can be improved by averaging the values of the two vertical lines.

続いて、推定演算部18は、手順S123で得られた4つの交点の位置に基づいてパレット部7の位置を算出することで、ポストパレット5の位置を算出する(手順S125)。具体的には、推定演算部18は、パレット部7の前面7aの中心位置G(図2参照)を算出する。パレット部7の前面7aの中心位置Gは、3次元の位置座標(x0,y0,z0)で表される。 Subsequently, the estimation calculation unit 18 calculates the position of the post-pallet 5 by calculating the position of the pallet unit 7 based on the positions of the four intersection points obtained in step S123 (step S125). Specifically, the estimation calculation unit 18 calculates the center position G (see FIG. 2) of the front surface 7a of the pallet unit 7. As shown in FIG. The center position G of the front surface 7a of the pallet unit 7 is represented by three-dimensional position coordinates (x0, y0, z0).

続いて、推定演算部18は、手順S124,S125で得られたポストパレット5の位置及び姿勢のデータを元のXYZ座標系に戻すように逆回転させる(手順S126)。これにより、フォークリフト1に対する最終的なポストパレット5の位置及び姿勢が求められる。このとき、図9(b)に示されるような回転後のXYZ座標系が、図9(a)に示されるような元のXYZ座標系に変換される。このため、回転後のXYZ座標系におけるパレット部7の中心位置Gの座標(x0,y0,z0)は、元のXYZ座標系におけるパレット部7の中心位置Gの座標(x,y,z)となる。 Subsequently, the estimation calculation unit 18 reversely rotates the position and orientation data of the post-pallet 5 obtained in steps S124 and S125 so as to return them to the original XYZ coordinate system (step S126). As a result, the final position and posture of the post pallet 5 with respect to the forklift 1 are obtained. At this time, the XYZ coordinate system after rotation as shown in FIG. 9(b) is transformed into the original XYZ coordinate system as shown in FIG. 9(a). Therefore, the coordinates (x0, y0, z0) of the center position G of the pallet part 7 in the XYZ coordinate system after rotation are the coordinates (x, y, z) of the center position G of the pallet part 7 in the original XYZ coordinate system. becomes.

続いて、推定演算部18は、横線及び縦線の寸法及び傾き、横線と縦線との交点等のデータに基づいて、平面検知部17により検知された平面がポストパレット5の前面に該当するかどうかを最終的に判断する(手順S127)。推定演算部18は、検知された平面がポストパレット5の前面に該当すると判断したときは、ポストパレット5の位置及び姿勢のデータを経路生成部19に出力する(手順S128)。 Subsequently, the estimation calculation unit 18 determines that the plane detected by the plane detection unit 17 corresponds to the front surface of the post pallet 5 based on data such as the dimensions and inclinations of the horizontal and vertical lines and the intersection points of the horizontal and vertical lines. It is finally determined whether or not (step S127). When the estimation calculation unit 18 determines that the detected plane corresponds to the front surface of the post-pallet 5, it outputs data on the position and orientation of the post-pallet 5 to the route generation unit 19 (step S128).

推定演算部18は、検知された平面がポストパレット5の前面に該当しないと判断したときは、検知された平面に含まれる平面点群データを消去する(手順S129)。そして、推定演算部18は、平面検知部17に対して平面再検知指示を行う(手順S130)。平面検知部17は、平面再検知指示を受けると、パレット部7の前面7a及び柱部8の前面8aに相当する平面を再度検知する。 When the estimation calculation unit 18 determines that the detected plane does not correspond to the front surface of the post pallet 5, it deletes the plane point cloud data included in the detected plane (step S129). Then, the estimation calculation unit 18 instructs the plane detection unit 17 to detect the plane again (step S130). Upon receiving the plane re-detection instruction, the plane detector 17 again detects planes corresponding to the front surface 7a of the pallet unit 7 and the front surface 8a of the column unit 8 .

図3に戻り、経路生成部19は、推定演算部18により得られたポストパレット5の位置及び姿勢のデータに基づいて、フォークリフト1が荷取りを行う荷取り位置(前述)までの走行経路を生成する。 Returning to FIG. 3 , the route generation unit 19 creates a traveling route to the pickup position (described above) where the forklift 1 picks up, based on the position and attitude data of the post pallet 5 obtained by the estimation calculation unit 18 . Generate.

走行制御部20は、経路生成部19により生成された走行経路に従ってフォークリフト1を荷取り位置まで自動的に走行させるように駆動部14を制御する。 The travel control unit 20 controls the drive unit 14 so that the forklift 1 automatically travels to the pickup position according to the travel route generated by the route generation unit 19 .

以上のように本実施形態にあっては、レーザセンサ12によってポストパレット5の前面に向けてレーザが照射されることで、ポストパレット5に対応する点群データが取得される。そして、ポストパレット5に対応する点群データに基づいて、ポストパレット5におけるパレット部7の前面7a及び柱部8の前面8aに相当する平面が検知される。そして、前面7a,8aに相当する平面に基づいて、パレット部7に相当する横線と柱部8に相当する縦線とが抽出される。そして、横線及び縦線に基づいて、フォークリフト1に対するポストパレット5の位置及び姿勢が算出される。このとき、柱部8は上下方向に長く延びているため、ポストパレット5の上下方向の位置及び角度の精度が出やすい。これにより、フォークリフト1に対するポストパレット5の位置及び姿勢が高精度に推定される。 As described above, in the present embodiment, the laser sensor 12 irradiates the front surface of the post pallet 5 with laser light, so that the point cloud data corresponding to the post pallet 5 is obtained. Based on the point cloud data corresponding to the post pallet 5, planes corresponding to the front surface 7a of the pallet portion 7 and the front surface 8a of the column portion 8 of the post pallet 5 are detected. Then, horizontal lines corresponding to the pallet portion 7 and vertical lines corresponding to the column portions 8 are extracted based on the planes corresponding to the front surfaces 7a and 8a. Then, the position and posture of the post pallet 5 with respect to the forklift 1 are calculated based on the horizontal line and the vertical line. At this time, since the pillars 8 are elongated in the vertical direction, the position and angle of the post pallet 5 in the vertical direction are likely to be accurate. Thereby, the position and orientation of the post pallet 5 with respect to the forklift 1 are estimated with high accuracy.

また、本実施形態では、カメラ11により取得された画像データに基づいてポストパレット5が認識され、レーザセンサ12により取得された点群データのうち認識されたポストパレット5に対応する点群データが抽出される。画像データは、点群データに比べて解像度が高い。このため、ポストパレット5の認識精度が高くなる。従って、フォークリフト1に対するポストパレット5の位置及び姿勢が更に高精度に推定される。 Further, in this embodiment, the post-pallet 5 is recognized based on the image data acquired by the camera 11, and the point cloud data corresponding to the recognized post-pallet 5 among the point cloud data acquired by the laser sensor 12 is extracted. Image data has a higher resolution than point cloud data. Therefore, the post-pallet 5 can be recognized with higher accuracy. Therefore, the position and orientation of the post pallet 5 with respect to the forklift 1 can be estimated with even higher accuracy.

また、本実施形態では、柱部8に相当する縦線の傾き及び寸法に基づいて柱部8の姿勢が算出されると共に、パレット部7に相当する横線と柱部8に相当する縦線との交点の位置に基づいてパレット部7の位置が算出される。従って、フォークリフト1に対するポストパレット5の位置及び姿勢を簡単に算出することができる。 In addition, in the present embodiment, the attitude of the pillar 8 is calculated based on the inclination and size of the vertical line corresponding to the pillar 8, and the horizontal line corresponding to the pallet 7 and the vertical line corresponding to the pillar 8 are calculated. The position of the pallet unit 7 is calculated based on the position of the intersection of the . Therefore, the position and orientation of the post pallet 5 with respect to the forklift 1 can be easily calculated.

また、本実施形態では、点群が除去された第2点群データに対して規定厚よりも大きい厚さに平面近似を行って第1平面を求めることにより、平面近似を繰り返し行った際に第2点群データのばらつきに対応することができる。そして、第1点群データのうち第1平面に含まれる第3点群データを取り出し、第3点群データに対して規定厚に平面近似を行って第2平面を求めることにより、パレット部7の前面7a及び柱部8の前面8aに相当する平面に欠けが生じにくくなると共に、前面7a,8aに相当する平面に含まれない不要な点群が削除される。また、前面7a,8aに相当する平面の位置及び角度のブレが抑制される。以上により、フォークリフト1に対するポストパレット5の位置及び姿勢がより高精度に推定される。 Further, in this embodiment, by performing plane approximation on the second point cloud data from which the point group has been removed to a thickness larger than the specified thickness to obtain the first plane, when plane approximation is repeatedly performed Variation in the second point cloud data can be dealt with. Then, the third point cloud data included in the first plane is extracted from the first point cloud data, and the second plane is obtained by performing plane approximation on the third point cloud data to a specified thickness. The plane corresponding to the front surface 7a of the column 8 and the front surface 8a of the column 8 is less likely to be chipped, and unnecessary point groups not included in the plane corresponding to the front surfaces 7a and 8a are deleted. In addition, fluctuations in the positions and angles of the planes corresponding to the front surfaces 7a and 8a are suppressed. As described above, the position and posture of the post pallet 5 with respect to the forklift 1 are estimated with higher accuracy.

また、本実施形態では、パレット部7の前面7a及び柱部8の前面8aに相当する平面に含まれる平面点群データに対して直線近似を行って直線を求めた後、平面点群データのうち直線上にある点群データを取り出すことにより、パレット部7に相当する横線及び柱部8に相当する縦線に欠けが生じにくくなると共に、横線及び縦線に含まれない不要な点群が削除される。従って、フォークリフト1に対するポストパレット5の位置及び姿勢が一層高精度に推定される。 Further, in the present embodiment, after linear approximation is performed on the plane point cloud data included in the plane corresponding to the front surface 7a of the pallet portion 7 and the front surface 8a of the column portion 8 to obtain a straight line, the plane point cloud data By extracting the point cloud data on the straight line, the horizontal line corresponding to the pallet part 7 and the vertical line corresponding to the column part 8 are less likely to be missing, and unnecessary point groups not included in the horizontal line and the vertical line are removed. Deleted. Therefore, the position and orientation of the post pallet 5 with respect to the forklift 1 can be estimated with higher accuracy.

また、本実施形態では、パレット部7の前面7a及び柱部8の前面8aに相当する平面に含まれる平面点群データが仮想的にレーザセンサ12に正対するように平面点群データを回転させることにより、ポストパレット5の前後方向(X方向)を無視して2次元的に横線と縦線との交点が求められる。このため、横線と縦線との交点が精度良く抽出される。従って、フォークリフト1に対するポストパレット5の位置及び姿勢が更に高精度に推定される。 Further, in this embodiment, the plane point cloud data included in the plane corresponding to the front surface 7a of the pallet part 7 and the front surface 8a of the column part 8 is rotated so that the plane point cloud data virtually faces the laser sensor 12. Thus, the crossing points of the horizontal lines and the vertical lines can be obtained two-dimensionally, ignoring the front-rear direction (X direction) of the post pallet 5 . Therefore, the intersections of horizontal lines and vertical lines can be extracted with high accuracy. Therefore, the position and orientation of the post pallet 5 with respect to the forklift 1 can be estimated with even higher accuracy.

また、本実施形態では、検知された平面がポストパレット5の前面に該当しないと判定されたときは、当該平面に含まれる点群データが削除され、平面の検知処理が再度実行されるので、パレット部7の前面7a及び柱部8の前面8aに相当する正確な平面が得られる。従って、フォークリフト1に対するポストパレット5の位置及び姿勢が一層高精度に推定される。 Further, in this embodiment, when it is determined that the detected plane does not correspond to the front surface of the post pallet 5, the point cloud data included in the plane is deleted, and the plane detection process is executed again. An exact plane corresponding to the front face 7a of the pallet part 7 and the front face 8a of the column 8 is obtained. Therefore, the position and orientation of the post pallet 5 with respect to the forklift 1 can be estimated with higher accuracy.

さらに、本実施形態では、パレット部7のフォーク穴9にゴミが入っていたり、暗い場所でパレット部7のフォーク穴9が映らない等、カメラ11によりパレット部7のフォーク穴9を見つけることが難しい場合でも、フォークリフト1に対するポストパレット5の位置及び姿勢を推定することができる。また、ポストパレット5のパレット部7に荷物Mが載置されている場合でも、荷物Mを含めてポストパレット5の位置及び姿勢を推定することができる。 Furthermore, in this embodiment, the fork holes 9 of the pallet part 7 can be found by the camera 11, for example, if there is dust in the fork holes 9 of the pallet part 7 or if the fork holes 9 of the pallet part 7 are not captured in a dark place. Even if it is difficult, the position and posture of the post pallet 5 with respect to the forklift 1 can be estimated. Further, even when the load M is placed on the pallet portion 7 of the post pallet 5, the position and posture of the post pallet 5 including the load M can be estimated.

なお、本発明は、上記実施形態には限定されない。例えば上記実施形態では、カメラ11により取得された画像データに基づいてポストパレット5が認識され、レーザセンサ12により取得された点群データのうち認識されたポストパレット5に対応する点群データに基づいて、パレット部7の前面7a及び柱部8の前面8aに相当する平面が検知されているが、特にそのような形態には限られない。例えば、例えばポストパレット5の位置が決まっている場合には、特にカメラ11を使用せずに、レーザセンサ12により取得された点群データのみに基づいて、前面7a,8aに相当する平面を検知してもよい。この場合には、位置姿勢推定装置21の構成の簡素化が図られる。 In addition, this invention is not limited to the said embodiment. For example, in the above embodiment, the post-pallet 5 is recognized based on the image data acquired by the camera 11, and based on the point cloud data corresponding to the recognized post-pallet 5 among the point cloud data acquired by the laser sensor 12. Although the plane corresponding to the front surface 7a of the pallet portion 7 and the front surface 8a of the column portion 8 is detected, the present invention is not limited to such a form. For example, when the position of the post pallet 5 is determined, the planes corresponding to the front surfaces 7a and 8a are detected based only on the point cloud data acquired by the laser sensor 12 without using the camera 11. You may In this case, the configuration of the position/orientation estimation device 21 is simplified.

また、上記実施形態では、ポストパレット5のパレット部7に左右1対のフォーク穴9が設けられているが、本発明は、特にその形態には限られず、パレット部にフォーク穴が設けられていないポストパレットにも適用可能である。この場合には、パレット部及び柱部の前面に相当する平面に基づいて、パレット部に相当する1本の横線と柱部に相当する2本の縦線とを抽出してもよい。 In the above embodiment, the pallet portion 7 of the post pallet 5 is provided with a pair of left and right fork holes 9, but the present invention is not particularly limited to this form, and the pallet portion is provided with fork holes. It is also applicable to non-post-pallets. In this case, one horizontal line corresponding to the pallet part and two vertical lines corresponding to the pillar part may be extracted based on the plane corresponding to the front surface of the pallet part and the pillar part.

また、上記実施形態では、トラック荷台Tに載置されたポストパレット5の位置及び姿勢が推定されているが、本発明は、特にその形態には限られず、路面や床面等に載置されたポストパレットにも適用可能である。 Further, in the above embodiment, the position and orientation of the post pallet 5 placed on the truck bed T are estimated, but the present invention is not particularly limited to that form, and the post pallet 5 is placed on a road surface, a floor surface, or the like. It is also applicable to post pallets.

1…フォークリフト、5…ポストパレット、7…パレット部、7a…前面、8…柱部、8a…前面、11…カメラ(撮像部)、12…レーザセンサ(レーザ距離検出部)、15…ポストパレット認識部、16…点群処理部、17…平面検知部、18…推定演算部、21…位置姿勢推定装置、Dp…点群データ、Dpp…点群データ、Dp1…第1点群データ、Dp2…第2点群データ、Dp3…第3点群データ、Df…平面点群データ、Df1…平面点群データ、Df2…点群データ、F1…第1平面、F2…第2平面、L…直線、La…横線、Lb…縦線、I…交点。 DESCRIPTION OF SYMBOLS 1... Forklift, 5... Post pallet, 7... Pallet part, 7a... Front surface, 8... Column part, 8a... Front surface, 11... Camera (imaging part), 12... Laser sensor (laser distance detection part), 15... Post pallet Recognition unit 16 Point cloud processing unit 17 Plane detection unit 18 Estimation calculation unit 21 Position and orientation estimation device Dp Point cloud data Dpp Point cloud data Dp1 First point cloud data Dp2 ... second point cloud data, Dp3 ... third point cloud data, Df ... plane point cloud data, Df1 ... plane point cloud data, Df2 ... point cloud data, F1 ... first plane, F2 ... second plane, L ... straight line , La...horizontal line, Lb...vertical line, I...intersection point.

Claims (7)

フォークリフトに搭載され、荷物を載せるパレット部と前記パレット部の前後左右の角部に立設された4本の柱部とを有するポストパレットの位置及び姿勢を推定する位置姿勢推定装置であって、
前記ポストパレットの前面に向けてレーザを照射し、レーザの反射光を受光することにより、前記ポストパレットまでの距離を検出して点群データを取得するレーザ距離検出部と、
前記レーザ距離検出部により取得された点群データに基づいて、前記パレット部及び前記柱部の前面に相当する平面を検知する平面検知部と、
前記平面検知部により検知された前記パレット部及び前記柱部の前面に相当する平面を用いて、前記フォークリフトに対する前記ポストパレットの位置及び姿勢の推定演算を行う推定演算部とを備え、
前記推定演算部は、前記パレット部及び前記柱部の前面に相当する平面に基づいて、前記パレット部に相当する横線と前記柱部に相当する縦線とを抽出し、前記横線及び前記縦線に基づいて、前記フォークリフトに対する前記ポストパレットの位置及び姿勢を算出する位置姿勢推定装置。
A position/orientation estimating device for estimating the position and orientation of a post pallet mounted on a forklift and having a pallet on which a load is placed and four pillars erected at the front, rear, left, and right corners of the pallet,
a laser distance detection unit that acquires point cloud data by detecting the distance to the post pallet by irradiating a laser toward the front surface of the post pallet and receiving the reflected light of the laser;
a plane detection unit that detects a plane corresponding to the front surface of the pallet unit and the pillar unit based on the point cloud data acquired by the laser distance detection unit;
an estimation calculation unit that performs an estimation calculation of the position and orientation of the post pallet with respect to the forklift using the plane corresponding to the front surface of the pallet and the pillar detected by the plane detection unit;
The estimation calculation unit extracts a horizontal line corresponding to the pallet portion and a vertical line corresponding to the pillar portion based on a plane corresponding to the front surface of the pallet portion and the pillar portion, and extracts the horizontal line and the vertical line. A position and orientation estimation device for calculating the position and orientation of the post pallet with respect to the forklift based on.
前記ポストパレットの前面を撮像して画像データを取得する撮像部と、
前記撮像部により取得された画像データに基づいて、前記ポストパレットを認識するポストパレット認識部と、
前記レーザ距離検出部により取得された前記点群データのうち前記ポストパレット認識部により認識された前記ポストパレットに対応する点群データを抽出する点群処理部とを更に備え、
前記平面検知部は、前記点群処理部により抽出された点群データに基づいて、前記パレット部及び前記柱部の前面に相当する平面を検知する請求項1記載の位置姿勢推定装置。
an imaging unit that acquires image data by imaging the front surface of the post pallet;
a post-palette recognition unit that recognizes the post-palette based on the image data acquired by the imaging unit;
a point cloud processing unit that extracts point cloud data corresponding to the post pallet recognized by the post pallet recognition unit from among the point cloud data acquired by the laser distance detection unit,
2. The position and orientation estimation apparatus according to claim 1, wherein the plane detection unit detects a plane corresponding to the front surface of the pallet unit and the pillar unit based on the point cloud data extracted by the point cloud processing unit.
前記推定演算部は、前記縦線の傾き及び寸法に基づいて前記柱部の姿勢を算出することで、前記フォークリフトに対する前記ポストパレットの姿勢を算出すると共に、前記横線と前記縦線との交点を求め、前記交点の位置に基づいて前記パレット部の位置を算出することで、前記フォークリフトに対する前記ポストパレットの位置を算出する請求項1または2記載の位置姿勢推定装置。 The estimation calculation unit calculates the attitude of the post pallet with respect to the forklift by calculating the attitude of the pillar based on the inclination and the dimension of the vertical line, and calculates the intersection of the horizontal line and the vertical line. 3. The position and orientation estimation device according to claim 1, wherein the position of the post pallet relative to the forklift is calculated by calculating the position of the pallet unit based on the position of the intersection. 前記平面検知部は、前記ポストパレットに対応する第1点群データに対して点群が除去された第2点群データを取得し、前記第2点群データに対して規定厚よりも大きい厚さに平面近似を行って第1平面を求め、その後前記第1点群データのうち前記第1平面に含まれる第3点群データを取り出し、前記第3点群データに対して前記規定厚に平面近似を行って第2平面を求めることにより、前記パレット部及び前記柱部の前面に相当する平面を検知する請求項1~3の何れか一項記載の位置姿勢推定装置。 The plane detection unit obtains second point cloud data from which the point cloud is removed from the first point cloud data corresponding to the post pallet, and obtains a thickness greater than a specified thickness for the second point cloud data. Then, a plane approximation is performed to obtain the first plane, and then the third point cloud data included in the first plane is extracted from the first point cloud data, and the specified thickness is obtained for the third point cloud data. 4. The position and orientation estimation device according to claim 1, wherein the plane corresponding to the front surface of the pallet section and the pillar section is detected by performing plane approximation to obtain a second plane. 前記推定演算部は、前記パレット部及び前記柱部の前面に相当する平面に含まれる平面点群データに対して直線近似を行って直線を求め、その後前記平面点群データのうち前記直線上にある点群データを取り出すことで、前記横線及び前記縦線を抽出する請求項1~4の何れか一項記載の位置姿勢推定装置。 The estimation calculation unit obtains a straight line by performing straight line approximation on the plane point cloud data included in the plane corresponding to the front surface of the pallet part and the pillar part. The position and orientation estimation device according to any one of claims 1 to 4, wherein the horizontal line and the vertical line are extracted by extracting certain point cloud data. 前記推定演算部は、前記パレット部及び前記柱部の前面に相当する平面に含まれる平面点群データが仮想的に前記レーザ距離検出部に正対するように前記平面点群データを回転させることで、前記平面点群データの座標系を変換した状態で、前記横線及び前記縦線に基づいて、前記フォークリフトに対する前記ポストパレットの位置及び姿勢を算出し、その後前記ポストパレットの位置及び姿勢を元の座標系に戻すように逆回転させることにより、前記フォークリフトに対する最終的な前記ポストパレットの位置及び姿勢を求める請求項1~5の何れか一項記載の位置姿勢推定装置。 The estimation calculation unit rotates the plane point cloud data so that the plane point cloud data included in the plane corresponding to the front surfaces of the pallet and the column virtually faces the laser distance detection unit. , the position and orientation of the post pallet with respect to the forklift are calculated based on the horizontal line and the vertical line in a state in which the coordinate system of the plane point cloud data is transformed, and then the position and orientation of the post pallet are converted back to the original 6. The position and orientation estimation device according to any one of claims 1 to 5, wherein the final position and orientation of the post pallet with respect to the forklift are obtained by reverse rotation to return to the coordinate system. 前記推定演算部は、前記フォークリフトに対する前記ポストパレットの位置及び姿勢を算出した後、前記横線及び前記縦線の傾き及び寸法に基づいて、前記平面検知部により検知された平面が前記ポストパレットの前面に該当するかどうかを最終的に判定し、前記平面検知部により検知された平面が前記ポストパレットの前面に該当しないと判定したときは、前記平面検知部により検知された平面に含まれる点群データを削除し、前記平面検知部に対して前記パレット部及び前記柱部の前面に相当する平面の検知処理を再度実行させる請求項1~6の何れか一項記載の位置姿勢推定装置。 After calculating the position and orientation of the post pallet with respect to the forklift, the estimation calculation unit determines whether the plane detected by the plane detection unit When it is determined that the plane detected by the plane detection unit does not correspond to the front surface of the post pallet, the point group included in the plane detected by the plane detection unit 7. The position/orientation estimation device according to claim 1, wherein data is deleted, and the plane detection unit re-executes detection processing of a plane corresponding to the front surface of the pallet section and the column section.
JP2021189959A 2021-11-24 2021-11-24 Position/attitude estimation device Pending JP2023076925A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021189959A JP2023076925A (en) 2021-11-24 2021-11-24 Position/attitude estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021189959A JP2023076925A (en) 2021-11-24 2021-11-24 Position/attitude estimation device

Publications (1)

Publication Number Publication Date
JP2023076925A true JP2023076925A (en) 2023-06-05

Family

ID=86610138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021189959A Pending JP2023076925A (en) 2021-11-24 2021-11-24 Position/attitude estimation device

Country Status (1)

Country Link
JP (1) JP2023076925A (en)

Similar Documents

Publication Publication Date Title
JP6469506B2 (en) forklift
JP6542574B2 (en) forklift
JP6721998B2 (en) Object state identification method, object state identification device, and transport vehicle
US9630321B2 (en) Continuous updating of plan for robotic object manipulation based on received sensor data
JP7272197B2 (en) Position and orientation estimation device
JP6649796B2 (en) Object state specifying method, object state specifying apparatus, and carrier
CN108692681B (en) Recess detection device, conveyance device, and recess detection method
CN107851181B (en) Method for controlling a robot and/or autonomous unmanned transport system
JPWO2019163378A5 (en)
JP5819257B2 (en) Moving object position estimation method and moving object
JP2023076925A (en) Position/attitude estimation device
JP7259634B2 (en) travel control device
JP7306311B2 (en) recognition device
JP7192706B2 (en) Position and orientation estimation device
JP7312089B2 (en) Measuring device
JP2023030983A (en) forklift
JP2023056669A (en) travel control device
JP2022128063A (en) Position and posture estimation device
JP2021120810A (en) Position detection device
JP2009042147A (en) Apparatus and method for recognizing object
JP2009006982A (en) Leg wheel type robot
JP2008260117A (en) Leg-wheel type robot and leg-wheel device
JP2021042071A (en) Side shift device control device for forklift
JP7287329B2 (en) forklift
JP2023124122A (en) Article detection device, article detection method, and industrial vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240213