JP2022112068A - Loading operation support device, carrier device, loading operation support method, and loading operation support program - Google Patents

Loading operation support device, carrier device, loading operation support method, and loading operation support program Download PDF

Info

Publication number
JP2022112068A
JP2022112068A JP2021007701A JP2021007701A JP2022112068A JP 2022112068 A JP2022112068 A JP 2022112068A JP 2021007701 A JP2021007701 A JP 2021007701A JP 2021007701 A JP2021007701 A JP 2021007701A JP 2022112068 A JP2022112068 A JP 2022112068A
Authority
JP
Japan
Prior art keywords
loading platform
dimensional image
hole
acquiring
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021007701A
Other languages
Japanese (ja)
Inventor
美徳 佐藤
Yoshinori Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2021007701A priority Critical patent/JP2022112068A/en
Publication of JP2022112068A publication Critical patent/JP2022112068A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)
  • Image Analysis (AREA)

Abstract

To increase the robustness of arithmetic processing.SOLUTION: A forklift 1 comprises a photographing unit 24 that acquires a two-dimensional image and a three-dimensional image of a pallet 30 having a hole 32, and a control unit 27. The control unit 27 detects the hole 32 of the pallet 30 based on the acquired two-dimensional image and three-dimensional image.SELECTED DRAWING: Figure 7

Description

本発明は、荷取支援装置、搬送装置、荷取支援方法及び荷取支援プログラムに関する。 The present invention relates to a pick-up assistance device, a transport device, a pick-up assistance method, and a pick-up assistance program.

従来、フォークリフトでの荷役作業では、運転者(作業者)が目視によりパレットの孔部(フォークポケット)を確認し、この孔部へのフォークの挿入可否を判断していた。そのため、特にパレットが目視しづらい位置に置かれている場合などには、予測を頼りにフォークを挿入しなければならなかった。 Conventionally, in a cargo handling operation using a forklift, the driver (operator) visually checks the holes (fork pockets) of the pallet and determines whether or not the forks can be inserted into the holes. As a result, the forks had to be inserted based on predictions, especially when the pallet was placed in a position that was difficult to see.

そこで、例えば特許文献1に記載の技術では、フォークリフトに搭載した撮像装置(三次元センサ)でパレットの画像を取得し、この画像に基づいてパレットの種別とその孔部へのフォークの挿入可否を判定している。 Therefore, for example, in the technique described in Patent Document 1, an image of a pallet is acquired by an imaging device (three-dimensional sensor) mounted on a forklift, and based on this image, the type of pallet and whether or not a fork can be inserted into its hole is determined. Judging.

特許第6649796号公報Japanese Patent No. 6649796

しかしながら、三次元センサではデータを上手く取得できない場合があり、その場合には処理に支障をきたす。
そこで、本発明は、演算処理のロバスト性を高めることを目的とする。
However, the three-dimensional sensor may not be able to acquire data well, and in that case, processing will be hindered.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to improve the robustness of arithmetic processing.

本発明に係る荷取支援装置は、
孔部を有する荷役台の二次元画像を取得する2D撮像手段と、
前記荷役台の三次元画像を取得する3D撮像手段と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段と、
を備える。
A pickup support device according to the present invention includes:
2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a three-dimensional image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
Prepare.

本発明に係る搬送装置は、
上記荷取支援装置と、
前記荷役台を保持する保持部と、を備える。
A conveying device according to the present invention includes:
the pick-up support device;
and a holding portion that holds the cargo handling platform.

本発明に係る荷取支援方法は、
制御手段が、
孔部を有する荷役台の二次元画像を取得する2D撮像工程と、
前記荷役台の三次元画像を取得する3D撮像工程と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出工程と、
を実行する。
A pick-up support method according to the present invention includes:
the control means
a 2D imaging step of acquiring a two-dimensional image of a loading platform having holes;
a 3D imaging step of acquiring a 3D image of the loading platform;
a detection step of detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
to run.

本発明に係る荷取支援プログラムは、
コンピュータを、
孔部を有する荷役台の二次元画像を取得する2D撮像手段、
前記荷役台の三次元画像を取得する3D撮像手段、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段、
として機能させる。
A pick-up assistance program according to the present invention includes:
the computer,
2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a 3D image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
function as

本発明によれば、演算処理のロバスト性を高めることができる。 ADVANTAGE OF THE INVENTION According to this invention, the robustness of arithmetic processing can be improved.

実施形態に係るフォークリフトの外観を示す斜視図である。1 is a perspective view showing the appearance of a forklift according to an embodiment; FIG. 実施形態に係るフォークリフトの概略の制御構成を示すブロック図である。1 is a block diagram showing a schematic control configuration of a forklift according to an embodiment; FIG. 実施形態に係るパレットの位置・姿勢算出処理の流れを示すフローチャートである。6 is a flowchart showing the flow of pallet position/orientation calculation processing according to the embodiment. 実施形態に係るパレットの位置・姿勢算出処理を説明するための図である。FIG. 7 is a diagram for explaining pallet position/orientation calculation processing according to the embodiment; 実施形態に係るパレットの位置・姿勢算出処理を説明するための図である。FIG. 7 is a diagram for explaining pallet position/orientation calculation processing according to the embodiment; 実施形態に係るパレットの位置・姿勢算出処理の結果表示例を示す図である。FIG. 10 is a diagram showing a display example of a result of the pallet position/orientation calculation process according to the embodiment; 実施形態の変形例に係るパレットの位置・姿勢算出処理の流れを示すフローチャートである。10 is a flowchart showing the flow of pallet position/orientation calculation processing according to a modification of the embodiment. 実施形態の変形例に係るパレットの位置・姿勢算出処理を説明するための図である。FIG. 11 is a diagram for explaining pallet position/orientation calculation processing according to a modification of the embodiment; 実施形態の変形例に係るパレットのサイズ情報の入力画面例を示す図である。FIG. 11 is a diagram showing an example of an input screen for pallet size information according to a modification of the embodiment;

以下、本発明の実施形態について、図面を参照して詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[フォークリフトの構成]
図1は、本実施形態に係るフォークリフト1の外観を示す斜視図である。
本実施形態に係るフォークリフト1は、本発明に係る搬送装置の一例であり、車体11、フォーク12、昇降体(リフト)13、マスト14、車輪15を備える。マスト14は車体11の前方に設けられ、図示しない駆動源によって駆動されて車体11の前後に傾斜する。昇降体13は、図示しない駆動源によって駆動され、マスト14に沿って昇降する。昇降体13には、荷物やパレット30などを保持する保持部としての一対のフォーク12が取り付けられている。
パレット30は、本発明に係る荷役台の一例であり、図4(a)に示すように、フォークリフト1の荷役対象となる荷物が載置される台状のものである。パレット30は、短矩形板状に形成され、一対のフォーク12が挿入される2つの孔部(フォークポケット)32を各側面31に有する。各孔部32は、パレット30の四辺に沿って延在し、その前後又は左右の両側に位置する柱状部33により画成される。
[Forklift configuration]
FIG. 1 is a perspective view showing the appearance of a forklift 1 according to this embodiment.
A forklift 1 according to the present embodiment is an example of a carrier apparatus according to the present invention, and includes a vehicle body 11 , forks 12 , an elevating body (lift) 13 , a mast 14 and wheels 15 . The mast 14 is provided in front of the vehicle body 11 and is driven by a drive source (not shown) to tilt forward and backward relative to the vehicle body 11 . The elevating body 13 is driven by a drive source (not shown) and ascends and descends along the mast 14 . A pair of forks 12 are attached to the lifting body 13 as a holding portion for holding a load, a pallet 30, and the like.
The pallet 30 is an example of a cargo handling table according to the present invention, and as shown in FIG. The pallet 30 is formed in the shape of a short rectangular plate and has two holes (fork pockets) 32 in each side surface 31 into which the pair of forks 12 are inserted. Each hole 32 extends along the four sides of the pallet 30 and is defined by columnar portions 33 located on the front, back, left and right sides thereof.

図2は、フォークリフト1の概略の制御構成を示すブロック図である。
この図に示すように、フォークリフト1は、上記構成に加え、駆動部21、操作部22、表示部23、撮影部24、記憶部26、制御部27を備える。本発明に係る荷取支援装置は、少なくとも撮影部24と制御部27を含んで構成される。
FIG. 2 is a block diagram showing a schematic control configuration of the forklift 1. As shown in FIG.
As shown in this figure, the forklift 1 includes a drive unit 21, an operation unit 22, a display unit 23, an imaging unit 24, a storage unit 26, and a control unit 27 in addition to the above configuration. The pick-up support device according to the present invention includes at least a photographing section 24 and a control section 27 .

駆動部21は、フォークリフト1の各種駆動源である走行モータ、操舵モータ及び荷役モータ(いずれも図示省略)を含む。走行モータは、車輪15のうちの駆動輪を駆動する。操舵モータは、車輪15のうちの操舵輪を回転(操舵動作)させる。荷役モータは、昇降体13の昇降とマスト14の傾倒との各動作を行わせる駆動源である。 The drive unit 21 includes a travel motor, a steering motor, and a cargo handling motor (all of which are not shown), which are various drive sources of the forklift 1 . The travel motor drives drive wheels of the wheels 15 . The steering motor rotates (steers) the steered wheels of the wheels 15 . The cargo-handling motor is a driving source for raising and lowering the lifting body 13 and tilting the mast 14 .

操作部22は、運転者が各種操作を行う操作手段である。操作部22は、例えばハンドルやペダル、レバー、各種ボタン等を含み、これらの操作内容に応じた操作信号を制御部27に出力する。
表示部23は、例えば液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイその他のディスプレイであり、制御部27から入力される表示信号に基づいて各種情報を表示する。なお、表示部23は、操作部22の一部を兼ねるタッチパネルであってもよい。
The operation unit 22 is operation means for the driver to perform various operations. The operation unit 22 includes, for example, a handle, a pedal, a lever, various buttons, and the like, and outputs an operation signal to the control unit 27 according to the content of these operations.
The display unit 23 is, for example, a liquid crystal display, an organic electroluminescence display, or other displays, and displays various information based on display signals input from the control unit 27 . Note that the display unit 23 may be a touch panel that also serves as a part of the operation unit 22 .

撮影部24は、深度(距離)情報を含む画像を取得可能なものであり、本実施形態では、三次元の点群データを含む画像が得られるRGB-Dカメラ(デプスカメラ)である。つまり、撮影部24は、三次元情報とRGB画像(二次元画像)とが取得可能なものである。撮影部24は、例えば昇降体13又はマスト14に前方向きに取り付けられ、フォークリフト1の前方を撮影する。
なお、撮影部24は、撮影対象の二次元画像と、深度情報を含む三次元画像とを取得できるものであればよい。すなわち、撮影部24は、撮影対象の二次元画像を取得する手段と、三次元画像を取得する手段とを個別に備えるものであってもよい。また、撮影部24は、例えばRGB画像でなく赤外線画像を取得可能な赤外線カメラであってもよい。この場合には赤外線画像を利用できるので、照明不足の場合にも対応できる。
The photographing unit 24 is capable of obtaining an image including depth (distance) information, and in this embodiment is an RGB-D camera (depth camera) capable of obtaining an image including three-dimensional point cloud data. That is, the photographing unit 24 can acquire three-dimensional information and an RGB image (two-dimensional image). The photographing unit 24 is attached to, for example, the lifting body 13 or the mast 14 facing forward, and photographs the front of the forklift 1 .
Note that the imaging unit 24 may acquire a two-dimensional image of an imaging target and a three-dimensional image including depth information. That is, the photographing unit 24 may separately include means for obtaining a two-dimensional image of the object to be photographed and means for obtaining a three-dimensional image. Also, the photographing unit 24 may be an infrared camera capable of acquiring an infrared image instead of an RGB image, for example. In this case, an infrared image can be used, so it can be used even in the case of insufficient illumination.

記憶部26は、RAM(Random Access Memory)やROM(Read Only Memory)等により構成されるメモリであり、各種のプログラム及びデータを記憶するとともに、制御部27の作業領域としても機能する。本実施形態の記憶部26には、パレット30の形状情報として、パレット30のCADデータ(設計データ)が予め記憶されている。
制御部27は、フォークリフト1各部の動作を制御する。具体的に、制御部27は、操作部22の操作内容に基づいて駆動部21を動作させたり、記憶部26に予め記憶されているプログラムを展開し、展開されたプログラムと協働して各種処理を実行したりする。
The storage unit 26 is a memory configured by RAM (Random Access Memory), ROM (Read Only Memory), etc., stores various programs and data, and also functions as a work area for the control unit 27 . CAD data (design data) of the pallet 30 is stored in advance as the shape information of the pallet 30 in the storage unit 26 of the present embodiment.
The control section 27 controls the operation of each section of the forklift 1 . Specifically, the control unit 27 operates the driving unit 21 based on the operation content of the operation unit 22, develops a program stored in advance in the storage unit 26, and cooperates with the developed program to perform various operations. perform processing.

[フォークリフトの動作]
続いて、フォークリフト1がパレット30にフォーク12を挿入する際の荷取動作について説明する。
この荷取動作では、パレット30の画像に基づいてパレット30の位置及び姿勢が算出され、その結果に基づいて、パレット30の孔部32へのフォーク12の挿入が好適にアシストされる。
図3は、パレット30の位置・姿勢算出処理の流れを示すフローチャートであり、図4及び図5は、この処理を説明するための図であり、図6は、この処理における結果表示例を示す図である。
この処理は、制御部27が、ユーザ操作に基づいて記憶部26から該当するプログラムを読み出して展開することで実行される。
なお、以下では、特に断りのない限り、パレット30の孔部32又は柱状部33とは、側面31のうちの開口部分又は表面部分を指すものとする。
[Forklift operation]
Next, a pickup operation when the forklift 1 inserts the forks 12 into the pallet 30 will be described.
In this pick-up operation, the position and attitude of the pallet 30 are calculated based on the image of the pallet 30, and the insertion of the forks 12 into the holes 32 of the pallet 30 is favorably assisted based on the results.
FIG. 3 is a flow chart showing the flow of the position/orientation calculation processing of the pallet 30, FIGS. 4 and 5 are diagrams for explaining this processing, and FIG. 6 shows an example of the result display in this processing. It is a diagram.
This process is executed by the control unit 27 reading and expanding the corresponding program from the storage unit 26 based on the user's operation.
In the following, unless otherwise specified, the holes 32 or the columnar portions 33 of the pallet 30 refer to the opening portion or the surface portion of the side surface 31 .

図3に示すように、まず制御部27は、撮影部24によりパレット30の画像を取得する(ステップS1)。
このステップでは、制御部27は、ユーザ操作に基づいて、撮影部24を動作させ、深度情報を含むパレット30の画像(三次元の点群データを含む画像)を取得する。つまり、このステップでは、深度情報を含む三次元画像と、これに対応するRGB画像(二次元画像)とを取得する。取得した画像は記憶部26に記憶される。これにより、図4(a)に示すようなパレット30の画像が得られる。
なお、所定の撮影タイミングで定期的にフォークリフト1前方の画像を取得し、その画像からパレット30を検出することとしてもよい。
As shown in FIG. 3, the control unit 27 first acquires an image of the pallet 30 by the photographing unit 24 (step S1).
In this step, the control unit 27 operates the imaging unit 24 based on the user's operation to acquire an image of the palette 30 including depth information (an image including three-dimensional point cloud data). That is, in this step, a three-dimensional image including depth information and a corresponding RGB image (two-dimensional image) are obtained. The acquired image is stored in the storage unit 26 . As a result, an image of the palette 30 as shown in FIG. 4(a) is obtained.
Note that an image of the front of the forklift 1 may be acquired periodically at a predetermined photographing timing, and the pallet 30 may be detected from the image.

次に、制御部27は、取得した画像(深度情報を含まないRGB画像(二次元画像))から、パレット30の側面31を含む部分を対象領域として抽出する(ステップS2)。
この抽出手法は、特に限定はされないが、本実施形態ではニューラルネットワークが利用される。これは、撮影された画像から、パレット30の側面31が写っている領域を含む矩形の範囲の画像部分を特定して出力するように学習されたニューラルネットワークである。これにより、図4(b)に示すように、パレット30の1つの側面31を囲う矩形の画像部分Gが抽出される。画像に複数の側面31が含まれる場合、例えば最もフォークリフト1の正対位置に近い(すなわち最も面積の大きい)状態の側面31が抽出されることとしてもよいし、ユーザ(運転者)が選択できることとしてもよい。
なお、ここでは、対象領域として1つの側面31を含む画像部分Gを抽出することとしたが、この対象領域は、ステップS1で取得された画像の一部であって、パレット30の孔部32を含む範囲であればよく、例えばパレット30全体を含む矩形範囲であってもよい。
Next, the control unit 27 extracts a portion including the side surface 31 of the pallet 30 from the acquired image (RGB image (two-dimensional image) without depth information) as a target area (step S2).
This extraction method is not particularly limited, but a neural network is used in this embodiment. This is a neural network that has been trained to identify and output a rectangular area of the image that includes the side 31 of the pallet 30 from the captured image. As a result, as shown in FIG. 4B, a rectangular image portion G surrounding one side surface 31 of the palette 30 is extracted. If the image contains a plurality of side faces 31, for example, the side face 31 that is closest to the position directly facing the forklift 1 (that is, has the largest area) may be extracted, or the user (driver) can select it. may be
In this case, the image portion G including one side surface 31 is extracted as the target region. For example, it may be a rectangular range that includes the entire palette 30 .

次に、制御部27は、ステップS2で対象領域として抽出された画像部分Gから、局所点群を抽出する(ステップS3)。つまり、このステップでは、画像部分G内の側面31に含まれる点群データが深度情報として抽出される。 Next, the control unit 27 extracts a local point group from the image portion G extracted as the target area in step S2 (step S3). That is, in this step, point cloud data included in the side surface 31 within the image portion G is extracted as depth information.

次に、制御部27は、ステップS3で抽出した点群データから平面を抽出する(ステップS4)。このステップでは、側面31に含まれる点群データに平面をフィッティングすることで、図5(a)に示すように、パレット30の特徴部分として、側面31に対応した平面部分Gaが得られる。この平面部分Gaの向きにより、パレット30の姿勢が得られる。ここで、パレット30の「特徴部分」とは、フォーク12によるパレット30の保持に関係する部分をいう。 Next, the control unit 27 extracts a plane from the point cloud data extracted in step S3 (step S4). In this step, by fitting a plane to the point cloud data included in the side surface 31, a plane portion Ga corresponding to the side surface 31 is obtained as a characteristic portion of the pallet 30, as shown in FIG. The attitude of the pallet 30 is obtained by the orientation of the plane portion Ga. Here, the “characteristic portion” of the pallet 30 refers to a portion related to holding of the pallet 30 by the forks 12 .

次に、制御部27は、側面31の画像部分Gから、2つの孔部32を抽出(検出)する(ステップS5)。ここでは、画像部分Gのうち、点群データを含まない部分として、図5(b)に示すように、孔部32に対応する孔部領域Gbが抽出される。そして、制御部27は、得られた孔部領域Gbの位置を正として、必要に応じてパレット30全体の位置を算出して修正する。
それから、制御部27は、各孔部領域Gbの位置を算出する(ステップS6)。ここでは、各孔部領域Gbの中心位置等が取得される。
Next, the control unit 27 extracts (detects) two holes 32 from the image portion G of the side surface 31 (step S5). Here, as a portion of the image portion G that does not contain the point cloud data, as shown in FIG. Then, the control unit 27 regards the obtained position of the hole region Gb as positive, and calculates and corrects the position of the entire pallet 30 as necessary.
Then, the controller 27 calculates the position of each hole region Gb (step S6). Here, the center position and the like of each hole region Gb are acquired.

次に、制御部27は、算出したパレット30(側面31、孔部32)の位置や姿勢の情報をCADデータと照合して補正する(ステップS7)。
このステップでは、制御部27は、記憶部26からパレット30のCADデータを読み出し、例えば三次元のバーチャル画像を生成する。そして、そのうち側面31の二次元シルエット画像が、算出結果のパレット30の情報と整合する(誤差が所定以内)か否かを判定し、整合しない場合には整合するように算出結果を補正する。また、算出結果とCADデータとの照合度合を求め、この照合度合が所定の閾値未満であって場合には、画像のパレット30が検出対象のパレットとは異なると判定し、それを表示部23に表示してもよい。
Next, the control unit 27 compares the calculated position and orientation information of the pallet 30 (the side surface 31 and the hole 32) with the CAD data and corrects them (step S7).
In this step, the control unit 27 reads the CAD data of the pallet 30 from the storage unit 26 and generates, for example, a three-dimensional virtual image. Then, it is determined whether or not the two-dimensional silhouette image of the side face 31 matches the calculated information of the palette 30 (within a predetermined error), and if not matched, the calculated result is corrected to match. Further, the degree of matching between the calculation result and the CAD data is obtained, and if the degree of matching is less than a predetermined threshold, it is determined that the palette 30 of the image is different from the palette to be detected, and the display unit 23 may be displayed in

次に、制御部27は、算出結果を出力する(ステップS8)。
本実施形態では、算出されたパレット30の位置・姿勢情報から、孔部32へのフォーク12の挿入可否が算出(判定)され、表示部23に表示される。
具体的には、例えば図6(a)に示すように、現状のフォーク12とパレット30との相対的な位置・姿勢が表示部23に図示される。そして、フォーク12の挿入予測線(延長線)Lがパレット30を適正に貫通しているか否かにより挿入可否が示される。すなわち、孔部32へのフォーク12の「挿入可否」とは、フォークリフト1を前進させることで、フォーク12がパレット30の孔部32内に挿入されるか否かをいう。この「挿入可否」の判定は、フォーク12の向きと孔部32の向き(つまりパレット30の姿勢)とが所定範囲内にあるか否かの判定を含んでもよいし、単にフォーク12の先端が孔部32(の開口部)内に入るかだけの判定でもよい。フォーク12の挿入予測線Lは、フォーク12を駆動する荷役モータのエンコーダ(又は所定のセンサ)からフォーク12の高さ及びチルト角度(位置及び姿勢)を取得し、フォーク12の延在方向を計算すればよい。あるいは図6(b)に示すように、この結果表示を、パレット30の孔部32が視認可能な透視図で示してもよい。
なお、算出結果の出力はここに例示したものに限定されない。例えば、フォーク12がパレット30の孔部32に好適に挿入されない(フォーク12の挿入予測線Lが孔部32から外れている)算出結果であった場合に、フォーク12の挿入予測線Lを孔部32内に収めるためのフォークリフト1の向きやフォーク12の高さ及び角度の各調整量を算出し、これを表示部23に表示して調整を促してもよい。さらに、この調整の少なくとも一部が自動で行われるように駆動部21を制御してもよい。この場合の自動調整は、上述のステップS7において算出結果とCADデータとの照合度合が所定値以上であった場合にのみ行われることとしてもよい。また、フォーク12やパレット30の図示は、図6のような側面図でなく平面図や鳥観図でもよいし、これらを組み合わせたものでもよい。
その後、制御部27は、パレット30の位置・姿勢算出処理を終了させる。
Next, the control section 27 outputs the calculation result (step S8).
In the present embodiment, whether or not the forks 12 can be inserted into the holes 32 is calculated (determined) from the calculated position/orientation information of the pallet 30 and displayed on the display unit 23 .
Specifically, for example, as shown in FIG. 6A, the current relative positions and attitudes of the fork 12 and the pallet 30 are displayed on the display unit 23 . Whether or not the fork 12 can be inserted is indicated by whether or not the predicted insertion line (extended line) L of the fork 12 properly penetrates the pallet 30 . In other words, “insertability” of the fork 12 into the hole 32 means whether the fork 12 is inserted into the hole 32 of the pallet 30 by moving the forklift 1 forward. This determination of "insertability" may include determining whether or not the orientation of the fork 12 and the orientation of the hole 32 (that is, the posture of the pallet 30) are within a predetermined range, or simply determining whether the tip of the fork 12 is It is also possible to judge only whether or not the object enters (the opening of) the hole 32 . The predicted insertion line L of the fork 12 is obtained by obtaining the height and tilt angle (position and posture) of the fork 12 from the encoder (or a predetermined sensor) of the cargo handling motor that drives the fork 12, and calculating the extension direction of the fork 12. do it. Alternatively, as shown in FIG. 6(b), this result display may be shown in a perspective view in which the holes 32 of the pallet 30 are visible.
In addition, the output of the calculation result is not limited to what is illustrated here. For example, if the calculation result indicates that the forks 12 are not properly inserted into the holes 32 of the pallet 30 (the predicted insertion line L of the forks 12 is out of the holes 32), the predicted insertion line L of the forks 12 is inserted into the holes 32. Adjustment amounts for the orientation of the forklift 1 and the height and angle of the forks 12 to fit within the portion 32 may be calculated and displayed on the display portion 23 to prompt adjustment. Furthermore, the driving section 21 may be controlled so that at least part of this adjustment is automatically performed. The automatic adjustment in this case may be performed only when the degree of comparison between the calculation result and the CAD data in step S7 is equal to or greater than a predetermined value. Also, the illustration of the forks 12 and the pallet 30 may be a plan view, a bird's-eye view, or a combination thereof, instead of the side view shown in FIG.
After that, the control unit 27 terminates the position/orientation calculation processing of the pallet 30 .

[本実施形態の技術的効果]
以上のように、本実施形態によれば、パレット30の二次元画像と三次元画像に基づいて、孔部32が検出される。
したがって、三次元データのみに基づいていた従来に比べ、演算処理のロバスト性を高めることができる。
[Technical effect of the present embodiment]
As described above, according to this embodiment, the holes 32 are detected based on the two-dimensional image and the three-dimensional image of the pallet 30 .
Therefore, it is possible to improve the robustness of arithmetic processing compared to the conventional method based only on three-dimensional data.

また本実施形態によれば、画像(三次元画像)からパレット30の深度情報(三次元点群データ)が取得され、RGB画像(二次元画像)から孔部32を含む対象領域が抽出される。そして、この対象領域の深度情報に基づいて、パレット30の位置及び姿勢が算出される。
これにより、取得された画像のうち、孔部32を含む対象領域についての三次元点群データの演算処理だけで、パレット30の位置及び姿勢を算出できる。したがって、取得した画像全体について三次元点群データの演算処理を行う場合に比べ、演算コストを低減し、演算レートを向上できる。
Further, according to the present embodiment, the depth information (three-dimensional point cloud data) of the palette 30 is acquired from the image (three-dimensional image), and the target area including the hole 32 is extracted from the RGB image (two-dimensional image). . Then, the position and orientation of the pallet 30 are calculated based on the depth information of this target area.
As a result, the position and orientation of the pallet 30 can be calculated only by arithmetic processing of the three-dimensional point cloud data for the target area including the hole 32 in the acquired image. Therefore, the calculation cost can be reduced and the calculation rate can be improved as compared with the case where the calculation processing of the three-dimensional point cloud data is performed on the entire acquired image.

また本実施形態によれば、孔部32を含む対象領域から、パレット30の保持に関する特徴部分として平面部分Gaが抽出され、その深度情報に基づいてパレット30の位置及び姿勢が算出される。
これにより、さらに演算コストを低減することができる。
Further, according to the present embodiment, the planar portion Ga is extracted from the target area including the hole 32 as a characteristic portion related to holding the pallet 30, and the position and orientation of the pallet 30 are calculated based on the depth information.
Thereby, the calculation cost can be further reduced.

また本実施形態によれば、フォーク12を孔部32に挿入可能か否かが表示部23に表示されるので、運転者(作業者)は表示部23を見るだけでフォーク12の挿入可否を即座に判断できる。 Further, according to the present embodiment, the display unit 23 displays whether or not the fork 12 can be inserted into the hole 32, so that the driver (operator) can determine whether or not the fork 12 can be inserted simply by looking at the display unit 23. can be determined immediately.

また本実施形態によれば、画像から算出されたパレット30の位置及び姿勢が、パレット30のCADデータ(形状情報)に基づいて補正される。
これにより、パレット30の位置及び姿勢をより高精度に算出できる。
Further, according to this embodiment, the position and orientation of the pallet 30 calculated from the image are corrected based on the CAD data (shape information) of the pallet 30 .
As a result, the position and orientation of the pallet 30 can be calculated with higher accuracy.

[変形例]
続いて、上記実施形態の変形例について説明する。
本変形例は、パレット30の位置・姿勢算出時に、側面31のうち孔部32両側の柱状部33を抽出する点で上記実施形態と異なる。以下では、主にこの異なる点について説明し、上記実施形態と同様の構成要素には同一の符号を付して説明を省略する。
図7は、本変形例におけるパレット30の位置・姿勢算出処理の流れを示すフローチャートであり、図8は、この処理を説明するための図である。
[Modification]
Next, a modification of the above embodiment will be described.
This modification differs from the above-described embodiment in that the columnar portions 33 on both sides of the hole portion 32 of the side surface 31 are extracted when calculating the position/orientation of the pallet 30 . In the following, this difference will be mainly described, and the same reference numerals will be given to the same components as in the above embodiment, and the description will be omitted.
FIG. 7 is a flowchart showing the flow of the position/orientation calculation processing of the pallet 30 in this modification, and FIG. 8 is a diagram for explaining this processing.

図7に示すように、まず制御部27は、上記実施形態のステップS1と同様にして、撮影部24によりパレット30の画像を取得する(ステップT1)。
そして、制御部27は、上記実施形態のステップS2と同様にして、取得した画像(深度情報を含まないRGB画像)から、パレット30の側面31を含む画像部分Gを対象領域として抽出する(ステップT2)。
As shown in FIG. 7, first, the control unit 27 acquires an image of the pallet 30 by the photographing unit 24 (step T1) in the same manner as in step S1 of the above embodiment.
Then, the control unit 27 extracts the image portion G including the side surface 31 of the palette 30 from the acquired image (RGB image that does not include depth information) as a target area (step S2 in the above embodiment) (step T2).

次に、制御部27は、ステップT2で対象領域として抽出された画像部分Gから、特徴部分(局所特徴)として、孔部32を画成する柱状部33に対応する部分を抽出する(ステップT3)。
この抽出手法は、特に限定はされないが、本実施形態ではニューラルネットワークが利用される。これは、画像から、柱状部33が写っている範囲の画像部分を特定して出力するように学習されたニューラルネットワークである。これにより、図8(a)に示すように、画像部分Gから、3つの柱状部33に対応する3つの柱状部領域Gcが抽出される。
Next, the control unit 27 extracts a portion corresponding to the columnar portion 33 defining the hole portion 32 as a feature portion (local feature) from the image portion G extracted as the target region in step T2 (step T3 ).
This extraction method is not particularly limited, but a neural network is used in this embodiment. This is a neural network that has been trained to specify and output the image portion within the range in which the columnar portion 33 is shown from the image. As a result, three columnar regions Gc corresponding to the three columnar portions 33 are extracted from the image portion G, as shown in FIG. 8(a).

次に、制御部27は、各柱状部領域Gcから局所点群を抽出する(ステップT4)。つまり、このステップでは、図8(b)に示すように、各柱状部領域Gcに含まれる点群データが深度情報として抽出される。 Next, the control unit 27 extracts a local point group from each columnar region Gc (step T4). That is, in this step, as shown in FIG. 8B, point cloud data included in each columnar region Gc is extracted as depth information.

次に、制御部27は、ステップT4で抽出した点群データから、各柱状部領域Gcの重心を求める(ステップT5)。これにより、図8(c)に示すように、各柱状部領域Gcの重心ベクトルGdが得られる。
そして、制御部27は、各柱状部領域Gcの重心から、当該柱状部領域Gcの位置及び姿勢を算出する(ステップT6)。これにより、パレット30全体の位置及び姿勢も得られる。
Next, the control unit 27 obtains the center of gravity of each columnar region Gc from the point cloud data extracted in step T4 (step T5). Thereby, as shown in FIG. 8(c), the center-of-gravity vector Gd of each columnar region Gc is obtained.
Then, the control unit 27 calculates the position and orientation of each columnar region Gc from the center of gravity of each columnar region Gc (step T6). This also provides the position and orientation of the entire pallet 30 .

次に、制御部27は、ステップT6で算出した各柱状部33(柱状部領域Gc)の情報に基づいて、2つの孔部32(孔部領域Gb)を抽出する(ステップT7)。ただし、実質的には、上述のステップT6の段階で2つの孔部32の位置及び姿勢は既に求められている。なお、孔部32の高さは柱状部33と同じと仮定してもよいし、孔部32の上下の肉厚部分を抽出して加味してもよい。そして、制御部27は、得られた孔部32の位置を正として、必要に応じてパレット30全体の位置を修正する。 Next, the control section 27 extracts two holes 32 (hole regions Gb) based on the information of each columnar portion 33 (columnar region Gc) calculated in step T6 (step T7). However, substantially, the positions and orientations of the two holes 32 have already been determined at the stage of step T6 described above. It should be noted that the height of the hole portion 32 may be assumed to be the same as that of the columnar portion 33, or the upper and lower thickness portions of the hole portion 32 may be extracted and added. Then, the control unit 27 corrects the position of the entire pallet 30 as necessary, regarding the obtained position of the hole 32 as positive.

次に、制御部27は、上記実施形態のステップS7と同様にして、算出したパレット30(側面31、孔部32、柱状部33)の位置や姿勢の情報をCADデータと照合して補正する(ステップT8)。
そして、制御部27は、上記実施形態のステップS8と同様にして、算出結果を出力する(ステップT9)。
その後、制御部27は、パレット30の位置・姿勢算出処理を終了させる。
Next, the control unit 27 compares the calculated position and orientation information of the pallet 30 (the side surfaces 31, the hole portions 32, and the columnar portions 33) with the CAD data and corrects them in the same manner as in step S7 of the above embodiment. (Step T8).
Then, the control unit 27 outputs the calculation result (step T9) in the same manner as in step S8 of the above embodiment.
After that, the control unit 27 terminates the position/orientation calculation processing of the pallet 30 .

以上のように、本変形例によれば、上記実施形態と同様の効果を奏することができる。
また本変形例によれば、パレット30の特徴部分として、孔部32を画成する柱状部33に対応する柱状部領域Gcが抽出され、この柱状部領域Gcの三次元点群データに基づいてパレット30の位置及び姿勢が算出される。
これにより、特徴部分として側面31に対応する平面部分Gaを抽出した上記実施形態に比べ、さらに演算コストを低減し、演算レートを向上できる。
As described above, according to this modified example, the same effects as those of the above-described embodiment can be obtained.
Further, according to this modified example, as the characteristic portion of the pallet 30, the columnar region Gc corresponding to the columnar portion 33 defining the hole 32 is extracted, and based on the three-dimensional point cloud data of the columnar region Gc, The position and orientation of the pallet 30 are calculated.
As a result, the calculation cost can be further reduced and the calculation rate can be improved as compared with the above-described embodiment in which the planar portion Ga corresponding to the side surface 31 is extracted as the characteristic portion.

[その他]
以上、本発明の実施形態について説明したが、本発明は上記の実施形態(変形例含む)に限られない。
例えば、上記実施形態では、パレット30のCADデータに基づいて位置及び姿勢の算出結果を補正することとしたが、これに代えて(又はこれに加えて)、パレット30の孔部32のサイズ情報に基づいて同様の補正を行うこととしてもよい。孔部32のサイズ情報は、パレット30のCADデータから取得してもよいし、CADデータが無い場合などには、例えば図9に示すように、孔部(穴)のサイズ情報の入力画面を表示部23に表示して当該サイズ情報を作業者に入力させてもよい。この補正では、例えば、柱状部33の点群が最も孔部32の内側に入り込まない位置となるように、孔部32を側面31上で調整すればよい。
また、この補正に用いる情報は、画像からの算出結果と照合可能なパレット30のサイズ情報であれば、孔部32のサイズ情報でなくともよく、例えば柱状部33のサイズ情報であってもよい。
[others]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments (including modifications).
For example, in the above embodiment, the calculation results of the position and orientation are corrected based on the CAD data of the pallet 30. A similar correction may be performed based on The size information of the holes 32 may be obtained from the CAD data of the pallet 30, or if there is no CAD data, for example, as shown in FIG. The size information may be displayed on the display unit 23 to allow the operator to input the size information. In this correction, for example, the hole portion 32 may be adjusted on the side surface 31 so that the point group of the columnar portion 33 does not enter the hole portion 32 the least.
Further, the information used for this correction does not have to be the size information of the hole 32 as long as it is the size information of the palette 30 that can be compared with the calculation result from the image. .

また上記実施形態では、本発明に係る荷取支援装置がフォークリフト1に搭載される場合について説明したが、この構成に限定されず、例えば荷取支援装置のうち少なくとも一部の演算を行う部分がフォークリフト1に搭載されていなくともよい。具体的には、例えば演算装置(検出手段)を外部設備(例えば荷役作業場の管理室)に設けるとともに、この外部設備とフォークリフト1に通信手段を設け、撮影した画像をフォークリフト1から外部設備の演算装置に送信して、この演算装置で算出した結果をフォークリフト1に送信することとしてもよい。 Further, in the above-described embodiment, the case where the pick-up assist device according to the present invention is mounted on the forklift 1 has been described, but it is not limited to this configuration, and for example, at least a portion of the pick-up assist device that performs calculation is It does not have to be mounted on the forklift 1. Specifically, for example, an arithmetic device (detection means) is provided in an external facility (for example, a control room of a cargo handling workplace), a communication means is provided between this external facility and the forklift 1, and the captured image is transmitted from the forklift 1 to the external facility. device, and the result calculated by this arithmetic device may be sent to the forklift 1. FIG.

また、本発明に係る搬送装置は、荷役台を保持して搬送するものであればフォークリフトに限定されず、例えば荷を無人で搬送する無人搬送車(例えばAGV:Automated Guided Vehicle)などであってもよい。
また、本発明に係る荷役台は、荷が載置されるとともに搬送装置により保持されるものであれば、パレットに限定されず、すのこなどを含む。
その他、上記実施形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。
In addition, the conveying apparatus according to the present invention is not limited to a forklift as long as it holds and conveys a cargo handling platform, for example, an unmanned guided vehicle (such as an AGV: Automated Guided Vehicle) that unmannedly conveys cargo. good too.
Moreover, the cargo handling platform according to the present invention is not limited to a pallet, and includes a gridiron, etc., as long as cargo is placed thereon and held by a conveying device.
In addition, the details shown in the above embodiments can be changed as appropriate without departing from the scope of the invention.

1 フォークリフト(搬送装置)
12 フォーク(保持部)
23 表示部(表示手段)
24 撮影部
26 記憶部
27 制御部(検出手段)
30 パレット(荷役台)
31 側面
32 孔部
33 柱状部
G 画像部分
Ga 平面部分
Gb 孔部領域
Gc 柱状部領域
Gd 重心ベクトル
L フォークの挿入予測線
1 Forklift (conveyor)
12 fork (holding part)
23 display unit (display means)
24 photographing unit 26 storage unit 27 control unit (detection means)
30 pallets (loading platform)
31 Side 32 Hole 33 Column G Image portion Ga Plane portion Gb Hole region Gc Column region Gd Center of gravity vector L Fork insertion predicted line

Claims (11)

孔部を有する荷役台の二次元画像を取得する2D撮像手段と、
前記荷役台の三次元画像を取得する3D撮像手段と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段と、
を備える、
荷取支援装置。
2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a three-dimensional image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
comprising
Pick-up support device.
前記検出手段は、前記三次元画像から前記荷役台の深度情報を取得し、当該深度情報に基づいて前記荷役台の位置及び姿勢を算出する、
請求項1に記載の荷取支援装置。
The detection means acquires depth information of the loading platform from the three-dimensional image, and calculates the position and orientation of the loading platform based on the depth information.
The pick-up support device according to claim 1.
前記二次元画像から、前記孔部を含む対象領域を抽出する対象領域抽出手段を備え、
前記検出手段は、
前記対象領域から、前記荷役台の保持に関する特徴部分を抽出し、
前記特徴部分の深度情報に基づいて、前記荷役台の位置及び姿勢を算出する、
請求項2に記載の荷取支援装置。
A target region extracting means for extracting a target region including the hole from the two-dimensional image,
The detection means is
Extracting a characteristic portion related to holding of the loading platform from the target area,
calculating the position and orientation of the loading platform based on the depth information of the characteristic portion;
The pickup support device according to claim 2.
前記特徴部分は、前記孔部を含む平面部分、又は、前記平面部分のうち前記孔部を画成する周囲部分である、
請求項3に記載の荷取支援装置。
The characteristic portion is a planar portion that includes the hole, or a peripheral portion of the planar portion that defines the hole,
The pick-up support device according to claim 3.
前記対象領域抽出手段は、ニューラルネットワークを用いて前記対象領域を抽出する、
請求項3又は請求項4に記載の荷取支援装置。
The target area extracting means extracts the target area using a neural network.
The pick-up support device according to claim 3 or 4.
前記荷役台を保持する保持部の位置及び姿勢の情報を取得する取得手段を備え、
前記検出手段は、
前記荷役台の位置及び姿勢と、前記保持部の位置及び姿勢とに基づいて、前記保持部が前記孔部に挿入可能か否かを算出する、
請求項2から請求項5のいずれか一項に記載の荷取支援装置。
Acquiring means for acquiring information on the position and orientation of a holding unit that holds the loading platform,
The detection means is
calculating whether or not the holding portion can be inserted into the hole based on the position and orientation of the loading platform and the position and orientation of the holding portion;
The pickup support device according to any one of claims 2 to 5.
前記孔部への前記保持部の挿入可否を表示する表示手段を備える、
請求項6に記載の荷取支援装置。
Display means for displaying whether or not the holding portion can be inserted into the hole,
The pick-up support device according to claim 6.
前記荷役台のサイズ情報又は形状情報を取得する情報取得手段を備え、
前記検出手段は、
前記情報取得手段が取得した前記荷役台のサイズ情報又は形状情報に基づいて、算出した前記荷役台の位置及び姿勢を補正する、
請求項2から請求項7のいずれか一項に記載の荷取支援装置。
An information acquisition means for acquiring size information or shape information of the loading platform,
The detection means is
correcting the calculated position and orientation of the loading platform based on the size information or shape information of the loading platform acquired by the information acquiring means;
The pickup support device according to any one of claims 2 to 7.
請求項1から請求項8のいずれか一項に記載の荷取支援装置と、
前記荷役台を保持する保持部と、を備える、
搬送装置。
a pick-up support device according to any one of claims 1 to 8;
and a holding unit that holds the loading platform,
Conveyor.
制御手段が、
孔部を有する荷役台の二次元画像を取得する2D撮像工程と、
前記荷役台の三次元画像を取得する3D撮像工程と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出工程と、
を実行する、
荷取支援方法。
the control means
a 2D imaging step of acquiring a two-dimensional image of a loading platform having holes;
a 3D imaging step of acquiring a 3D image of the loading platform;
a detection step of detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
run the
Pick-up assistance method.
コンピュータを、
孔部を有する荷役台の二次元画像を取得する2D撮像手段、
前記荷役台の三次元画像を取得する3D撮像手段、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段、
として機能させる、
荷取支援プログラム。
the computer,
2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a 3D image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
to function as
pick-up assistance program.
JP2021007701A 2021-01-21 2021-01-21 Loading operation support device, carrier device, loading operation support method, and loading operation support program Pending JP2022112068A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021007701A JP2022112068A (en) 2021-01-21 2021-01-21 Loading operation support device, carrier device, loading operation support method, and loading operation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021007701A JP2022112068A (en) 2021-01-21 2021-01-21 Loading operation support device, carrier device, loading operation support method, and loading operation support program

Publications (1)

Publication Number Publication Date
JP2022112068A true JP2022112068A (en) 2022-08-02

Family

ID=82656083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021007701A Pending JP2022112068A (en) 2021-01-21 2021-01-21 Loading operation support device, carrier device, loading operation support method, and loading operation support program

Country Status (1)

Country Link
JP (1) JP2022112068A (en)

Similar Documents

Publication Publication Date Title
US11718513B2 (en) Position and posture estimation system
JP2007084162A (en) Cargo handling supporting device of fork lift
JP3921968B2 (en) Position detection method and position detection apparatus
JP2006528122A (en) Movable sensor device on forklift load support means
JP2017178567A (en) Fork lift
KR20130099596A (en) Apparatus and method of unmanned forklift for autonomous loading and unloading
KR20110027460A (en) A method for positioning and orienting of a pallet based on monocular vision
JP7006501B2 (en) forklift
WO2020039817A1 (en) Loading operation assistance device for forklift
JPWO2019163378A5 (en)
CN111638530A (en) Forklift positioning method, forklift and computer readable storage medium
JP2022112068A (en) Loading operation support device, carrier device, loading operation support method, and loading operation support program
JP2020015571A (en) Operation supporting control device of forklift and operation supporting system of forklift
CN113683018A (en) Shelf displacement deviation correction method and device, automatic guided vehicle and storage medium
JP7268575B2 (en) Operation support device for cargo handling vehicle
CN113120801A (en) Forklift control method, forklift control device, and computer-readable storage medium
JP2020023397A (en) Transport device
JP2020109030A (en) Determination device, determination method and program
JP7192706B2 (en) Position and orientation estimation device
JP2023101128A (en) Cargo handling vehicle and determination program
JP2024059197A (en) Loading support device, transport device, loading support method, and loading support program
JP7426881B2 (en) Cargo handling support system
JP2022098320A (en) Work support device for forklift
JP2024013690A (en) Cargo handling support device, conveying device, cargo handling support method, and cargo handling support program
JP2003212490A (en) Cargo handling support device for industrial vehicle and industrial vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240507