JP2022112068A - Loading operation support device, carrier device, loading operation support method, and loading operation support program - Google Patents
Loading operation support device, carrier device, loading operation support method, and loading operation support program Download PDFInfo
- Publication number
- JP2022112068A JP2022112068A JP2021007701A JP2021007701A JP2022112068A JP 2022112068 A JP2022112068 A JP 2022112068A JP 2021007701 A JP2021007701 A JP 2021007701A JP 2021007701 A JP2021007701 A JP 2021007701A JP 2022112068 A JP2022112068 A JP 2022112068A
- Authority
- JP
- Japan
- Prior art keywords
- loading platform
- dimensional image
- hole
- acquiring
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 abstract description 20
- 238000004364 calculation method Methods 0.000 description 25
- 238000010586 diagram Methods 0.000 description 10
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000003780 insertion Methods 0.000 description 6
- 230000037431 insertion Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000003028 elevating effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 240000004050 Pentaglottis sempervirens Species 0.000 description 1
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Landscapes
- Forklifts And Lifting Vehicles (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、荷取支援装置、搬送装置、荷取支援方法及び荷取支援プログラムに関する。 The present invention relates to a pick-up assistance device, a transport device, a pick-up assistance method, and a pick-up assistance program.
従来、フォークリフトでの荷役作業では、運転者(作業者)が目視によりパレットの孔部(フォークポケット)を確認し、この孔部へのフォークの挿入可否を判断していた。そのため、特にパレットが目視しづらい位置に置かれている場合などには、予測を頼りにフォークを挿入しなければならなかった。 Conventionally, in a cargo handling operation using a forklift, the driver (operator) visually checks the holes (fork pockets) of the pallet and determines whether or not the forks can be inserted into the holes. As a result, the forks had to be inserted based on predictions, especially when the pallet was placed in a position that was difficult to see.
そこで、例えば特許文献1に記載の技術では、フォークリフトに搭載した撮像装置(三次元センサ)でパレットの画像を取得し、この画像に基づいてパレットの種別とその孔部へのフォークの挿入可否を判定している。
Therefore, for example, in the technique described in
しかしながら、三次元センサではデータを上手く取得できない場合があり、その場合には処理に支障をきたす。
そこで、本発明は、演算処理のロバスト性を高めることを目的とする。
However, the three-dimensional sensor may not be able to acquire data well, and in that case, processing will be hindered.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to improve the robustness of arithmetic processing.
本発明に係る荷取支援装置は、
孔部を有する荷役台の二次元画像を取得する2D撮像手段と、
前記荷役台の三次元画像を取得する3D撮像手段と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段と、
を備える。
A pickup support device according to the present invention includes:
2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a three-dimensional image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
Prepare.
本発明に係る搬送装置は、
上記荷取支援装置と、
前記荷役台を保持する保持部と、を備える。
A conveying device according to the present invention includes:
the pick-up support device;
and a holding portion that holds the cargo handling platform.
本発明に係る荷取支援方法は、
制御手段が、
孔部を有する荷役台の二次元画像を取得する2D撮像工程と、
前記荷役台の三次元画像を取得する3D撮像工程と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出工程と、
を実行する。
A pick-up support method according to the present invention includes:
the control means
a 2D imaging step of acquiring a two-dimensional image of a loading platform having holes;
a 3D imaging step of acquiring a 3D image of the loading platform;
a detection step of detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
to run.
本発明に係る荷取支援プログラムは、
コンピュータを、
孔部を有する荷役台の二次元画像を取得する2D撮像手段、
前記荷役台の三次元画像を取得する3D撮像手段、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段、
として機能させる。
A pick-up assistance program according to the present invention includes:
the computer,
2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a 3D image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
function as
本発明によれば、演算処理のロバスト性を高めることができる。 ADVANTAGE OF THE INVENTION According to this invention, the robustness of arithmetic processing can be improved.
以下、本発明の実施形態について、図面を参照して詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[フォークリフトの構成]
図1は、本実施形態に係るフォークリフト1の外観を示す斜視図である。
本実施形態に係るフォークリフト1は、本発明に係る搬送装置の一例であり、車体11、フォーク12、昇降体(リフト)13、マスト14、車輪15を備える。マスト14は車体11の前方に設けられ、図示しない駆動源によって駆動されて車体11の前後に傾斜する。昇降体13は、図示しない駆動源によって駆動され、マスト14に沿って昇降する。昇降体13には、荷物やパレット30などを保持する保持部としての一対のフォーク12が取り付けられている。
パレット30は、本発明に係る荷役台の一例であり、図4(a)に示すように、フォークリフト1の荷役対象となる荷物が載置される台状のものである。パレット30は、短矩形板状に形成され、一対のフォーク12が挿入される2つの孔部(フォークポケット)32を各側面31に有する。各孔部32は、パレット30の四辺に沿って延在し、その前後又は左右の両側に位置する柱状部33により画成される。
[Forklift configuration]
FIG. 1 is a perspective view showing the appearance of a
A
The
図2は、フォークリフト1の概略の制御構成を示すブロック図である。
この図に示すように、フォークリフト1は、上記構成に加え、駆動部21、操作部22、表示部23、撮影部24、記憶部26、制御部27を備える。本発明に係る荷取支援装置は、少なくとも撮影部24と制御部27を含んで構成される。
FIG. 2 is a block diagram showing a schematic control configuration of the
As shown in this figure, the
駆動部21は、フォークリフト1の各種駆動源である走行モータ、操舵モータ及び荷役モータ(いずれも図示省略)を含む。走行モータは、車輪15のうちの駆動輪を駆動する。操舵モータは、車輪15のうちの操舵輪を回転(操舵動作)させる。荷役モータは、昇降体13の昇降とマスト14の傾倒との各動作を行わせる駆動源である。
The
操作部22は、運転者が各種操作を行う操作手段である。操作部22は、例えばハンドルやペダル、レバー、各種ボタン等を含み、これらの操作内容に応じた操作信号を制御部27に出力する。
表示部23は、例えば液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイその他のディスプレイであり、制御部27から入力される表示信号に基づいて各種情報を表示する。なお、表示部23は、操作部22の一部を兼ねるタッチパネルであってもよい。
The
The
撮影部24は、深度(距離)情報を含む画像を取得可能なものであり、本実施形態では、三次元の点群データを含む画像が得られるRGB-Dカメラ(デプスカメラ)である。つまり、撮影部24は、三次元情報とRGB画像(二次元画像)とが取得可能なものである。撮影部24は、例えば昇降体13又はマスト14に前方向きに取り付けられ、フォークリフト1の前方を撮影する。
なお、撮影部24は、撮影対象の二次元画像と、深度情報を含む三次元画像とを取得できるものであればよい。すなわち、撮影部24は、撮影対象の二次元画像を取得する手段と、三次元画像を取得する手段とを個別に備えるものであってもよい。また、撮影部24は、例えばRGB画像でなく赤外線画像を取得可能な赤外線カメラであってもよい。この場合には赤外線画像を利用できるので、照明不足の場合にも対応できる。
The photographing
Note that the
記憶部26は、RAM(Random Access Memory)やROM(Read Only Memory)等により構成されるメモリであり、各種のプログラム及びデータを記憶するとともに、制御部27の作業領域としても機能する。本実施形態の記憶部26には、パレット30の形状情報として、パレット30のCADデータ(設計データ)が予め記憶されている。
制御部27は、フォークリフト1各部の動作を制御する。具体的に、制御部27は、操作部22の操作内容に基づいて駆動部21を動作させたり、記憶部26に予め記憶されているプログラムを展開し、展開されたプログラムと協働して各種処理を実行したりする。
The
The
[フォークリフトの動作]
続いて、フォークリフト1がパレット30にフォーク12を挿入する際の荷取動作について説明する。
この荷取動作では、パレット30の画像に基づいてパレット30の位置及び姿勢が算出され、その結果に基づいて、パレット30の孔部32へのフォーク12の挿入が好適にアシストされる。
図3は、パレット30の位置・姿勢算出処理の流れを示すフローチャートであり、図4及び図5は、この処理を説明するための図であり、図6は、この処理における結果表示例を示す図である。
この処理は、制御部27が、ユーザ操作に基づいて記憶部26から該当するプログラムを読み出して展開することで実行される。
なお、以下では、特に断りのない限り、パレット30の孔部32又は柱状部33とは、側面31のうちの開口部分又は表面部分を指すものとする。
[Forklift operation]
Next, a pickup operation when the
In this pick-up operation, the position and attitude of the
FIG. 3 is a flow chart showing the flow of the position/orientation calculation processing of the
This process is executed by the
In the following, unless otherwise specified, the
図3に示すように、まず制御部27は、撮影部24によりパレット30の画像を取得する(ステップS1)。
このステップでは、制御部27は、ユーザ操作に基づいて、撮影部24を動作させ、深度情報を含むパレット30の画像(三次元の点群データを含む画像)を取得する。つまり、このステップでは、深度情報を含む三次元画像と、これに対応するRGB画像(二次元画像)とを取得する。取得した画像は記憶部26に記憶される。これにより、図4(a)に示すようなパレット30の画像が得られる。
なお、所定の撮影タイミングで定期的にフォークリフト1前方の画像を取得し、その画像からパレット30を検出することとしてもよい。
As shown in FIG. 3, the
In this step, the
Note that an image of the front of the
次に、制御部27は、取得した画像(深度情報を含まないRGB画像(二次元画像))から、パレット30の側面31を含む部分を対象領域として抽出する(ステップS2)。
この抽出手法は、特に限定はされないが、本実施形態ではニューラルネットワークが利用される。これは、撮影された画像から、パレット30の側面31が写っている領域を含む矩形の範囲の画像部分を特定して出力するように学習されたニューラルネットワークである。これにより、図4(b)に示すように、パレット30の1つの側面31を囲う矩形の画像部分Gが抽出される。画像に複数の側面31が含まれる場合、例えば最もフォークリフト1の正対位置に近い(すなわち最も面積の大きい)状態の側面31が抽出されることとしてもよいし、ユーザ(運転者)が選択できることとしてもよい。
なお、ここでは、対象領域として1つの側面31を含む画像部分Gを抽出することとしたが、この対象領域は、ステップS1で取得された画像の一部であって、パレット30の孔部32を含む範囲であればよく、例えばパレット30全体を含む矩形範囲であってもよい。
Next, the
This extraction method is not particularly limited, but a neural network is used in this embodiment. This is a neural network that has been trained to identify and output a rectangular area of the image that includes the
In this case, the image portion G including one
次に、制御部27は、ステップS2で対象領域として抽出された画像部分Gから、局所点群を抽出する(ステップS3)。つまり、このステップでは、画像部分G内の側面31に含まれる点群データが深度情報として抽出される。
Next, the
次に、制御部27は、ステップS3で抽出した点群データから平面を抽出する(ステップS4)。このステップでは、側面31に含まれる点群データに平面をフィッティングすることで、図5(a)に示すように、パレット30の特徴部分として、側面31に対応した平面部分Gaが得られる。この平面部分Gaの向きにより、パレット30の姿勢が得られる。ここで、パレット30の「特徴部分」とは、フォーク12によるパレット30の保持に関係する部分をいう。
Next, the
次に、制御部27は、側面31の画像部分Gから、2つの孔部32を抽出(検出)する(ステップS5)。ここでは、画像部分Gのうち、点群データを含まない部分として、図5(b)に示すように、孔部32に対応する孔部領域Gbが抽出される。そして、制御部27は、得られた孔部領域Gbの位置を正として、必要に応じてパレット30全体の位置を算出して修正する。
それから、制御部27は、各孔部領域Gbの位置を算出する(ステップS6)。ここでは、各孔部領域Gbの中心位置等が取得される。
Next, the
Then, the
次に、制御部27は、算出したパレット30(側面31、孔部32)の位置や姿勢の情報をCADデータと照合して補正する(ステップS7)。
このステップでは、制御部27は、記憶部26からパレット30のCADデータを読み出し、例えば三次元のバーチャル画像を生成する。そして、そのうち側面31の二次元シルエット画像が、算出結果のパレット30の情報と整合する(誤差が所定以内)か否かを判定し、整合しない場合には整合するように算出結果を補正する。また、算出結果とCADデータとの照合度合を求め、この照合度合が所定の閾値未満であって場合には、画像のパレット30が検出対象のパレットとは異なると判定し、それを表示部23に表示してもよい。
Next, the
In this step, the
次に、制御部27は、算出結果を出力する(ステップS8)。
本実施形態では、算出されたパレット30の位置・姿勢情報から、孔部32へのフォーク12の挿入可否が算出(判定)され、表示部23に表示される。
具体的には、例えば図6(a)に示すように、現状のフォーク12とパレット30との相対的な位置・姿勢が表示部23に図示される。そして、フォーク12の挿入予測線(延長線)Lがパレット30を適正に貫通しているか否かにより挿入可否が示される。すなわち、孔部32へのフォーク12の「挿入可否」とは、フォークリフト1を前進させることで、フォーク12がパレット30の孔部32内に挿入されるか否かをいう。この「挿入可否」の判定は、フォーク12の向きと孔部32の向き(つまりパレット30の姿勢)とが所定範囲内にあるか否かの判定を含んでもよいし、単にフォーク12の先端が孔部32(の開口部)内に入るかだけの判定でもよい。フォーク12の挿入予測線Lは、フォーク12を駆動する荷役モータのエンコーダ(又は所定のセンサ)からフォーク12の高さ及びチルト角度(位置及び姿勢)を取得し、フォーク12の延在方向を計算すればよい。あるいは図6(b)に示すように、この結果表示を、パレット30の孔部32が視認可能な透視図で示してもよい。
なお、算出結果の出力はここに例示したものに限定されない。例えば、フォーク12がパレット30の孔部32に好適に挿入されない(フォーク12の挿入予測線Lが孔部32から外れている)算出結果であった場合に、フォーク12の挿入予測線Lを孔部32内に収めるためのフォークリフト1の向きやフォーク12の高さ及び角度の各調整量を算出し、これを表示部23に表示して調整を促してもよい。さらに、この調整の少なくとも一部が自動で行われるように駆動部21を制御してもよい。この場合の自動調整は、上述のステップS7において算出結果とCADデータとの照合度合が所定値以上であった場合にのみ行われることとしてもよい。また、フォーク12やパレット30の図示は、図6のような側面図でなく平面図や鳥観図でもよいし、これらを組み合わせたものでもよい。
その後、制御部27は、パレット30の位置・姿勢算出処理を終了させる。
Next, the
In the present embodiment, whether or not the
Specifically, for example, as shown in FIG. 6A, the current relative positions and attitudes of the
In addition, the output of the calculation result is not limited to what is illustrated here. For example, if the calculation result indicates that the
After that, the
[本実施形態の技術的効果]
以上のように、本実施形態によれば、パレット30の二次元画像と三次元画像に基づいて、孔部32が検出される。
したがって、三次元データのみに基づいていた従来に比べ、演算処理のロバスト性を高めることができる。
[Technical effect of the present embodiment]
As described above, according to this embodiment, the
Therefore, it is possible to improve the robustness of arithmetic processing compared to the conventional method based only on three-dimensional data.
また本実施形態によれば、画像(三次元画像)からパレット30の深度情報(三次元点群データ)が取得され、RGB画像(二次元画像)から孔部32を含む対象領域が抽出される。そして、この対象領域の深度情報に基づいて、パレット30の位置及び姿勢が算出される。
これにより、取得された画像のうち、孔部32を含む対象領域についての三次元点群データの演算処理だけで、パレット30の位置及び姿勢を算出できる。したがって、取得した画像全体について三次元点群データの演算処理を行う場合に比べ、演算コストを低減し、演算レートを向上できる。
Further, according to the present embodiment, the depth information (three-dimensional point cloud data) of the
As a result, the position and orientation of the
また本実施形態によれば、孔部32を含む対象領域から、パレット30の保持に関する特徴部分として平面部分Gaが抽出され、その深度情報に基づいてパレット30の位置及び姿勢が算出される。
これにより、さらに演算コストを低減することができる。
Further, according to the present embodiment, the planar portion Ga is extracted from the target area including the
Thereby, the calculation cost can be further reduced.
また本実施形態によれば、フォーク12を孔部32に挿入可能か否かが表示部23に表示されるので、運転者(作業者)は表示部23を見るだけでフォーク12の挿入可否を即座に判断できる。
Further, according to the present embodiment, the
また本実施形態によれば、画像から算出されたパレット30の位置及び姿勢が、パレット30のCADデータ(形状情報)に基づいて補正される。
これにより、パレット30の位置及び姿勢をより高精度に算出できる。
Further, according to this embodiment, the position and orientation of the
As a result, the position and orientation of the
[変形例]
続いて、上記実施形態の変形例について説明する。
本変形例は、パレット30の位置・姿勢算出時に、側面31のうち孔部32両側の柱状部33を抽出する点で上記実施形態と異なる。以下では、主にこの異なる点について説明し、上記実施形態と同様の構成要素には同一の符号を付して説明を省略する。
図7は、本変形例におけるパレット30の位置・姿勢算出処理の流れを示すフローチャートであり、図8は、この処理を説明するための図である。
[Modification]
Next, a modification of the above embodiment will be described.
This modification differs from the above-described embodiment in that the
FIG. 7 is a flowchart showing the flow of the position/orientation calculation processing of the
図7に示すように、まず制御部27は、上記実施形態のステップS1と同様にして、撮影部24によりパレット30の画像を取得する(ステップT1)。
そして、制御部27は、上記実施形態のステップS2と同様にして、取得した画像(深度情報を含まないRGB画像)から、パレット30の側面31を含む画像部分Gを対象領域として抽出する(ステップT2)。
As shown in FIG. 7, first, the
Then, the
次に、制御部27は、ステップT2で対象領域として抽出された画像部分Gから、特徴部分(局所特徴)として、孔部32を画成する柱状部33に対応する部分を抽出する(ステップT3)。
この抽出手法は、特に限定はされないが、本実施形態ではニューラルネットワークが利用される。これは、画像から、柱状部33が写っている範囲の画像部分を特定して出力するように学習されたニューラルネットワークである。これにより、図8(a)に示すように、画像部分Gから、3つの柱状部33に対応する3つの柱状部領域Gcが抽出される。
Next, the
This extraction method is not particularly limited, but a neural network is used in this embodiment. This is a neural network that has been trained to specify and output the image portion within the range in which the
次に、制御部27は、各柱状部領域Gcから局所点群を抽出する(ステップT4)。つまり、このステップでは、図8(b)に示すように、各柱状部領域Gcに含まれる点群データが深度情報として抽出される。
Next, the
次に、制御部27は、ステップT4で抽出した点群データから、各柱状部領域Gcの重心を求める(ステップT5)。これにより、図8(c)に示すように、各柱状部領域Gcの重心ベクトルGdが得られる。
そして、制御部27は、各柱状部領域Gcの重心から、当該柱状部領域Gcの位置及び姿勢を算出する(ステップT6)。これにより、パレット30全体の位置及び姿勢も得られる。
Next, the
Then, the
次に、制御部27は、ステップT6で算出した各柱状部33(柱状部領域Gc)の情報に基づいて、2つの孔部32(孔部領域Gb)を抽出する(ステップT7)。ただし、実質的には、上述のステップT6の段階で2つの孔部32の位置及び姿勢は既に求められている。なお、孔部32の高さは柱状部33と同じと仮定してもよいし、孔部32の上下の肉厚部分を抽出して加味してもよい。そして、制御部27は、得られた孔部32の位置を正として、必要に応じてパレット30全体の位置を修正する。
Next, the
次に、制御部27は、上記実施形態のステップS7と同様にして、算出したパレット30(側面31、孔部32、柱状部33)の位置や姿勢の情報をCADデータと照合して補正する(ステップT8)。
そして、制御部27は、上記実施形態のステップS8と同様にして、算出結果を出力する(ステップT9)。
その後、制御部27は、パレット30の位置・姿勢算出処理を終了させる。
Next, the
Then, the
After that, the
以上のように、本変形例によれば、上記実施形態と同様の効果を奏することができる。
また本変形例によれば、パレット30の特徴部分として、孔部32を画成する柱状部33に対応する柱状部領域Gcが抽出され、この柱状部領域Gcの三次元点群データに基づいてパレット30の位置及び姿勢が算出される。
これにより、特徴部分として側面31に対応する平面部分Gaを抽出した上記実施形態に比べ、さらに演算コストを低減し、演算レートを向上できる。
As described above, according to this modified example, the same effects as those of the above-described embodiment can be obtained.
Further, according to this modified example, as the characteristic portion of the
As a result, the calculation cost can be further reduced and the calculation rate can be improved as compared with the above-described embodiment in which the planar portion Ga corresponding to the
[その他]
以上、本発明の実施形態について説明したが、本発明は上記の実施形態(変形例含む)に限られない。
例えば、上記実施形態では、パレット30のCADデータに基づいて位置及び姿勢の算出結果を補正することとしたが、これに代えて(又はこれに加えて)、パレット30の孔部32のサイズ情報に基づいて同様の補正を行うこととしてもよい。孔部32のサイズ情報は、パレット30のCADデータから取得してもよいし、CADデータが無い場合などには、例えば図9に示すように、孔部(穴)のサイズ情報の入力画面を表示部23に表示して当該サイズ情報を作業者に入力させてもよい。この補正では、例えば、柱状部33の点群が最も孔部32の内側に入り込まない位置となるように、孔部32を側面31上で調整すればよい。
また、この補正に用いる情報は、画像からの算出結果と照合可能なパレット30のサイズ情報であれば、孔部32のサイズ情報でなくともよく、例えば柱状部33のサイズ情報であってもよい。
[others]
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments (including modifications).
For example, in the above embodiment, the calculation results of the position and orientation are corrected based on the CAD data of the
Further, the information used for this correction does not have to be the size information of the
また上記実施形態では、本発明に係る荷取支援装置がフォークリフト1に搭載される場合について説明したが、この構成に限定されず、例えば荷取支援装置のうち少なくとも一部の演算を行う部分がフォークリフト1に搭載されていなくともよい。具体的には、例えば演算装置(検出手段)を外部設備(例えば荷役作業場の管理室)に設けるとともに、この外部設備とフォークリフト1に通信手段を設け、撮影した画像をフォークリフト1から外部設備の演算装置に送信して、この演算装置で算出した結果をフォークリフト1に送信することとしてもよい。
Further, in the above-described embodiment, the case where the pick-up assist device according to the present invention is mounted on the
また、本発明に係る搬送装置は、荷役台を保持して搬送するものであればフォークリフトに限定されず、例えば荷を無人で搬送する無人搬送車(例えばAGV:Automated Guided Vehicle)などであってもよい。
また、本発明に係る荷役台は、荷が載置されるとともに搬送装置により保持されるものであれば、パレットに限定されず、すのこなどを含む。
その他、上記実施形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。
In addition, the conveying apparatus according to the present invention is not limited to a forklift as long as it holds and conveys a cargo handling platform, for example, an unmanned guided vehicle (such as an AGV: Automated Guided Vehicle) that unmannedly conveys cargo. good too.
Moreover, the cargo handling platform according to the present invention is not limited to a pallet, and includes a gridiron, etc., as long as cargo is placed thereon and held by a conveying device.
In addition, the details shown in the above embodiments can be changed as appropriate without departing from the scope of the invention.
1 フォークリフト(搬送装置)
12 フォーク(保持部)
23 表示部(表示手段)
24 撮影部
26 記憶部
27 制御部(検出手段)
30 パレット(荷役台)
31 側面
32 孔部
33 柱状部
G 画像部分
Ga 平面部分
Gb 孔部領域
Gc 柱状部領域
Gd 重心ベクトル
L フォークの挿入予測線
1 Forklift (conveyor)
12 fork (holding part)
23 display unit (display means)
24 photographing
30 pallets (loading platform)
31
Claims (11)
前記荷役台の三次元画像を取得する3D撮像手段と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段と、
を備える、
荷取支援装置。 2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a three-dimensional image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
comprising
Pick-up support device.
請求項1に記載の荷取支援装置。 The detection means acquires depth information of the loading platform from the three-dimensional image, and calculates the position and orientation of the loading platform based on the depth information.
The pick-up support device according to claim 1.
前記検出手段は、
前記対象領域から、前記荷役台の保持に関する特徴部分を抽出し、
前記特徴部分の深度情報に基づいて、前記荷役台の位置及び姿勢を算出する、
請求項2に記載の荷取支援装置。 A target region extracting means for extracting a target region including the hole from the two-dimensional image,
The detection means is
Extracting a characteristic portion related to holding of the loading platform from the target area,
calculating the position and orientation of the loading platform based on the depth information of the characteristic portion;
The pickup support device according to claim 2.
請求項3に記載の荷取支援装置。 The characteristic portion is a planar portion that includes the hole, or a peripheral portion of the planar portion that defines the hole,
The pick-up support device according to claim 3.
請求項3又は請求項4に記載の荷取支援装置。 The target area extracting means extracts the target area using a neural network.
The pick-up support device according to claim 3 or 4.
前記検出手段は、
前記荷役台の位置及び姿勢と、前記保持部の位置及び姿勢とに基づいて、前記保持部が前記孔部に挿入可能か否かを算出する、
請求項2から請求項5のいずれか一項に記載の荷取支援装置。 Acquiring means for acquiring information on the position and orientation of a holding unit that holds the loading platform,
The detection means is
calculating whether or not the holding portion can be inserted into the hole based on the position and orientation of the loading platform and the position and orientation of the holding portion;
The pickup support device according to any one of claims 2 to 5.
請求項6に記載の荷取支援装置。 Display means for displaying whether or not the holding portion can be inserted into the hole,
The pick-up support device according to claim 6.
前記検出手段は、
前記情報取得手段が取得した前記荷役台のサイズ情報又は形状情報に基づいて、算出した前記荷役台の位置及び姿勢を補正する、
請求項2から請求項7のいずれか一項に記載の荷取支援装置。 An information acquisition means for acquiring size information or shape information of the loading platform,
The detection means is
correcting the calculated position and orientation of the loading platform based on the size information or shape information of the loading platform acquired by the information acquiring means;
The pickup support device according to any one of claims 2 to 7.
前記荷役台を保持する保持部と、を備える、
搬送装置。 a pick-up support device according to any one of claims 1 to 8;
and a holding unit that holds the loading platform,
Conveyor.
孔部を有する荷役台の二次元画像を取得する2D撮像工程と、
前記荷役台の三次元画像を取得する3D撮像工程と、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出工程と、
を実行する、
荷取支援方法。 the control means
a 2D imaging step of acquiring a two-dimensional image of a loading platform having holes;
a 3D imaging step of acquiring a 3D image of the loading platform;
a detection step of detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
run the
Pick-up assistance method.
孔部を有する荷役台の二次元画像を取得する2D撮像手段、
前記荷役台の三次元画像を取得する3D撮像手段、
前記二次元画像及び前記三次元画像に基づいて、前記荷役台の前記孔部を検出する検出手段、
として機能させる、
荷取支援プログラム。 the computer,
2D imaging means for acquiring a two-dimensional image of a loading platform having holes;
3D imaging means for acquiring a 3D image of the loading platform;
detection means for detecting the hole of the loading platform based on the two-dimensional image and the three-dimensional image;
to function as
pick-up assistance program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007701A JP2022112068A (en) | 2021-01-21 | 2021-01-21 | Loading operation support device, carrier device, loading operation support method, and loading operation support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021007701A JP2022112068A (en) | 2021-01-21 | 2021-01-21 | Loading operation support device, carrier device, loading operation support method, and loading operation support program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022112068A true JP2022112068A (en) | 2022-08-02 |
Family
ID=82656083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021007701A Pending JP2022112068A (en) | 2021-01-21 | 2021-01-21 | Loading operation support device, carrier device, loading operation support method, and loading operation support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022112068A (en) |
-
2021
- 2021-01-21 JP JP2021007701A patent/JP2022112068A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11718513B2 (en) | Position and posture estimation system | |
JP2007084162A (en) | Cargo handling supporting device of fork lift | |
JP3921968B2 (en) | Position detection method and position detection apparatus | |
JP2006528122A (en) | Movable sensor device on forklift load support means | |
JP2017178567A (en) | Fork lift | |
KR20130099596A (en) | Apparatus and method of unmanned forklift for autonomous loading and unloading | |
KR20110027460A (en) | A method for positioning and orienting of a pallet based on monocular vision | |
JP7006501B2 (en) | forklift | |
WO2020039817A1 (en) | Loading operation assistance device for forklift | |
JPWO2019163378A5 (en) | ||
CN111638530A (en) | Forklift positioning method, forklift and computer readable storage medium | |
JP2022112068A (en) | Loading operation support device, carrier device, loading operation support method, and loading operation support program | |
JP2020015571A (en) | Operation supporting control device of forklift and operation supporting system of forklift | |
CN113683018A (en) | Shelf displacement deviation correction method and device, automatic guided vehicle and storage medium | |
JP7268575B2 (en) | Operation support device for cargo handling vehicle | |
CN113120801A (en) | Forklift control method, forklift control device, and computer-readable storage medium | |
JP2020023397A (en) | Transport device | |
JP2020109030A (en) | Determination device, determination method and program | |
JP7192706B2 (en) | Position and orientation estimation device | |
JP2023101128A (en) | Cargo handling vehicle and determination program | |
JP2024059197A (en) | Loading support device, transport device, loading support method, and loading support program | |
JP7426881B2 (en) | Cargo handling support system | |
JP2022098320A (en) | Work support device for forklift | |
JP2024013690A (en) | Cargo handling support device, conveying device, cargo handling support method, and cargo handling support program | |
JP2003212490A (en) | Cargo handling support device for industrial vehicle and industrial vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |