JP2023163605A - Cargo handling system - Google Patents
Cargo handling system Download PDFInfo
- Publication number
- JP2023163605A JP2023163605A JP2022074615A JP2022074615A JP2023163605A JP 2023163605 A JP2023163605 A JP 2023163605A JP 2022074615 A JP2022074615 A JP 2022074615A JP 2022074615 A JP2022074615 A JP 2022074615A JP 2023163605 A JP2023163605 A JP 2023163605A
- Authority
- JP
- Japan
- Prior art keywords
- pallet
- control device
- cargo handling
- vehicle
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 description 17
- 239000013598 vector Substances 0.000 description 15
- 238000000034 method Methods 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000010720 hydraulic oil Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Abstract
Description
本開示は、荷役システムに関する。 The present disclosure relates to cargo handling systems.
制御装置による制御によって自動で荷取りを行う荷役車両が特許文献1に開示されている。特許文献1に開示の荷役車両は、自己位置を推定しながら荷取り位置まで移動する。荷取り位置まで移動すると、荷役車両は荷取りを行う。 2. Description of the Related Art Patent Document 1 discloses a cargo handling vehicle that automatically picks up cargo under the control of a control device. The cargo handling vehicle disclosed in Patent Document 1 moves to a cargo picking position while estimating its own position. After moving to the loading position, the cargo handling vehicle picks up the load.
荷役車両が荷取りを行う際には、荷役車両をパレットの近くまで移動させる必要がある。荷役車両をパレットの近くまで移動させるためには、パレットの位置を検出する必要がある。 When a cargo handling vehicle picks up cargo, it is necessary to move the cargo handling vehicle close to the pallet. In order to move the cargo handling vehicle close to the pallet, it is necessary to detect the position of the pallet.
上記課題を解決する荷役システムは、3次元座標系の座標で物体の位置を検出する外界センサ、及び荷役装置を備える荷役車両と、制御装置と、を備える荷役システムであって、前記制御装置は、前記物体の位置を表した点の集合である点群データから、パレットの位置を検出し、荷取りする前記パレットを決定する。 A cargo handling system that solves the above problems is a cargo handling system that includes an external sensor that detects the position of an object using coordinates in a three-dimensional coordinate system, a cargo handling vehicle equipped with a cargo handling device, and a control device, the control device being , the position of the pallet is detected from point cloud data, which is a set of points representing the position of the object, and the pallet to be picked up is determined.
点群データの点は、物体の位置を表している。このため、制御装置は、点群データからパレットの位置を検出することができる。
上記荷役システムについて、前記制御装置は、前記点群データから前記パレットの側面図を作成し、前記側面図から画像認識によって前記パレットを抽出することによって前記パレットの位置、及び前記パレットの個数を検出してもよい。
The points in the point cloud data represent the positions of objects. Therefore, the control device can detect the position of the pallet from the point cloud data.
In the cargo handling system, the control device creates a side view of the pallet from the point cloud data, and extracts the pallet from the side view by image recognition, thereby detecting the position of the pallet and the number of pallets. You may.
上記荷役システムについて、前記制御装置は、前記側面図から画像認識によって前記パレットを積載した搬送車両の運転席を抽出し、前記運転席から最も離れた前記パレットを荷取りする前記パレットであると決定してもよい。 In the cargo handling system, the control device extracts the driver's seat of the transport vehicle loaded with the pallet from the side view by image recognition, and determines that the pallet furthest from the driver's seat is the pallet to be loaded. You may.
本発明によれば、パレットの位置を検出することができる。 According to the present invention, the position of a pallet can be detected.
以下、荷役システムの一実施形態について説明する。
図1に示すように、区域A1には、停車位置PS1が設定されている。停車位置PS1には、搬送車両10が停車する。停車位置PS1の面積は、停車位置PS1に停車する搬送車両10を平面視した場合の搬送車両10の面積よりも広い。停車位置PS1には、柱などの構造物が存在していない。区域A1は、例えば、工場、港湾、空港、商業施設、及び公共施設等の場所の全体、あるいは、一部である。区域A1では、荷役車両20が運用されている。荷役車両20は、荷積み及び荷取りを行う。荷積みは、パレットPA1に置かれた荷C1を搬送車両10に積載する作業である。荷取りは、搬送車両10に積載されたパレットPA1及び当該パレットPA1に置かれた荷C1を搬送車両10から取る作業である。以下の説明において、搬送車両10の前後左右上下とは、搬送車両10を基準とした場合の前後左右上下である。荷役車両20の左右上下とは、荷役車両20を基準とした場合の左右上下である。
An embodiment of the cargo handling system will be described below.
As shown in FIG. 1, a parking position PS1 is set in area A1. The
図2に示すように、搬送車両10は、ウィングトラックである。搬送車両10としては、平ボディのトラック等、どのような種類のトラックであってもよい。搬送車両10は、運転席11と、フロントパネル12と、リヤドア13と、荷台14と、ウィングサイドパネル16と、あおり17と、を備える。
As shown in FIG. 2, the
運転席11は、搬送車両10の運転者が搭乗する位置である。フロントパネル12は、運転席11よりも搬送車両10の後方に設けられている。フロントパネル12は、運転席11に隣り合って設けられている。リヤドア13は、フロントパネル12よりも搬送車両10の後方に設けられている。フロントパネル12とリヤドア13は、搬送車両10の前後方向に互いに間隔を空けて設けられている。荷台14は、フロントパネル12とリヤドア13との間で、搬送車両10の前後方向に延びている。荷台14は、積載面15を備える。積載面15は、荷台14の上面である。積載面15には、パレットPA1に置かれた荷C1が積載される。ウィングサイドパネル16は、フロントパネル12とリヤドア13との間に設けられている。ウィングサイドパネル16は、搬送車両10の車幅方向の中心位置を中心として、搬送車両10の上下方向に回転可能に設けられている。ウィングサイドパネル16は、搬送車両10の車幅方向の両側に1つずつ設けられている。あおり17は、搬送車両10の前後方向に延びるように設けられている。あおり17は、荷台14の縁であって搬送車両10の前後方向に延びる縁に沿って設けられている。あおり17は、搬送車両10の車幅方向の両側に1つずつ設けられている。
The driver's seat 11 is a position where the driver of the
<荷役車両>
荷役車両20は、車体21と、駆動輪22と、操舵輪23と、荷役装置24と、を備える。荷役装置24は、車体21の前部に設けられている。荷役装置24は、マスト25と、リフトシリンダ28と、リフトブラケット29と、フォーク30と、を備える。
<Cargo handling vehicle>
The
マスト25は、アウタマスト26と、インナマスト27と、を備える。インナマスト27は、アウタマスト26に対して昇降可能に設けられている。フォーク30は、リフトブラケット29に固定されている。リフトブラケット29及びフォーク30は、インナマスト27とともに昇降する。リフトシリンダ28は、インナマスト27を昇降動作させる。リフトシリンダ28は、油圧シリンダである。
The
図3に示すように、荷役車両20は、外界センサ51と、制御装置52と、補助記憶装置55と、車両制御装置56と、走行アクチュエータ59と、荷役アクチュエータ60と、カメラ61と、を備える。荷役車両20は、荷役システムである。
As shown in FIG. 3, the
外界センサ51は、3次元座標系の座標で物体の位置を検出する。外界センサ51は、荷役車両20の上部に設けられている。例えば、外界センサ51は、荷役車両20のヘッドガードに設けられている。
The
外界センサ51としては、例えば、ミリ波レーダー、ステレオカメラ、ToF(Time of Flight)カメラ、及びLIDAR(Laser Imaging Detection and Ranging)を挙げることができる。本実施形態では、外界センサ51としてLIDARを用いている。外界センサ51は、周囲にレーザーを照射し、レーザーが当たった点から反射された反射光を受光することで点までの距離を導出する。レーザーが当たった点は、物体の表面の一部を表す。点の位置は、極座標系の座標で表すことができる。極座標系における点の座標は、直交座標系の座標に変換される。極座標系から直交座標系への変換は、外界センサ51によって行われてもよいし、制御装置52で行われてもよい。本実施形態では、外界センサ51により極座標系から直交座標系への変換が行われているとする。外界センサ51は、センサ座標系での点の座標を導出する。センサ座標系は、外界センサ51を原点とする3軸直交座標系である。外界センサ51は、レーザーを照射することにより得られた複数の点の座標を点群データとして制御装置52に出力する。
Examples of the
制御装置52は、プロセッサ53と、記憶部54と、を備える。記憶部54は、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部54は、処理をプロセッサ53に実行させるように構成されたプログラムコードまたは指令を格納している。記憶部54、即ち、コンピュータ可読媒体は、汎用または専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。制御装置52は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェア回路によって構成されていてもよい。処理回路である制御装置52は、コンピュータプログラムに従って動作する1つ以上のプロセッサ、ASICやFPGA等の1つ以上のハードウェア回路、或いは、それらの組み合わせを含み得る。
The
補助記憶装置55は、制御装置52が読み取り可能な情報を記憶している。補助記憶装置55としては、例えば、ハードディスクドライブ、及びソリッドステートドライブを挙げることができる。補助記憶装置55は、環境地図D1を記憶している。補助記憶装置55は、第1画像認識モデルD2を記憶している。補助記憶装置55は、第2画像認識モデルD3を記憶している。
The
環境地図D1とは、区域A1に存在する物体の形状、区域A1の広さ等、区域A1の物理的構造に関する情報である。本実施形態において環境地図D1は、区域A1の構造を地図座標系の座標で表したデータである。地図座標系は、3軸直交座標系である。地図座標系は、区域A1の任意の一点を原点とする座標系である。地図座標系において水平方向は互いに直交するX軸及びY軸で規定される。X軸及びY軸で規定されるXY平面は、水平面を表しているといえる。地図座標系において上下方向は、X軸及びY軸に直交するZ軸で規定される。適宜、地図座標系の座標を地図座標と称する。地図座標系は、3次元の位置を表す3次元座標系である。 The environmental map D1 is information regarding the physical structure of the area A1, such as the shape of objects existing in the area A1 and the size of the area A1. In this embodiment, the environmental map D1 is data representing the structure of the area A1 using coordinates in a map coordinate system. The map coordinate system is a three-axis orthogonal coordinate system. The map coordinate system is a coordinate system whose origin is an arbitrary point in area A1. In the map coordinate system, the horizontal direction is defined by an X-axis and a Y-axis that are perpendicular to each other. It can be said that the XY plane defined by the X axis and the Y axis represents a horizontal plane. In the map coordinate system, the vertical direction is defined by the Z axis orthogonal to the X axis and the Y axis. The coordinates of the map coordinate system are appropriately referred to as map coordinates. The map coordinate system is a three-dimensional coordinate system that represents a three-dimensional position.
制御装置52は、荷役車両20の自己位置を推定する。制御装置52は、荷役車両20の自己位置を車両制御装置56に出力する。自己位置とは、環境地図D1上での荷役車両20の位置である。自己位置とは、地図座標系での荷役車両20の一点を示す座標である。荷役車両20の一点は任意であるが、例えば、荷役車両20の水平方向での中心位置を挙げることができる。
The
自己位置の推定は、外界センサ51の検出結果と環境地図D1とを照合することで行われる。制御装置52は、点群データから得られたランドマークと同一形状のランドマークを環境地図D1から抽出する。制御装置52は、環境地図D1からランドマークの位置を認識する。ランドマークの位置と荷役車両20との位置関係は、外界センサ51の検出結果から把握できる。従って、制御装置52は、ランドマークの位置を認識することで、自己位置を推定することができる。ランドマークとは外界センサ51により識別可能な特徴を有する物体である。ランドマークは、位置の変化しにくい物理的構造物である。ランドマークとしては、例えば、壁、及び柱を挙げることができる。自己位置の推定は、外界センサ51を用いた自己位置の推定に、内界センサを用いたデッドレコニングを組み合わせて行われてもよい。自己位置の推定は、外界センサ51を用いた自己位置の推定に、GNSS(Global Navigation Satellite System)衛星から送信される衛星信号を用いた自己位置推定を組み合わせて行われてもよい。
The self-position is estimated by comparing the detection results of the
車両制御装置56は、例えば、制御装置52と同様のハードウェア構成を備える。車両制御装置56は、プロセッサ57と、記憶部58と、を備える。
走行アクチュエータ59は、荷役車両20を走行させるアクチュエータである。走行アクチュエータ59は、例えば、駆動輪22を回転させるモータ、及び操舵機構を含む。車両制御装置56は、自己位置を把握しながら走行アクチュエータ59を制御して荷役車両20を走行させる。
The
The
荷役アクチュエータ60は、荷役車両20に荷役を行わせるアクチュエータである。荷役アクチュエータ60は、例えば、油圧機器に作動油を供給するポンプを駆動するモータ、及び作動油の供給を制御する制御弁を含む。油圧機器は、リフトシリンダ28を含む。車両制御装置56は、荷役アクチュエータ60を制御することによってフォーク30の昇降を行う。
The
荷役車両20は、車両制御装置56によって走行アクチュエータ59が制御されることによって自動で走行する。荷役車両20は、車両制御装置56によって荷役アクチュエータ60が制御されることによって自動で荷役を行う。荷役車両20は、自動運転フォークリフトである。
The
カメラ61は、荷役車両20の前方を撮像するように配置されている。カメラ61は、単眼カメラである。カメラ61は、例えば、荷役車両20の車幅方向において2つのフォーク30の間に設けられている。カメラ61は、フォーク30とともに昇降するように設けられている。例えば、カメラ61は、リフトブラケット29に取り付けられている。
The camera 61 is arranged to image the front of the
制御装置52が行うパレット検出制御について説明する。パレット検出制御は、荷役車両20が荷取りを行う際に、荷役車両20をパレットPA1に近付けるために行われる。荷役車両20は、例えば、上位制御装置の指令に基づき、搬送車両10に近付く。そして、荷役車両20と搬送車両10との離間距離が所定離間未満になると、パレット検出制御が開始される。所定離間距離は、例えば、外界センサ51によって搬送車両10が検出できる距離である。
The pallet detection control performed by the
<パレット検出制御>
図4及び図5に示すように、ステップS1において、制御装置52は、点群マップPM1を作成する。点群マップPM1は、外界センサ51の検出結果から得られた点群データを重ね合わせることで得られる。制御装置52は、荷役車両20が移動しているときに外界センサ51から複数回点群データを取得する。制御装置52は、自己位置から点群データの各点P1の座標をセンサ座標系の座標から地図座標に変換する。制御装置52によって推定された自己位置から、地図座標系におけるセンサ座標系の原点を認識できる。制御装置52によって推定された自己位置から、地図座標系の座標軸とセンサ座標系の座標軸とのずれを認識できる。制御装置52は、地図座標系におけるセンサ座標系の原点と、地図座標系の座標軸とセンサ座標系の座標軸とのずれと、に基づき点群データの各点P1をセンサ座標系の座標から地図座標に変換する。制御装置52は、点群データを取得する度に、地図座標に変換された各点P1を重ね合わせることで点群マップPM1を作成する。点群マップPM1は、点群データの集合である。点群データの点P1に比べて、点群マップPM1の点P1は密である。
<Pallet detection control>
As shown in FIGS. 4 and 5, in step S1, the
図5には、ステップS1の処理によって得られた点群マップPM1を示す。点群マップPM1に含まれる各点P1は、物体の地図座標を表している。説明の便宜上、点群マップPM1に含まれる各点P1を第1点P11、第2点P12、第3点P13及び第4点P14に分類して説明を行う。第1点P11は、あおり17にレーザーが照射されることで得られた点P1である。第2点P12は、運転席11にレーザーが照射されることで得られた点P1である。第3点P13は、積載面15に積載されているパレットPA1及び荷C1にレーザーが照射されることで得られた点P1である。第4点P14は、第1点P11、第2点P12及び第3点P13のいずれにも該当しない点P1である。
FIG. 5 shows a point cloud map PM1 obtained by the process of step S1. Each point P1 included in the point cloud map PM1 represents the map coordinates of an object. For convenience of explanation, the explanation will be given by classifying each point P1 included in the point cloud map PM1 into a first point P11, a second point P12, a third point P13, and a fourth point P14. The first point P11 is a point P1 obtained by irradiating the
図4及び図6に示すように、ステップS2において、制御装置52は、点群マップPM1から側面図IM1を作成する。側面図IM1は、点P1を搬送車両10の車幅方向に投影した図である。これにより、点群マップPM1を2次元にすることができるため、側面図IM1を画像データとして扱うことができる。側面図IM1は、パレットPA1の側面図ともいえる。側面図IM1を作成する際に制御装置52が行う処理の一例を説明する。
As shown in FIGS. 4 and 6, in step S2, the
制御装置52は、各点P1の法線ベクトルを算出する。法線ベクトルは、複数の点P1に囲まれる平面に対して垂直な方向に向けたベクトルである。法線ベクトルを導出する手法としては各点P1から曲面を求め、曲面から各点P1の法線ベクトルを導出する手法や、ベクトルの外積を用いる手法を挙げることができる。例えば、制御装置52が、1つの点P1の法線ベクトルを求める場合、この点P1から所定範囲内に位置する2つの点P1のそれぞれに向かうベクトルの外積を求める。この外積が法線ベクトルである。
The
制御装置52は、法線ベクトルの向きが水平方向である点P1を抽出する。例えば、制御装置52は、地図座標系のXY平面に対する法線ベクトルの角度が予め定められた範囲となるか否かを判定する。法線ベクトルの向きが水平方向の場合、法線ベクトルは地図座標系のXY平面に平行である。搬送車両10の傾きや測定誤差を考慮した上で、法線ベクトルの向きが水平方向とみなせる点P1を抽出できるように、予め定められた範囲を設定している。
The
制御装置52は、法線ベクトルの向きが水平方向である点P1から平面方程式を導出する。平面方程式は、例えば、RANSAC(Random Sample Consensus)等のロバスト推定法や、最小二乗法を用いることで導出することができる。平面方程式で表される平面は、鉛直方向に拡がる面である。本実施形態の搬送車両10であれば、あおり17による第1点P11によって平面を得ることができる。また、荷取りを行う際には、搬送車両10にパレットPA1及び荷C1が積載されているため、パレットPA1や荷C1による第3点P13によって平面を得ることができる。
The
制御装置52は、平面方程式で表される平面に垂直な方向に点P1を投影することで側面図IM1を作成する。この際、制御装置52は、平面方程式で表される平面から水平方向に所定範囲の点P1を投影することで側面図IM1を作成する。図1に示すように、搬送車両10には、搬送車両10の車幅方向に並んでパレットPA1が積載される場合がある。所定範囲PT1は、搬送車両10の車幅方向に並ぶパレットPA1のうち荷役車両20からの距離が長いパレットPA1が含まれないように設定されている。所定範囲PT1は、搬送車両10の車幅方向に並ぶパレットPA1のうち荷役車両20からの距離が短いパレットPA1における荷役車両20に向かい合う面が含まれるように設定されている。荷役車両20が荷取りを行う際には、搬送車両10の車幅方向に並ぶパレットPA1のうち荷役車両20からの距離が短いパレットPA1の荷取りを行う。上記したように所定範囲PT1を設定することで、荷役車両20の荷取り対象とならないパレットPA1を除外した側面図IM1を得ることができる。
The
図4及び図6に示すように、次に、ステップS3において、制御装置52は、パレットPA1の位置、及びパレットPA1の個数を検出する。パレットPA1の位置は、荷役車両20の荷取り対象となるパレットPA1の位置である。パレットPA1の個数は、荷役車両20の荷取り対象となるパレットPA1の個数である。パレットPA1の位置は、地図座標系でのパレットPA1の座標である。パレットPA1の位置は、側面図IM1でのパレットPA1の座標を地図座標系の座標に変換することで得ることができる。以下、詳細に説明を行う。
As shown in FIGS. 4 and 6, next, in step S3, the
制御装置52は、側面図IM1からパレットPA1を抽出することによって側面図IM1でのパレットPA1の位置を判定する。側面図IM1でのパレットPA1の位置は、画像座標系によって表すことができる。画像座標系は、側面図IM1の横方向をX軸、縦方向をY軸とする座標系である。パレットPA1の位置の判定は、画像認識を用いて行われる。本実施形態では、第1画像認識モデルD2を用いて画像認識を行う場合について説明を行うが、画像認識は、パターンマッチングによって行われてもよい。
第1画像認識モデルD2は、機械学習によって生成された学習済みモデルである。第1画像認識モデルD2は、領域単位で物体のクラスを判定することができるアルゴリズムを用いている。クラスとしては、「パレット」が設定されている。機械学習のアルゴリズムとしては、例えば、SSD(Single Shot Multibox Detector)、R-CNN(Regional Convolutional Neural Network)、fast R-CNN、faster R-CNN、及びYOLO(You Only Look Once)を挙げることができる。第1画像認識モデルD2は、教師データを用いた教師有り学習、あるいは、半教師有り学習によって生成されている。教師データとしては、クラスに該当する物体が含まれる画像データと、画像データ中の物体の位置と、ラベルと、を含むデータが用いられる。教師データは、例えば、画像データ中の物体を枠で囲み、画像データにラベルを付すことで生成することができる。本実施形態では、画像データのパレットPA1を枠で囲み、当該画像データに「パレット」のラベルを付したものを教師データとすればよい。教師データとして用いる画像データは、側面図IM1と同様に点群マップPM1から得られたものであってもよいし、撮像装置による撮像によって得られたものであってもよい。 The first image recognition model D2 is a learned model generated by machine learning. The first image recognition model D2 uses an algorithm that can determine the class of an object on a region-by-region basis. "Palette" is set as a class. Examples of machine learning algorithms include SSD (Single Shot Multibox Detector), R-CNN (Regional Convolutional Neural Network), fast R-CNN, faster R-CNN, and YOLO (You Only Look Once). . The first image recognition model D2 is generated by supervised learning using teacher data or semi-supervised learning. As the teacher data, data including image data including an object corresponding to a class, the position of the object in the image data, and a label is used. The teacher data can be generated, for example, by surrounding an object in image data with a frame and attaching a label to the image data. In this embodiment, the image data palette PA1 may be surrounded by a frame and the image data labeled "palette" may be used as the teacher data. The image data used as the teacher data may be obtained from the point cloud map PM1 similarly to the side view IM1, or may be obtained by imaging with an imaging device.
第1画像認識モデルD2は、入力された側面図IM1からパレットPA1が含まれる領域を特定する。パレットPA1が含まれる領域は、バウンディングボックスB1,B2で表される。図6に示す例では、側面図IM1から2つのバウンディングボックスB1,B2が抽出される。バウンディングボックスB1,B2は、第3点P13で表されるパレットPA1を囲んでいる。バウンディングボックスB1,B2の数は、パレットPA1の数を表している。側面図IM1中のバウンディングボックスB1,B2の位置は、画像座標系でのパレットPA1の位置を表している。側面図IM1は、地図座標系の点P1を投影して作成されているため、側面図IM1を構成する点P1には地図座標系の座標が対応付けられている。制御装置52は、側面図IM1でのパレットPA1の位置から地図座標系でのパレットPA1の位置を検出することができる。側面図IM1は、点群データから作成されているため、制御装置52は、点群データからパレットPA1の位置、及びパレットPA1の個数を検出しているといえる。
The first image recognition model D2 specifies the area including the pallet PA1 from the input side view IM1. The area including palette PA1 is represented by bounding boxes B1 and B2. In the example shown in FIG. 6, two bounding boxes B1 and B2 are extracted from the side view IM1. The bounding boxes B1 and B2 surround the palette PA1 represented by the third point P13. The numbers of bounding boxes B1 and B2 represent the number of pallets PA1. The positions of bounding boxes B1 and B2 in side view IM1 represent the position of pallet PA1 in the image coordinate system. Since the side view IM1 is created by projecting the point P1 of the map coordinate system, the coordinates of the map coordinate system are associated with the points P1 forming the side view IM1. The
次に、ステップS4において、制御装置52は、側面図IM1での運転席11の位置を判定する。側面図IM1での運転席11の位置の判定は、画像認識を用いて行われる。本実施形態では、第2画像認識モデルD3を用いて画像認識を行う場合について説明を行うが、画像認識は、パターンマッチングによって行われてもよい。
Next, in step S4, the
第2画像認識モデルD3は、機械学習によって生成された学習済みモデルである。第2画像認識モデルD3は、第1画像認識モデルD2と同様の手法によって生成されている。第2画像認識モデルD3では、クラスとして「運転席」が設定されている。これにより、第2画像認識モデルD3は、入力された側面図IM1から運転席11が含まれる領域を特定する。図6に示す例では、側面図IM1からバウンディングボックスB3が抽出される。図6に示す例では、第2点P12で表される運転席11がバウンディングボックスB3で囲まれている。バウンディングボックスB3は、側面図IM1での運転席11の位置を表している。 The second image recognition model D3 is a learned model generated by machine learning. The second image recognition model D3 is generated using the same method as the first image recognition model D2. In the second image recognition model D3, "driver's seat" is set as the class. Thereby, the second image recognition model D3 specifies the region including the driver's seat 11 from the input side view IM1. In the example shown in FIG. 6, a bounding box B3 is extracted from the side view IM1. In the example shown in FIG. 6, the driver's seat 11 represented by the second point P12 is surrounded by a bounding box B3. Bounding box B3 represents the position of driver's seat 11 in side view IM1.
次に、ステップS5において、制御装置52は、荷取りするパレットPA1を決定する。パレットPA1が複数存在する場合、制御装置52は、最初に荷取りするパレットPA1を決定するといえる。荷役車両20が荷取りを行う際には、搬送車両10の後方から前方に向けて搬送車両10の荷台14に積載されたパレットPA1を順次、取っていく。制御装置52は、運転席11から最も離れたパレットPA1を最初に荷取りするパレットPA1であると判定する。本実施形態であれば、バウンディングボックスB1で表されるパレットPA1が最初に荷取りされるパレットPA1である。バウンディングボックスB2で表されるパレットPA1が2番目に荷取りされるパレットPA1である。
Next, in step S5, the
次に、ステップS6において、制御装置52は、パレットPA1の地図座標系での座標、即ち、パレットPA1の位置を車両制御装置56に送信する。制御装置52は、最初に荷取りをするパレットPA1の位置のみを車両制御装置56に送信するようにしてもよい。制御装置52は、検出された全てのパレットPA1の位置を車両制御装置56に送信してもよい。
Next, in step S6, the
ステップS6の処理と終えると、制御装置52は、パレット検出制御を終了する。
車両制御装置56は、制御装置52から送信されたパレットPA1の位置に応じて走行アクチュエータ59を制御する。車両制御装置56は、最初に荷取りを行うパレットPA1までの経路を生成する。この際、車両制御装置56は、パレットPA1よりも所定距離手前のアプローチ開始位置までの経路を生成する。所定距離としては、カメラ61によってパレットPA1を撮像できるような距離に設定される。車両制御装置56は、経路に追従して荷役車両20が移動するように走行アクチュエータ59を制御する。荷役車両20がアプローチ開始位置に到達すると、車両制御装置56は、カメラ61の撮像によって得られる画像データによってパレットPA1の位置を確認しつつ荷役車両20をパレットPA1に近付けていく。荷役車両20がパレットPA1の荷取りを行う位置にまで到達すると、車両制御装置56は、荷役アクチュエータ60を制御することによって荷取りを行う。車両制御装置56は、カメラ61の撮像によって得られる画像データによってパレットPA1の位置を確認しつつ、パレットPA1に合わせてフォーク30の位置を調整する。これにより、荷役車両20が荷取りを行うことができる。
After completing the process of step S6, the
[本実施形態の効果]
(1)制御装置52は、点群データからパレットPA1の位置を検出することができる。これにより、制御装置52は、荷取りするパレットPA1を決定することができる。
[Effects of this embodiment]
(1) The
(2)制御装置52は、点群データからパレットPA1の位置を検出できる。これにより、車両制御装置56がパレットPA1に向かう経路を生成することができる。アプローチ開始位置からパレットPA1の荷取りを行う位置まで荷役車両20を移動させる際には、カメラ61を用いる。カメラ61の検知範囲は限られているため、アプローチ開始位置まで精度良く荷役車両20を移動させることが求められる。点群データからパレットPA1の位置を検出して経路を生成することによって、アプローチ開始位置まで精度良く荷役車両20を移動させることができる。
(2) The
また、予め経路を設定することによって、パレットPA1の荷取りを行う位置まで荷役車両20を移動させることも考えられる。しかしながら、この場合、搬送車両10のサイズ、パレットPA1のサイズ、及びパレットPA1の種類毎に経路を設定する必要があり、工数が膨大になる。これに対し、点群データからパレットPA1の位置を検出して経路を生成することによって、パレットPA1の位置に応じた経路を生成することができる。このため、予め経路を設定する必要がなくなる。
It is also conceivable to move the
(3)制御装置52は、側面図IM1から画像認識によってパレットPA1の位置、及びパレットPA1の個数を検出している。点群データを側面図IM1にすることによって側面図IM1を画像データとして扱うことができる。これにより、制御装置52は、画像認識によって側面図IM1でのパレットPA1の位置、及びパレットPA1の個数を検出できる。そして、側面図IM1でのパレットPA1の位置から、地図座標系でのパレットPA1の位置を検出することができる。
(3) The
(4)制御装置52は、側面図IM1から画像認識によって運転席11を抽出している。荷役車両20が荷取りを行う際には、搬送車両10の後方から前方に向けて搬送車両10の荷台14に積載された荷C1を順次、取っていく。搬送車両10の運転席11は搬送車両10の前方に位置しているため、搬送車両10の運転席11を抽出することによって、運転席11から最も離れたパレットPA1を最初に荷取りするパレットPA1であると決定することができる。
(4) The
(5)自己位置の推定に用いている外界センサ51を用いてパレットPA1の位置、及びパレットPA1の個数を検出することができる。パレットPA1の位置、及びパレットPA1の個数を検出するための専用のセンサを用いる場合に比べて、部品点数を削減できる。
(5) The position of pallet PA1 and the number of pallets PA1 can be detected using the
[変更例]
実施形態は、以下のように変更して実施することができる。実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
[Example of change]
The embodiment can be modified and implemented as follows. The embodiments and the following modification examples can be implemented in combination with each other within a technically consistent range.
○制御装置52は、点群マップPM1からパレットPA1の位置、及びパレットPA1の個数を検出してもよい。この場合、例えば、パレットPA1を表す3次元データの特徴を学習したモデルにより、点群マップPM1からパレットPA1の位置、及びパレットPA1の個数を検出する。
The
○ステップS3において、制御装置52は、パレットPA1の位置を検出できればよく、パレットPA1の個数を検出しなくてもよい。
○制御装置52は、点群マップPM1を作成しなくてもよい。この場合、制御装置52は、外界センサ51から取得した点群データを地図座標に変換して、ステップS2以降の処理を行う。即ち、制御装置52は、複数の点群データを集合させた点群マップPM1を作成せずに、単一の点群データからパレットPA1の位置、及びパレットPA1の個数を検出してもよい。
In step S3, the
- The
○車両制御装置56は、荷役車両20がパレットPA1の荷取りを行う位置までの経路を生成してもよい。この場合、カメラ61の撮像によって得られる画像データは、フォーク30の位置を調整するために用いられる。
The
○制御装置52は、パレットPA1の水平方向に隣り合う空間が存在する場合、当該パレットPA1を最初に荷取りするパレットPA1であると判定してもよい。最初に荷取りするパレットPA1は、搬送車両10の後方向に隣り合うパレットPA1が存在しない。このため、最初に荷取りするパレットPA1には、水平方向に隣り合って閾値以上の空間が存在する。この空間を検出することで最初に荷取りするパレットPA1を判定することができる。隣り合うパレットPA1同士の間に緩衝材が存在する場合、緩衝材の厚みを考慮して閾値が設定される。隣り合うパレットPA1同士の間に緩衝材が存在しない場合、パレットPA1の幅に基づいて閾値を設定してもよい。例えば、パレットPA1の幅の半分の寸法を閾値としてもよい。制御装置52は、側面図IM1から空間を検出してもよいし、点群マップPM1から空間を検出してもよい。空間には点P1が存在しないため、制御装置52は、点P1の有無によって空間を検出することができる。
If there is a space adjacent to the pallet PA1 in the horizontal direction, the
○第2画像認識モデルD3として、側面図IM1単位で物体のクラスを判定することができるアルゴリズムを用いてもよい。この場合、クラスとして「右向き」及び「左向き」を設定すればよい。機械学習のアルゴリズムとしては、例えば、CNN(Convolution Neural Network)を挙げることができる。教師データとしては、右向きの搬送車両10が写る画像データに「右向き」のラベルを付したデータと、左向きの搬送車両10が写る画像データに「左向き」のラベルを付したデータとを用いればよい。
As the second image recognition model D3, an algorithm that can determine the class of an object for each side view IM1 may be used. In this case, "rightward" and "leftward" may be set as the classes. An example of a machine learning algorithm is CNN (Convolution Neural Network). As the training data, it is sufficient to use image data in which the
制御装置52は、第2画像認識モデルD3に側面図IM1を入力することによって、側面図IM1に写る搬送車両10が右向きか左向きかを判定する。制御装置52は、搬送車両10が右向きの場合、画像座標系で最も左に位置するパレットPA1を荷取りするパレットPA1であると決定する。制御装置52は、搬送車両10が左向きの場合、画像座標系で最も右に位置するパレットPA1を荷取りするパレットPA1であると決定する。
The
○搬送車両10の停車向きが一定の場合、パレットPA1の地図座標から荷取りするパレットPA1を決定してもよい。搬送車両10の停車向きが一定の場合、搬送車両10の後方に積載されたパレットPA1ほど、地図座標系の水平方向の座標が大きくなる、あるいは、小さくなる。搬送車両10の後方に積載されたパレットPA1ほど、地図座標系の水平方向の座標が大きくなるか小さくなるかは、地図座標系の原点と搬送車両10との位置関係によって異なる。制御装置52は、地図座標の大小から荷取りするパレットPA1を決定することができる。例えば、搬送車両10の後方に積載されたパレットPA1ほど、地図座標系のX座標が大きくなる場合、制御装置52は、地図座標系のX座標が最大のパレットPA1を荷取りするパレットPA1であると決定することができる。
If the direction in which the
○パレット検出制御の一部の処理を車両制御装置56が行ってもよい。この場合、車両制御装置56も制御装置といえる。
○パレット検出制御の一部の処理を荷役車両20に指令を与える上位制御装置が行ってもよい。この場合、上位制御装置も制御装置といえる。パレット検出制御の全部の処理を荷役車両20に指令を与える上位制御装置が行ってもよい。この場合、上位制御装置が制御装置である。このように、パレット検出制御の少なくとも一部の処理を上位制御装置に行わせる場合、制御装置52は、無線通信によって上位制御装置に処理に必要となるデータを送信する。例えば、パレット検出制御の全ての処理を上位制御装置に行わせる場合、制御装置52は、点群データを上位制御装置に送信する。上位制御装置は、パレット検出制御を行うことによって得られた結果を制御装置52に無線通信によって送信する。上位制御装置は、例えば、区域A1に設けられる。この場合、荷役車両20と上位制御装置とで荷役システムが構成される。
The
A part of the pallet detection control may be performed by a host control device that issues commands to the
○荷役車両20は、棚や地面に置かれたパレットPA1の荷取りを行ってもよい。
○搬送車両10は、搬送を行える車両であればよく、例えば、AGV(Automatic Guided Vehicle)やAMR(Autonomous Mobile Robot)であってもよい。
- The
The
○荷役車両20は、フォーク30の位置を調整するためのセンサとして、カメラ61に代えてレーザー距離計を備えていてもよい。
○荷役装置24は、例えば、ロボットアームを備えているものであってもよい。
The
The
P1…点、PA1…パレット、10…搬送車両、11…運転席、20…荷役システムである荷役車両、24…荷役装置、51…外界センサ、52…制御装置。 P1... point, PA1... pallet, 10... transport vehicle, 11... driver's seat, 20... cargo handling vehicle which is a cargo handling system, 24... cargo handling device, 51... external world sensor, 52... control device.
Claims (3)
制御装置と、を備える荷役システムであって、
前記制御装置は、
前記物体の位置を表した点の集合である点群データから、パレットの位置を検出し、
荷取りする前記パレットを決定する、荷役システム。 A cargo handling vehicle equipped with an external sensor that detects the position of an object using coordinates in a three-dimensional coordinate system, and a cargo handling device;
A cargo handling system comprising a control device,
The control device includes:
Detecting the position of the pallet from point cloud data, which is a set of points representing the position of the object,
A cargo handling system that determines the pallet to be picked up.
前記点群データから前記パレットの側面図を作成し、
前記側面図から画像認識によって前記パレットを抽出することによって前記パレットの位置、及び前記パレットの個数を検出する、請求項1に記載の荷役システム。 The control device includes:
creating a side view of the pallet from the point cloud data;
The cargo handling system according to claim 1, wherein the position of the pallet and the number of the pallets are detected by extracting the pallet from the side view by image recognition.
前記側面図から画像認識によって前記パレットを積載した搬送車両の運転席を抽出し、
前記運転席から最も離れた前記パレットを荷取りする前記パレットであると決定する、請求項2に記載の荷役システム。 The control device includes:
Extracting the driver's seat of the transport vehicle loaded with the pallet from the side view by image recognition,
The cargo handling system according to claim 2, wherein the pallet farthest from the driver's seat is determined to be the pallet to be picked up.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022074615A JP2023163605A (en) | 2022-04-28 | 2022-04-28 | Cargo handling system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022074615A JP2023163605A (en) | 2022-04-28 | 2022-04-28 | Cargo handling system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023163605A true JP2023163605A (en) | 2023-11-10 |
Family
ID=88651977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022074615A Pending JP2023163605A (en) | 2022-04-28 | 2022-04-28 | Cargo handling system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023163605A (en) |
-
2022
- 2022-04-28 JP JP2022074615A patent/JP2023163605A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6492024B2 (en) | Moving body | |
JP6825712B2 (en) | Mobiles, position estimators, and computer programs | |
Baglivo et al. | Autonomous pallet localization and picking for industrial forklifts: a robust range and look method | |
US20210087031A1 (en) | Autonomous material transport vehicles, and systems and methods of operating thereof | |
JP7469494B2 (en) | Method for controlling an automated guided vehicle and a control system configured to carry out said method - Patents.com | |
US20210072770A1 (en) | Multi-sensor-based unmanned aerial vehicle and method for controlling same | |
US20210101747A1 (en) | Positioning apparatus capable of measuring position of moving body using image capturing apparatus | |
US11537140B2 (en) | Mobile body, location estimation device, and computer program | |
KR102300596B1 (en) | Method for narrow lane driving of autonomous forklift and apparatus for the same | |
US20220413508A1 (en) | Method for controlling a vehicle in a depot, travel control unit, and vehicle having said travel control unit | |
Behrje et al. | An autonomous forklift with 3d time-of-flight camera-based localization and navigation | |
US20230419531A1 (en) | Apparatus and method for measuring, inspecting or machining objects | |
WO2019194079A1 (en) | Position estimation system, moving body comprising said position estimation system, and computer program | |
KR102564663B1 (en) | Coordinates recognition apparatus of automatic guided vehicle and method thereof | |
US20230068916A1 (en) | Forklift and stowage position detecting method for forklift | |
US20220404495A1 (en) | Detection system, processing apparatus, movement object, detection method, and non-transitory computer-readable storage medium | |
JP7081560B2 (en) | Forklift and container attitude detection method | |
JP2023163605A (en) | Cargo handling system | |
JP7363705B2 (en) | Cargo handling system | |
JP2023163604A (en) | Cargo handling system | |
Joo et al. | A pallet recognition and rotation algorithm for autonomous logistics vehicle system of a distribution center | |
Cherubini et al. | A redundancy-based approach for visual navigation with collision avoidance | |
WO2024024146A1 (en) | Movement control method, program, and movement control system | |
US11892852B2 (en) | Information processing apparatus and information processing method | |
JP6687313B1 (en) | Transport system |