JP2023163605A - Cargo handling system - Google Patents

Cargo handling system Download PDF

Info

Publication number
JP2023163605A
JP2023163605A JP2022074615A JP2022074615A JP2023163605A JP 2023163605 A JP2023163605 A JP 2023163605A JP 2022074615 A JP2022074615 A JP 2022074615A JP 2022074615 A JP2022074615 A JP 2022074615A JP 2023163605 A JP2023163605 A JP 2023163605A
Authority
JP
Japan
Prior art keywords
pallet
control device
cargo handling
vehicle
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022074615A
Other languages
Japanese (ja)
Inventor
頼輝 柿田
Yoshiki Kakita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Industries Corp
Original Assignee
Toyota Industries Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Industries Corp filed Critical Toyota Industries Corp
Priority to JP2022074615A priority Critical patent/JP2023163605A/en
Publication of JP2023163605A publication Critical patent/JP2023163605A/en
Pending legal-status Critical Current

Links

Images

Abstract

To detect a position of a palette.SOLUTION: A cargo handling vehicle is equipped with a cargo handling device and an external sensor. The external sensor detects a position of an object using coordinates of a three-dimensional coordinate system. The control device detects positions of palettes and the number of the palettes, from point cloud data that is an assembly of points representing the position of the object. The control device determines the palette on which a cargo is placed.SELECTED DRAWING: Figure 4

Description

本開示は、荷役システムに関する。 The present disclosure relates to cargo handling systems.

制御装置による制御によって自動で荷取りを行う荷役車両が特許文献1に開示されている。特許文献1に開示の荷役車両は、自己位置を推定しながら荷取り位置まで移動する。荷取り位置まで移動すると、荷役車両は荷取りを行う。 2. Description of the Related Art Patent Document 1 discloses a cargo handling vehicle that automatically picks up cargo under the control of a control device. The cargo handling vehicle disclosed in Patent Document 1 moves to a cargo picking position while estimating its own position. After moving to the loading position, the cargo handling vehicle picks up the load.

特開2021-160885号公報Japanese Patent Application Publication No. 2021-160885

荷役車両が荷取りを行う際には、荷役車両をパレットの近くまで移動させる必要がある。荷役車両をパレットの近くまで移動させるためには、パレットの位置を検出する必要がある。 When a cargo handling vehicle picks up cargo, it is necessary to move the cargo handling vehicle close to the pallet. In order to move the cargo handling vehicle close to the pallet, it is necessary to detect the position of the pallet.

上記課題を解決する荷役システムは、3次元座標系の座標で物体の位置を検出する外界センサ、及び荷役装置を備える荷役車両と、制御装置と、を備える荷役システムであって、前記制御装置は、前記物体の位置を表した点の集合である点群データから、パレットの位置を検出し、荷取りする前記パレットを決定する。 A cargo handling system that solves the above problems is a cargo handling system that includes an external sensor that detects the position of an object using coordinates in a three-dimensional coordinate system, a cargo handling vehicle equipped with a cargo handling device, and a control device, the control device being , the position of the pallet is detected from point cloud data, which is a set of points representing the position of the object, and the pallet to be picked up is determined.

点群データの点は、物体の位置を表している。このため、制御装置は、点群データからパレットの位置を検出することができる。
上記荷役システムについて、前記制御装置は、前記点群データから前記パレットの側面図を作成し、前記側面図から画像認識によって前記パレットを抽出することによって前記パレットの位置、及び前記パレットの個数を検出してもよい。
The points in the point cloud data represent the positions of objects. Therefore, the control device can detect the position of the pallet from the point cloud data.
In the cargo handling system, the control device creates a side view of the pallet from the point cloud data, and extracts the pallet from the side view by image recognition, thereby detecting the position of the pallet and the number of pallets. You may.

上記荷役システムについて、前記制御装置は、前記側面図から画像認識によって前記パレットを積載した搬送車両の運転席を抽出し、前記運転席から最も離れた前記パレットを荷取りする前記パレットであると決定してもよい。 In the cargo handling system, the control device extracts the driver's seat of the transport vehicle loaded with the pallet from the side view by image recognition, and determines that the pallet furthest from the driver's seat is the pallet to be loaded. You may.

本発明によれば、パレットの位置を検出することができる。 According to the present invention, the position of a pallet can be detected.

荷役車両が運用される区域の模式図である。FIG. 2 is a schematic diagram of an area where cargo handling vehicles are operated. 搬送車両、及び荷役車両の斜視図である。FIG. 2 is a perspective view of a transport vehicle and a cargo handling vehicle. 荷役車両の概略構成図である。FIG. 1 is a schematic configuration diagram of a cargo handling vehicle. パレット検出制御を示すフローチャートである。3 is a flowchart showing pallet detection control. 点群マップの模式図である。It is a schematic diagram of a point cloud map. 側面図の模式図である。FIG. 3 is a schematic diagram of a side view.

以下、荷役システムの一実施形態について説明する。
図1に示すように、区域A1には、停車位置PS1が設定されている。停車位置PS1には、搬送車両10が停車する。停車位置PS1の面積は、停車位置PS1に停車する搬送車両10を平面視した場合の搬送車両10の面積よりも広い。停車位置PS1には、柱などの構造物が存在していない。区域A1は、例えば、工場、港湾、空港、商業施設、及び公共施設等の場所の全体、あるいは、一部である。区域A1では、荷役車両20が運用されている。荷役車両20は、荷積み及び荷取りを行う。荷積みは、パレットPA1に置かれた荷C1を搬送車両10に積載する作業である。荷取りは、搬送車両10に積載されたパレットPA1及び当該パレットPA1に置かれた荷C1を搬送車両10から取る作業である。以下の説明において、搬送車両10の前後左右上下とは、搬送車両10を基準とした場合の前後左右上下である。荷役車両20の左右上下とは、荷役車両20を基準とした場合の左右上下である。
An embodiment of the cargo handling system will be described below.
As shown in FIG. 1, a parking position PS1 is set in area A1. The transport vehicle 10 stops at the stop position PS1. The area of the stop position PS1 is wider than the area of the conveyance vehicle 10 when the conveyance vehicle 10 stopped at the stop position PS1 is viewed from above. There are no structures such as pillars at the parking position PS1. The area A1 is, for example, the whole or a part of a place such as a factory, a port, an airport, a commercial facility, or a public facility. In area A1, cargo handling vehicle 20 is operated. The cargo handling vehicle 20 performs loading and unloading. Loading is an operation in which the load C1 placed on the pallet PA1 is loaded onto the transport vehicle 10. Load picking is a task of picking up the pallet PA1 loaded on the transport vehicle 10 and the cargo C1 placed on the pallet PA1 from the transport vehicle 10. In the following description, the front, rear, left, right, top, and bottom of the transport vehicle 10 refer to the front, rear, left, right, top, and bottom when the transport vehicle 10 is used as a reference. The left, right, top, and bottom of the cargo handling vehicle 20 are the left, right, top, and bottom when the cargo handling vehicle 20 is used as a reference.

図2に示すように、搬送車両10は、ウィングトラックである。搬送車両10としては、平ボディのトラック等、どのような種類のトラックであってもよい。搬送車両10は、運転席11と、フロントパネル12と、リヤドア13と、荷台14と、ウィングサイドパネル16と、あおり17と、を備える。 As shown in FIG. 2, the transport vehicle 10 is a wing truck. The transport vehicle 10 may be any type of truck, such as a flat body truck. The transport vehicle 10 includes a driver's seat 11, a front panel 12, a rear door 13, a loading platform 14, a wing side panel 16, and a gate 17.

運転席11は、搬送車両10の運転者が搭乗する位置である。フロントパネル12は、運転席11よりも搬送車両10の後方に設けられている。フロントパネル12は、運転席11に隣り合って設けられている。リヤドア13は、フロントパネル12よりも搬送車両10の後方に設けられている。フロントパネル12とリヤドア13は、搬送車両10の前後方向に互いに間隔を空けて設けられている。荷台14は、フロントパネル12とリヤドア13との間で、搬送車両10の前後方向に延びている。荷台14は、積載面15を備える。積載面15は、荷台14の上面である。積載面15には、パレットPA1に置かれた荷C1が積載される。ウィングサイドパネル16は、フロントパネル12とリヤドア13との間に設けられている。ウィングサイドパネル16は、搬送車両10の車幅方向の中心位置を中心として、搬送車両10の上下方向に回転可能に設けられている。ウィングサイドパネル16は、搬送車両10の車幅方向の両側に1つずつ設けられている。あおり17は、搬送車両10の前後方向に延びるように設けられている。あおり17は、荷台14の縁であって搬送車両10の前後方向に延びる縁に沿って設けられている。あおり17は、搬送車両10の車幅方向の両側に1つずつ設けられている。 The driver's seat 11 is a position where the driver of the transport vehicle 10 rides. The front panel 12 is provided behind the driver's seat 11 of the transport vehicle 10. The front panel 12 is provided adjacent to the driver's seat 11. The rear door 13 is provided behind the front panel 12 of the transport vehicle 10. The front panel 12 and the rear door 13 are spaced apart from each other in the longitudinal direction of the transport vehicle 10. The loading platform 14 extends in the longitudinal direction of the transport vehicle 10 between the front panel 12 and the rear door 13. The loading platform 14 includes a loading surface 15. The loading surface 15 is the upper surface of the loading platform 14. A load C1 placed on a pallet PA1 is loaded on the loading surface 15. The wing side panel 16 is provided between the front panel 12 and the rear door 13. The wing side panel 16 is provided so as to be rotatable in the vertical direction of the transport vehicle 10 around the center position of the transport vehicle 10 in the vehicle width direction. One wing side panel 16 is provided on each side of the transport vehicle 10 in the vehicle width direction. The gate 17 is provided so as to extend in the front-rear direction of the transport vehicle 10. The gate 17 is provided along the edge of the loading platform 14 and extending in the front-rear direction of the transport vehicle 10. One gate 17 is provided on each side of the transport vehicle 10 in the vehicle width direction.

<荷役車両>
荷役車両20は、車体21と、駆動輪22と、操舵輪23と、荷役装置24と、を備える。荷役装置24は、車体21の前部に設けられている。荷役装置24は、マスト25と、リフトシリンダ28と、リフトブラケット29と、フォーク30と、を備える。
<Cargo handling vehicle>
The cargo handling vehicle 20 includes a vehicle body 21 , drive wheels 22 , steering wheels 23 , and a cargo handling device 24 . The cargo handling device 24 is provided at the front of the vehicle body 21. The cargo handling device 24 includes a mast 25, a lift cylinder 28, a lift bracket 29, and a fork 30.

マスト25は、アウタマスト26と、インナマスト27と、を備える。インナマスト27は、アウタマスト26に対して昇降可能に設けられている。フォーク30は、リフトブラケット29に固定されている。リフトブラケット29及びフォーク30は、インナマスト27とともに昇降する。リフトシリンダ28は、インナマスト27を昇降動作させる。リフトシリンダ28は、油圧シリンダである。 The mast 25 includes an outer mast 26 and an inner mast 27. The inner mast 27 is provided so as to be movable up and down relative to the outer mast 26. Fork 30 is fixed to lift bracket 29. The lift bracket 29 and the fork 30 move up and down together with the inner mast 27. The lift cylinder 28 moves the inner mast 27 up and down. Lift cylinder 28 is a hydraulic cylinder.

図3に示すように、荷役車両20は、外界センサ51と、制御装置52と、補助記憶装置55と、車両制御装置56と、走行アクチュエータ59と、荷役アクチュエータ60と、カメラ61と、を備える。荷役車両20は、荷役システムである。 As shown in FIG. 3, the cargo handling vehicle 20 includes an external sensor 51, a control device 52, an auxiliary storage device 55, a vehicle control device 56, a traveling actuator 59, a cargo handling actuator 60, and a camera 61. . The cargo handling vehicle 20 is a cargo handling system.

外界センサ51は、3次元座標系の座標で物体の位置を検出する。外界センサ51は、荷役車両20の上部に設けられている。例えば、外界センサ51は、荷役車両20のヘッドガードに設けられている。 The external sensor 51 detects the position of an object using coordinates in a three-dimensional coordinate system. The external sensor 51 is provided at the top of the cargo handling vehicle 20. For example, the external sensor 51 is provided on the head guard of the cargo handling vehicle 20.

外界センサ51としては、例えば、ミリ波レーダー、ステレオカメラ、ToF(Time of Flight)カメラ、及びLIDAR(Laser Imaging Detection and Ranging)を挙げることができる。本実施形態では、外界センサ51としてLIDARを用いている。外界センサ51は、周囲にレーザーを照射し、レーザーが当たった点から反射された反射光を受光することで点までの距離を導出する。レーザーが当たった点は、物体の表面の一部を表す。点の位置は、極座標系の座標で表すことができる。極座標系における点の座標は、直交座標系の座標に変換される。極座標系から直交座標系への変換は、外界センサ51によって行われてもよいし、制御装置52で行われてもよい。本実施形態では、外界センサ51により極座標系から直交座標系への変換が行われているとする。外界センサ51は、センサ座標系での点の座標を導出する。センサ座標系は、外界センサ51を原点とする3軸直交座標系である。外界センサ51は、レーザーを照射することにより得られた複数の点の座標を点群データとして制御装置52に出力する。 Examples of the external sensor 51 include a millimeter wave radar, a stereo camera, a ToF (Time of Flight) camera, and a LIDAR (Laser Imaging Detection and Ranging). In this embodiment, LIDAR is used as the external sensor 51. The external sensor 51 irradiates the surrounding area with a laser and receives the reflected light from the point hit by the laser to derive the distance to the point. The point hit by the laser represents a portion of the object's surface. The position of a point can be represented by coordinates in a polar coordinate system. The coordinates of a point in a polar coordinate system are transformed to coordinates in a rectangular coordinate system. The conversion from the polar coordinate system to the orthogonal coordinate system may be performed by the external sensor 51 or by the control device 52. In this embodiment, it is assumed that the external sensor 51 is converting from a polar coordinate system to an orthogonal coordinate system. The external sensor 51 derives the coordinates of a point in the sensor coordinate system. The sensor coordinate system is a three-axis orthogonal coordinate system with the external world sensor 51 as the origin. The external sensor 51 outputs the coordinates of a plurality of points obtained by laser irradiation to the control device 52 as point group data.

制御装置52は、プロセッサ53と、記憶部54と、を備える。記憶部54は、RAM(Random Access Memory)、及びROM(Read Only Memory)を含む。記憶部54は、処理をプロセッサ53に実行させるように構成されたプログラムコードまたは指令を格納している。記憶部54、即ち、コンピュータ可読媒体は、汎用または専用のコンピュータでアクセスできるあらゆる利用可能な媒体を含む。制御装置52は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェア回路によって構成されていてもよい。処理回路である制御装置52は、コンピュータプログラムに従って動作する1つ以上のプロセッサ、ASICやFPGA等の1つ以上のハードウェア回路、或いは、それらの組み合わせを含み得る。 The control device 52 includes a processor 53 and a storage section 54. The storage unit 54 includes a RAM (Random Access Memory) and a ROM (Read Only Memory). The storage unit 54 stores program codes or instructions configured to cause the processor 53 to execute processes. Storage 54, or computer readable media, includes any available media that can be accessed by a general purpose or special purpose computer. The control device 52 may be configured by a hardware circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array). The control device 52, which is a processing circuit, may include one or more processors operating according to a computer program, one or more hardware circuits such as ASIC or FPGA, or a combination thereof.

補助記憶装置55は、制御装置52が読み取り可能な情報を記憶している。補助記憶装置55としては、例えば、ハードディスクドライブ、及びソリッドステートドライブを挙げることができる。補助記憶装置55は、環境地図D1を記憶している。補助記憶装置55は、第1画像認識モデルD2を記憶している。補助記憶装置55は、第2画像認識モデルD3を記憶している。 The auxiliary storage device 55 stores information that can be read by the control device 52. Examples of the auxiliary storage device 55 include a hard disk drive and a solid state drive. The auxiliary storage device 55 stores an environmental map D1. The auxiliary storage device 55 stores the first image recognition model D2. The auxiliary storage device 55 stores a second image recognition model D3.

環境地図D1とは、区域A1に存在する物体の形状、区域A1の広さ等、区域A1の物理的構造に関する情報である。本実施形態において環境地図D1は、区域A1の構造を地図座標系の座標で表したデータである。地図座標系は、3軸直交座標系である。地図座標系は、区域A1の任意の一点を原点とする座標系である。地図座標系において水平方向は互いに直交するX軸及びY軸で規定される。X軸及びY軸で規定されるXY平面は、水平面を表しているといえる。地図座標系において上下方向は、X軸及びY軸に直交するZ軸で規定される。適宜、地図座標系の座標を地図座標と称する。地図座標系は、3次元の位置を表す3次元座標系である。 The environmental map D1 is information regarding the physical structure of the area A1, such as the shape of objects existing in the area A1 and the size of the area A1. In this embodiment, the environmental map D1 is data representing the structure of the area A1 using coordinates in a map coordinate system. The map coordinate system is a three-axis orthogonal coordinate system. The map coordinate system is a coordinate system whose origin is an arbitrary point in area A1. In the map coordinate system, the horizontal direction is defined by an X-axis and a Y-axis that are perpendicular to each other. It can be said that the XY plane defined by the X axis and the Y axis represents a horizontal plane. In the map coordinate system, the vertical direction is defined by the Z axis orthogonal to the X axis and the Y axis. The coordinates of the map coordinate system are appropriately referred to as map coordinates. The map coordinate system is a three-dimensional coordinate system that represents a three-dimensional position.

制御装置52は、荷役車両20の自己位置を推定する。制御装置52は、荷役車両20の自己位置を車両制御装置56に出力する。自己位置とは、環境地図D1上での荷役車両20の位置である。自己位置とは、地図座標系での荷役車両20の一点を示す座標である。荷役車両20の一点は任意であるが、例えば、荷役車両20の水平方向での中心位置を挙げることができる。 The control device 52 estimates the self-position of the cargo handling vehicle 20. The control device 52 outputs the self-position of the cargo handling vehicle 20 to the vehicle control device 56. The self-position is the position of the cargo handling vehicle 20 on the environmental map D1. The self-position is a coordinate indicating one point of the cargo handling vehicle 20 in the map coordinate system. Although one point on the cargo handling vehicle 20 is arbitrary, for example, the central position of the cargo handling vehicle 20 in the horizontal direction can be mentioned.

自己位置の推定は、外界センサ51の検出結果と環境地図D1とを照合することで行われる。制御装置52は、点群データから得られたランドマークと同一形状のランドマークを環境地図D1から抽出する。制御装置52は、環境地図D1からランドマークの位置を認識する。ランドマークの位置と荷役車両20との位置関係は、外界センサ51の検出結果から把握できる。従って、制御装置52は、ランドマークの位置を認識することで、自己位置を推定することができる。ランドマークとは外界センサ51により識別可能な特徴を有する物体である。ランドマークは、位置の変化しにくい物理的構造物である。ランドマークとしては、例えば、壁、及び柱を挙げることができる。自己位置の推定は、外界センサ51を用いた自己位置の推定に、内界センサを用いたデッドレコニングを組み合わせて行われてもよい。自己位置の推定は、外界センサ51を用いた自己位置の推定に、GNSS(Global Navigation Satellite System)衛星から送信される衛星信号を用いた自己位置推定を組み合わせて行われてもよい。 The self-position is estimated by comparing the detection results of the external sensor 51 and the environmental map D1. The control device 52 extracts landmarks having the same shape as the landmarks obtained from the point cloud data from the environmental map D1. The control device 52 recognizes the positions of landmarks from the environmental map D1. The positional relationship between the position of the landmark and the cargo handling vehicle 20 can be ascertained from the detection result of the external sensor 51. Therefore, the control device 52 can estimate its own position by recognizing the position of the landmark. A landmark is an object that has characteristics that can be identified by the external sensor 51. A landmark is a physical structure whose position is difficult to change. Landmarks include, for example, walls and pillars. Estimating the self-position may be performed by combining estimation of the self-position using the external sensor 51 and dead reckoning using the internal sensor. The self-position estimation may be performed by combining self-position estimation using the external sensor 51 and self-position estimation using a satellite signal transmitted from a GNSS (Global Navigation Satellite System) satellite.

車両制御装置56は、例えば、制御装置52と同様のハードウェア構成を備える。車両制御装置56は、プロセッサ57と、記憶部58と、を備える。
走行アクチュエータ59は、荷役車両20を走行させるアクチュエータである。走行アクチュエータ59は、例えば、駆動輪22を回転させるモータ、及び操舵機構を含む。車両制御装置56は、自己位置を把握しながら走行アクチュエータ59を制御して荷役車両20を走行させる。
The vehicle control device 56 includes, for example, the same hardware configuration as the control device 52. Vehicle control device 56 includes a processor 57 and a storage section 58.
The travel actuator 59 is an actuator that causes the cargo handling vehicle 20 to travel. Travel actuator 59 includes, for example, a motor that rotates drive wheels 22 and a steering mechanism. The vehicle control device 56 controls the traveling actuator 59 to cause the cargo handling vehicle 20 to travel while grasping its own position.

荷役アクチュエータ60は、荷役車両20に荷役を行わせるアクチュエータである。荷役アクチュエータ60は、例えば、油圧機器に作動油を供給するポンプを駆動するモータ、及び作動油の供給を制御する制御弁を含む。油圧機器は、リフトシリンダ28を含む。車両制御装置56は、荷役アクチュエータ60を制御することによってフォーク30の昇降を行う。 The cargo handling actuator 60 is an actuator that causes the cargo handling vehicle 20 to perform cargo handling. The cargo handling actuator 60 includes, for example, a motor that drives a pump that supplies hydraulic oil to hydraulic equipment, and a control valve that controls the supply of hydraulic oil. The hydraulic equipment includes a lift cylinder 28. The vehicle control device 56 raises and lowers the fork 30 by controlling the cargo handling actuator 60.

荷役車両20は、車両制御装置56によって走行アクチュエータ59が制御されることによって自動で走行する。荷役車両20は、車両制御装置56によって荷役アクチュエータ60が制御されることによって自動で荷役を行う。荷役車両20は、自動運転フォークリフトである。 The cargo handling vehicle 20 automatically travels as the travel actuator 59 is controlled by the vehicle control device 56 . The cargo handling vehicle 20 automatically performs cargo handling by controlling the cargo handling actuator 60 by the vehicle control device 56. The cargo handling vehicle 20 is a self-driving forklift.

カメラ61は、荷役車両20の前方を撮像するように配置されている。カメラ61は、単眼カメラである。カメラ61は、例えば、荷役車両20の車幅方向において2つのフォーク30の間に設けられている。カメラ61は、フォーク30とともに昇降するように設けられている。例えば、カメラ61は、リフトブラケット29に取り付けられている。 The camera 61 is arranged to image the front of the cargo handling vehicle 20. Camera 61 is a monocular camera. The camera 61 is provided, for example, between two forks 30 in the vehicle width direction of the cargo handling vehicle 20. The camera 61 is provided to move up and down together with the fork 30. For example, camera 61 is attached to lift bracket 29.

制御装置52が行うパレット検出制御について説明する。パレット検出制御は、荷役車両20が荷取りを行う際に、荷役車両20をパレットPA1に近付けるために行われる。荷役車両20は、例えば、上位制御装置の指令に基づき、搬送車両10に近付く。そして、荷役車両20と搬送車両10との離間距離が所定離間未満になると、パレット検出制御が開始される。所定離間距離は、例えば、外界センサ51によって搬送車両10が検出できる距離である。 The pallet detection control performed by the control device 52 will be explained. The pallet detection control is performed in order to bring the cargo handling vehicle 20 closer to the pallet PA1 when the cargo handling vehicle 20 picks up cargo. The cargo handling vehicle 20 approaches the transport vehicle 10 based on, for example, a command from a higher-level control device. Then, when the distance between the cargo handling vehicle 20 and the transport vehicle 10 becomes less than a predetermined distance, pallet detection control is started. The predetermined separation distance is, for example, a distance that can be detected by the transport vehicle 10 by the external sensor 51.

<パレット検出制御>
図4及び図5に示すように、ステップS1において、制御装置52は、点群マップPM1を作成する。点群マップPM1は、外界センサ51の検出結果から得られた点群データを重ね合わせることで得られる。制御装置52は、荷役車両20が移動しているときに外界センサ51から複数回点群データを取得する。制御装置52は、自己位置から点群データの各点P1の座標をセンサ座標系の座標から地図座標に変換する。制御装置52によって推定された自己位置から、地図座標系におけるセンサ座標系の原点を認識できる。制御装置52によって推定された自己位置から、地図座標系の座標軸とセンサ座標系の座標軸とのずれを認識できる。制御装置52は、地図座標系におけるセンサ座標系の原点と、地図座標系の座標軸とセンサ座標系の座標軸とのずれと、に基づき点群データの各点P1をセンサ座標系の座標から地図座標に変換する。制御装置52は、点群データを取得する度に、地図座標に変換された各点P1を重ね合わせることで点群マップPM1を作成する。点群マップPM1は、点群データの集合である。点群データの点P1に比べて、点群マップPM1の点P1は密である。
<Pallet detection control>
As shown in FIGS. 4 and 5, in step S1, the control device 52 creates a point cloud map PM1. The point cloud map PM1 is obtained by superimposing point cloud data obtained from the detection results of the external sensor 51. The control device 52 acquires point cloud data from the external sensor 51 multiple times while the cargo handling vehicle 20 is moving. The control device 52 converts the coordinates of each point P1 of the point cloud data from the sensor coordinate system to map coordinates based on the self-position. From the self-position estimated by the control device 52, the origin of the sensor coordinate system in the map coordinate system can be recognized. From the self-position estimated by the control device 52, the deviation between the coordinate axes of the map coordinate system and the coordinate axes of the sensor coordinate system can be recognized. The control device 52 converts each point P1 of the point cloud data from the coordinates of the sensor coordinate system to the map coordinates based on the origin of the sensor coordinate system in the map coordinate system and the deviation between the coordinate axes of the map coordinate system and the coordinate axes of the sensor coordinate system. Convert to Each time the control device 52 acquires point cloud data, it creates a point cloud map PM1 by superimposing each point P1 converted into map coordinates. The point cloud map PM1 is a collection of point cloud data. The points P1 of the point cloud map PM1 are denser than the points P1 of the point cloud data.

図5には、ステップS1の処理によって得られた点群マップPM1を示す。点群マップPM1に含まれる各点P1は、物体の地図座標を表している。説明の便宜上、点群マップPM1に含まれる各点P1を第1点P11、第2点P12、第3点P13及び第4点P14に分類して説明を行う。第1点P11は、あおり17にレーザーが照射されることで得られた点P1である。第2点P12は、運転席11にレーザーが照射されることで得られた点P1である。第3点P13は、積載面15に積載されているパレットPA1及び荷C1にレーザーが照射されることで得られた点P1である。第4点P14は、第1点P11、第2点P12及び第3点P13のいずれにも該当しない点P1である。 FIG. 5 shows a point cloud map PM1 obtained by the process of step S1. Each point P1 included in the point cloud map PM1 represents the map coordinates of an object. For convenience of explanation, the explanation will be given by classifying each point P1 included in the point cloud map PM1 into a first point P11, a second point P12, a third point P13, and a fourth point P14. The first point P11 is a point P1 obtained by irradiating the tilt 17 with a laser. The second point P12 is a point P1 obtained by irradiating the driver's seat 11 with a laser. The third point P13 is a point P1 obtained by irradiating the pallet PA1 and the load C1 loaded on the loading surface 15 with a laser. The fourth point P14 is a point P1 that does not correspond to any of the first point P11, the second point P12, and the third point P13.

図4及び図6に示すように、ステップS2において、制御装置52は、点群マップPM1から側面図IM1を作成する。側面図IM1は、点P1を搬送車両10の車幅方向に投影した図である。これにより、点群マップPM1を2次元にすることができるため、側面図IM1を画像データとして扱うことができる。側面図IM1は、パレットPA1の側面図ともいえる。側面図IM1を作成する際に制御装置52が行う処理の一例を説明する。 As shown in FIGS. 4 and 6, in step S2, the control device 52 creates a side view IM1 from the point cloud map PM1. Side view IM1 is a diagram in which point P1 is projected in the vehicle width direction of transport vehicle 10. As a result, the point cloud map PM1 can be made two-dimensional, so that the side view IM1 can be treated as image data. The side view IM1 can also be said to be a side view of the pallet PA1. An example of processing performed by the control device 52 when creating the side view IM1 will be described.

制御装置52は、各点P1の法線ベクトルを算出する。法線ベクトルは、複数の点P1に囲まれる平面に対して垂直な方向に向けたベクトルである。法線ベクトルを導出する手法としては各点P1から曲面を求め、曲面から各点P1の法線ベクトルを導出する手法や、ベクトルの外積を用いる手法を挙げることができる。例えば、制御装置52が、1つの点P1の法線ベクトルを求める場合、この点P1から所定範囲内に位置する2つの点P1のそれぞれに向かうベクトルの外積を求める。この外積が法線ベクトルである。 The control device 52 calculates the normal vector of each point P1. The normal vector is a vector directed in a direction perpendicular to the plane surrounded by the plurality of points P1. Examples of methods for deriving the normal vector include a method of finding a curved surface from each point P1 and deriving the normal vector of each point P1 from the curved surface, and a method of using the cross product of vectors. For example, when the control device 52 determines the normal vector of one point P1, it determines the cross product of vectors directed from this point P1 to each of two points P1 located within a predetermined range. This cross product is the normal vector.

制御装置52は、法線ベクトルの向きが水平方向である点P1を抽出する。例えば、制御装置52は、地図座標系のXY平面に対する法線ベクトルの角度が予め定められた範囲となるか否かを判定する。法線ベクトルの向きが水平方向の場合、法線ベクトルは地図座標系のXY平面に平行である。搬送車両10の傾きや測定誤差を考慮した上で、法線ベクトルの向きが水平方向とみなせる点P1を抽出できるように、予め定められた範囲を設定している。 The control device 52 extracts a point P1 whose normal vector is oriented in the horizontal direction. For example, the control device 52 determines whether the angle of the normal vector to the XY plane of the map coordinate system falls within a predetermined range. When the direction of the normal vector is horizontal, the normal vector is parallel to the XY plane of the map coordinate system. A predetermined range is set so that a point P1 where the direction of the normal vector can be regarded as horizontal can be extracted, taking into consideration the inclination of the transport vehicle 10 and measurement errors.

制御装置52は、法線ベクトルの向きが水平方向である点P1から平面方程式を導出する。平面方程式は、例えば、RANSAC(Random Sample Consensus)等のロバスト推定法や、最小二乗法を用いることで導出することができる。平面方程式で表される平面は、鉛直方向に拡がる面である。本実施形態の搬送車両10であれば、あおり17による第1点P11によって平面を得ることができる。また、荷取りを行う際には、搬送車両10にパレットPA1及び荷C1が積載されているため、パレットPA1や荷C1による第3点P13によって平面を得ることができる。 The control device 52 derives a plane equation from a point P1 whose normal vector is in the horizontal direction. The plane equation can be derived, for example, by using a robust estimation method such as RANSAC (Random Sample Consensus) or the least squares method. A plane represented by a plane equation is a plane that extends in the vertical direction. In the transport vehicle 10 of this embodiment, a flat surface can be obtained by the first point P11 caused by the tilt 17. Further, when picking up cargo, since the pallet PA1 and the cargo C1 are loaded on the transport vehicle 10, a flat surface can be obtained by the third point P13 of the pallet PA1 and the cargo C1.

制御装置52は、平面方程式で表される平面に垂直な方向に点P1を投影することで側面図IM1を作成する。この際、制御装置52は、平面方程式で表される平面から水平方向に所定範囲の点P1を投影することで側面図IM1を作成する。図1に示すように、搬送車両10には、搬送車両10の車幅方向に並んでパレットPA1が積載される場合がある。所定範囲PT1は、搬送車両10の車幅方向に並ぶパレットPA1のうち荷役車両20からの距離が長いパレットPA1が含まれないように設定されている。所定範囲PT1は、搬送車両10の車幅方向に並ぶパレットPA1のうち荷役車両20からの距離が短いパレットPA1における荷役車両20に向かい合う面が含まれるように設定されている。荷役車両20が荷取りを行う際には、搬送車両10の車幅方向に並ぶパレットPA1のうち荷役車両20からの距離が短いパレットPA1の荷取りを行う。上記したように所定範囲PT1を設定することで、荷役車両20の荷取り対象とならないパレットPA1を除外した側面図IM1を得ることができる。 The control device 52 creates a side view IM1 by projecting a point P1 in a direction perpendicular to a plane expressed by a plane equation. At this time, the control device 52 creates a side view IM1 by projecting points P1 in a predetermined range in the horizontal direction from a plane expressed by a plane equation. As shown in FIG. 1, pallets PA1 may be loaded on the transport vehicle 10 in a line in the width direction of the transport vehicle 10. The predetermined range PT1 is set so that among the pallets PA1 lined up in the vehicle width direction of the transport vehicle 10, a pallet PA1 having a long distance from the cargo handling vehicle 20 is not included. The predetermined range PT1 is set to include the surface facing the cargo handling vehicle 20 of the pallet PA1 that is shorter in distance from the cargo handling vehicle 20 among the pallets PA1 lined up in the vehicle width direction of the transport vehicle 10. When the cargo handling vehicle 20 picks up cargo, it picks up the pallet PA1 that is the shortest distance from the cargo handling vehicle 20 among the pallets PA1 lined up in the vehicle width direction of the transport vehicle 10. By setting the predetermined range PT1 as described above, it is possible to obtain the side view IM1 excluding the pallet PA1 that is not to be picked up by the cargo handling vehicle 20.

図4及び図6に示すように、次に、ステップS3において、制御装置52は、パレットPA1の位置、及びパレットPA1の個数を検出する。パレットPA1の位置は、荷役車両20の荷取り対象となるパレットPA1の位置である。パレットPA1の個数は、荷役車両20の荷取り対象となるパレットPA1の個数である。パレットPA1の位置は、地図座標系でのパレットPA1の座標である。パレットPA1の位置は、側面図IM1でのパレットPA1の座標を地図座標系の座標に変換することで得ることができる。以下、詳細に説明を行う。 As shown in FIGS. 4 and 6, next, in step S3, the control device 52 detects the position of pallet PA1 and the number of pallets PA1. The position of pallet PA1 is the position of pallet PA1 that is to be picked up by cargo handling vehicle 20. The number of pallets PA1 is the number of pallets PA1 to be picked up by the cargo handling vehicle 20. The position of pallet PA1 is the coordinate of pallet PA1 in the map coordinate system. The position of pallet PA1 can be obtained by converting the coordinates of pallet PA1 in side view IM1 to coordinates in the map coordinate system. A detailed explanation will be given below.

制御装置52は、側面図IM1からパレットPA1を抽出することによって側面図IM1でのパレットPA1の位置を判定する。側面図IM1でのパレットPA1の位置は、画像座標系によって表すことができる。画像座標系は、側面図IM1の横方向をX軸、縦方向をY軸とする座標系である。パレットPA1の位置の判定は、画像認識を用いて行われる。本実施形態では、第1画像認識モデルD2を用いて画像認識を行う場合について説明を行うが、画像認識は、パターンマッチングによって行われてもよい。 Control device 52 determines the position of pallet PA1 in side view IM1 by extracting pallet PA1 from side view IM1. The position of pallet PA1 in side view IM1 can be represented by an image coordinate system. The image coordinate system is a coordinate system in which the horizontal direction of the side view IM1 is the X axis, and the vertical direction is the Y axis. The position of pallet PA1 is determined using image recognition. In this embodiment, a case will be described in which image recognition is performed using the first image recognition model D2, but image recognition may also be performed by pattern matching.

第1画像認識モデルD2は、機械学習によって生成された学習済みモデルである。第1画像認識モデルD2は、領域単位で物体のクラスを判定することができるアルゴリズムを用いている。クラスとしては、「パレット」が設定されている。機械学習のアルゴリズムとしては、例えば、SSD(Single Shot Multibox Detector)、R-CNN(Regional Convolutional Neural Network)、fast R-CNN、faster R-CNN、及びYOLO(You Only Look Once)を挙げることができる。第1画像認識モデルD2は、教師データを用いた教師有り学習、あるいは、半教師有り学習によって生成されている。教師データとしては、クラスに該当する物体が含まれる画像データと、画像データ中の物体の位置と、ラベルと、を含むデータが用いられる。教師データは、例えば、画像データ中の物体を枠で囲み、画像データにラベルを付すことで生成することができる。本実施形態では、画像データのパレットPA1を枠で囲み、当該画像データに「パレット」のラベルを付したものを教師データとすればよい。教師データとして用いる画像データは、側面図IM1と同様に点群マップPM1から得られたものであってもよいし、撮像装置による撮像によって得られたものであってもよい。 The first image recognition model D2 is a learned model generated by machine learning. The first image recognition model D2 uses an algorithm that can determine the class of an object on a region-by-region basis. "Palette" is set as a class. Examples of machine learning algorithms include SSD (Single Shot Multibox Detector), R-CNN (Regional Convolutional Neural Network), fast R-CNN, faster R-CNN, and YOLO (You Only Look Once). . The first image recognition model D2 is generated by supervised learning using teacher data or semi-supervised learning. As the teacher data, data including image data including an object corresponding to a class, the position of the object in the image data, and a label is used. The teacher data can be generated, for example, by surrounding an object in image data with a frame and attaching a label to the image data. In this embodiment, the image data palette PA1 may be surrounded by a frame and the image data labeled "palette" may be used as the teacher data. The image data used as the teacher data may be obtained from the point cloud map PM1 similarly to the side view IM1, or may be obtained by imaging with an imaging device.

第1画像認識モデルD2は、入力された側面図IM1からパレットPA1が含まれる領域を特定する。パレットPA1が含まれる領域は、バウンディングボックスB1,B2で表される。図6に示す例では、側面図IM1から2つのバウンディングボックスB1,B2が抽出される。バウンディングボックスB1,B2は、第3点P13で表されるパレットPA1を囲んでいる。バウンディングボックスB1,B2の数は、パレットPA1の数を表している。側面図IM1中のバウンディングボックスB1,B2の位置は、画像座標系でのパレットPA1の位置を表している。側面図IM1は、地図座標系の点P1を投影して作成されているため、側面図IM1を構成する点P1には地図座標系の座標が対応付けられている。制御装置52は、側面図IM1でのパレットPA1の位置から地図座標系でのパレットPA1の位置を検出することができる。側面図IM1は、点群データから作成されているため、制御装置52は、点群データからパレットPA1の位置、及びパレットPA1の個数を検出しているといえる。 The first image recognition model D2 specifies the area including the pallet PA1 from the input side view IM1. The area including palette PA1 is represented by bounding boxes B1 and B2. In the example shown in FIG. 6, two bounding boxes B1 and B2 are extracted from the side view IM1. The bounding boxes B1 and B2 surround the palette PA1 represented by the third point P13. The numbers of bounding boxes B1 and B2 represent the number of pallets PA1. The positions of bounding boxes B1 and B2 in side view IM1 represent the position of pallet PA1 in the image coordinate system. Since the side view IM1 is created by projecting the point P1 of the map coordinate system, the coordinates of the map coordinate system are associated with the points P1 forming the side view IM1. The control device 52 can detect the position of the pallet PA1 in the map coordinate system from the position of the pallet PA1 in the side view IM1. Since the side view IM1 is created from point cloud data, it can be said that the control device 52 detects the position of pallet PA1 and the number of pallets PA1 from the point cloud data.

次に、ステップS4において、制御装置52は、側面図IM1での運転席11の位置を判定する。側面図IM1での運転席11の位置の判定は、画像認識を用いて行われる。本実施形態では、第2画像認識モデルD3を用いて画像認識を行う場合について説明を行うが、画像認識は、パターンマッチングによって行われてもよい。 Next, in step S4, the control device 52 determines the position of the driver's seat 11 in the side view IM1. The position of the driver's seat 11 in the side view IM1 is determined using image recognition. In this embodiment, a case will be described in which image recognition is performed using the second image recognition model D3, but image recognition may also be performed by pattern matching.

第2画像認識モデルD3は、機械学習によって生成された学習済みモデルである。第2画像認識モデルD3は、第1画像認識モデルD2と同様の手法によって生成されている。第2画像認識モデルD3では、クラスとして「運転席」が設定されている。これにより、第2画像認識モデルD3は、入力された側面図IM1から運転席11が含まれる領域を特定する。図6に示す例では、側面図IM1からバウンディングボックスB3が抽出される。図6に示す例では、第2点P12で表される運転席11がバウンディングボックスB3で囲まれている。バウンディングボックスB3は、側面図IM1での運転席11の位置を表している。 The second image recognition model D3 is a learned model generated by machine learning. The second image recognition model D3 is generated using the same method as the first image recognition model D2. In the second image recognition model D3, "driver's seat" is set as the class. Thereby, the second image recognition model D3 specifies the region including the driver's seat 11 from the input side view IM1. In the example shown in FIG. 6, a bounding box B3 is extracted from the side view IM1. In the example shown in FIG. 6, the driver's seat 11 represented by the second point P12 is surrounded by a bounding box B3. Bounding box B3 represents the position of driver's seat 11 in side view IM1.

次に、ステップS5において、制御装置52は、荷取りするパレットPA1を決定する。パレットPA1が複数存在する場合、制御装置52は、最初に荷取りするパレットPA1を決定するといえる。荷役車両20が荷取りを行う際には、搬送車両10の後方から前方に向けて搬送車両10の荷台14に積載されたパレットPA1を順次、取っていく。制御装置52は、運転席11から最も離れたパレットPA1を最初に荷取りするパレットPA1であると判定する。本実施形態であれば、バウンディングボックスB1で表されるパレットPA1が最初に荷取りされるパレットPA1である。バウンディングボックスB2で表されるパレットPA1が2番目に荷取りされるパレットPA1である。 Next, in step S5, the control device 52 determines the pallet PA1 to be picked up. If there are multiple pallets PA1, it can be said that the control device 52 determines the pallet PA1 to be picked up first. When the cargo handling vehicle 20 picks up cargo, it sequentially picks up the pallets PA1 loaded on the loading platform 14 of the carrier vehicle 10 from the rear to the front of the carrier vehicle 10. The control device 52 determines that the pallet PA1 farthest from the driver's seat 11 is the pallet PA1 to be picked up first. In this embodiment, the pallet PA1 represented by the bounding box B1 is the pallet PA1 to be picked up first. The pallet PA1 represented by the bounding box B2 is the second pallet PA1 to be picked up.

次に、ステップS6において、制御装置52は、パレットPA1の地図座標系での座標、即ち、パレットPA1の位置を車両制御装置56に送信する。制御装置52は、最初に荷取りをするパレットPA1の位置のみを車両制御装置56に送信するようにしてもよい。制御装置52は、検出された全てのパレットPA1の位置を車両制御装置56に送信してもよい。 Next, in step S6, the control device 52 transmits the coordinates of the pallet PA1 in the map coordinate system, that is, the position of the pallet PA1 to the vehicle control device 56. The control device 52 may transmit only the position of the pallet PA1 to be picked up first to the vehicle control device 56. The control device 52 may transmit the detected positions of all pallets PA1 to the vehicle control device 56.

ステップS6の処理と終えると、制御装置52は、パレット検出制御を終了する。
車両制御装置56は、制御装置52から送信されたパレットPA1の位置に応じて走行アクチュエータ59を制御する。車両制御装置56は、最初に荷取りを行うパレットPA1までの経路を生成する。この際、車両制御装置56は、パレットPA1よりも所定距離手前のアプローチ開始位置までの経路を生成する。所定距離としては、カメラ61によってパレットPA1を撮像できるような距離に設定される。車両制御装置56は、経路に追従して荷役車両20が移動するように走行アクチュエータ59を制御する。荷役車両20がアプローチ開始位置に到達すると、車両制御装置56は、カメラ61の撮像によって得られる画像データによってパレットPA1の位置を確認しつつ荷役車両20をパレットPA1に近付けていく。荷役車両20がパレットPA1の荷取りを行う位置にまで到達すると、車両制御装置56は、荷役アクチュエータ60を制御することによって荷取りを行う。車両制御装置56は、カメラ61の撮像によって得られる画像データによってパレットPA1の位置を確認しつつ、パレットPA1に合わせてフォーク30の位置を調整する。これにより、荷役車両20が荷取りを行うことができる。
After completing the process of step S6, the control device 52 ends the pallet detection control.
Vehicle control device 56 controls travel actuator 59 according to the position of pallet PA1 transmitted from control device 52. The vehicle control device 56 generates a route to the pallet PA1 from which cargo is to be picked up first. At this time, the vehicle control device 56 generates a route to the approach start position a predetermined distance before the pallet PA1. The predetermined distance is set to a distance that allows the camera 61 to image the pallet PA1. The vehicle control device 56 controls the travel actuator 59 so that the cargo handling vehicle 20 moves following the route. When the cargo handling vehicle 20 reaches the approach start position, the vehicle control device 56 moves the cargo handling vehicle 20 closer to the pallet PA1 while confirming the position of the pallet PA1 using image data obtained by imaging with the camera 61. When the cargo handling vehicle 20 reaches the position where the pallet PA1 is to be picked up, the vehicle control device 56 controls the cargo handling actuator 60 to pick up the cargo. The vehicle control device 56 adjusts the position of the fork 30 in accordance with the pallet PA1 while confirming the position of the pallet PA1 based on image data obtained by imaging with the camera 61. Thereby, the cargo handling vehicle 20 can pick up the cargo.

[本実施形態の効果]
(1)制御装置52は、点群データからパレットPA1の位置を検出することができる。これにより、制御装置52は、荷取りするパレットPA1を決定することができる。
[Effects of this embodiment]
(1) The control device 52 can detect the position of the pallet PA1 from point cloud data. Thereby, the control device 52 can determine the pallet PA1 to be picked up.

(2)制御装置52は、点群データからパレットPA1の位置を検出できる。これにより、車両制御装置56がパレットPA1に向かう経路を生成することができる。アプローチ開始位置からパレットPA1の荷取りを行う位置まで荷役車両20を移動させる際には、カメラ61を用いる。カメラ61の検知範囲は限られているため、アプローチ開始位置まで精度良く荷役車両20を移動させることが求められる。点群データからパレットPA1の位置を検出して経路を生成することによって、アプローチ開始位置まで精度良く荷役車両20を移動させることができる。 (2) The control device 52 can detect the position of the pallet PA1 from point cloud data. This allows vehicle control device 56 to generate a route toward pallet PA1. The camera 61 is used when the cargo handling vehicle 20 is moved from the approach start position to the position where the pallet PA1 is picked up. Since the detection range of the camera 61 is limited, it is required to accurately move the cargo handling vehicle 20 to the approach start position. By detecting the position of pallet PA1 from point cloud data and generating a route, cargo handling vehicle 20 can be accurately moved to the approach start position.

また、予め経路を設定することによって、パレットPA1の荷取りを行う位置まで荷役車両20を移動させることも考えられる。しかしながら、この場合、搬送車両10のサイズ、パレットPA1のサイズ、及びパレットPA1の種類毎に経路を設定する必要があり、工数が膨大になる。これに対し、点群データからパレットPA1の位置を検出して経路を生成することによって、パレットPA1の位置に応じた経路を生成することができる。このため、予め経路を設定する必要がなくなる。 It is also conceivable to move the cargo handling vehicle 20 to a position where the pallet PA1 is to be picked up by setting a route in advance. However, in this case, it is necessary to set a route for each size of transport vehicle 10, size of pallet PA1, and type of pallet PA1, resulting in an enormous amount of man-hours. On the other hand, by detecting the position of pallet PA1 from point cloud data and generating a route, it is possible to generate a route according to the position of pallet PA1. Therefore, there is no need to set a route in advance.

(3)制御装置52は、側面図IM1から画像認識によってパレットPA1の位置、及びパレットPA1の個数を検出している。点群データを側面図IM1にすることによって側面図IM1を画像データとして扱うことができる。これにより、制御装置52は、画像認識によって側面図IM1でのパレットPA1の位置、及びパレットPA1の個数を検出できる。そして、側面図IM1でのパレットPA1の位置から、地図座標系でのパレットPA1の位置を検出することができる。 (3) The control device 52 detects the position of the pallet PA1 and the number of pallets PA1 from the side view IM1 by image recognition. By converting the point cloud data into the side view IM1, the side view IM1 can be treated as image data. Thereby, the control device 52 can detect the position of the pallet PA1 in the side view IM1 and the number of pallets PA1 by image recognition. Then, the position of pallet PA1 in the map coordinate system can be detected from the position of pallet PA1 in side view IM1.

(4)制御装置52は、側面図IM1から画像認識によって運転席11を抽出している。荷役車両20が荷取りを行う際には、搬送車両10の後方から前方に向けて搬送車両10の荷台14に積載された荷C1を順次、取っていく。搬送車両10の運転席11は搬送車両10の前方に位置しているため、搬送車両10の運転席11を抽出することによって、運転席11から最も離れたパレットPA1を最初に荷取りするパレットPA1であると決定することができる。 (4) The control device 52 extracts the driver's seat 11 from the side view IM1 by image recognition. When the cargo handling vehicle 20 picks up cargo, it sequentially picks up the cargo C1 loaded on the loading platform 14 of the carrier vehicle 10 from the rear to the front of the carrier vehicle 10. Since the driver's seat 11 of the transport vehicle 10 is located in the front of the transport vehicle 10, by extracting the driver's seat 11 of the transport vehicle 10, the pallet PA1 that is farthest from the driver's seat 11 is selected as the pallet PA1 to be loaded first. It can be determined that

(5)自己位置の推定に用いている外界センサ51を用いてパレットPA1の位置、及びパレットPA1の個数を検出することができる。パレットPA1の位置、及びパレットPA1の個数を検出するための専用のセンサを用いる場合に比べて、部品点数を削減できる。 (5) The position of pallet PA1 and the number of pallets PA1 can be detected using the external sensor 51 used to estimate the self-position. The number of parts can be reduced compared to the case where dedicated sensors are used to detect the position of pallet PA1 and the number of pallets PA1.

[変更例]
実施形態は、以下のように変更して実施することができる。実施形態及び以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
[Example of change]
The embodiment can be modified and implemented as follows. The embodiments and the following modification examples can be implemented in combination with each other within a technically consistent range.

○制御装置52は、点群マップPM1からパレットPA1の位置、及びパレットPA1の個数を検出してもよい。この場合、例えば、パレットPA1を表す3次元データの特徴を学習したモデルにより、点群マップPM1からパレットPA1の位置、及びパレットPA1の個数を検出する。 The control device 52 may detect the position of the pallet PA1 and the number of pallets PA1 from the point cloud map PM1. In this case, for example, the position of pallet PA1 and the number of pallets PA1 are detected from point cloud map PM1 using a model that has learned the characteristics of three-dimensional data representing pallet PA1.

○ステップS3において、制御装置52は、パレットPA1の位置を検出できればよく、パレットPA1の個数を検出しなくてもよい。
○制御装置52は、点群マップPM1を作成しなくてもよい。この場合、制御装置52は、外界センサ51から取得した点群データを地図座標に変換して、ステップS2以降の処理を行う。即ち、制御装置52は、複数の点群データを集合させた点群マップPM1を作成せずに、単一の点群データからパレットPA1の位置、及びパレットPA1の個数を検出してもよい。
In step S3, the control device 52 only needs to be able to detect the position of the pallet PA1, and does not need to detect the number of pallets PA1.
- The control device 52 does not need to create the point cloud map PM1. In this case, the control device 52 converts the point cloud data acquired from the external sensor 51 into map coordinates, and performs the processing from step S2 onwards. That is, the control device 52 may detect the position of the pallet PA1 and the number of pallets PA1 from a single point cloud data without creating the point cloud map PM1 that is a collection of a plurality of point cloud data.

○車両制御装置56は、荷役車両20がパレットPA1の荷取りを行う位置までの経路を生成してもよい。この場合、カメラ61の撮像によって得られる画像データは、フォーク30の位置を調整するために用いられる。 The vehicle control device 56 may generate a route to the position where the cargo handling vehicle 20 picks up the pallet PA1. In this case, image data obtained by imaging with the camera 61 is used to adjust the position of the fork 30.

○制御装置52は、パレットPA1の水平方向に隣り合う空間が存在する場合、当該パレットPA1を最初に荷取りするパレットPA1であると判定してもよい。最初に荷取りするパレットPA1は、搬送車両10の後方向に隣り合うパレットPA1が存在しない。このため、最初に荷取りするパレットPA1には、水平方向に隣り合って閾値以上の空間が存在する。この空間を検出することで最初に荷取りするパレットPA1を判定することができる。隣り合うパレットPA1同士の間に緩衝材が存在する場合、緩衝材の厚みを考慮して閾値が設定される。隣り合うパレットPA1同士の間に緩衝材が存在しない場合、パレットPA1の幅に基づいて閾値を設定してもよい。例えば、パレットPA1の幅の半分の寸法を閾値としてもよい。制御装置52は、側面図IM1から空間を検出してもよいし、点群マップPM1から空間を検出してもよい。空間には点P1が存在しないため、制御装置52は、点P1の有無によって空間を検出することができる。 If there is a space adjacent to the pallet PA1 in the horizontal direction, the control device 52 may determine that the pallet PA1 is the pallet PA1 to be picked up first. Regarding the pallet PA1 to be picked up first, there is no adjacent pallet PA1 in the rear direction of the transport vehicle 10. Therefore, on the pallet PA1 to be picked up first, there is a space that is equal to or larger than the threshold value and is adjacent to the pallet PA1 in the horizontal direction. By detecting this space, it is possible to determine which pallet PA1 is to be picked up first. When a cushioning material exists between adjacent pallets PA1, the threshold value is set in consideration of the thickness of the cushioning material. If there is no cushioning material between adjacent pallets PA1, the threshold value may be set based on the width of pallet PA1. For example, the threshold value may be half the width of the pallet PA1. The control device 52 may detect the space from the side view IM1 or may detect the space from the point cloud map PM1. Since the point P1 does not exist in the space, the control device 52 can detect the space depending on the presence or absence of the point P1.

○第2画像認識モデルD3として、側面図IM1単位で物体のクラスを判定することができるアルゴリズムを用いてもよい。この場合、クラスとして「右向き」及び「左向き」を設定すればよい。機械学習のアルゴリズムとしては、例えば、CNN(Convolution Neural Network)を挙げることができる。教師データとしては、右向きの搬送車両10が写る画像データに「右向き」のラベルを付したデータと、左向きの搬送車両10が写る画像データに「左向き」のラベルを付したデータとを用いればよい。 As the second image recognition model D3, an algorithm that can determine the class of an object for each side view IM1 may be used. In this case, "rightward" and "leftward" may be set as the classes. An example of a machine learning algorithm is CNN (Convolution Neural Network). As the training data, it is sufficient to use image data in which the conveyance vehicle 10 facing right is labeled as "facing right" and image data in which the conveyance vehicle 10 facing left is labeled as "facing left". .

制御装置52は、第2画像認識モデルD3に側面図IM1を入力することによって、側面図IM1に写る搬送車両10が右向きか左向きかを判定する。制御装置52は、搬送車両10が右向きの場合、画像座標系で最も左に位置するパレットPA1を荷取りするパレットPA1であると決定する。制御装置52は、搬送車両10が左向きの場合、画像座標系で最も右に位置するパレットPA1を荷取りするパレットPA1であると決定する。 The control device 52 inputs the side view IM1 to the second image recognition model D3 to determine whether the conveyance vehicle 10 shown in the side view IM1 is facing right or left. When the conveyance vehicle 10 is facing right, the control device 52 determines that the pallet PA1 located furthest to the left in the image coordinate system is the pallet PA1 to be picked up. When the conveyance vehicle 10 is facing left, the control device 52 determines that the pallet PA1 located furthest to the right in the image coordinate system is the pallet PA1 to be picked up.

○搬送車両10の停車向きが一定の場合、パレットPA1の地図座標から荷取りするパレットPA1を決定してもよい。搬送車両10の停車向きが一定の場合、搬送車両10の後方に積載されたパレットPA1ほど、地図座標系の水平方向の座標が大きくなる、あるいは、小さくなる。搬送車両10の後方に積載されたパレットPA1ほど、地図座標系の水平方向の座標が大きくなるか小さくなるかは、地図座標系の原点と搬送車両10との位置関係によって異なる。制御装置52は、地図座標の大小から荷取りするパレットPA1を決定することができる。例えば、搬送車両10の後方に積載されたパレットPA1ほど、地図座標系のX座標が大きくなる場合、制御装置52は、地図座標系のX座標が最大のパレットPA1を荷取りするパレットPA1であると決定することができる。 If the direction in which the transport vehicle 10 stops is fixed, the pallet PA1 to be picked up may be determined from the map coordinates of the pallet PA1. When the direction in which the conveyance vehicle 10 is stopped is constant, the farther back the pallet PA1 is loaded on the conveyance vehicle 10, the larger or smaller the coordinates in the horizontal direction of the map coordinate system. Whether the horizontal coordinates of the map coordinate system become larger or smaller as the pallet PA1 is loaded further back on the transport vehicle 10 depends on the positional relationship between the origin of the map coordinate system and the transport vehicle 10. The control device 52 can determine the pallet PA1 to be picked up based on the size of the map coordinates. For example, if the pallet PA1 loaded at the rear of the transport vehicle 10 has a larger X coordinate in the map coordinate system, the control device 52 selects the pallet PA1 that picks up the pallet PA1 with the largest X coordinate in the map coordinate system. can be determined.

○パレット検出制御の一部の処理を車両制御装置56が行ってもよい。この場合、車両制御装置56も制御装置といえる。
○パレット検出制御の一部の処理を荷役車両20に指令を与える上位制御装置が行ってもよい。この場合、上位制御装置も制御装置といえる。パレット検出制御の全部の処理を荷役車両20に指令を与える上位制御装置が行ってもよい。この場合、上位制御装置が制御装置である。このように、パレット検出制御の少なくとも一部の処理を上位制御装置に行わせる場合、制御装置52は、無線通信によって上位制御装置に処理に必要となるデータを送信する。例えば、パレット検出制御の全ての処理を上位制御装置に行わせる場合、制御装置52は、点群データを上位制御装置に送信する。上位制御装置は、パレット検出制御を行うことによって得られた結果を制御装置52に無線通信によって送信する。上位制御装置は、例えば、区域A1に設けられる。この場合、荷役車両20と上位制御装置とで荷役システムが構成される。
The vehicle control device 56 may perform part of the pallet detection control. In this case, the vehicle control device 56 can also be said to be a control device.
A part of the pallet detection control may be performed by a host control device that issues commands to the cargo handling vehicle 20. In this case, the higher-level control device can also be said to be a control device. A host control device that issues commands to the cargo handling vehicle 20 may perform all of the pallet detection control processing. In this case, the higher-level control device is the control device. In this way, when the higher-level control device performs at least part of the processing of the pallet detection control, the control device 52 transmits data necessary for the processing to the higher-level control device by wireless communication. For example, when the higher-level control device performs all processing of pallet detection control, the control device 52 transmits point cloud data to the higher-level control device. The upper control device transmits the results obtained by performing the pallet detection control to the control device 52 by wireless communication. The upper control device is provided in area A1, for example. In this case, a cargo handling system is configured by the cargo handling vehicle 20 and the higher-level control device.

○荷役車両20は、棚や地面に置かれたパレットPA1の荷取りを行ってもよい。
○搬送車両10は、搬送を行える車両であればよく、例えば、AGV(Automatic Guided Vehicle)やAMR(Autonomous Mobile Robot)であってもよい。
- The cargo handling vehicle 20 may pick up the pallet PA1 placed on a shelf or on the ground.
The transport vehicle 10 may be any vehicle that can perform transport, and may be, for example, an AGV (Automatic Guided Vehicle) or an AMR (Autonomous Mobile Robot).

○荷役車両20は、フォーク30の位置を調整するためのセンサとして、カメラ61に代えてレーザー距離計を備えていてもよい。
○荷役装置24は、例えば、ロボットアームを備えているものであってもよい。
The cargo handling vehicle 20 may be equipped with a laser distance meter instead of the camera 61 as a sensor for adjusting the position of the fork 30.
The cargo handling device 24 may be equipped with a robot arm, for example.

P1…点、PA1…パレット、10…搬送車両、11…運転席、20…荷役システムである荷役車両、24…荷役装置、51…外界センサ、52…制御装置。 P1... point, PA1... pallet, 10... transport vehicle, 11... driver's seat, 20... cargo handling vehicle which is a cargo handling system, 24... cargo handling device, 51... external world sensor, 52... control device.

Claims (3)

3次元座標系の座標で物体の位置を検出する外界センサ、及び荷役装置を備える荷役車両と、
制御装置と、を備える荷役システムであって、
前記制御装置は、
前記物体の位置を表した点の集合である点群データから、パレットの位置を検出し、
荷取りする前記パレットを決定する、荷役システム。
A cargo handling vehicle equipped with an external sensor that detects the position of an object using coordinates in a three-dimensional coordinate system, and a cargo handling device;
A cargo handling system comprising a control device,
The control device includes:
Detecting the position of the pallet from point cloud data, which is a set of points representing the position of the object,
A cargo handling system that determines the pallet to be picked up.
前記制御装置は、
前記点群データから前記パレットの側面図を作成し、
前記側面図から画像認識によって前記パレットを抽出することによって前記パレットの位置、及び前記パレットの個数を検出する、請求項1に記載の荷役システム。
The control device includes:
creating a side view of the pallet from the point cloud data;
The cargo handling system according to claim 1, wherein the position of the pallet and the number of the pallets are detected by extracting the pallet from the side view by image recognition.
前記制御装置は、
前記側面図から画像認識によって前記パレットを積載した搬送車両の運転席を抽出し、
前記運転席から最も離れた前記パレットを荷取りする前記パレットであると決定する、請求項2に記載の荷役システム。
The control device includes:
Extracting the driver's seat of the transport vehicle loaded with the pallet from the side view by image recognition,
The cargo handling system according to claim 2, wherein the pallet farthest from the driver's seat is determined to be the pallet to be picked up.
JP2022074615A 2022-04-28 2022-04-28 Cargo handling system Pending JP2023163605A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022074615A JP2023163605A (en) 2022-04-28 2022-04-28 Cargo handling system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022074615A JP2023163605A (en) 2022-04-28 2022-04-28 Cargo handling system

Publications (1)

Publication Number Publication Date
JP2023163605A true JP2023163605A (en) 2023-11-10

Family

ID=88651977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022074615A Pending JP2023163605A (en) 2022-04-28 2022-04-28 Cargo handling system

Country Status (1)

Country Link
JP (1) JP2023163605A (en)

Similar Documents

Publication Publication Date Title
JP6492024B2 (en) Moving body
JP6825712B2 (en) Mobiles, position estimators, and computer programs
Baglivo et al. Autonomous pallet localization and picking for industrial forklifts: a robust range and look method
US20210087031A1 (en) Autonomous material transport vehicles, and systems and methods of operating thereof
JP7469494B2 (en) Method for controlling an automated guided vehicle and a control system configured to carry out said method - Patents.com
US20210072770A1 (en) Multi-sensor-based unmanned aerial vehicle and method for controlling same
US20210101747A1 (en) Positioning apparatus capable of measuring position of moving body using image capturing apparatus
US11537140B2 (en) Mobile body, location estimation device, and computer program
KR102300596B1 (en) Method for narrow lane driving of autonomous forklift and apparatus for the same
US20220413508A1 (en) Method for controlling a vehicle in a depot, travel control unit, and vehicle having said travel control unit
Behrje et al. An autonomous forklift with 3d time-of-flight camera-based localization and navigation
US20230419531A1 (en) Apparatus and method for measuring, inspecting or machining objects
WO2019194079A1 (en) Position estimation system, moving body comprising said position estimation system, and computer program
KR102564663B1 (en) Coordinates recognition apparatus of automatic guided vehicle and method thereof
US20230068916A1 (en) Forklift and stowage position detecting method for forklift
US20220404495A1 (en) Detection system, processing apparatus, movement object, detection method, and non-transitory computer-readable storage medium
JP7081560B2 (en) Forklift and container attitude detection method
JP2023163605A (en) Cargo handling system
JP7363705B2 (en) Cargo handling system
JP2023163604A (en) Cargo handling system
Joo et al. A pallet recognition and rotation algorithm for autonomous logistics vehicle system of a distribution center
Cherubini et al. A redundancy-based approach for visual navigation with collision avoidance
WO2024024146A1 (en) Movement control method, program, and movement control system
US11892852B2 (en) Information processing apparatus and information processing method
JP6687313B1 (en) Transport system