JP7318892B2 - self-driving forklift - Google Patents

self-driving forklift Download PDF

Info

Publication number
JP7318892B2
JP7318892B2 JP2020138186A JP2020138186A JP7318892B2 JP 7318892 B2 JP7318892 B2 JP 7318892B2 JP 2020138186 A JP2020138186 A JP 2020138186A JP 2020138186 A JP2020138186 A JP 2020138186A JP 7318892 B2 JP7318892 B2 JP 7318892B2
Authority
JP
Japan
Prior art keywords
fork
dimensional
sensor
pallet
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020138186A
Other languages
Japanese (ja)
Other versions
JP2022034408A (en
Inventor
ジャージュン ルー
智広 鈴木
良平 悦喜
パウロ モラレス
ジョゼ フェリクス ラデイアロドリゲス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZMP Inc
Original Assignee
ZMP Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZMP Inc filed Critical ZMP Inc
Priority to JP2020138186A priority Critical patent/JP7318892B2/en
Publication of JP2022034408A publication Critical patent/JP2022034408A/en
Application granted granted Critical
Publication of JP7318892B2 publication Critical patent/JP7318892B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Description

本発明は、例えば物流倉庫等の広大な施設内で、所定位置に配置されたパレット等の位置を自動認識してパレット上に載置された荷物等の搬送を容易に行なうための自動運転フォークリフトに関するものである。 The present invention is an automatic operation forklift that automatically recognizes the position of a pallet or the like placed at a predetermined position in a vast facility such as a distribution warehouse and facilitates the transportation of cargo or the like placed on the pallet. It is about.

従来、物流倉庫等の広大な施設においては、商品等をパレット上に積載した状態で所定箇所に保管しており、商品等の搬入搬出はパレット上に積載したままの状態でフォークリフトを使用してパレットを移動させる。近年の物流業界での各種作業の自動化が進むにつれて、フォークリフトによる荷捌き作業も自動化が期待されており、種々の自動運転フォークリフトか提案又は開発されている。 Conventionally, in vast facilities such as distribution warehouses, products are loaded on pallets and stored in designated locations, and forklifts are used to load and unload products while they are still on pallets. Move pallets. As automation of various kinds of work in the logistics industry progresses in recent years, automation of unloading work by forklifts is expected, and various automatically operated forklifts have been proposed or developed.

自動運転フォークリフトにおいては、パレット及びそのフォークを挿入すべき開口部の形状の自動認識が重要である。しかしながら、パレットは例えば日差しの強い屋外に配置されあるいは倉庫の奥深く暗い場所に配置されることもあり、またパレット自体がプラスチック材料や木材から構成されているため自動認識が容易でない。 Automatic recognition of the shape of the opening into which the pallet and its forks are to be inserted is important for an automatically operating forklift. However, the pallets may be placed, for example, outdoors in strong sunlight or in deep dark places in warehouses, and the pallets themselves are made of plastic material or wood, so automatic recognition is not easy.

例えばTOFカメラ等の三次元画像によるパレットの自動認識は、黒い対象物や日光が当たる面の検出には適しているとはいえず、パレットの検出精度が大きく低下してしまう。また、例えばカメラの撮像画像によるパレットの自動認識は、物体表面のテクスチャや環境光等の影響を受けやすく、照明が暗いと物体の認識を行なうことができない。従って、このような環境下でもパレットを確実に認識することが求められる。 For example, automatic pallet recognition using a three-dimensional image such as a TOF camera is not suitable for detecting a black object or a surface exposed to sunlight, and the pallet detection accuracy is greatly reduced. Further, for example, the automatic recognition of a palette based on an image captured by a camera is susceptible to the texture of the object surface, ambient light, and the like, and the object cannot be recognized when the lighting is dark. Therefore, it is required to reliably recognize the pallet even in such an environment.

他方、二次元ライダーを使用したパレットの自動認識は、上述したテクスチャや環境光等の影響を受けにくいため有効ではあるが、三次元の環境情報を取得できない。 On the other hand, automatic pallet recognition using a two-dimensional lidar is effective because it is less susceptible to the above-described textures and ambient light, but cannot acquire three-dimensional environmental information.

このような構成のフォークリフトによれば、フォークの昇降動作によりレーザセンサの高さ位置を調整することでレーザセンサのスキャンによる二次元点群と高さ位置を組み合わせて三次元点群を取得し、荷又はパレットを認識するようになっている。 According to the forklift having such a configuration, the height position of the laser sensor is adjusted by moving the fork up and down, so that the two-dimensional point cloud obtained by scanning the laser sensor and the height position are combined to obtain a three-dimensional point cloud. It is designed to recognize loads or pallets.

これに対して、特許文献1には、フォークに取り付けられたレーザセンサである二次元センサを第一の方向に走査させると共に、フォークを昇降させることで前方に設定された空間内に存在する物体までの三次元距離データを計測して荷取り対象となる荷又はパレットの位置及び向きを特定し、特定した荷又はパレットの位置及び向きに基づいて算出される荷取り位置まで車体を移動させるための軌道データを生成するようにした、フォークリフトが開示されている。 On the other hand, in Patent Document 1, a two-dimensional sensor, which is a laser sensor attached to a fork, is scanned in a first direction, and the fork is raised and lowered to detect an object existing in a space set ahead. To specify the position and orientation of the cargo or pallet to be picked up by measuring the three-dimensional distance data to the vehicle, and move the vehicle to the unloading position calculated based on the specified location and orientation of the cargo or pallet. A forklift is disclosed that is adapted to generate trajectory data of .

特許第6469506号公報Japanese Patent No. 6469506

ところで、特許文献1によるフォークリフトにおいては、レーザセンサがフォークに直接に取り付けられ、フォークの昇降動作によりレーザセンサの高さ位置が調整されるため、フォーク自体が衝撃や振動を受けやすいことから、レーザセンサが損傷を受けたり検出精度が低下してしまうという問題がある。また、レーザセンサによる荷又はパレットの認識のために、フォークを昇降させる必要があり、フォークの昇降に起因する挟まれ等のおそれがある。さらに、フォークにより荷又はパレットを搭載している状態では、レーザセンサの視野を荷又はパレットが占有することになるため、レーザセンサを利用することができず、レーザセンサによりさらに他の荷又はパレットを認識したり、例えば物流倉庫内の床面や棚,壁面等に設けられた標識等を認識することができない。 By the way, in the forklift according to Patent Document 1, the laser sensor is directly attached to the fork, and the height position of the laser sensor is adjusted by moving the fork up and down. There is a problem that the sensor is damaged or the detection accuracy is lowered. In addition, it is necessary to raise and lower the forks in order to recognize the load or pallet by the laser sensor, and there is a risk of getting caught due to the raising and lowering of the forks. Furthermore, when a load or pallet is loaded with a fork, the field of view of the laser sensor is occupied by the load or pallet, so the laser sensor cannot be used. , or signs and the like provided on the floor, shelves, walls, etc., in the distribution warehouse.

本発明は以上の点に鑑み、簡単な構成により正確に前方の物体を認識できると共に、フォークに荷又はパレットを搭載した状態であっても、前方の物体の認識が可能である自動運転フォークリフトを提供することを目的としている。 In view of the above points, the present invention provides an automatic operation forklift that can accurately recognize an object in front with a simple configuration and can recognize an object in front even when a load or a pallet is loaded on the fork. intended to provide.

上記目的を達成するため、本発明は、車体と車体を走行させると共に操舵する走行部と、車体前部に取り付けられてマストに上下方向に移動可能に支持されたフォークと、フォークを上下に昇降させるフォーク駆動部と、位置センサと、位置センサによる現在位置を参照しながら走行データに基づいて走行部及びフォーク駆動部を制御する制御部と、を備えた自動運転フォークリフトであって、さらに、センサ部と形状認識部から成る対象物検出部を備え、センサ部が車体に取り付けられ、水平スキャンの方向が前方に向かって下向きに傾斜するよう配置された二次元ライダーと、二次元ライダーの水平スキャンの方向とは異なる方向に移動させる移動手段と、から構成され、この移動手段は移動可能なフォークとは別に車体に固定して設けられて、二次元ライダーを上下方向に並進移動させる直動アクチュエータと二次元ライダーの高さ位置を検出する高さセンサとを備え、形状認識部が、二次元ライダーの水平スキャンにより取得される二次元点群に高さセンサで検出された高さ位置を付加して三次元点群を取得し、垂直な面に属する三次元点群を選択して一定の高さのスライス領域から垂直な平面を検出し、前方に位置する物体の形状及び位置を認識する構成でなる。直動アクチュエータは、フォークより外側におけるマストの側面に固定されていてもよい。 In order to achieve the above object, the present invention provides a vehicle body, a running section for running and steering the vehicle body, a fork attached to the front part of the vehicle body and supported by a mast so as to be vertically movable, and a fork that can be lifted up and down. an automatic driving forklift comprising: a fork driving unit that allows the vehicle to move, a position sensor, and a control unit that controls the traveling unit and the fork driving unit based on traveling data while referring to the current position from the position sensor, the sensor further comprising: A 2D lidar with an object detection unit consisting of a part and a shape recognition part, a sensor part attached to the vehicle body, and arranged so that the horizontal scanning direction is inclined downward toward the front, and the horizontal scanning of the 2D lidar. and a moving means for moving in a direction different from the direction of , the moving means being fixed to the vehicle body separately from the movable fork, and a direct acting actuator for vertically translating the two-dimensional rider. and a height sensor that detects the height position of the 2D lidar, and the shape recognition unit adds the height position detected by the height sensor to the 2D point cloud acquired by the horizontal scanning of the 2D lidar. to acquire a 3D point cloud, select the 3D point cloud belonging to the vertical plane, detect the vertical plane from a slice region of a certain height, and recognize the shape and position of the object located in front Consists of configuration. The linear actuator may be fixed to the side of the mast outside the fork.

状認識部は垂直な面に属する三次元点群からフォークにより搬送すべきパレットの開口部の左右の柱部分を抽出することで、パレットの開口部の形状及び位置を認識する。
制御部は、認識したパレット及び開口部の形状及び位置と位置センサによる現在位置との相対位置関係に基づいて、フォークがパレットの開口部に真っ直ぐに正対する荷取り位置までの走行データを作成しこの走行データに基づいて走行部を制御する。形状認識部は三次元点群から前方の床面と床面に設置されたマーカーの形状及び位置を認識する構成とすれば好ましい。
The shape recognition unit recognizes the shape and position of the opening of the pallet by extracting the left and right column portions of the opening of the pallet to be conveyed by the fork from the three-dimensional point cloud belonging to the vertical plane .
Based on the relative positional relationship between the recognized shape and position of the pallet and the opening and the current position detected by the position sensor, the control unit creates travel data up to the pick-up position where the fork directly faces the opening of the pallet. The traveling unit is controlled based on this traveling data. It is preferable that the shape recognition unit recognizes the shape and position of the front floor surface and the markers installed on the floor surface from the three-dimensional point cloud.

本発明によれば、簡単な構成で正確に前方の物体を認識できると共に、フォークに荷又はパレットを搭載した状態でも前方の物体の認識が可能である、極めて優れた自動運転フォークリフトを提供することができる。 To provide an extremely excellent automatic driving forklift capable of accurately recognizing an object in front with a simple configuration and recognizing an object in front even when a load or a pallet is mounted on the fork according to the present invention. can be done.

本発明による自動運転フォークリフトの一実施形態の全体構成を示す概略図である。1 is a schematic diagram showing the overall configuration of an embodiment of an automatically operating forklift according to the present invention; FIG. 図1の自動運転フォークリフトの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of the automatic operation forklift in FIG. 1; 図1に示すレーザーナビゲータの、(A)は概略斜視図、(B)はレーザービーム照射状態を示す概略平面図、(C)は物流倉庫内での位置検出状態を示す概略平面図である。1. (A) is a schematic perspective view of the laser navigator shown in FIG. 1, (B) is a schematic plan view showing a laser beam irradiation state, and (C) is a schematic plan view showing a position detection state in a distribution warehouse. 自動運転フォークリフトの制御部が作成する走行データの基本経路を示す概略図である。FIG. 3 is a schematic diagram showing a basic route of travel data created by a control unit of an automatically operating forklift; 前記制御部が荷取り位置への接近のための走行データの一つの作成例を示し、(A)は自動運転フォークリフトの現在位置と荷取り位置と相対位置関係の、(B)は前進のみによる走行データによる走行経路を示す概略図である。The control unit shows an example of creating travel data for approaching the pickup position, (A) is the relative positional relationship between the current position of the automatic operation forklift and the pickup position, and (B) is based on forward movement only. FIG. 4 is a schematic diagram showing a travel route based on travel data; 前記制御部が荷取り位置への接近のための走行データの他の作成例を示し、(A)は自動運転フォークリフトの現在位置と荷取り位置との相対位置関係の、(B)は後退及び前進を組み合わせた走行データによる走行経路を示す概略図である。The control unit shows another example of creation of travel data for approaching the pickup position, (A) is the relative positional relationship between the current position of the automatic operation forklift and the pickup position, and (B) is backward and forward. FIG. 4 is a schematic diagram showing a travel route based on travel data in which forward movement is combined; 対象物検出部のセンサ部の配置を示し、(A)は概略斜視図、(B)は側面図である。Fig. 2 shows the arrangement of a sensor unit of an object detection unit, where (A) is a schematic perspective view and (B) is a side view; 対象物検出部によるパレット及びその開口部の認識のための異なる高さ位置での測定状態を示す概略図である。FIG. 4 is a schematic diagram showing measurement states at different height positions for recognition of the pallet and its opening by the object detection unit; (A)~(F)は、順次高さを変えて6種類の高さで二次元ライダーにより取得された二次元点群を示すグラフである。(A) to (F) are graphs showing 2D point clouds acquired by a 2D LIDAR at 6 different heights with successively changing heights. 図9の各高さ位置での二次元点群に高さ位置を付加して演算された三次元点群を示すグラフである。10 is a graph showing a three-dimensional point cloud calculated by adding a height position to the two-dimensional point cloud at each height position in FIG. 9; 図10の三次元点群からパレット及びその開口部の形状を認識するためのスライス領域を示す概略図である。FIG. 11 is a schematic diagram showing a slice region for recognizing the shape of the pallet and its opening from the three-dimensional point cloud of FIG. 10; 図11の各スライス領域から抽出されたパレット及びその開口部の形状を示す概略図である。FIG. 12 is a schematic diagram showing a palette extracted from each slice region of FIG. 11 and the shape of its opening; 対象物検出部による床面及びマーカーの認識のための異なる高さ位置での測定状態を示す概略図である。FIG. 4 is a schematic diagram showing measurement states at different height positions for recognition of a floor surface and markers by an object detection unit; 図1の自動運転フォークリフトの荷役作業を順次に示すフローチャートである。FIG. 2 is a flow chart sequentially showing the cargo handling work of the automatically operated forklift of FIG. 1 ; FIG. 対象物検出部によるパレット及びその開口部の形状及び位置の認識作業を順次に示すフローチャートである。5 is a flow chart sequentially showing an operation of recognizing the shape and position of the pallet and its opening by the object detection unit;

以下、図面に示した実施形態に基づいて本発明を詳細に説明する。
図1及び図2は自動運転フォークリフトの一実施形態の全体構成を示す。自動運転フォークリフト10は、例えばリーチタイプのフォークリフトとして構成されており、車体11と、車体11を自動で前後に走行させると共に自動操舵する走行部12と、車体11の前部に設けられたフォーク13と、フォーク13を上下に昇降させるフォーク駆動部14と、各種情報を取得する検出部15と、車体11内に設けられた制御部16と、対象物検出部20と、から構成されている。
BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in detail below based on embodiments shown in the drawings.
1 and 2 show the overall configuration of an embodiment of an automatically operated forklift. The automatic operation forklift 10 is configured, for example, as a reach type forklift, and includes a vehicle body 11, a traveling unit 12 that automatically moves the vehicle body 11 back and forth and automatically steers, and a fork 13 provided in the front part of the vehicle body 11. , a fork drive unit 14 that moves the fork 13 up and down, a detection unit 15 that acquires various information, a control unit 16 provided inside the vehicle body 11, and an object detection unit 20.

上述した車体11から制御部16は、従来の自動運転フォークリフトと同様の構成である。即ち、車体11はほぼ直方体状の外形を有し、左右両側から前方に延びる張出部11aを備え、各張出部11aの先端付近には一対の前輪11bを、車体11の後端付近には後輪11cを備える。後輪11cは操舵輪として垂直軸の周りに揺動可能に支持される。 The vehicle body 11 to the control unit 16 described above have the same configuration as that of a conventional automatic operation forklift. That is, the vehicle body 11 has a substantially rectangular parallelepiped outer shape, and is provided with projecting portions 11a extending forward from both left and right sides. has a rear wheel 11c. A rear wheel 11c is supported as a steering wheel so as to be able to swing about a vertical axis.

走行部12は、前輪11b又は後輪11cを回転駆動して自動運転フォークリフト10を前後に走行させ、後輪11cを操舵して左右に転回させるようになっている。フォーク13は、車体11の前部に上下方向に延びるように固定配置された一対のマスト13aに沿って上下方向に移動可能に支持され、フォーク駆動部14により上下方向に移動され得る。検出部15は、車体11の上方に設けられた位置センサ15aとなるレーザーナビゲータと、車体11の下部に設けられた障害物センサ15b,バンパーセンサ15cを含んでいる。 The traveling unit 12 rotates the front wheels 11b or the rear wheels 11c to cause the automatically operated forklift 10 to travel forward and backward, and steers the rear wheels 11c to turn left and right. The fork 13 is vertically movably supported along a pair of masts 13 a fixedly arranged to extend vertically in the front portion of the vehicle body 11 , and can be vertically moved by the fork driving section 14 . The detector 15 includes a laser navigator serving as a position sensor 15a provided above the vehicle body 11, and an obstacle sensor 15b and a bumper sensor 15c provided below the vehicle body 11. FIG.

図3(A)は自動運転フォークリフト10における位置センサ15aの概略斜視図を示し、(B)及び(C)はそれぞれレーザービーム照射状態と、物流倉庫内での位置検出状態を示す。位置センサ15aはレーザースキャナ15d及び受光部15eから構成され、レーザースキャナ15dによりレーザービームを放射して、例えば図3(C)に示すように物流倉庫等の施設15f内の壁面等に配置された複数個の反射部15gで反射されたレーザービームを受光部15eで収集することにより、物流倉庫15f内での現在位置及び方向を決定する。このようにして、レーザーナビゲータ15aは、高精度の位置センサとして機能する。 FIG. 3(A) shows a schematic perspective view of the position sensor 15a in the automatic operation forklift 10, and (B) and (C) show the laser beam irradiation state and the position detection state in the distribution warehouse, respectively. The position sensor 15a is composed of a laser scanner 15d and a light receiving unit 15e, and emits a laser beam from the laser scanner 15d, and is arranged on a wall surface of a facility 15f such as a distribution warehouse as shown in FIG. 3(C). The current position and direction in the distribution warehouse 15f are determined by collecting the laser beams reflected by the plurality of reflecting portions 15g by the light receiving portion 15e. Thus, the laser navigator 15a functions as a highly accurate position sensor.

障害物センサ15bは、例えば二次元ライダーから構成され、自動運転フォークリフト10の車体11の後方にある障害物を検出して検出信号を送出する。バンパーセンサ15cは、障害物に接触したとき、障害物を検出して、検出信号を送出する。さらに、自動運転フォークリフト10は、より安全性を高めるために、安全部17として緊急停止ボタン17a,音声・パトランプ17b及びウィンカー17cを備えている。 The obstacle sensor 15b is composed of, for example, a two-dimensional lidar, detects an obstacle behind the vehicle body 11 of the automatically operated forklift 10, and sends out a detection signal. The bumper sensor 15c detects the obstacle and sends out a detection signal when it comes into contact with the obstacle. Further, the automatic operation forklift 10 is provided with an emergency stop button 17a, a voice/pattern lamp 17b, and a blinker 17c as a safety section 17 in order to further enhance safety.

制御部16が作成する走行データ16bの基本経路16cについて図4を参照して説明する。制御部16は、車体外面に設けられた操作部16a(図1参照)で入力された荷取り位置及び荷卸し位置に基づいて走行データ16bを作成し、この走行データ16bに基づいて走行部12を制御する。即ち、制御部16は、自動運転フォークリフト10を、例えば物流倉庫内にて設定された後述する基本経路16cに沿って走行させることで、自動運転フォークリフト10を指定された荷取り位置付近まで移動させ、当該荷取り位置でフォーク13にパレット30を搭載した後、同様にして基本経路16cに沿って指定された荷卸し位置付近まで移動させ、当該荷卸し位置でフォーク13からパレット30を荷卸しする。その際、制御部16は、検出部15のレーザーナビゲータ15a,障害物センサ15b及びバンパーセンサ15cからの検出信号に基づき、走行中に走行データ16bによる走行経路にて障害物や人あるいは他の自動運転フォークリフトと接触しないよう適宜減速したり停止したりあるいは迂回することにより、走行経路に沿って走行する。 The basic route 16c of the travel data 16b created by the control unit 16 will be described with reference to FIG. The control unit 16 creates travel data 16b based on the pickup position and the unloading position input by the operation unit 16a (see FIG. 1) provided on the outer surface of the vehicle body, and controls the travel unit 12 based on the travel data 16b. to control. That is, the control unit 16 causes the automatically operating forklift 10 to travel along a basic route 16c (described later) set, for example, in a distribution warehouse, thereby moving the automatically operating forklift 10 to the vicinity of the designated pickup position. , After the pallet 30 is loaded on the fork 13 at the loading position, the pallet 30 is similarly moved along the basic path 16c to the vicinity of the designated unloading position, and the pallet 30 is unloaded from the fork 13 at the unloading position. . At that time, based on detection signals from the laser navigator 15a, the obstacle sensor 15b, and the bumper sensor 15c of the detection unit 15, the control unit 16 detects obstacles, people, or other automatic objects along the travel route based on the travel data 16b during travel. Drive along the travel path by slowing down, stopping or detouring as appropriate to avoid contact with the operating forklift.

制御部16は前述した施設15f内のマップデータを備え、各荷取り位置又は荷卸し位置を結ぶように、図4に示す基本経路16c及びマーカー16dの位置も登録している。さらに、制御部16は、マーカー16dの位置の新設,廃止等の変更の際には逐次更新され、常に最新のデータを有する。基本経路16cは、図4に示すように施設15f内を移動するための経路であって、自動運転フォークリフト10は、基本経路16cに沿って施設15f内を大きく移動すると共に、個々の荷取り位置又は荷卸し位置を示すマーカー16dに対しては、基本経路16cからそれぞれ枝分かれしてアクセスする。 The control unit 16 has the map data in the facility 15f described above, and also registers the positions of the basic route 16c and the marker 16d shown in FIG. Furthermore, the control unit 16 is sequentially updated when the position of the marker 16d is changed, such as newly established or abolished, and always has the latest data. The basic path 16c is a path for moving within the facility 15f as shown in FIG. Alternatively, the marker 16d indicating the unloading position is accessed by branching from the basic route 16c.

制御部16は、走行データ16bに基づいて基本経路16cに沿って荷取り位置付近に到着したとき、後述する対象物検出部20よって認識されたパレット30及びその開口部31の形状及び位置と、検出部15のレーザーナビゲータ15aで検出された現在位置と、の相対位置関係を演算する。制御部16は、この相対位置関係に基づいてフォーク13の先端がパレット30の開口部31に真っ直ぐに正対する荷取り位置までの走行データ16bを作成し、この走行データ16bに基づいて走行部12を制御する。これにより、自動運転フォークリフト10はそのフォーク13の先端が荷取り位置に配置されたパレット30の開口部31に対して真っ直ぐに正対する。 When the control unit 16 arrives near the pick-up position along the basic route 16c based on the travel data 16b, the control unit 16 detects the shape and position of the pallet 30 and its opening 31 recognized by the object detection unit 20, which will be described later, and The current position detected by the laser navigator 15a of the detector 15 and the relative positional relationship are calculated. Based on this relative positional relationship, the control unit 16 creates traveling data 16b up to the pickup position where the tip of the fork 13 faces the opening 31 of the pallet 30 straight. to control. As a result, the tip of the fork 13 of the automatically operated forklift 10 directly faces the opening 31 of the pallet 30 arranged at the unloading position.

ところで、自動運転フォークリフト10の現在位置と荷取り位置との相対位置関係に対応して、図5(A)に示すようにそのまま前進しただけでは、荷取り位置のパレット30の開口部31に対して真っ直ぐに正対することができない場合には、制御部16は図5(B)に示すように、回り込んで前進するような走行データ16bを作成する。これに対して、図6(A)に示すようにパレット30に対する角度が大きくずれていて、前進のみでは回り込んでも荷取り位置のパレット30の開口部31に対して真っ直ぐに正対できない場合には、制御部16は、図6(B)に示すように一旦後退したのち操舵を切り返して前進するような走行データ16bを作成する。 By the way, in response to the relative positional relationship between the current position of the automatically operated forklift 10 and the unloading position, if the forklift truck 10 moves forward as it is as shown in FIG. If it is not possible to face the vehicle straight, as shown in FIG. On the other hand, as shown in FIG. 6(A), when the angle with respect to the pallet 30 is greatly deviated and it is not possible to face the opening 31 of the pallet 30 at the unloading position in a straight line even if it turns around only by moving forward. 6(B), the control unit 16 creates travel data 16b such that the vehicle once reverses and then reverses the steering to move forward.

さらに制御部16は、走行データ16bに基づいて基本経路16cに沿って荷卸し位置付近に到着したとき、同様に対象物検出部20から送られてくる床面のマーカー16dの形状及び位置と検出部15のレーザーナビゲータ15aで検出された現在位置との相対位置関係を演算する。そして、この相対位置関係に基づいて、制御部16はフォーク13がマーカー16d上に整列する荷卸し位置までの走行データ16bを作成し、この走行データ16bに基づいて走行部12を制御する。これにより、自動運転フォークリフト10はそのフォーク13が床面のマーカー16d上に整列する。 Further, when the control unit 16 arrives near the unloading position along the basic route 16c based on the travel data 16b, the control unit 16 detects the shape and position of the floor surface marker 16d similarly sent from the object detection unit 20. A relative positional relationship with the current position detected by the laser navigator 15a of the unit 15 is calculated. Based on this relative positional relationship, the control unit 16 creates traveling data 16b up to the unloading position where the fork 13 is aligned on the marker 16d, and controls the traveling unit 12 based on this traveling data 16b. As a result, the fork 13 of the automatically operated forklift 10 is aligned with the marker 16d on the floor.

ここで、荷役作業は以下のように行なわれる。即ち、自動運転フォークリフト10が荷取り位置でパレット30の開口部31に対してフォーク13が真っ直ぐに正対する状態から前進して、フォーク13をパレット30の開口部31内に完全に挿入した状態でフォーク13を上昇させる。これによりフォーク13上にパレット30を搭載して荷積みする。荷卸しの場合は、自動運転フォークリフト10が荷卸し位置で、床面のマーカー16dに対してフォーク13及び搭載したパレット30が上方に位置する状態からパレット30の底面が床面に接するまでフォーク13を下降させ、後退することによりパレット30の開口部31からフォーク13を完全に引き抜いて、荷卸しが完了する。 Here, cargo handling work is performed as follows. That is, the automatic operation forklift 10 advances from a state in which the forks 13 face the opening 31 of the pallet 30 straight at the unloading position, and the fork 13 is completely inserted into the opening 31 of the pallet 30. Fork 13 is raised. Thus, the pallet 30 is mounted on the fork 13 and loaded. In the case of unloading, the automatic operation forklift 10 is at the unloading position, and the fork 13 and the mounted pallet 30 are positioned above the marker 16d on the floor until the bottom surface of the pallet 30 contacts the floor. is lowered and retreated, the fork 13 is completely pulled out from the opening 31 of the pallet 30, and unloading is completed.

以上のように、制御部16は、認識したパレット30及びパレット30の開口部31の形状及び位置に対して位置センサ15aによる現在位置から荷取り位置まで、走行データ16bに従って自動運転を行なうことができる。従って、荷取り位置まで移動した状態から、制御部16が走行部12を制御して前進させることで、フォーク13が真っ直ぐにパレット30の開口部31内に進入することが可能である。 As described above, the control unit 16 can automatically operate the recognized pallet 30 and the shape and position of the opening 31 of the pallet 30 from the current position detected by the position sensor 15a to the pickup position according to the traveling data 16b. can. Therefore, the fork 13 can enter the opening 31 of the pallet 30 straight by the control unit 16 controlling the traveling unit 12 to move forward from the state of moving to the loading position.

センサ部22はパレット30の置き場所を示すマーカー16d付近の床面の三次元点群を取得し、形状認識部24がそのマーカー16dの反射率の違いに基づいてマーカー16dの境界線を抽出して既知のマーカー16dの形状とのマッチングを判定し、マーカー16dの形状及び位置を認識する。これにより、制御部16は、フォーク13に荷又はパレット30を搭載した状態で、センサ部22により床面及びマーカー16dの形状及び位置を認識することにより、指定されたマーカー16dの位置まで自動運転により走行し、当該マーカー16dの示す場所に荷またパレット30を荷卸しすることができる。 The sensor unit 22 acquires a three-dimensional point cloud on the floor near the marker 16d indicating the place where the pallet 30 is placed, and the shape recognition unit 24 extracts the boundary line of the marker 16d based on the difference in reflectance of the marker 16d. to determine a match with the shape of the known marker 16d to recognize the shape and position of the marker 16d. As a result, the control unit 16 recognizes the shape and position of the floor surface and the marker 16d with the sensor unit 22 in a state where the load or pallet 30 is mounted on the fork 13, thereby automatically driving to the position of the designated marker 16d. , and the cargo or pallet 30 can be unloaded at the location indicated by the marker 16d.

さらに対象物検出部20は、図2に示すようにセンサ部22と形状認識部24を備え、センサ部22は車体11に取り付けられ、前方の三次元点群を取得するセンサから成る。形状認識部24は、後述するようにセンサ部22で取得された三次元点群から前方に位置する物体の形状及び位置を認識する。 Further, the object detection unit 20 includes a sensor unit 22 and a shape recognition unit 24, as shown in FIG. The shape recognition unit 24 recognizes the shape and position of an object positioned ahead from the three-dimensional point group acquired by the sensor unit 22, as will be described later.

本発明の自動運転フォークリフト10によれば、自動運転フォークリフト10が荷取り位置付近に位置する状態で、対象物検出部20のセンサ部22が前方の三次元点群を取得し、形状認識部24がその三次元点群から個々の画素の距離データに基づいて前方に位置する物体の形状及び位置を認識する。これにより、制御部16は、前方の物体の形状及び位置と位置センサ15aによる現在位置とから車体11と物体との相対位置を把握することができる。 According to the automatic operation forklift 10 of the present invention, the sensor unit 22 of the object detection unit 20 acquires the front three-dimensional point group while the automatic operation forklift 10 is positioned near the unloading position, and the shape recognition unit 24 recognizes the shape and position of an object located in front based on the distance data of individual pixels from the 3D point cloud. Thereby, the control unit 16 can grasp the relative position between the vehicle body 11 and the object from the shape and position of the forward object and the current position detected by the position sensor 15a.

対象物検出部20のセンサ部22は、自動運転フォークリフト10の車体11に取り付けられているので、センサ部22がフォーク13に取り付けられている場合と比較して以下の利点が得られる。即ち、センサ部22がフォーク13ではなく車体11に直接に取り付けられていることにより、フォーク13に荷又はパレット30が搭載された状態においてもセンサ部22により前方の物体等を検出することができる。従って、荷取り位置に置かれたパレット30の認識だけでなく、床面や床面に設置されたマーカー16d、あるいは倉庫の壁面や棚等の他の物体の認識を行なうことも可能である。 Since the sensor section 22 of the object detection section 20 is attached to the vehicle body 11 of the automatic operation forklift 10, the following advantages are obtained compared to the case where the sensor section 22 is attached to the fork 13. That is, since the sensor section 22 is directly attached to the vehicle body 11 instead of the fork 13, the sensor section 22 can detect an object or the like in front even when the load or the pallet 30 is mounted on the fork 13. . Therefore, it is possible to recognize not only the pallet 30 placed at the pickup position, but also the floor surface, the markers 16d installed on the floor surface, or other objects such as the walls and shelves of the warehouse.

また、センサ部22により前方の物体を認識する際に、フォーク13を昇降又は揺動させる必要がないので、フォーク動作による挟まれ等のおそれが排除される。さらに、自動運転フォークリフト10の荷役作業中、フォーク13は衝撃や振動を受けやすいが、センサ部22が車体11に取り付けられることで、フォーク13の衝撃や振動によるセンサ部22の損傷を回避できる。 In addition, since it is not necessary to move the fork 13 up and down or swing it when the sensor unit 22 recognizes an object in front, the risk of being caught by the fork movement is eliminated. Furthermore, while the forks 13 are susceptible to impact and vibration during cargo handling work of the automatically operated forklift 10, by attaching the sensor unit 22 to the vehicle body 11, damage to the sensor unit 22 due to the impact and vibration of the forks 13 can be avoided.

次に、対象物検出部20の構成例の幾つかを記述する。
(対象物検出部の構成例1)
対象物検出部20の構成例1としては、センサ部22を、二次元ライダー22aと二次元ライダー22aの水平スキャンとは異なる方向に移動させる移動手段21とから構成する。この場合、形状認識部24は移動手段21の移動量に対応する高さ位置を取得して、二次元ライダー22aの水平スキャンにより取得される二次元点群に高さ位置を付加して、三次元点群を演算することができる。
Next, some configuration examples of the object detection unit 20 will be described.
(Configuration example 1 of object detection unit)
As a configuration example 1 of the object detection unit 20, the sensor unit 22 is composed of a two-dimensional lidar 22a and a moving means 21 for moving in a direction different from the horizontal scanning direction of the two-dimensional lidar 22a. In this case, the shape recognition unit 24 acquires the height position corresponding to the movement amount of the moving means 21, adds the height position to the two-dimensional point group acquired by the horizontal scanning of the two-dimensional lidar 22a, and obtains the three-dimensional The original point cloud can be calculated.

構成例1では、センサ部22として二次元ライダー22aを使用し、移動手段21により二次元ライダー22aの水平スキャンとは異なる方向、例えば垂直方向に移動させることによって、二次元ライダー22aによる二次元点群を取得すると共に、移動手段21の移動量に対応する高さ位置を取得して二次元点群に高さ位置を付加して、三次元点群を演算している。これにより、検出精度の高い二次元ライダー22aを利用して高精度の三次元点群を取得することができるので、高精度で前方の物体の形状及び位置を認識することが可能である。 In configuration example 1, the two-dimensional lidar 22a is used as the sensor unit 22, and by moving the two-dimensional lidar 22a in a direction different from the horizontal scanning of the two-dimensional lidar 22a by the moving means 21, for example, in the vertical direction, the two-dimensional point by the two-dimensional lidar 22a is detected. In addition to acquiring the group, the height position corresponding to the amount of movement of the moving means 21 is acquired, and the height position is added to the two-dimensional point group to calculate the three-dimensional point group. As a result, a highly accurate three-dimensional point group can be acquired using the two-dimensional lidar 22a with high detection accuracy, so that the shape and position of an object in front can be recognized with high accuracy.

従って、TOFカメラ等の三次元画像による物体の認識の場合と比較すると、センサ部22として二次元ライダー22aを使用することにより、黒い対象物や日光が当たる面の検出でも精度が低下せず、また物体表面のテクスチャや環境光等に影響されにくく、さらに照明が暗くても確実に物体を認識することができる。 Therefore, compared to the case of recognizing an object using a 3D image such as a TOF camera, by using the 2D lidar 22a as the sensor unit 22, accuracy does not decrease even when detecting a black object or a surface exposed to sunlight. In addition, it is less likely to be affected by the texture of the surface of the object, ambient light, etc., and can reliably recognize the object even when the lighting is dark.

(対象物検出部の構成例2)
対象物検出部20の構成例2は、センサ部22を二次元ライダー22aとし、二次元ライダー22aの高さ方向の移動手段21を直動アクチュエータ21aとした構成である。対象物検出部20は、図7に詳細に示すように自動運転フォークリフト10の車体11の前部に固定配置された上下方向に延びる一対のマスト13aの一方、図示の場合、右側のマスト13aに沿って上下方向に延びるように取り付けられた直動アクチュエータ21a,二次元ライダー22a及び高さセンサ23と、形状認識部24と、から構成される。
(Configuration example 2 of object detection unit)
A configuration example 2 of the object detection unit 20 is a configuration in which the sensor unit 22 is a two-dimensional rider 22a, and the moving means 21 in the height direction of the two-dimensional rider 22a is a linear actuator 21a. As shown in detail in FIG. 7, the object detection unit 20 is mounted on one of a pair of vertically extending masts 13a fixedly arranged on the front part of the vehicle body 11 of the automatic operation forklift 10. A linear motion actuator 21a, a two-dimensional lidar 22a, a height sensor 23, and a shape recognition section 24 are attached so as to extend in the vertical direction.

直動アクチュエータ21aは、その長手方向に延びる固定部21bがマスト13aの側面に固定され、可動部21cが本体21bに沿って上下方向に移動する。直動アクチュエータ21aは、自動運転フォークリフト10が例えば荷取り位置付近又は荷卸し位置付近に到着したとき、制御部16によりパレット30又は床面のマーカー16dの形状及び位置を認識するために、後述するように二次元ライダー22aと連動して動作する。 The linear motion actuator 21a has a longitudinally extending fixed portion 21b fixed to the side surface of the mast 13a, and a movable portion 21c moves vertically along the main body 21b. The linear motion actuator 21a is used to recognize the shape and position of the pallet 30 or the floor surface marker 16d by the control unit 16 when the automatic operation forklift 10 arrives near the loading position or the unloading position, for example. It operates in conjunction with the two-dimensional lidar 22a as follows.

二次元ライダー22aは、直動アクチュエータ21aの可動部21cに取り付けられ、図7(A)に示すように水平方向に広がるスキャン面22bを有すると共に、図7(B)に示すようにその中心軸Oが前方に向かって下向きに設定されている。上述したライダーは、レーザーレーダーとも呼ばれるセンサであり、光検出と測距(LIDAR(Light Detection and Ranging))又はレーザー画像検出と測距(Laser Imaging Detection and Ranging)を行なうセンサで、LIDARとも表記される。ここでは、二次元ライダーが使用される。 The two-dimensional lidar 22a is attached to the movable portion 21c of the linear motion actuator 21a, and has a scanning plane 22b extending horizontally as shown in FIG. O is set downward toward the front. The lidar described above is a sensor that is also called a laser radar, and it is a sensor that performs light detection and ranging (LIDAR) or laser imaging detection and ranging (Laser Imaging Detection and Ranging). be. A two-dimensional lidar is used here.

具体的には、二次元ライダー22aは例えばSICK社のTim581が使用される。この二次元ライダー22aの仕様は、水平開口角270度,スキャン回数15Hz,角度分解能0.33度,検出距離(反射率10%)8mである。二次元ライダー22aのマスト13aへの取付高さ及び傾斜角度は、図7に示すように、水平スキャン面22bがフォーク13に当たらないよう且つ前方の床面をカバーできるように設定される。これにより、二次元ライダー22aは、水平方向にスキャンした二次元データを二次元点群22cとして出力する。 Specifically, for example, Tim581 manufactured by SICK is used as the two-dimensional lidar 22a. The specifications of this two-dimensional lidar 22a are a horizontal aperture angle of 270 degrees, a scanning frequency of 15 Hz, an angular resolution of 0.33 degrees, and a detection distance (reflectance of 10%) of 8 m. The mounting height and inclination angle of the two-dimensional rider 22a to the mast 13a are set, as shown in FIG. 7, so that the horizontal scanning plane 22b does not hit the fork 13 and can cover the front floor surface. As a result, the two-dimensional lidar 22a outputs two-dimensional data scanned in the horizontal direction as a two-dimensional point group 22c.

高さセンサ23は、直動アクチュエータ21aを用いて構成される。直動アクチュエータ21aは、ステッピングモーターで駆動され、ステッピングモーター内蔵のエンコーダによりモーターの絶対回転角を取得できる。このモーターの絶対回転角を、直動アクチュエータ21aで用いる既知のギア比をもとに直動アクチュエータ21aの高さ位置に変換することにより、二次元ライダー22aの高さ位置が検出される。高さセンサ23は、直動アクチュエータ21aの本体21bにおける可動部21cの移動範囲の下端から上方への移動距離を検出して、その移動距離を高さ位置hとして出力する。高さセンサ23としては、可動部21cそして二次元ライダー22aの高さ位置を検出できればよく、例えば気圧センサ等の他の種類の高さセンサであってもよい。 The height sensor 23 is configured using a direct acting actuator 21a. The linear motion actuator 21a is driven by a stepping motor, and the absolute rotation angle of the motor can be obtained by an encoder built into the stepping motor. The height position of the two-dimensional rider 22a is detected by converting the absolute rotation angle of the motor into the height position of the linear actuator 21a based on the known gear ratio used in the linear actuator 21a. The height sensor 23 detects the upward movement distance from the lower end of the movement range of the movable portion 21c in the main body 21b of the direct acting actuator 21a, and outputs the movement distance as the height position h. The height sensor 23 only needs to be able to detect the height positions of the movable portion 21c and the two-dimensional rider 22a, and may be another type of height sensor such as an air pressure sensor.

形状認識部24は、図1には示されていないが、二次元ライダー22aに隣接してあるいは車体11内に設けられ、二次元ライダー22aの水平スキャンにより検出された二次元点群22cに高さセンサ23で検出された高さ位置hを付加して一体化したデータとして取り扱う。 Although not shown in FIG. 1, the shape recognition unit 24 is provided adjacent to the two-dimensional lidar 22a or inside the vehicle body 11, and is highly sensitive to the two-dimensional point group 22c detected by the horizontal scanning of the two-dimensional lidar 22a. The height position h detected by the height sensor 23 is added and treated as integrated data.

図8に示すように、直動アクチュエータ21aにより、可動部21c及び二次元ライダー22aの高さ位置hを、二次元ライダー22aの水平方向のスキャンと同時に例えばh1,h2,h3・・・と連続的に変更しながら、前方に配置されたパレット30に対して、二次元ライダー22aによる二次元点群22cの取得を繰り返して行なう。図8は、互いに異なる三つの高さ位置h1,h2,h3で二次元点群22cを取得する例を示す。各高さ位置h1~h3に関して、ある程度の測定密度を保持するため、直動アクチュエータ21aの可動部21cの移動速度に上限が設けられる。 As shown in FIG. 8, by the linear motion actuator 21a, the height position h of the movable part 21c and the two-dimensional rider 22a is continuously set to h1, h2, h3, . Acquisition of the two-dimensional point group 22c by the two-dimensional lidar 22a is repeatedly performed on the pallet 30 placed in front while changing the direction. FIG. 8 shows an example of acquiring a two-dimensional point cloud 22c at three different height positions h1, h2, and h3. For each height position h1 to h3, an upper limit is set for the moving speed of the movable portion 21c of the linear actuator 21a in order to maintain a certain degree of measurement density.

図9(A)から(F)は、高さを順次変えて6種類の高さで取得した二次元点群22cの例を示し、高さが変化すると取得した二次元点群22cが変化していることが分る。 FIGS. 9A to 9F show examples of the two-dimensional point cloud 22c acquired at six different heights by sequentially changing the height, and when the height changes, the acquired two-dimensional point cloud 22c changes. I know that

このようにして、形状認識部24は、高さ位置h毎の二次元点群22cを、図10に示すように一つの三次元点群25として構成する。ここで、一つのパレット30で取得するスキャンデータは、10~15レイヤーである。つまり、二次元ライダー22aの高さ位置は、10~15の異なる高さで取得したスキャンデータとなる。 In this way, the shape recognition unit 24 constructs the two-dimensional point group 22c for each height position h as one three-dimensional point group 25 as shown in FIG. Here, 10 to 15 layers of scan data are obtained with one palette 30 . That is, the height positions of the two-dimensional lidar 22a are scan data obtained at 10 to 15 different heights.

上記構成によれば、二次元ライダー22aで水平方向にスキャンしながら、直動アクチュエータ21aにより二次元ライダー22aを上下方向に並進移動させて高さ位置を変更することで、二次元ライダー22aによる二次元点群22cに高さ位置を付加して三次元点群25を取得することができる。 According to the above configuration, while scanning in the horizontal direction with the two-dimensional rider 22a, the two-dimensional rider 22a is vertically translated by the linear motion actuator 21a to change the height position. A three-dimensional point group 25 can be obtained by adding a height position to the dimensional point group 22c.

続いて、形状認識部24は、以下のステップ1~ステップ7の計算手法でパレット30とその開口部31の形状及び位置の認識を行なう。
ステップ1において、形状認識部24は、図9で説明した所定の高さで取得した二次元点群22cから構成した三次元点群25に関して、三次元の対象領域を設定して対象領域内の点を選択して抽出すると共に、対象領域外の点を除外する。これにより形状認識部24は対象領域内の三次元点群Aを作成する。
ステップ2にて、形状認識部24は、三次元点群Aに関して各点の法線方向を計算して適宜のしきい値で垂直な面に属する点を選択し、選択した点により点群Bを構築する。
ステップ3において、形状認識部24は、図11に示すように、一定の高さの複数のスライス領域26a,26b…を定義して、点群Bから各スライス領域26a,26b…に属する点をそれぞれ選択し、点群のセットCとして振り分ける。
Subsequently, the shape recognition unit 24 recognizes the shape and position of the pallet 30 and its opening 31 by the calculation method of steps 1 to 7 below.
In step 1, the shape recognition unit 24 sets a three-dimensional target area for the three-dimensional point group 25 constructed from the two-dimensional point group 22c acquired at a predetermined height described in FIG. Select and extract points and exclude points outside the region of interest. Thereby, the shape recognition unit 24 creates a three-dimensional point group A within the target area.
In step 2, the shape recognition unit 24 calculates the normal direction of each point with respect to the three-dimensional point group A, selects points belonging to a vertical plane with an appropriate threshold value, and uses the selected points to determine the point group B to build.
In step 3, the shape recognition unit 24 defines a plurality of slice regions 26a, 26b, . Each is selected and distributed as a set C of point cloud.

ステップ4において、形状認識部24は、点群のセットCの各点群に対して、例えばRANSAC等の適宜の方法によって垂直な平面を検出し、平面からの距離が設定したしきい値より大きい点を除外する。
ステップ5において、点群のセットCの各点群に対して、距離を条件にクラスタリングを行ない、得られた各クラスターの面積とクラスターの外接矩形の面積を比較して、図12に示すように十分に近いクラスター27aを抽出すると共に、パレット30の開口部31の左右の柱部分に大きさが近いクラスター27b,27c,27dを抽出する。ここで、抽出されたクラスター27aから27dのうち、水平方向に隣接する三個一組のクラスター27b,27c,27dを、トリプレットという。形状認識部24は、全ての組合せのトリプレットのうち、三個のクラスター同士の相互距離が一定範囲内であるものを抽出し、セットDとする。
In step 4, the shape recognition unit 24 detects a plane perpendicular to each point cloud of the point cloud set C by an appropriate method such as RANSAC, and the distance from the plane is greater than a set threshold. Exclude points.
In step 5, each point group in the point group set C is clustered using the distance as a condition, and the area of each cluster obtained is compared with the area of the circumscribing rectangle of the cluster, as shown in FIG. A sufficiently close cluster 27a is extracted, and clusters 27b, 27c, and 27d close in size to the left and right column portions of the opening 31 of the pallet 30 are extracted. Here, among the extracted clusters 27a to 27d, a set of three horizontally adjacent clusters 27b, 27c, and 27d is called a triplet. The shape recognition unit 24 extracts triplets in which the mutual distance between the three clusters is within a certain range from all combinations of triplets, and sets them as a set D.

ステップ6において、形状認識部24は、上述したセットCに含まれる全てのスライス26a,26b…に対して、上述したステップ4及び5の処理を繰り返し行なう。これにより、形状認識部24は、得られた全てのトリプレットと最初の点群Aとを比較して、トリプレットに含まれる三個のクラスターの間に点のない空隙があるもののみを抽出し、この空隙をセットEとする。
ステップ7において、形状認識部24は、セットEに含まれる空隙のうち互いに距離の近いものを一つのグループとし、当該グループの空隙を一つにまとめた後にその中心位置を荷取り穴の位置として出力する。ここで、グループが複数ある場合は、形状認識部24は、各グループそれぞれ一つのパレット30に対応する荷取り穴の位置として出力する。このようにして、形状認識部24は、前方に存在するパレット30及びその開口部31の形状及び位置を認識して制御部16に出力する。
At step 6, the shape recognition section 24 repeats the above-described steps 4 and 5 for all the slices 26a, 26b, . . . included in the set C described above. As a result, the shape recognition unit 24 compares all the obtained triplets with the initial point group A, extracts only those with pointsless gaps between the three clusters included in the triplet, Let this gap be set E.
In step 7, the shape recognition unit 24 groups the gaps included in the set E that are close to each other into one group, and after grouping the gaps in the group into one, sets the center position as the position of the unloading hole. Output. Here, if there are a plurality of groups, the shape recognition unit 24 outputs the position of the unloading hole corresponding to one pallet 30 for each group. In this manner, the shape recognition unit 24 recognizes the shape and position of the pallet 30 and its opening 31 located in front and outputs them to the control unit 16 .

また、形状認識部24は、床面に設けられたマーカー16dの形状及び位置を認識する場合には、図13に示すように、直動アクチュエータ21aによって、可動部21c及び二次元ライダー22aの高さ位置hをh1,h2,h3と変更しながら、前方に配置されたマーカー16dに対して二次元ライダー22aによる二次元点群22cの取得を繰り返して行なう。これにより、パレット30の形状及び認識を行なう場合と同様にして、各高さ位置における二次元点群22cを統合して、一つの三次元点群25を取得し、さらに三次元点群A,点群B,点群セットC及びセットDを取得し、マーカー16dに対するクラスターを抽出することによって、マーカー16dの形状及び位置を認識する。 Further, when the shape recognition unit 24 recognizes the shape and position of the marker 16d provided on the floor, as shown in FIG. While changing the position h to h1, h2, and h3, the two-dimensional lidar 22a acquires the two-dimensional point group 22c for the marker 16d placed in front repeatedly. As a result, in the same manner as the shape and recognition of the pallet 30, the two-dimensional point group 22c at each height position is integrated to acquire one three-dimensional point group 25, and further the three-dimensional point group A, By obtaining point cloud B, point cloud set C and set D and extracting clusters for marker 16d, the shape and position of marker 16d are recognized.

次に、本発明による自動運転フォークリフト10の動作を図14のフローチャートに従って説明する。
ステップST1にて、制御部16の操作パネル16aで荷取り位置及び荷卸し位置を入力すると、制御部16は、ステップST2にて現在位置から荷取り位置まで、そして荷取り位置から荷卸し位置までの走行データ16bを作成する。これにより、制御部16は、ステップST3にて走行部12を制御することによって、荷取り位置付近まで基本経路16cに沿って走行させる。
Next, the operation of the automatic operation forklift 10 according to the present invention will be described according to the flowchart of FIG.
In step ST1, when a loading position and an unloading position are input on the operation panel 16a of the control unit 16, the control unit 16 moves from the current position to the loading position and from the loading position to the unloading position in step ST2. to create running data 16b. As a result, the control unit 16 causes the traveling unit 12 to travel along the basic route 16c to the vicinity of the pickup position by controlling the traveling unit 12 in step ST3.

ステップST4にて、自動運転フォークリフト10が荷取り位置付近に到着すると、制御部16は、対象物検出部20に荷取り位置に置かれたパレット30及びその開口部31の形状及び位置の認識作業の開始を指示し、ステップST5にて対象物検出部20が、図15のフローチャートに従ってパレット30及びその開口部31の形状及び位置の認識作業を行なう。 At step ST4, when the automatically operated forklift 10 arrives near the unloading position, the control unit 16 causes the object detection unit 20 to recognize the shape and position of the pallet 30 placed at the unloading position and its opening 31. , and in step ST5, the object detection unit 20 performs recognition of the shapes and positions of the pallet 30 and its opening 31 according to the flowchart of FIG.

これにより、制御部16は、ステップST6にて対象物検出部20で認識されたパレット30及びその開口部31の形状及び位置と位置センサ15aによる現在位置との相対位置関係に基づいて、フォーク13がパレット30の開口部31に真っ直ぐに正対する荷取り位置までの走行データ16bを作成し、ステップST7にてこの走行データ16bに基づいて走行部12を制御し、自動運転フォークリフト10を荷取り位置まで移動させる。続いてステップST8にて制御部16は走行部12を制御して、フォーク13をパレット30の開口部31内に挿入しながらゆっくりと前進させた後、フォーク駆動部14を制御してフォーク13を上昇させ、フォーク13上にパレット30を搭載する。 As a result, the control unit 16 controls the fork 13 based on the relative positional relationship between the shape and position of the pallet 30 and its opening 31 recognized by the object detection unit 20 in step ST6 and the current position detected by the position sensor 15a. creates traveling data 16b up to a pickup position that directly faces the opening 31 of the pallet 30, and in step ST7, based on this traveling data 16b, the traveling unit 12 is controlled to move the automatically operating forklift 10 to the pickup position. move up to Subsequently, in step ST8, the control unit 16 controls the traveling unit 12 to slowly move the fork 13 forward while inserting it into the opening 31 of the pallet 30, and then controls the fork driving unit 14 to move the fork 13. The pallet 30 is mounted on the fork 13 by raising it.

次に、制御部16はステップST9にて、既に作成した走行データ16bにより走行部12を制御し、荷取り位置から荷卸し位置付近まで基本経路16cに沿って走行させる。自動運転フォークリフト10が荷卸し位置付近に到着すると、ステップST10にて制御部16は対象物検出部20に荷卸し位置に備えられたマーカー16dの形状及び位置の認識作業の開始を指示し、ステップST11にて対象物検出部20がマーカー16dの形状及び位置の認識作業を行なう。 Next, in step ST9, the control section 16 controls the traveling section 12 based on the traveling data 16b that has already been created, and causes the traveling section 12 to travel along the basic route 16c from the pickup position to the vicinity of the unloading position. When the automatic operation forklift 10 arrives near the unloading position, in step ST10, the control unit 16 instructs the object detection unit 20 to start recognizing the shape and position of the marker 16d provided at the unloading position. In ST11, the object detection unit 20 performs recognition of the shape and position of the marker 16d.

ステップST12にて制御部16は、対象物検出部20で認識されたマーカー16dの形状及び位置と位置センサ15aによる現在位置との相対位置関係に基づいて、フォーク13がマーカー16d上に整列する荷卸し位置までの走行データ16bを作成する。ステップST13にて、作成された走行データ16bに基づいて走行部12を制御して自動運転フォークリフト10を荷卸し位置まで移動させる。
続いて、制御部16はステップST14にてフォーク駆動部14を制御し、パレット30の底面が床面に接するまでフォーク13をゆっくりと下降させた後、ステップST15にて走行部12を制御して後退させ、フォーク13をパレット30の開口部31から完全に引き抜いて荷卸しを行なう。
このようにして、自動運転フォークリフト10による荷役作業が完了する。
In step ST12, the control unit 16 unloads the fork 13 aligned on the marker 16d based on the relative positional relationship between the shape and position of the marker 16d recognized by the object detection unit 20 and the current position detected by the position sensor 15a. Travel data 16b up to the starting position is created. In step ST13, based on the created travel data 16b, the traveling unit 12 is controlled to move the automatically operated forklift 10 to the unloading position.
Subsequently, the control unit 16 controls the fork driving unit 14 in step ST14 to slowly lower the forks 13 until the bottom surface of the pallet 30 touches the floor surface, and then controls the traveling unit 12 in step ST15. Then, the fork 13 is completely pulled out from the opening 31 of the pallet 30 to unload.
Thus, the cargo handling work by the automatically operated forklift 10 is completed.

対象物検出部20によるパレット30及びその開口部31の形状及び位置の認識作業は、図15のフローチャートに従って以下のように行なわれる。
先ずステップST21にて、制御部16が対象物検出部20に対して認識作業の開始を指示すると、ステップST22にて対象物検出部20の直動アクチュエータ21a及び二次元ライダー22aが連動し、異なる高さ位置h1,h2,h3でそれぞれ二次元ライダー22aが水平スキャンを行なって二次元点群22cを取得すると共に、高さセンサ23がそのときの高さ位置hを取得する。そして、ステップST23にて形状認識部24によりこれらの二次元点群22cを補正した後、高さ位置hと組み合わせて一つの三次元点群25を構成する。
The operation of recognizing the shape and position of the pallet 30 and its opening 31 by the object detection unit 20 is performed as follows according to the flow chart of FIG.
First, in step ST21, when the control unit 16 instructs the object detection unit 20 to start recognition work, in step ST22, the linear motion actuator 21a and the two-dimensional rider 22a of the object detection unit 20 are interlocked, and different The two-dimensional lidar 22a performs horizontal scanning at height positions h1, h2, and h3 to obtain a two-dimensional point group 22c, and the height sensor 23 obtains the height position h at that time. Then, in step ST23, after correcting these two-dimensional point groups 22c by the shape recognition unit 24, one three-dimensional point group 25 is formed by combining them with the height position h.

その後、形状認識部24は、ステップST24にて対象領域外の点を除外して三次元点群Aを作成し、ステップST25にて垂直な面に属する点を選択して点群Bを構築し、ステップST26にて複数のスライス領域26a,26b…に属する点をそれぞれ選択して点群のセットCを振り分ける。その後、ステップST27にて点群のセットCの各点群に対して垂直な平面を検出して、この平面からの距離が遠い点を除外してクラスタリングを行なってクラスターを抽出する。 Thereafter, in step ST24, the shape recognition unit 24 excludes points outside the target region to create a three-dimensional point group A, and in step ST25 selects points belonging to a vertical plane to construct a point group B. At step ST26, points belonging to a plurality of slice regions 26a, 26b, . Thereafter, in step ST27, a plane perpendicular to each point group in the point group set C is detected, and clustering is performed by excluding points far from this plane to extract clusters.

ステップST28にて形状認識部24は、水平方向に隣接する三個一組のクラスター(トリプレット)のうち、クラスター同士の相互距離が一定範囲内のものを抽出してセットDとし、ステップST29にてトリプレットに含まれる三個のクラスターの間に点のない空隙があるもののみを抽出してセットEとする。これにより形状認識部24は、ステップST30にてセットEに含まれる空隙のうち互いに距離の近いものを一つのグループとして当該グループの空隙を一つにまとめた後に、その中心位置を開口部31として前方に在るパレット30及びその開口部31の形状及び位置を認識して、制御部16に出力する。
このようにして、パレット30及びその開口部31の形状及び位置の認識作業が完了する。
At step ST28, the shape recognizing unit 24 extracts, from among a set of three horizontally adjacent clusters (triplets), those clusters whose mutual distance is within a certain range, and sets them as a set D, and at step ST29. Set E is extracted only for those with pointless gaps between the three clusters contained in the triplet. As a result, in step ST30, the shape recognition unit 24 groups the gaps included in the set E that are close to each other into one group. The shape and position of the pallet 30 and its opening 31 located in front are recognized and output to the control unit 16 .
In this way, the task of recognizing the shape and position of the pallet 30 and its opening 31 is completed.

上記構成によれば、形状認識部24が、センサ部22で取得した三次元点群25から例えば荷取り位置に置かれたパレット30及びその開口部31を認識することができるので、荷取り位置に正確にパレット30が置かれていなくても、確実にパレット30の形状及び位置を認識することができる。 According to the above configuration, the shape recognition unit 24 can recognize, for example, the pallet 30 placed at the unloading position and its opening 31 from the three-dimensional point group 25 acquired by the sensor unit 22. The shape and position of the pallet 30 can be reliably recognized even if the pallet 30 is not placed exactly on the table.

本発明は、その趣旨を逸脱しない範囲において様々な形態で実施することができる。例えば、対象物検出部20の直動アクチュエータ21a,二次元ライダー22a及び高さセンサ23をマスト13aに取り付けることなく、別途車体11に設けた支持部材に取り付けるようにしてもよい。この場合、フォーク13を上下に揺動させるためにマスト13aが前後に揺動する構造の自動運転フォークリフト10であっても、対象物検出部20を車体11に対して固定配置することが可能である。 The present invention can be embodied in various forms without departing from its gist. For example, the direct-acting actuator 21a, the two-dimensional rider 22a, and the height sensor 23 of the object detection unit 20 may be attached to a support member separately provided on the vehicle body 11 without being attached to the mast 13a. In this case, even in the automatic operation forklift 10 having a structure in which the mast 13a swings back and forth to swing the fork 13 up and down, the object detection unit 20 can be fixedly arranged with respect to the vehicle body 11. be.

本発明による自動運転フォークリフト10は、移動手段21を、二次元ライダー22aの水平スキャンとは異なる方向、すなわち上向き又は下向きに揺動させる揺動手段と揺動手段の揺動角度を検出する角度検出手段とで構成してもよい。この構成では、形状認識部24が、角度検出手段により検出された揺動角度に基づいて検出対象の高さ位置を演算して、二次元ライダーによる二次元点群22cに検出対象の高さ位置を付加して三次元点群25を演算する。
この構成によれば、二次元ライダー22aで水平方向にスキャンしながら、揺動手段により二次元ライダーを上下方向に揺動させて検出対象の高さ位置を変更することによって、二次元ライダーによる二次元点群22cに高さ位置を付加して三次元点群25を取得することができる。この場合、揺動手段が二次元ライダー22aを上下方向に揺動させる構成であるので、センサ部22が小型に且つ簡単に構成される。
The automatic operation forklift 10 according to the present invention includes a swinging means for swinging the moving means 21 in a direction different from the horizontal scanning of the two-dimensional rider 22a, that is, upward or downward, and an angle detection for detecting the swinging angle of the swinging means. means. In this configuration, the shape recognition unit 24 calculates the height position of the detection target based on the swing angle detected by the angle detection means, and calculates the height position of the detection target in the two-dimensional point group 22c by the two-dimensional lidar. is added to calculate the three-dimensional point cloud 25 .
According to this configuration, while scanning in the horizontal direction with the two-dimensional lidar 22a, the two-dimensional lidar is vertically swung by the swinging means to change the height position of the detection target, thereby enabling two-dimensional A three-dimensional point group 25 can be obtained by adding a height position to the dimensional point group 22c. In this case, since the swing means swings the two-dimensional rider 22a in the vertical direction, the sensor section 22 can be made compact and simple.

上述した実施形態に代えて、対象物検出部20のセンサ部22を車体11に配置した三次元ライダーとし、形状認識部24が三次元ライダーで検出した三次元点群25から前方に位置する物体の形状を認識するようにしてもよい。この構成にすれば、三次元ライダーにより直接に三次元点群25を取得することができるので、ライダーを上下動又は揺動させるための移動手段が不要であり、三次元ライダーが直接に車体11に固定配置できるので、センサ部22がより簡単で且つ小型に構成され得る。 Instead of the above-described embodiment, the sensor unit 22 of the object detection unit 20 is a three-dimensional lidar arranged on the vehicle body 11, and the shape recognition unit 24 detects an object located in front of the three-dimensional point group 25 detected by the three-dimensional lidar. may be recognized. With this configuration, the 3D point cloud 25 can be obtained directly by the 3D rider. , the sensor section 22 can be configured more simply and compactly.

10 自動運転フォークリフト
11 車体
11a 張出部
11b 前輪
11c 後輪
12 走行部
13 フォーク
13a マスト
14 フォーク駆動部
15 検出部
15a 位置センサ(レーザーナビゲータ)
15b 障害物センサ
15c バンパーセンサ
15d レーザースキャナ
15e 受光部
15f 施設
15g 反射部
16 制御部
16a 操作部
16b 走行データ
16c 基本経路
16d マーカー
17 安全部
17a 緊急停止ボタン
17b 音声・パトランプ
17c ウィンカー
20 対象物検出部
21 移動手段
21a 直動アクチュエータ
21b 本体
21c 可動部
22 センサ部
22a 二次元ライダー
22b スキャン面
22c 二次元点群
23 高さセンサ
24 形状認識部
25 三次元点群
26a,26b… スライス領域
27a,27b,27c,27d クラスター
30 パレット
31 開口部
10 Autonomous Operation Forklift 11 Vehicle Body 11a Overhang 11b Front Wheel 11c Rear Wheel 12 Traveling Part 13 Fork 13a Mast 14 Fork Driving Part 15 Detection Part 15a Position Sensor (Laser Navigator)
15b Obstacle sensor 15c Bumper sensor 15d Laser scanner 15e Light receiver 15f Facility 15g Reflector 16 Control unit 16a Operation unit 16b Travel data 16c Basic route 16d Marker 17 Safety unit 17a Emergency stop button 17b Voice/patrol lamp 17c Winker 20 Object detector 21 moving means 21a linear actuator 21b main body 21c movable part 22 sensor part 22a two-dimensional lidar 22b scan plane 22c two-dimensional point group 23 height sensor 24 shape recognition part 25 three-dimensional point group 26a, 26b... slice area 27a, 27b, 27c, 27d cluster 30 pallet 31 opening

Claims (5)

車体と、前記車体を走行させると共に操舵する走行部と、前記車体前部に取り付けられてマストに上下方向に移動可能に支持されたフォークと、前記フォークを上下に昇降させるフォーク駆動部と、位置センサと、位置センサによる現在位置を参照しながら走行データに基づいて前記走行部及びフォーク駆動部を制御する制御部と、を備えた自動運転フォークリフトであって、
さらに、センサ部と形状認識部から成る対象物検出部を備えており、
前記センサ部が、前記車体に取り付けられ、水平スキャンの方向が前方に向かって下向きに傾斜するよう配置された二次元ライダーと、前記二次元ライダーの水平スキャンの方向とは異なる方向に移動させる移動手段と、から構成され、
前記移動手段は移動可能な前記フォークとは別に車体に固定して設けられ、該移動手段は前記二次元ライダーを上下方向に並進移動させる直動アクチュエータと前記二次元ライダーの高さ位置を検出する高さセンサとを備え、
前記形状認識部が、前記二次元ライダーの水平スキャンにより取得される二次元点群に前記高さセンサで検出された高さ位置を付加して三次元点群を取得し、垂直な面に属する前記三次元点群を選択して一定の高さのスライス領域から垂直な平面を検出し、前方に位置する物体の形状及び位置を認識する、自動運転フォークリフト。
a vehicle body, a running section for running and steering the vehicle body, a fork attached to the front portion of the vehicle body and supported by a mast so as to be vertically movable , a fork driving section for vertically moving the fork, and a position. An automatically operating forklift equipped with a sensor and a control unit that controls the traveling unit and the fork driving unit based on traveling data while referring to the current position from the position sensor,
Furthermore, it is equipped with an object detection section consisting of a sensor section and a shape recognition section,
A two-dimensional lidar in which the sensor unit is attached to the vehicle body and arranged so that the direction of horizontal scanning is inclined downward toward the front, and a movement of moving the two-dimensional lidar in a direction different from the direction of horizontal scanning. consisting of means and
The moving means is fixed to the vehicle body separately from the movable fork, and the moving means detects a linear actuator for vertically translating the two-dimensional rider and the height position of the two-dimensional rider. and a height sensor,
The shape recognition unit acquires a three-dimensional point group by adding the height position detected by the height sensor to the two-dimensional point group acquired by horizontal scanning of the two-dimensional lidar, and acquires a three-dimensional point group belonging to a vertical plane. A self-driving forklift that selects the 3D point cloud to detect a vertical plane from a constant height slice area, and recognizes the shape and position of an object located in front.
前記直動アクチュエータは、前記フォークより外側における前記マストの側面に固定されている、請求項1に記載の自動運転フォークリフト。 The self-operating forklift truck according to claim 1, wherein the linear actuator is fixed to a side surface of the mast outside the fork. 前記形状認識部が、前記垂直な面に属する前記三次元点群から前記フォークにより搬送すべきパレットの開口部の左右の柱部分を抽出することで、前記パレットの開口部の形状及び位置を認識する、請求項1又は2に記載の自動運転フォークリフト。 The shape recognition unit recognizes the shape and position of the opening of the pallet by extracting the left and right column portions of the opening of the pallet to be conveyed by the fork from the three- dimensional point cloud belonging to the vertical plane. The automatic operation forklift according to claim 1 or 2 . 前記制御部が、認識した前記パレット及び前記開口部の形状及び位置と前記位置センサによる現在位置との相対位置関係に基づいて、前記フォークが前記パレットの開口部に真っ直ぐに正対する荷取り位置までの走行データを作成して、前記走行データに基づいて前記走行部を制御する、請求項3に記載の自動運転フォークリフト。 Based on the relative positional relationship between the shapes and positions of the pallet and the opening recognized by the control unit and the current position detected by the position sensor, the fork reaches a loading position in which the fork directly faces the opening of the pallet. 4. The automatic operation forklift truck according to claim 3 , wherein the traveling data is created, and the traveling unit is controlled based on the traveling data. 記形状認識部が、前記三次元点群から前方の床面と前記床面に設置されたマーカーの形状及び位置を認識する、請求項1から4の何れかに記載の自動運転フォークリフト。 The automatic operation forklift truck according to any one of claims 1 to 4 , wherein the shape recognition unit recognizes the shape and position of a front floor surface and a marker installed on the floor surface from the three-dimensional point group.
JP2020138186A 2020-08-18 2020-08-18 self-driving forklift Active JP7318892B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020138186A JP7318892B2 (en) 2020-08-18 2020-08-18 self-driving forklift

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020138186A JP7318892B2 (en) 2020-08-18 2020-08-18 self-driving forklift

Publications (2)

Publication Number Publication Date
JP2022034408A JP2022034408A (en) 2022-03-03
JP7318892B2 true JP7318892B2 (en) 2023-08-01

Family

ID=80442207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020138186A Active JP7318892B2 (en) 2020-08-18 2020-08-18 self-driving forklift

Country Status (1)

Country Link
JP (1) JP7318892B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA3187675A1 (en) * 2020-09-30 2022-04-07 Chun Zhang Vehicle object-engagement scanning system and method
CN115108498B (en) * 2022-05-13 2023-03-24 浙江中力机械股份有限公司 Control method and system of automatic stacking storage forklift robot system
WO2024047724A1 (en) * 2022-08-30 2024-03-07 株式会社日立製作所 Forklift and automated warehouse system

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000053395A (en) 1998-08-07 2000-02-22 Mitsubishi Electric Corp Automatical transporting device
WO2003008325A1 (en) 2001-07-17 2003-01-30 Kabushiki Kaisha Toyota Jidoshokki Industrial vehicle equipped with material handling work controller
JP2013230903A (en) 2012-04-27 2013-11-14 Hitachi Ltd Forklift
US20160090283A1 (en) 2014-09-25 2016-03-31 Bt Products Ab Fork-Lift Truck
JP2016204067A (en) 2015-04-16 2016-12-08 株式会社豊田中央研究所 forklift
JP2017102705A (en) 2015-12-02 2017-06-08 株式会社リコー Autonomous mobile device and autonomous mobile device system
JP2018136711A (en) 2017-02-21 2018-08-30 パナソニックIpマネジメント株式会社 Autonomous Mobile Robot
JP2020107174A (en) 2018-12-28 2020-07-09 住友ナコ フォ−クリフト株式会社 Transfer system, transfer device, calculator, learning method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000053395A (en) 1998-08-07 2000-02-22 Mitsubishi Electric Corp Automatical transporting device
WO2003008325A1 (en) 2001-07-17 2003-01-30 Kabushiki Kaisha Toyota Jidoshokki Industrial vehicle equipped with material handling work controller
JP2013230903A (en) 2012-04-27 2013-11-14 Hitachi Ltd Forklift
US20160090283A1 (en) 2014-09-25 2016-03-31 Bt Products Ab Fork-Lift Truck
JP2016204067A (en) 2015-04-16 2016-12-08 株式会社豊田中央研究所 forklift
JP2017102705A (en) 2015-12-02 2017-06-08 株式会社リコー Autonomous mobile device and autonomous mobile device system
JP2018136711A (en) 2017-02-21 2018-08-30 パナソニックIpマネジメント株式会社 Autonomous Mobile Robot
JP2020107174A (en) 2018-12-28 2020-07-09 住友ナコ フォ−クリフト株式会社 Transfer system, transfer device, calculator, learning method

Also Published As

Publication number Publication date
JP2022034408A (en) 2022-03-03

Similar Documents

Publication Publication Date Title
JP7318892B2 (en) self-driving forklift
US10248123B2 (en) Mobile apparatus
CN110054116B (en) Fork navigation method and system applied to forklift and unmanned forklift
US4309758A (en) Driverless vehicle autoguided by light signals and three non-directional detectors
US20210284198A1 (en) Self-driving vehicle path adaptation system and method
US20080011554A1 (en) Movable sensor device on the loading means of a forklift
CN113387302B (en) Mobile control system, mobile body, control method, and storage medium
CN111090087B (en) Intelligent navigation machine, laser radar blind area compensation method and storage medium
CN111717843A (en) Logistics carrying robot
JP7363705B2 (en) Cargo handling system
JP2017032329A (en) Obstacle determination device, mobile body, and obstacle determination method
JP4745150B2 (en) Mobile robot
JP4745149B2 (en) Mobile robot
JP2023008297A (en) Identification marker and autonomous vehicle for cargo transfer
EP3663250B1 (en) A system and method for alignment of a terminal truck relative to a crane
CN212302516U (en) Container identification system based on space scanning
CN113711153B (en) Map creation system, signal processing circuit, mobile object, and map creation method
US20230202817A1 (en) Control method for mobile object, mobile object, and computer-readable storage medium
CN116974289B (en) Intelligent robot navigation obstacle avoidance method for container loading, unloading and carrying
US20220260997A1 (en) Movable body, movement control system, method for controlling movable body, and program
US20230202815A1 (en) Control method for mobile object, mobile object, movement control system, and computer-readable storage medium
JP2020191008A (en) Autonomous mobile device, and conveyance information reading method for autonomous mobile device
Garibotto et al. Computer vision control of an intelligent forklift truck
JP7257431B2 (en) Mobile object control method, mobile object and program
WO2024014194A1 (en) Route setting method, program, and route setting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220430

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230711

R150 Certificate of patent or registration of utility model

Ref document number: 7318892

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150