JP2024033761A - System and method for controlling cargo handling vehicle and cargo handling vehicle - Google Patents
System and method for controlling cargo handling vehicle and cargo handling vehicle Download PDFInfo
- Publication number
- JP2024033761A JP2024033761A JP2022137563A JP2022137563A JP2024033761A JP 2024033761 A JP2024033761 A JP 2024033761A JP 2022137563 A JP2022137563 A JP 2022137563A JP 2022137563 A JP2022137563 A JP 2022137563A JP 2024033761 A JP2024033761 A JP 2024033761A
- Authority
- JP
- Japan
- Prior art keywords
- cargo handling
- target
- handling vehicle
- forklift
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000001514 detection method Methods 0.000 claims abstract description 77
- 238000010586 diagram Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 13
- 238000003780 insertion Methods 0.000 description 12
- 230000037431 insertion Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 102100035353 Cyclin-dependent kinase 2-associated protein 1 Human genes 0.000 description 2
- 102100029860 Suppressor of tumorigenicity 20 protein Human genes 0.000 description 2
- 239000010720 hydraulic oil Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000003921 oil Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Forklifts And Lifting Vehicles (AREA)
Abstract
Description
本開示は、荷役車両を制御するためのシステム、方法、及び荷役車両に関する。 TECHNICAL FIELD The present disclosure relates to a system, method, and material handling vehicle for controlling a material handling vehicle.
荷役車両に係る技術分野において、フォークリフトの作業を効率的に行うための配車システムが知られている(例えば、特許文献1参照)。特許文献1では、フォークリフトには、カメラと表示装置が搭載され、表示装置にはカメラが撮像した画面が表示される。
BACKGROUND ART In the technical field related to cargo handling vehicles, a vehicle dispatch system for efficiently performing work with a forklift is known (see, for example, Patent Document 1). In
荷役車両が荷役作業を行う作業エリア内には、荷役作業の対象が複数存在する場合がある。このため、荷役作業を行う際に、目標とする対象とその他の対象を区別して確認できることが望まれる。 In a work area where a cargo handling vehicle performs cargo handling work, there may be a plurality of objects for cargo handling work. Therefore, when carrying out cargo handling work, it is desirable to be able to distinguish between target objects and other objects.
本開示の態様は、荷役車両が荷役作業を行う際に、目標とする対象とその他の対象とを区別して確認できる荷役車両を制御するためのシステム、方法、及び、荷役車両を提供することを目的とする。 Aspects of the present disclosure provide a system, a method, and a cargo handling vehicle for controlling a cargo handling vehicle that can distinguish and check a target object from other objects when the cargo handling vehicle performs cargo handling work. purpose.
本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を撮像するカメラと、物体検出センサから物体検出データを取得可能なコントローラと、表示装置と、を備える荷役車両を制御するためのシステムが提供される。コントローラは、物体検出センサからの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、カメラによって撮像された画像を表示装置に表示させる表示制御部と、を備える。表示制御部は、識別部の識別結果に基づいて、識別された対象を示す情報画像を表示装置に表示させる。 According to an aspect of the present disclosure, an object detection sensor that is attached to a cargo handling vehicle and detects an object that exists around the cargo handling vehicle; a camera that is attached to the cargo handling vehicle and captures an image of an object that exists around the cargo handling vehicle; A system for controlling a cargo handling vehicle is provided that includes a controller capable of acquiring object detection data from an object detection sensor and a display device. The controller includes an identification unit that identifies a target from objects existing within a search range based on object detection data from an object detection sensor, and a display control unit that causes a display device to display an image captured by the camera. . The display control section causes the display device to display an information image indicating the identified object based on the identification result of the identification section.
本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を撮像するカメラと、物体検出センサから物体検出データを取得可能なコントローラと、表示装置と、を備えた荷役車両を制御するための方法が提供される。第1のステップは、物体検出センサからの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する。第2のステップは、カメラによって撮像された画像を表示装置に表示させる。第3のステップは、識別結果に基づいて、識別された対象を示す情報画像を表示装置に表示させる。 According to an aspect of the present disclosure, an object detection sensor that is attached to a cargo handling vehicle and detects an object that exists around the cargo handling vehicle; a camera that is attached to the cargo handling vehicle and captures an image of an object that exists around the cargo handling vehicle; A method for controlling a cargo handling vehicle including a controller capable of acquiring object detection data from an object detection sensor and a display device is provided. The first step is to identify a target from objects existing within the search range based on object detection data from the object detection sensor. The second step is to display the image captured by the camera on the display device. The third step is to display an information image indicating the identified object on the display device based on the identification result.
本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を撮像するカメラと、物体検出センサから物体検出データを取得可能なコントローラと、表示装置と、を備える荷役車両が提供される。コントローラは、物体検出センサからの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、カメラによって撮像された画像を表示装置に表示させる表示制御部と、を備える。表示制御部は、識別部の識別結果に基づいて、識別された対象を示す情報画像を表示装置に表示させる。 According to an aspect of the present disclosure, an object detection sensor that is attached to a cargo handling vehicle and detects an object that exists around the cargo handling vehicle; a camera that is attached to the cargo handling vehicle and captures an image of an object that exists around the cargo handling vehicle; A cargo handling vehicle is provided that includes a controller capable of acquiring object detection data from an object detection sensor and a display device. The controller includes an identification unit that identifies a target from objects existing within a search range based on object detection data from an object detection sensor, and a display control unit that causes a display device to display an image captured by the camera. . The display control section causes the display device to display an information image indicating the identified object based on the identification result of the identification section.
本開示の態様によれば、荷役車両が荷役作業を行う際に、目標とする対象とその他の対象とを区別して確認できる荷役車両を制御するためのシステム、方法、及び、荷役車両が提供される。 According to aspects of the present disclosure, there is provided a system, a method, and a cargo handling vehicle for controlling a cargo handling vehicle that can distinguish and confirm a target object and other objects when the cargo handling vehicle performs cargo handling work. Ru.
以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示はこれに限定されない。以下で説明する各実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings, but the present disclosure is not limited thereto. The components of each embodiment described below can be combined as appropriate. Furthermore, some components may not be used.
実施形態においては、左、右、前、後、上、及び下の用語を用いて各部の位置関係について説明する。これらの用語は、荷役車両に規定された車体座標系の原点を基準とする相対位置又は方向を示す。 In the embodiment, the positional relationship of each part will be described using terms such as left, right, front, rear, upper, and lower. These terms indicate a relative position or direction with respect to the origin of the vehicle body coordinate system defined for the cargo handling vehicle.
<荷役車両>
荷役車両1は、荷役車両1の作業現場において、荷役車両1の周辺に存在する物体から対象を識別する。本実施形態においては、荷役車両1を適宜、フォークリフト1、と称する。なお、荷役車両は特に限定されるものではなく、例えば、フォークアタッチメントを取り付け可能なホイールローダであってもよい。
<Cargo handling vehicle>
The
フォークリフト1は、運搬物の荷取り作業及び荷置き作業等の荷役作業を行う。フォークリフト1は、例えば、地面上に置かれた運搬物を取り上げる荷取り作業を行う。フォークリフト1は、例えば、他の運搬物の上段に積まれた運搬物を取り上げる荷取り作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を荷置きスペースに取りおろす荷置き作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を貨物車両の荷台上に取りおろす荷置き作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を地面上に置かれた他の運搬物の上段に取りおろす荷置き作業を行う。
The
対象とは、フォークリフト1の荷役対象である。本実施形態では、対象は、例えば、運搬物、運搬物を載置可能な荷置きスペース、又は、貨物車両の荷台である。
The object is the object to be handled by the
本実施形態では、運搬物は、荷物を積載する荷役台や容器である。運搬物は、例えば、パレットやスキッド、コンテナである。運搬物は、フォーク挿し込み穴を備える。 In this embodiment, the transported object is a loading platform or a container on which cargo is loaded. The conveyed object is, for example, a pallet, a skid, or a container. The conveyed object is equipped with a fork insertion hole.
フォークリフト1は、荷取り作業及び荷置き作業の際に、対象(運搬物、荷置きスペース、又は、貨物車両の荷台)を識別して、フォークリフト1を当該対象に対して自動で正対するように操舵制御が行われる(自動制御機能)。
The
自動制御機能では、フォークリフト1のステアリング操作又は作業機操作の少なくともいずれか一方が自動制御される。本実施形態では、オペレータは、フォークリフト1のアクセル操作を行う。本実施形態では、自動制御開始エリアまで、言い換えると、対象が識別されるまでは、フォークリフト1は、オペレータの操作によりマニュアルで移動する。
In the automatic control function, at least either the steering operation of the
<フォークリフトの全体構成>
図1は、実施形態に係るフォークリフト1を左前方斜め上側から見た斜視図である。フォークリフト1は、車体10と、動力源21と、車体10の前方に配置される作業機2と、車体10を支持する走行装置と、運転室20とを備える。動力源21は、図示しない油圧ポンプを駆動する。動力源21は、例えば、エンジンである。
<Overall configuration of forklift>
FIG. 1 is a perspective view of a
車体10の前方には、運搬物を取り上げるための作業機2が設置されている。作業機2は、マスト14と、支持部131と、フォーク13と、リフトシリンダ15と、チルトシリンダ16と、サイドシフトシリンダ17とを有する。マスト14は、左右軸回りに回転可能に車体10の前方に取り付けられている。マスト14は、車体10に対して前傾姿勢又は後傾姿勢をとることが可能である。支持部131は、マスト14に支持される。支持部131は、マスト14に沿って上下方向に移動可能である。フォーク13は、支持部131を介してマスト14に支持されている。フォーク13は、マスト14に沿って昇降する。
A working
リフトシリンダ15は、車体10に対してフォーク13を上下方向に移動させる。チルトシリンダ16は、車体10に対してマスト14を前後方向に傾斜させる。サイドシフトシリンダ17は、車体10に対してフォーク13を左右方向に移動させる。
The lift cylinder 15 moves the
リフトシリンダ15は、マスト14と支持部131との間に配置される。リフトシリンダ15は、支持部131を上下方向に移動することにより、フォーク13を上下方向に移動させる。支持部131とフォーク13とは、上下方向に一緒に移動する。支持部131とフォーク13とは、マスト14に沿って上下方向に移動する。チルトシリンダ16は、車体10とマスト14との間に配置される。チルトシリンダ16は、マスト14を前後方向に傾斜させることにより、フォーク14を前後方向に傾斜させる。
Lift cylinder 15 is arranged between
走行装置は、フォークリフト1を走行させる。走行装置は、フォークリフト1の進行、制動、及び操舵を行う。進行とは、フォークリフト1が前進又は後進することをいう。制動とは、フォークリフト1が減速又は停止することをいう。操舵とは、フォークリフト1の走行方向が変更されることをいう。走行装置は、前輪11と、後輪12と、走行モータ22と、図示しないブレーキ装置と、ステアリングシリンダ18とを有する。
The traveling device causes the
前輪11及び後輪12のそれぞれは、車体10を支持する。前輪11の少なくとも一部は、車体10よりも下方に配置される。後輪12の少なくとも一部は、車体10よりも下方に配置される。前輪11は、後輪12よりも前方に配置される。前輪11は、車体10の左側及び右側のそれぞれに配置される。後輪12は、車体10の左側及び右側のそれぞれに配置される。前輪11及び後輪12のそれぞれは、回転軸を中心に回転可能である。
Each of the
走行モータ22は、フォークリフト1を進行させるための駆動力を発生する。走行モータ22は、前輪11を回転させることによって、フォークリフト1を前進又は後進させる。走行モータ22は、図示しない油圧ポンプから吐出される作動油によって駆動する。前輪11は、走行モータ22が発生する回転力により回転する駆動輪である。ブレーキ装置は、フォークリフト1を制動させる。
The
ステアリングシリンダ18は、フォークリフト1を操舵する。ステアリングシリンダ18は、後輪12を操舵することによって、フォークリフト1の走行方向を変更させる。後輪12は、ステアリングシリンダ18により操舵される操舵輪である。ステアリングシリンダ18は、ステアリング制御弁24を介して供給される作動油によって動作する。
The steering cylinder 18 steers the
表示装置26は、運転室20に配置されている。表示装置26は、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイを含む。表示装置26は、コントローラ60から送信された画像を表示する。
The display device 26 is arranged in the driver's
操作部27は、フォークリフト1のオペレータによって操作される。操作部27は、運転室20の運転席の周辺に配置される。操作部27に対して行われた操作は、操作信号(オペレータ指令)としてコントローラ60によって取得される。操作部27は、複数のボタン、レバー、スイッチ等を含んでもよい。
The operating unit 27 is operated by the operator of the
操作部27は、例えば、自動制御機能の許可操作を受け付ける。操作部27は、例えば、自動制御機能の許可操作を受け付け可能なボタン、レバー、スイッチ等である。自動制御機能が許可されている間、対象の識別処理が実行される。 The operation unit 27 receives, for example, an operation to permit the automatic control function. The operation unit 27 is, for example, a button, lever, switch, etc. that can accept an operation to permit an automatic control function. Target identification processing is performed while the automatic control function is enabled.
操作部27は、識別部66によって対象が識別された場合、識別された対象を荷役作業を行う目標として決定する自動制御開始操作を受け付ける。自動制御開始操作が受け付けられると、そのときに識別されている対象が自動制御機能の対象として決定される。自動制御が開始されると、決定された対象に対する荷役作業のために、フォークリフト1のステアリング操作又は作業機操作の少なくともいずれか一方が自動制御される。
When an object is identified by the identification section 66, the operation section 27 receives an automatic control start operation for determining the identified object as a target for cargo handling work. When the automatic control start operation is accepted, the target identified at that time is determined as the target of the automatic control function. When the automatic control is started, at least one of the steering operation of the
運転室20の前方には、ステアリングホイール31が配置される。オペレータは、手でステアリングホイール31を操作して、フォークリフト1を操舵する。
A steering wheel 31 is arranged in front of the driver's
フォークリフト1は、作業機レバー32、前後進切替レバー33、アクセルペダル34、車速センサ35、ステアリング角センサ36、及び、作業機負荷センサ37を備える。作業機レバー32は、フォークリフト1のフォーク13を操作するための操作用の部材である。前後進切替レバー33は、フォークリフト1の進行方向を前方又は後方のいずれか一方に切り替えるための操作用の部材である。アクセルペダル34は、フォークリフト1の走行速度を変更するための操作用の部材である。
The
車速センサ35は、フォークリフト1の車速を検出する。車速センサ35は、検出した車速データをコントローラ60へ送信する。
Vehicle speed sensor 35 detects the vehicle speed of
ステアリング角センサ36は、フォークリフト1のステアリング角を検出する。ステアリング角センサ36は、検出したステアリング角度データをコントローラ60へ送信する。
The steering angle sensor 36 detects the steering angle of the
作業機負荷センサ37は、作業機2にかかる負荷を検出する。作業機負荷センサ37は、例えば、作業機2の少なくとも一部に配置された歪ゲージやロードセル等の荷重測定デバイスである。作業機負荷センサ37により検出された負荷データは、コントローラ60へ出力される。なお、作業機2にかかる負荷は、例えば、リフトシリンダ15を駆動させる圧油の圧力を検出する油圧センサを用いて検出してもよい。この場合、運搬物がフォーク13によって支持されている状態と支持されていない状態とで、作業機2に掛かる負荷が変化する。作業機負荷センサ37は、作業機2に掛かる負荷の変化を検出する。
The work machine load sensor 37 detects the load on the
<3次元センサ及びカメラ>
フォークリフト1は、3次元センサ51、カメラ52及びコントローラ60を備える。3次元センサ51、カメラ52及びコントローラ60は、無線又は有線によりデータを通信可能に接続されている。
<3D sensor and camera>
The
3次元センサ51及びカメラ52は、1組としてフォークリフト1に取り付けられている。本実施形態では、フォークリフト1には、4組の3次元センサ51及びカメラ52が配置されている。なお、3次元センサ51及びカメラ52の数は特に限定されるものではなく、例えば、フォークリフト1に2つの3次元センサ51が配置されていてもよいし、4つ以上のカメラ52が配置されていてもよい。
The three-dimensional sensor 51 and camera 52 are attached to the
3次元センサ51は、物体の3次元データを取得する。物体の3次元データは、物体の表面に規定される複数の検出点からなる点群を含む。点群は、3次元センサ51と物体の表面に規定される複数の検出点のそれぞれとの相対距離及び相対位置を示す。3次元センサ51として、レーザ光を射出することにより物体を検出するレーザセンサ(LiDAR:Light Detection and Ranging)が例示される。なお、3次元センサ51は、赤外光を射出することにより物体を検出する赤外線センサ又は電波を射出することにより物体を検出するレーダセンサ(RADAR:Radio Detection and Ranging)でもよい。 The three-dimensional sensor 51 acquires three-dimensional data of an object. The three-dimensional data of an object includes a point group consisting of a plurality of detection points defined on the surface of the object. The point group indicates the relative distance and position between the three-dimensional sensor 51 and each of the plurality of detection points defined on the surface of the object. As the three-dimensional sensor 51, a laser sensor (LiDAR: Light Detection and Ranging) that detects an object by emitting laser light is exemplified. Note that the three-dimensional sensor 51 may be an infrared sensor that detects objects by emitting infrared light or a radar sensor (RADAR: Radio Detection and Ranging) that detects objects by emitting radio waves.
3次元センサ51は、フォークリフト1の周辺に存在する物体を検出する物体検出センサである。3次元センサ51は、フォークリフト1の周辺の対象を検出可能である。3次元センサ51は、検出した物体検出データをコントローラ60へ送信する。3次元センサ51は、例えば、数10[m]程度の範囲を検出可能である。3次元センサ51は、フォークリフト1に複数が配置されている。3次元センサ51の少なくとも1つは、運搬物を識別するために、運搬物のフォーク挿し込み穴と近い高さに配置されている。3次元センサ51の少なくとも1つは、例えば、地面上又は貨物車両の荷台上に配置された運搬物のフォーク挿し込み穴と近い高さに配置される。本実施形態では、3次元センサ51は、3次元センサ511、3次元センサ512、3次元センサ513、及び3次元センサ514を備える。3次元センサ511、3次元センサ512、3次元センサ513、及び3次元センサ514の区別を特に要しない場合、単に3次元センサ51という。3次元センサ51は、検出した物体検出データをコントローラ60へ送信する。
The three-dimensional sensor 51 is an object detection sensor that detects objects existing around the
3次元センサ511は、フォークリフト1の前方の右側方を検出する。3次元センサ511は、前輪11の上方に位置するフェンダ19Rより上方に配置されている。3次元センサ511は、運転室20の前下方の右側方に配置されている。本実施形態では、3次元センサ511は、カメラ521の下方に配置されている。
The three-dimensional sensor 511 detects the front right side of the
3次元センサ512は、フォークリフト1の前方の左側方を検出する。3次元センサ512は、前輪11の上方に位置するフェンダ19Lより上方に配置されている。3次元センサ512は、運転室20の前下方の左側方に配置されている。本実施形態では、3次元センサ512は、カメラ522の下方に配置されている。
The three-dimensional sensor 512 detects the front left side of the
3次元センサ513は、フォークリフト1の積荷時に、フォークリフト1の前方を検出する。3次元センサ513は、フォークリフト1の積荷時に、フォーク13上の積荷によって前方の検出範囲が遮られない位置に配置されている。3次元センサ513は、前輪11の上方に位置するフェンダ19L上に配置されている。本実施形態では、3次元センサ513は、カメラ523の下方に配置されている。
The three-dimensional sensor 513 detects the front of the
3次元センサ514は、フォークリフト1の空荷時に、フォークリフト1の前方中央の下方を検出する。3次元センサ514は、フォークリフト1の空荷時に、フォーク13によって前方の検出範囲が遮られない位置に配置されている。3次元センサ514は、フォークリフト1の空荷時に、地面等に置かれた運搬物のフォーク挿し込み穴、又は、他の運搬物の上段に積まれた運搬物のフォーク挿し込み穴を検出可能な位置に配置されている。3次元センサ514は、車体10の前方中央部の下方に配置されている。3次元センサ514は、フォーク13の後部に配置され車体10に対してフォーク13を支持する支持部131の中央部の下方に配置されている。3次元センサ514は、フォーク13とともに昇降する。本実施形態では、3次元センサ514は、カメラ524の下方に配置されている。
The three-dimensional sensor 514 detects the lower part of the front center of the
図2-1は、実施形態に係る3次元センサの取付位置及び指向方向を示す概略図である。図2-1に示す例では、フォークリフト1の右側に、フォークリフト1から近い順に運搬物201R、運搬物202R及び運搬物203Rが配置されている。フォークリフト1の左側に、フォークリフト1から近い順に運搬物201L、運搬物202L及び運搬物203Lが配置されている。符号101は、3次元センサ511の指向方向及び検出範囲を模式的に示す。符号102は、3次元センサ512の指向方向及び検出範囲を模式的に示す。符号103は、3次元センサ513の指向方向及び検出範囲を模式的に示す。符号104は、3次元センサ514の指向方向及び検出範囲を模式的に示す。フォークリフト1は、3次元センサ51は、3次元センサ511、3次元センサ512、3次元センサ513、及び3次元センサ514によりフォークリフト1の前方の全方位を検出可能である。
FIG. 2-1 is a schematic diagram showing the mounting position and pointing direction of the three-dimensional sensor according to the embodiment. In the example shown in FIG. 2-1, a transported
図2-2は、実施形態に係るフォークリフトの積荷時の3次元センサの取付位置及び指向方向を示す概略図である。図2-2は、3次元センサ513の取付位置及び指向方向を示す。図2-2に示すように、フォークリフト1の積荷時、3次元センサ513の検出範囲は、運搬物200によって遮られない。フォークリフト1の積荷時、フォークリフト1は、3次元センサ513により前方が検出可能である。
FIG. 2-2 is a schematic diagram showing the mounting position and orientation direction of the three-dimensional sensor when the forklift is loaded according to the embodiment. FIG. 2-2 shows the mounting position and pointing direction of the three-dimensional sensor 513 . As shown in FIG. 2-2, when the
図2-3は、実施形態に係るフォークリフトの空荷時の3次元センサの取付位置及び指向方向を示す概略図である。図2-3は、3次元センサ514の取付位置及び指向方向を示す。図2-3の左側の図に示すように、フォークリフト1の空荷時、フォーク13が下げられている状態では、2段積みの運搬物200の下段の運搬物200の下方が、3次元センサ514の検出範囲に含まれる。図2-3の右側の図に示すように、フォークリフト1の空荷時、フォーク13が持ち上げられた状態では、2段積みの運搬物200の上段の運搬物200の下方が、3次元センサ514の検出範囲に含まれる。フォークリフト1の空荷時、フォークリフト1は、3次元センサ514により前方が検出可能である。
FIG. 2-3 is a schematic diagram showing the mounting position and pointing direction of the three-dimensional sensor when the forklift is unloaded according to the embodiment. FIG. 2-3 shows the mounting position and pointing direction of the three-dimensional sensor 514 . As shown in the diagram on the left side of FIG. 2-3, when the
カメラ52は、フォークリフト1の周辺に存在する物体を撮像する。本実施形態では、カメラ52は、単眼のカメラである。カメラ52は、光学系と、イメージセンサとを有する。イメージセンサは、CCD(Couple Charged Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。カメラ52によって撮像された画像は、フレームレートに応じて、単位時間あたりに複数の画像を含む。
The camera 52 images objects around the
カメラ52は、フォークリフト1の周辺の画像を撮像可能である。カメラ52は、例えば、数10[m]程度の範囲を撮像可能である。カメラ52は、フォークリフト1に複数が配置されている。カメラ52の少なくとも1つは、運搬物を識別するために、運搬物のフォーク挿し込み穴と近い高さに配置されている。カメラ52の少なくとも1つは、例えば、地面上又は貨物車両の荷台上に配置された運搬物のフォーク挿し込み穴と近い高さに配置される。本実施形態では、カメラ52は、カメラ521、カメラ522、カメラ523、及びカメラ524を備える。カメラ521、カメラ522、カメラ523、及びカメラ524の区別を特に要しない場合、単にカメラ52という。カメラ52は、撮像した画像データを物体検出データとしてコントローラ60へ送信する。
The camera 52 is capable of capturing images around the
カメラ521は、フォークリフト1の前方の右側方を撮像する。カメラ521は、フェンダ19Rより上方に配置されている。カメラ521は、運転室20の前下方の右側方に配置されている。本実施形態では、カメラ521は、3次元センサ511の上方に配置されている。
The camera 521 images the front right side of the
カメラ522は、フォークリフト1の前方の左側方を撮像する。カメラ522は、フェンダ19Lより上方に配置されている。カメラ522は、運転室20の前下方の左側方に配置されている。本実施形態では、カメラ522は、3次元センサ512の上方に配置されている。
The camera 522 images the front left side of the
カメラ523は、フォークリフト1の積荷時に、フォークリフト1の前方を撮像する。カメラ523は、フォークリフト1の積荷時に、フォーク13上の積荷によって前方の撮像範囲が遮られない位置に配置されている。カメラ523は、フェンダ19L上に配置されている。本実施形態では、カメラ523は、3次元センサ513の上方に配置されている。
The camera 523 images the front of the
カメラ524は、フォークリフト1の空荷時に、フォークリフト1の前方中央の下方を撮像する。カメラ524は、フォークリフト1の空荷時に、フォーク13によって前方の撮像範囲が遮られない位置に配置されている。カメラ524は、フォークリフト1の空荷時に、地面等に置かれた運搬物のフォーク挿し込み穴、又は、他の運搬物の上段に積まれた運搬物のフォーク挿し込み穴を撮像可能な位置に配置されている。カメラ524は、車体10の前方中央部の下方に配置されている。カメラ524は、フォーク13の後部に配置され車体10に対してフォーク13を固定し支持する支持部131の中央部の下方に配置されている。カメラ524は、フォーク13とともに昇降する。本実施形態では、カメラ524は、3次元センサ514の上方に配置されている。
The camera 524 images the lower part of the front center of the
<フォークリフトの制御システム>
図3は、実施形態に係るフォークリフトの構成の一例を示す機能ブロック図である。フォークリフト1の制御システム70は、3次元センサ51と、コントローラ60とを備える。コントローラ60は、フォークリフト1の周辺の探索範囲内に存在する物体から対象を識別する。コントローラ60は、物体検出センサとしての3次元センサ51から物体検出データを取得可能である。コントローラ60は、CPU(Central Processing Unit)のような数値演算装置(プロセッサ)を含む。
<Forklift control system>
FIG. 3 is a functional block diagram showing an example of the configuration of the forklift according to the embodiment. The
図4は、実施形態に係るコンピュータシステムの一例を示すブロック図である。コントローラ60は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPUのようなプロセッサ1001と、ROMのような不揮発性メモリ及びRAMのような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述のコントローラ60の機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。
FIG. 4 is a block diagram illustrating an example of a computer system according to an embodiment.
本実施形態では、コントローラ60は、センサデータ取得部61と、画像取得部62と、記憶部63と、決定部64と、識別部66と、表示制御部69とを備える。
In this embodiment, the
センサデータ取得部61は、3次元センサ51から物体検出データを取得する。センサデータ取得部61が取得した物体検出データは、例えば、複数の検出点からなる点群である。 The sensor data acquisition unit 61 acquires object detection data from the three-dimensional sensor 51. The object detection data acquired by the sensor data acquisition unit 61 is, for example, a point group consisting of a plurality of detection points.
画像取得部62は、カメラ52が撮像した画像データを取得する。画像取得部62が取得した画像データは、フレームごとの画像データである。 The image acquisition unit 62 acquires image data captured by the camera 52. The image data acquired by the image acquisition unit 62 is image data for each frame.
記憶部63は、RAM、ROM、フラッシュメモリ、及びハードディスクドライブの少なくとも一つを含む。記憶部63は、コントローラ60の処理で使用するデータ等を記憶する。
The
記憶部63は、対象を識別するための対象辞書データ、及びフォークリフト1の車体座標系の原点を基準とした探索範囲を記憶する。本実施形態では、記憶部63は、第1探索範囲と、第1探索範囲と異なる第2探索範囲とを記憶する。第1探索範囲と第2探索範囲との区別を特に要しない場合、単に探索範囲という。
The
探索範囲について説明する。フォークリフト1は、対象に正対するための自動操舵制御を行う場合、フォークリフト1の最大曲率等に応じて、切り返しなしで正対できる範囲が限定される。このため、3次元センサ51で検出できる範囲内の全ての対象を識別した場合、切り返しなしで正対ができない対象が含まれることがあり、自動操舵制御を開始しても正対が困難なおそれがある。また、自動制御機能の実行時、複数の対象が識別された場合、オペレータは、複数の対象から正対したい対象を選択する手間が増える。このように、3次元センサ51で検出できる範囲内の対象を全て識別することは、処理負荷の増大だけでなく、利便性の低下を招く。そこで、フォークリフト1が対象に対して切り返しなしで正対可能な範囲に応じて探索範囲を限定する。これにより、自動制御機能の実行時の処理負荷の増加を防ぎ、正対できない対象や複数の対象をオペレータに提示しないようにできる。
The search range will be explained. When the
図5は、実施形態に係る対象を探索する第1探索範囲110を示す模式図である。第1探索範囲110は、フォークリフト1の空荷時に、運搬物200を探索する探索範囲である。第1探索範囲110は、矩形形状である。第1探索範囲110は、前後方向と平行な第1辺110aと、左右方向と平行な第2辺110bを有する。第1探索範囲110の第1辺110aの長さは、Lyである。第1探索範囲110の第2辺110bの長さは、Lxである。
FIG. 5 is a schematic diagram showing a
第1探索範囲110は、フォークリフト1が対象に対して切り返しなしで正対できる位置に設定される。本実施形態では、第1探索範囲110は、フォークリフト1の車体座標の原点を基準にして、左右方向(図5では左方)に距離Rx離間した位置に設定される。第1探索範囲110は、フォークリフト1の車体座標の原点を基準にして、第1辺110aの中点が前方に距離Ry離間した位置に設定される。第1探索範囲110は、フォークリフト1の車体座標の原点から距離Rx及び距離Ry離間した位置と、フォークリフト1近傍側(図5では右側)の第1辺110aと第1辺110aの垂直二等分線との交点の位置とが一致するように設定される。フォークリフト1の車体座標系の原点とは、例えば、前輪11の回転軸と車体10の幅方向中心を通る軸の交点である。フォークリフト1は、車体座標系の原点から左右方向に距離Rx以上、かつ、車体座標の原点から前方に距離Ry以上離間して位置する対象に対して、切り返しなしで正対可能である。
The
本実施形態においては、第1探索範囲110の第1辺110aの長さは、対象である運搬物の正面の幅寸法と等しい。運搬物の正面とは、フォークリフト1が運搬物を取り上げる際に正対する面である。第1探索範囲110の第1辺の長さLyを運搬物の幅と同じとすることで、前後方向に並んだ複数の運搬物のうち1つの運搬物のみが第1探索範囲に入る。このため、複数の運搬物から1つの運搬物のみを識別することができる。本実施形態においては、第1探索範囲110の第2辺110bの長さは、第1辺よりも長く、第1探索範囲110は、長方形状である。
In this embodiment, the length of the
図6は、実施形態に係る対象を探索する第2探索範囲111を示す模式図である。第2探索範囲111は、フォークリフト1の積荷時に、荷置きスペースを探索する探索範囲である。第2探索範囲111は、矩形形状である。第2探索範囲111は、前後方向と平行な第1辺111aと、左右方向と平行な第2辺111bを有する。第2探索範囲111の第1辺111aの長さは、3Ly+2Cyである。第2探索範囲111の第2辺111bの長さは、Lxである。
FIG. 6 is a schematic diagram showing a
第2探索範囲111は、フォークリフト1が対象に対して切り返しなしで正対できる位置に設定される。本実施形態では、第2探索範囲111は、フォークリフト1の車体座標の原点を基準にして、左右方向(図6では左方)に距離Rx離間した位置に設定される。第2探索範囲111は、フォークリフト1の車体座標の原点を基準にして、第1辺111aの中点が前方に距離Ry離間した位置に設定される。第2探索範囲111は、フォークリフト1の車体座標の原点から距離Rx及び距離Ry離間した位置と、フォークリフト1近傍側(図6では右側)の第1辺111aと第1辺111aの垂直二等分線との交点の位置とが一致するように設定される。
The
本実施形態においては、第2探索範囲111の第1辺111aの長さは、第1探索範囲110の第1辺110aの長さよりも長い。図6に示す例では、第2探索範囲111は、領域C、領域F、及び領域Bを含む。領域C、領域F、及び領域Bの前後方向の長さは、Lyである。領域C、領域F、及び領域Bのそれぞれの前後方向の長さは、第1探索範囲110の第1辺110aの長さと等しい。領域Cと領域Fとの間隔、及び領域Fと領域Bとの間隔は、Cyである。Cyは、例えば、運搬物を隣接して載置する場合に必要な間隔である。領域Cは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲である。領域Bは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲よりも前方に位置する。領域Bは、領域Cよりも前方に位置する。領域Fは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲よりも後方に位置する。領域Fは、領域Cよりも後方に位置する。本実施形態においては、第2探索範囲111の第1辺111aの長さは、第2辺111bよりも長く、第2探索範囲111は、長方形状である。
In this embodiment, the length of the
識別部66は、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する。本実施形態では、識別部66は、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する、決定部65によって決定された対象を識別する。識別部66は、例えば、判定部64によってフォーク13上に積荷がないと判定された場合、物体検出データから運搬物を識別する。識別部66は、例えば、判定部64によってフォーク13上に積荷があると判定された場合、物体検出データから荷置きスペースを識別する。識別部66は、例えば、判定部64によってフォーク13上に積荷があると判定された場合、物体検出データから貨物車両の荷台を識別する。
The identification unit 66 identifies a target from objects existing within the search range based on object detection data from the three-dimensional sensor 51 as an object detection sensor. In this embodiment, the identification unit 66 identifies the object determined by the determination unit 65 that exists within the search range based on object detection data from the three-dimensional sensor 51 as an object detection sensor. For example, when the determining unit 64 determines that there is no cargo on the
まず、識別部66による運搬物の識別について説明する。識別部66は、物体検出データから、探索範囲内に存在する運搬物を識別する。 First, identification of the transported object by the identification unit 66 will be explained. The identification unit 66 identifies objects to be transported within the search range from the object detection data.
図7は、実施形態に係る運搬物を識別する方法の一例を示す概略図である。図7に示す運搬物は、例えば、箱形状のパレットである。(a1)は、運搬物に3次元センサ51からレーザ光を照射して得られた物体検出データである点群を示す。(a2)は、(a1)の点群から推定した平面を網掛けして示す。平面は、点群が示す、3次元センサ51と物体の表面に規定される複数の検出点のそれぞれとの相対位置に基づいて推定される。推定された平面は、フォークリフト1が運搬物を取り上げる際にフォークリフト1と正対する面である。(a3)は、(a2)を上下方向視(平面視)に視点を変換した図である。(a3)において、(a2)で推定した平面を破線で示す。(a3)では、(a2)で推定した平面より左方に点群が表れている。楕円で囲んだ点群は、(a2)で推定した平面を通過した点群を示す。言い換えると、楕円で囲んだ点群は、運搬物のフォーク挿し込み穴を通過した点群である。(a4)は、推定した平面と、平面を通過した点群と3次元センサ51の座標系基準とを結ぶ直線との交点を求めた図である。(a5)は、(a4)で求めた交点の位置に点群を補完した図である。(a6)は、推定した平面を正面から見た二値画像に変換した図である。四角で囲んだ部分は、(a5)で補完した点群を示す。識別部66は、記憶部63に記憶された対象辞書データを参照して、補完した点群がフォーク挿し込み穴を示す特徴部であるか否かを判定し、運搬物を識別する。
FIG. 7 is a schematic diagram illustrating an example of a method for identifying a transported object according to an embodiment. The conveyed object shown in FIG. 7 is, for example, a box-shaped pallet. (a1) shows a point group that is object detection data obtained by irradiating a transported object with a laser beam from the three-dimensional sensor 51. (a2) shows the plane estimated from the point group of (a1) by hatching. The plane is estimated based on the relative positions of the three-dimensional sensor 51 and each of the plurality of detection points defined on the surface of the object, which are indicated by the point group. The estimated plane is a plane that directly faces the
例えば、運搬物を一時保管しておく施設では、運搬物が隣接して載置されている。このため、3次元センサ51の物体検出データである点群から、各運搬物を独立した物体として識別することが難しい。しかしながら、各運搬物に設けられたフォーク挿し込み穴を識別することにより、隣接した運搬物群から1つの運搬物を識別することが可能である。 For example, in a facility where transported items are temporarily stored, the transported items are placed adjacent to each other. For this reason, it is difficult to identify each conveyance object as an independent object from the point cloud that is the object detection data of the three-dimensional sensor 51. However, by identifying the fork insertion holes provided in each conveyance, it is possible to identify one conveyance from a group of adjacent conveyances.
次に、識別部66による荷置きスペースの識別について説明する。識別部66は、物体検出センサとしての3次元センサ51からの物体検出データから、識別された対象を基準として、基準から所定範囲内に存在する所定の大きさの空間を探索し、荷置きスペースを識別する。本実施形態では、識別部66は、物体検出データから、探索範囲内に存在する運搬物に基づいて、フォークリフト1が取り上げた運搬物を載置可能な荷置きスペースを識別する。より詳しくは、まず、識別部66は、探索範囲内に存在する運搬物を識別する。そして、識別部66は、識別した運搬物を基準として、基準の運搬物の周囲に存在する、所定の大きさの空間を探索する。言い換えると、探索部67は、識別した運搬物の周囲から、他の運搬物を載置可能な大きさの空間を探索する。
Next, identification of cargo storage spaces by the identification unit 66 will be explained. The identification unit 66 searches for a space of a predetermined size existing within a predetermined range from the reference based on the object detection data from the three-dimensional sensor 51 as an object detection sensor, using the identified object as a reference, and searches for a space of a predetermined size within a predetermined range from the reference. identify. In this embodiment, the identification unit 66 identifies a storage space in which the object picked up by the
図8は、実施形態に係る運搬物200の周囲に存在する荷置きスペースの位置を示す模式図である。運搬物の周囲とは、その運搬物に隣接する位置のことである。図8に示すように、運搬物200の周囲は、運搬物200の前方、運搬物200の後方、運搬物200の右方、及び運搬物200の上方である。所定の大きさの空間とは、例えば、運搬物の寸法以上の大きさを有する空間である。識別部66は、探索範囲内の運搬物を識別し、識別した運搬物の周囲に存在する所定の大きさの空間に基づいて、荷置きスペース140を識別する。識別部66は、第2探索範囲111に位置する運搬物200を基準の運搬物として、第2探索範囲111から基準の運搬物200の周囲に存在する、他の運搬物を載置可能な大きさの空間を探索する。
FIG. 8 is a schematic diagram showing the positions of storage spaces that exist around the transported
本実施形態では、識別部66は、3次元センサ51からの物体検出データを用いて対象の識別を行うが、これに限られない。例えば、他の実施形態においては、識別部66は、カメラ52が撮像した撮像画像から特徴量を抽出し、抽出した特徴量と対象辞書データとに基づいて、撮像画像から対象を識別してもよい。対象の識別方法は、例えば、パターンマッチング、機械学習に基づく識別処理を行ってもよい。 In the present embodiment, the identification unit 66 identifies objects using object detection data from the three-dimensional sensor 51, but the invention is not limited thereto. For example, in another embodiment, the identification unit 66 may extract a feature amount from an image captured by the camera 52 and identify a target from the captured image based on the extracted feature amount and target dictionary data. good. The target identification method may be, for example, pattern matching or identification processing based on machine learning.
決定部64は、操作部27からの操作信号に基づいて、荷役作業を行う対象を決定する。より詳しくは、決定部64は、操作部27によって自動制御開始操作が受け付けられると、そのときに識別部66によって識別されている対象を荷役作業を行う目標として決定する。 The determining unit 64 determines the target for cargo handling work based on the operation signal from the operating unit 27. More specifically, when the automatic control start operation is received by the operation unit 27, the determination unit 64 determines the object identified by the identification unit 66 at that time as the target for carrying out cargo handling work.
表示制御部69は、表示装置26に画像を表示させる画像信号を出力する。表示制御部69は、カメラ52によって撮像された撮像画像を表示装置26に表示させる画像信号を出力する。
The
表示制御部69は、識別部66の識別結果に基づいて、識別された対象を示す情報画像を表示装置26に表示させる画像信号を出力する。本実施形態では、表示制御部69は、識別部66によって識別された対象を示す情報画像を、カメラ52によって撮像された撮像画像に重畳して表示させるように画像信号を出力する。より詳しくは、表示制御部69は、識別部66の識別結果に基づいて、カメラ52によって撮像された撮像画像上の対象の位置に、識別部66によって識別された対象を示す第1態様の情報画像を重畳して表示装置26に表示させる画像信号を出力する。情報画像は、識別部66によって識別された対象をオペレータが容易に認識できるための画像である。本実施形態では、情報画像は、対象を表す枠線である。情報画像は、例えば、識別された対象の外形形状を表す形状線や、識別された対象を示唆するマーカー表示であってもよい。
The
表示制御部69は、例えば、カメラ52によって撮像された撮像画像に、識別した運搬物を表す第1態様の枠線を重畳して表示装置26に表示させる画像信号を出力する。表示制御部69は、例えば、カメラ52によって撮像された撮像画像に、識別した荷置きスペースを表す第1態様の枠線を重畳して表示装置26に表示させる画像信号を出力する。
The
表示制御部69は、識別部66によって識別されている対象が、決定部64によって荷役作業を行う目標として決定された場合、情報画像の態様を変更する。本実施形態では、識別部66によって識別されている対象が、決定部64によって荷役作業を行う目標として決定された場合、表示制御部69は、第1態様の情報画像と異なる第2態様の情報画像を重畳して表示装置26に表示させる。より詳しくは、表示制御部69は、自動制御開始操作がされた場合、カメラ52によって撮像された撮像画像上の対象の位置に、荷役作業を行う目標として決定された対象を示す第2態様の枠線を重畳して表示装置6に表示させる。
The
第1態様と第2態様とは、例えば、枠線の色、線種、太さの少なくともいずれかが異なる。第1態様と第2態様とは、オペレータが区別容易に異なる。 The first aspect and the second aspect differ, for example, in at least one of the color, line type, and thickness of the frame line. The first aspect and the second aspect are different from each other so that they can be easily distinguished by an operator.
図9は、実施形態に係る、荷置きスペースを識別した場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、識別部66によって識別された荷置きスペースを示す第1態様の枠線161Aを重畳させた画像が表示される。図9に示す枠線161Aは、細い破線である。図9に示すように、撮像画像上の識別された荷置きスペースの位置に枠線161Aを重畳表示させることにより、オペレータは、識別された荷置きスペースを容易に認識することができる。
FIG. 9 is a schematic diagram showing an example of a display on a display device when a storage space is identified, according to the embodiment. The
図10は、実施形態に係る、識別した荷置きスペースが荷役作業を行う目標として決定された場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、決定部68によって決定された荷置きスペースを示す第2態様の枠線161Bを重畳させた画像が表示される。図10に示す枠線161Bは、太い実線である。図10に示すように、撮像画像上の識別された荷置きスペースの位置に枠線161Bを重畳表示させることにより、オペレータは、荷役作業を行う目標として決定された荷置きスペースを容易に認識することができる。
FIG. 10 is a schematic diagram illustrating an example of a display on the display device when the identified cargo storage space is determined as a target for carrying out cargo handling work, according to the embodiment. The
図11は、実施形態に係る、運搬物を識別した場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、識別部66によって識別された運搬物を示す第1態様の枠線161Cを重畳させた画像が表示される。図11に示す枠線161Cは、細い破線である。図11に示すように、撮像画像上の識別された運搬物の位置に枠線161Cを重畳表示させることにより、オペレータは、識別された運搬物を容易に認識することができる。
FIG. 11 is a schematic diagram showing an example of a display on a display device when a transported object is identified, according to the embodiment. The
図12は、実施形態に係る、識別した運搬物が荷役作業を行う目標として決定された場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、決定部68によって決定された運搬物を示す第2態様の枠線161Dを重畳させた画像が表示される。図12に示す枠線161Dは、太い実線である。図12に示すように、撮像画像上の識別された運搬物の位置に枠線161Dを重畳表示させることにより、オペレータは、荷役作業を行う目標として決定された運搬物を容易に認識することができる。
FIG. 12 is a schematic diagram showing an example of the display on the display device when the identified cargo is determined as a target for cargo handling work, according to the embodiment. The
本実施形態では、表示制御部69は、表示装置26への出力を制御する。表示制御部69は、表示制御部69は、図示しないネットワークを介して、表示装置26へ画像を配信するように制御してもよい。
In this embodiment, the
<コントローラによる処理>
フォークリフト1の起動中に、対象の識別処理が開始されると、図13に示す処理が実行される。
<Processing by controller>
When the target identification process is started while the
<基本処理>
図13は、実施形態に係るフォークリフトの制御方法の処理の一例を示すフローチャートである。コントローラ60は、対象を探索する(ステップST11)。より詳しくは、コントローラ60は、識別部66によって、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を探索する。探索範囲内から探索する対象は、運搬物、荷置きスペース又は貨物車両の荷台である。コントローラ60は、ステップST12へ進む。
<Basic processing>
FIG. 13 is a flowchart illustrating an example of processing of the forklift control method according to the embodiment. The
コントローラ60は、対象が識別されたか否かを判定する(ステップST12)。より詳しくは、コントローラ60は、識別部66によって、物体検出データから、探索範囲内に存在する運搬物、荷置きスペース又は貨物車両の荷台が識別されたか否かを判定する。コントローラ60は、識別部66によって、物体検出データから、探索範囲内に存在する物体から対象が識別された場合(ステップST12でYes)、ステップST13へ進む。この場合、コントローラ60は、表示制御部69によって、識別部66の識別結果に基づいて、カメラ52によって撮像された画像上の対象の位置に、識別部66によって識別された対象を示す第1態様の情報画像である枠線161Aを重畳して表示装置26の表示部160に表示させる。コントローラ60は、識別部66によって、物体検出データから、探索範囲内に存在する物体から対象が識別されていない場合(ステップST12でNo)、ステップST11の処理を再度実行する。
The
コントローラ60は、識別した対象をオペレータが選択したか否かを判定する(ステップST13)。より詳しくは、コントローラ60は、操作部27からの自動制御開始操作を受信したか否かを判定する。コントローラ60は、操作部27からの自動制御開始操作を受信した場合(ステップST13でYes)、ステップST14へ進む。ステップST14からステップST22処理が、自動制御機能の処理である。コントローラ60は、操作部27からの自動制御開始操作を受信しなかった場合(ステップST13でNo)、ステップST11の処理を再度実行する。
The
コントローラ60は、選択した対象を荷役作業を行う目標として特定する(ステップST14)。より詳しくは、コントローラ60は、決定部64によって、自動制御開始操作が受け付けされたときに識別されている対象を荷役作業を行う目標として決定する。そして、コントローラ60は、表示制御部69によって、カメラ52により撮像された画像上の対象の位置に、荷役作業を行う目標として決定された対象を示す第2態様の情報画像である枠線161Bを重畳して表示装置26の表示部160に表示させる。コントローラ60は、ステップST15へ進む。
The
コントローラ60は、車体座標系の原点から目標までの距離を検出する(ステップST15)。コントローラ60は、ステップST16へ進む。
The
コントローラ60は、目標までの経路を生成する(ステップST16)。コントローラ60は、ステップST17へ進む。
The
コントローラ60は、経路を追従するように制御する(ステップST17)。より詳しくは、コントローラ60は、経路を追従して走行するようにフォークリフト1を制御する。コントローラ60は、走行装置を制御する。本実施形態では、コントローラ60は、ステアリング制御弁24を介して、ステアリングシリンダ18を制御する。コントローラ60は、ステップST18へ進む。
The
コントローラ60は、車両と目標とが正対したか否かを判定する(ステップST18)。コントローラ60は、車両と目標とが正対したと判定する場合(ステップST18でYes)、ステップST19へ進む。コントローラ60は、車両と目標とが正対したと判定しない場合(ステップST18でNo)、ステップST17の処理を再度実行する。
The
コントローラ60は、車体座標系における目標基準点の位置を検出する(ステップST19)。より詳しくは、コントローラ60は、アプローチする対象の基準点である目標基準点の位置を検出する。コントローラ60は、ステップST20へ進む。
The
コントローラ60は、作業機2の位置を検出する(ステップST20)。コントローラ60は、ステップST21へ進む。
コントローラ60は、目標基準点の位置と作業機2の位置とが一致するように作業機2を制御する(ステップST21)。より詳しくは、コントローラ60は、目標基準点の位置に作業機2の位置が一致するように作業機2を制御する。コントローラ60は、作業機制御弁23を介して、リフトシリンダ15、チルトシリンダ16及びサイドシフトシリンダ17を制御する。コントローラ60は、ステップST22へ進む。
The
コントローラ60は、目標基準点の位置と作業機2の位置とが一致したか否かを判定する(ステップST22)。コントローラ60は、目標基準点の位置と作業機2の位置とが一致したと判定する場合(ステップST22でYes)、処理を終了する。コントローラ60は、目標基準点の位置と作業機2の位置とが一致していないと判定した場合(ステップST22でYes)、ステップST21の処理を再度実行する。
The
<効果>
以上説明したように、本実施形態では、フォークリフト1の周辺に存在する物体を検出する3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別し、識別結果に基づいて、カメラ52によって撮像された画像に識別された対象を示す情報画像を表示装置26に表示させる、このように、本実施形態によれば、荷役作業を行うための目標となる対象を決定する際に、オペレータは、識別された対象とその他の対象を区別して確認することができる。
<Effect>
As explained above, in this embodiment, a target is identified from objects existing within a search range based on object detection data from the three-dimensional sensor 51 that detects objects existing around the
本実施形態では、荷役作業を行う目標とする対象が決定された場合、決定された対象を示す、第1態様と異なる第2態様の枠線を、決定された対象の位置に重畳して表示装置26に表示させる。このように、本実施形態によれば、荷役車両が荷役作業を行う目標に対して自動で正対するように自動制御がされる際に、オペレータは、識別された対象が荷役作業を行う目標として決定されたことを確認することができる。 In this embodiment, when a target object for carrying out cargo handling work is determined, a frame line in a second mode different from the first mode indicating the determined target is displayed superimposed on the position of the determined target. Displayed on the device 26. As described above, according to the present embodiment, when the cargo handling vehicle is automatically controlled to directly face the target for cargo handling work, the operator recognizes that the identified target is the target for cargo handling work. You can confirm that the decision has been made.
本実施形態では、第1態様と第2態様とは、枠線の色、線種、太さの少なくともいずれかが異なる。本実施形態によれば、自動制御開始操作がされた場合、オペレータは、表示装置26の表示によって、荷役作業を行う目標として決定された対象を容易に認識することができる。 In this embodiment, the first aspect and the second aspect differ in at least one of the color, line type, and thickness of the frame line. According to this embodiment, when the automatic control start operation is performed, the operator can easily recognize the target determined as the target for cargo handling work by the display on the display device 26.
<変形例>
図14は、変形例に係る遠隔で操作されるフォークリフトの構成の一例を示す機能ブロック図である。上述の実施形態においては、表示装置26は、運転室20に配置されているものとして説明したが、これに限定されない。図14に示すように、例えば、フォークリフト1から離れた遠隔に位置する監視室等に、遠隔操作装置及び遠隔表示装置を備えてもよい。
<Modified example>
FIG. 14 is a functional block diagram showing an example of the configuration of a remotely operated forklift according to a modified example. In the above-described embodiment, the display device 26 was described as being disposed in the driver's
1…フォークリフト(荷役車両)、10…車体、11…前輪、12…後輪、13…フォーク、14…マスト、15…リフトシリンダ、16…チルトシリンダ、17…サイドシフトシリンダ、18…ステアリングシリンダ、20…運転室、21…動力源、22…走行モータ、23…作業機制御弁、24…ステアリング制御弁、26…表示装置、27…操作部、31…ステアリングホイール、32…作業機レバー、33…前後進切替レバー、34…アクセルペダル、35…車速センサ、36…ステアリング角センサ、37…作業機負荷センサ(積荷検出センサ)、51…3次元センサ(物体検出センサ)、52…カメラ、60…コントローラ、61…センサデータ取得部、62…画像取得部、63…記憶部、64…決定部、66…識別部、69…表示制御部。 1... Forklift (cargo handling vehicle), 10... Vehicle body, 11... Front wheel, 12... Rear wheel, 13... Fork, 14... Mast, 15... Lift cylinder, 16... Tilt cylinder, 17... Side shift cylinder, 18... Steering cylinder, 20... Driver's cab, 21... Power source, 22... Travel motor, 23... Work equipment control valve, 24... Steering control valve, 26... Display device, 27... Operating unit, 31... Steering wheel, 32... Work equipment lever, 33 ... Forward/forward switching lever, 34... Accelerator pedal, 35... Vehicle speed sensor, 36... Steering angle sensor, 37... Work equipment load sensor (load detection sensor), 51... Three-dimensional sensor (object detection sensor), 52... Camera, 60 ...Controller, 61...Sensor data acquisition section, 62...Image acquisition section, 63...Storage section, 64...Determination section, 66...Identification section, 69...Display control section.
Claims (9)
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を検出する物体検出センサと、
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を撮像するカメラと、
前記物体検出センサから物体検出データを取得可能なコントローラと、
表示装置と、
を備え、
前記コントローラは、
前記物体検出センサからの前記物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、
前記カメラによって撮像された画像を前記表示装置に表示させる表示制御部と、を備え、
前記表示制御部は、前記識別部の識別結果に基づいて、識別された対象を示す情報画像を前記表示装置に表示させる、
システム。 A system for controlling a cargo handling vehicle,
an object detection sensor that is attached to the cargo handling vehicle and detects objects existing around the cargo handling vehicle;
a camera that is attached to the cargo handling vehicle and captures images of objects existing around the cargo handling vehicle;
a controller capable of acquiring object detection data from the object detection sensor;
a display device;
Equipped with
The controller includes:
an identification unit that identifies a target from objects existing within a search range based on the object detection data from the object detection sensor;
a display control unit that causes the display device to display an image captured by the camera;
The display control unit causes the display device to display an information image indicating the identified object based on the identification result of the identification unit.
system.
前記コントローラは、前記操作部からの操作信号に基づいて、前記識別部によって識別されている対象を荷役作業を行う目標として決定する決定部を備え、
前記表示制御部は、前記決定部によって前記対象が荷役作業を行う目標として決定された場合、前記情報画像の態様を変更する、
請求項1に記載のシステム。 comprising an operation unit operated by an operator of the cargo handling vehicle,
The controller includes a determining unit that determines the object identified by the identifying unit as a target for cargo handling work based on an operation signal from the operating unit,
The display control unit changes an aspect of the information image when the target is determined by the determination unit as a target for cargo handling work.
The system of claim 1.
前記カメラによって撮影された前記画像上の前記対象の位置に、前記情報画像を重畳して前記表示装置に表示させる、
請求項1または2に記載のシステム。 The display control section includes:
superimposing the information image on the position of the object on the image taken by the camera and displaying it on the display device;
A system according to claim 1 or 2.
前記識別部によって対象が識別された場合、識別された前記対象を示す第1態様の情報画像を前記表示装置に表示させ、
前記決定部によって前記対象が荷役作業を行う目標として決定された場合、決定された前記対象を示す、前記第1態様と異なる第2態様の情報画像を、前記表示装置に表示させる、
請求項2に記載のシステム。 The display control section includes:
When a target is identified by the identification unit, displaying an information image of a first aspect indicating the identified target on the display device;
When the target is determined by the determining unit as a target for carrying out cargo handling work, displaying on the display device an information image in a second aspect different from the first aspect, which shows the determined target;
The system according to claim 2.
請求項4に記載のシステム。 The information image of the first aspect and the information image of the second aspect are frame lines representing the object,
The system according to claim 4.
請求項5に記載のシステム。 The first aspect and the second aspect are different in at least one of the color, line type, and thickness of the frame line.
The system according to claim 5.
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を撮像するカメラと、
前記物体検出センサから物体検出データを取得可能なコントローラと、
表示装置と、
を備えた荷役車両を制御するための方法であって、
前記物体検出センサからの前記物体検出データに基づいて、探索範囲内に存在する物体から対象を識別し、
前記カメラによって撮像された画像を前記表示装置に表示させ、
識別結果に基づいて、識別された前記対象を示す情報画像を前記表示装置に表示させる、
方法。 an object detection sensor that is attached to a cargo handling vehicle and detects objects existing around the cargo handling vehicle;
a camera that is attached to the cargo handling vehicle and captures images of objects existing around the cargo handling vehicle;
a controller capable of acquiring object detection data from the object detection sensor;
a display device;
A method for controlling a cargo handling vehicle comprising:
identifying a target from objects existing within a search range based on the object detection data from the object detection sensor;
displaying an image captured by the camera on the display device;
displaying an information image indicating the identified object on the display device based on the identification result;
Method.
前記対象が荷役作業を行う目標として決定された場合、前記情報画像の態様を変更する、
請求項7に記載の方法。 determining the identified object as a target for cargo handling work based on an operation signal from an operation unit operated by an operator of the cargo handling vehicle;
changing the aspect of the information image when the target is determined as a target for cargo handling work;
The method according to claim 7.
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を撮像するカメラと、
前記物体検出センサから物体検出データを取得可能なコントローラと、
表示装置と、
を備え、
前記コントローラは、
前記物体検出センサからの前記物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、
前記カメラによって撮像された画像を前記表示装置に表示させる表示制御部と、を備え、
前記表示制御部は、前記識別部の識別結果に基づいて、識別された対象を示す情報画像を前記表示装置に表示させる、
荷役車両。 an object detection sensor that is attached to a cargo handling vehicle and detects objects existing around the cargo handling vehicle;
a camera that is attached to the cargo handling vehicle and captures images of objects existing around the cargo handling vehicle;
a controller capable of acquiring object detection data from the object detection sensor;
a display device;
Equipped with
The controller includes:
an identification unit that identifies a target from objects existing within a search range based on the object detection data from the object detection sensor;
a display control unit that causes the display device to display an image captured by the camera;
The display control unit causes the display device to display an information image indicating the identified object based on the identification result of the identification unit.
cargo handling vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137563A JP2024033761A (en) | 2022-08-31 | 2022-08-31 | System and method for controlling cargo handling vehicle and cargo handling vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022137563A JP2024033761A (en) | 2022-08-31 | 2022-08-31 | System and method for controlling cargo handling vehicle and cargo handling vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024033761A true JP2024033761A (en) | 2024-03-13 |
Family
ID=90194544
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022137563A Pending JP2024033761A (en) | 2022-08-31 | 2022-08-31 | System and method for controlling cargo handling vehicle and cargo handling vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024033761A (en) |
-
2022
- 2022-08-31 JP JP2022137563A patent/JP2024033761A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109844834B (en) | Dump truck and backing auxiliary device | |
US7219769B2 (en) | Industrial vehicle equipped with load handling operation control apparatus | |
US9828223B2 (en) | Fork-lift truck and method for operating a fork-lift truck | |
AU2013218883B2 (en) | Periphery monitoring device for transportation vehicle | |
US20040073359A1 (en) | Position control device and position control method of stevedoring apparatus in industrial vehicle | |
JP3921968B2 (en) | Position detection method and position detection apparatus | |
JP2003171094A (en) | Industrial vehicle handle knob and industrial vehicle | |
JP7215394B2 (en) | Operation support device for cargo handling vehicle | |
JP7426881B2 (en) | Cargo handling support system | |
JP2003252151A (en) | Parking support system | |
JP2024033761A (en) | System and method for controlling cargo handling vehicle and cargo handling vehicle | |
JP7287231B2 (en) | Operation support device for cargo handling vehicle | |
JP2024018536A (en) | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle | |
US20200307575A1 (en) | Vehicle comprising a working equipment, and a working equipment, and a method in relation thereto | |
JP2024018535A (en) | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle | |
WO2020170747A1 (en) | Industrial vehicle travel assistance device | |
JP7268575B2 (en) | Operation support device for cargo handling vehicle | |
JP2024018510A (en) | Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle | |
JP2024034406A (en) | System and method to control cargo handling vehicle | |
CN114859768A (en) | System and method for remote operation of a work machine including an implement | |
JP2024034407A (en) | System and method to control cargo handling vehicle | |
JP2024033370A (en) | System and method for controlling cargo handling vehicle | |
CN112703167B (en) | Container crane device and control method for container crane device | |
JP7135883B2 (en) | Mobile body running system | |
JP2024033377A (en) | System and method for controlling cargo handling vehicle |