JP2024033761A - System and method for controlling cargo handling vehicle and cargo handling vehicle - Google Patents

System and method for controlling cargo handling vehicle and cargo handling vehicle Download PDF

Info

Publication number
JP2024033761A
JP2024033761A JP2022137563A JP2022137563A JP2024033761A JP 2024033761 A JP2024033761 A JP 2024033761A JP 2022137563 A JP2022137563 A JP 2022137563A JP 2022137563 A JP2022137563 A JP 2022137563A JP 2024033761 A JP2024033761 A JP 2024033761A
Authority
JP
Japan
Prior art keywords
cargo handling
target
handling vehicle
forklift
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022137563A
Other languages
Japanese (ja)
Inventor
敬博 野寄
Takahiro Noyori
学 山代
Manabu Yamashiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP2022137563A priority Critical patent/JP2024033761A/en
Publication of JP2024033761A publication Critical patent/JP2024033761A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system and a method for controlling a cargo handling vehicle capable of distinguishing between a target object and other objects to be checked when the cargo handling vehicle performs cargo handling work, and the cargo handling vehicle.
SOLUTION: A forklift 1 includes a three-dimensional sensor 51 mounted on the forklift 1 to detect an object existing around the forklift 1, a camera 52 mounted on the forklift 1 to capture the object exiting around the forklift 1, a controller 60 capable of acquiring object detection data from the three-dimensional sensor 51, and a display device 26. The controller 60 includes an identification unit 66 for identifying the target object from the other objects existing in a search range based on the object detection data from the three-dimensional sensor 51 and a display control unit 69 for allowing the display device 26 to display an image captured by the camera 52. The display control unit 69 allows the display device 26 to display an information image indicating the identified target object based on an identification result of the identification unit 66.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2024,JPO&INPIT

Description

本開示は、荷役車両を制御するためのシステム、方法、及び荷役車両に関する。 TECHNICAL FIELD The present disclosure relates to a system, method, and material handling vehicle for controlling a material handling vehicle.

荷役車両に係る技術分野において、フォークリフトの作業を効率的に行うための配車システムが知られている(例えば、特許文献1参照)。特許文献1では、フォークリフトには、カメラと表示装置が搭載され、表示装置にはカメラが撮像した画面が表示される。 BACKGROUND ART In the technical field related to cargo handling vehicles, a vehicle dispatch system for efficiently performing work with a forklift is known (see, for example, Patent Document 1). In Patent Document 1, a forklift is equipped with a camera and a display device, and a screen captured by the camera is displayed on the display device.

特開2009-15684号公報Japanese Patent Application Publication No. 2009-15684

荷役車両が荷役作業を行う作業エリア内には、荷役作業の対象が複数存在する場合がある。このため、荷役作業を行う際に、目標とする対象とその他の対象を区別して確認できることが望まれる。 In a work area where a cargo handling vehicle performs cargo handling work, there may be a plurality of objects for cargo handling work. Therefore, when carrying out cargo handling work, it is desirable to be able to distinguish between target objects and other objects.

本開示の態様は、荷役車両が荷役作業を行う際に、目標とする対象とその他の対象とを区別して確認できる荷役車両を制御するためのシステム、方法、及び、荷役車両を提供することを目的とする。 Aspects of the present disclosure provide a system, a method, and a cargo handling vehicle for controlling a cargo handling vehicle that can distinguish and check a target object from other objects when the cargo handling vehicle performs cargo handling work. purpose.

本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を撮像するカメラと、物体検出センサから物体検出データを取得可能なコントローラと、表示装置と、を備える荷役車両を制御するためのシステムが提供される。コントローラは、物体検出センサからの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、カメラによって撮像された画像を表示装置に表示させる表示制御部と、を備える。表示制御部は、識別部の識別結果に基づいて、識別された対象を示す情報画像を表示装置に表示させる。 According to an aspect of the present disclosure, an object detection sensor that is attached to a cargo handling vehicle and detects an object that exists around the cargo handling vehicle; a camera that is attached to the cargo handling vehicle and captures an image of an object that exists around the cargo handling vehicle; A system for controlling a cargo handling vehicle is provided that includes a controller capable of acquiring object detection data from an object detection sensor and a display device. The controller includes an identification unit that identifies a target from objects existing within a search range based on object detection data from an object detection sensor, and a display control unit that causes a display device to display an image captured by the camera. . The display control section causes the display device to display an information image indicating the identified object based on the identification result of the identification section.

本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を撮像するカメラと、物体検出センサから物体検出データを取得可能なコントローラと、表示装置と、を備えた荷役車両を制御するための方法が提供される。第1のステップは、物体検出センサからの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する。第2のステップは、カメラによって撮像された画像を表示装置に表示させる。第3のステップは、識別結果に基づいて、識別された対象を示す情報画像を表示装置に表示させる。 According to an aspect of the present disclosure, an object detection sensor that is attached to a cargo handling vehicle and detects an object that exists around the cargo handling vehicle; a camera that is attached to the cargo handling vehicle and captures an image of an object that exists around the cargo handling vehicle; A method for controlling a cargo handling vehicle including a controller capable of acquiring object detection data from an object detection sensor and a display device is provided. The first step is to identify a target from objects existing within the search range based on object detection data from the object detection sensor. The second step is to display the image captured by the camera on the display device. The third step is to display an information image indicating the identified object on the display device based on the identification result.

本開示の態様に従えば、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を検出する物体検出センサと、荷役車両に取り付けられ、荷役車両の周辺に存在する物体を撮像するカメラと、物体検出センサから物体検出データを取得可能なコントローラと、表示装置と、を備える荷役車両が提供される。コントローラは、物体検出センサからの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、カメラによって撮像された画像を表示装置に表示させる表示制御部と、を備える。表示制御部は、識別部の識別結果に基づいて、識別された対象を示す情報画像を表示装置に表示させる。 According to an aspect of the present disclosure, an object detection sensor that is attached to a cargo handling vehicle and detects an object that exists around the cargo handling vehicle; a camera that is attached to the cargo handling vehicle and captures an image of an object that exists around the cargo handling vehicle; A cargo handling vehicle is provided that includes a controller capable of acquiring object detection data from an object detection sensor and a display device. The controller includes an identification unit that identifies a target from objects existing within a search range based on object detection data from an object detection sensor, and a display control unit that causes a display device to display an image captured by the camera. . The display control section causes the display device to display an information image indicating the identified object based on the identification result of the identification section.

本開示の態様によれば、荷役車両が荷役作業を行う際に、目標とする対象とその他の対象とを区別して確認できる荷役車両を制御するためのシステム、方法、及び、荷役車両が提供される。 According to aspects of the present disclosure, there is provided a system, a method, and a cargo handling vehicle for controlling a cargo handling vehicle that can distinguish and confirm a target object and other objects when the cargo handling vehicle performs cargo handling work. Ru.

図1は、実施形態に係るフォークリフトを左前方斜め上側から見た斜視図である。FIG. 1 is a perspective view of a forklift according to an embodiment, viewed diagonally from the upper left front side. 図2-1は、実施形態に係る3次元センサの取付位置及び指向方向を示す概略図である。FIG. 2-1 is a schematic diagram showing the mounting position and pointing direction of the three-dimensional sensor according to the embodiment. 図2-2は、実施形態に係るフォークリフトの積荷時の3次元センサの取付位置及び指向方向を示す概略図である。FIG. 2-2 is a schematic diagram showing the mounting position and orientation direction of the three-dimensional sensor when the forklift is loaded according to the embodiment. 図2-3は、実施形態に係るフォークリフトの空荷時の3次元センサの取付位置及び指向方向を示す概略図である。FIG. 2-3 is a schematic diagram showing the mounting position and pointing direction of the three-dimensional sensor when the forklift is unloaded according to the embodiment. 図3は、実施形態に係るフォークリフトの構成の一例を示す機能ブロック図である。FIG. 3 is a functional block diagram showing an example of the configuration of the forklift according to the embodiment. 図4は、実施形態に係るコンピュータシステムの一例を示すブロック図である。FIG. 4 is a block diagram illustrating an example of a computer system according to an embodiment. 図5は、実施形態に係る対象を探索する第1探索範囲を示す模式図である。FIG. 5 is a schematic diagram showing a first search range for searching for a target according to the embodiment. 図6は、実施形態に係る対象を探索する第2探索範囲を示す模式図である。FIG. 6 is a schematic diagram showing a second search range for searching for a target according to the embodiment. 図7は、実施形態に係る運搬物を識別する方法の一例を示す概略図である。FIG. 7 is a schematic diagram illustrating an example of a method for identifying a transported object according to an embodiment. 図8は、実施形態に係る運搬物の周囲に存在する荷置きスペースの位置を示す模式図である。FIG. 8 is a schematic diagram illustrating the positions of storage spaces that exist around objects to be transported according to the embodiment. 図9は、実施形態に係る、荷置きスペースを識別した場合における表示装置の表示の一例を示す模式図である。FIG. 9 is a schematic diagram showing an example of a display on a display device when a storage space is identified, according to the embodiment. 図10は、実施形態に係る、識別した荷置きスペースが荷役作業を行う目標として決定された場合における表示装置の表示の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a display on the display device when the identified cargo storage space is determined as a target for carrying out cargo handling work, according to the embodiment. 図11は、実施形態に係る、運搬物を識別した場合における表示装置の表示の一例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a display on a display device when a transported object is identified, according to the embodiment. 図12は、実施形態に係る、識別した運搬物が荷役作業を行う目標として決定された場合における表示装置の表示の一例を示す模式図である。FIG. 12 is a schematic diagram showing an example of the display on the display device when the identified cargo is determined as a target for cargo handling work, according to the embodiment. 図13は、実施形態に係るフォークリフトの制御方法の処理の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of processing of the forklift control method according to the embodiment. 図14は、変形例に係る遠隔で操作されるフォークリフトの構成の一例を示す機能ブロック図である。FIG. 14 is a functional block diagram showing an example of the configuration of a remotely operated forklift according to a modification.

以下、本開示に係る実施形態について図面を参照しながら説明するが、本開示はこれに限定されない。以下で説明する各実施形態の構成要素は、適宜組み合わせることができる。また、一部の構成要素を用いない場合もある。 Hereinafter, embodiments according to the present disclosure will be described with reference to the drawings, but the present disclosure is not limited thereto. The components of each embodiment described below can be combined as appropriate. Furthermore, some components may not be used.

実施形態においては、左、右、前、後、上、及び下の用語を用いて各部の位置関係について説明する。これらの用語は、荷役車両に規定された車体座標系の原点を基準とする相対位置又は方向を示す。 In the embodiment, the positional relationship of each part will be described using terms such as left, right, front, rear, upper, and lower. These terms indicate a relative position or direction with respect to the origin of the vehicle body coordinate system defined for the cargo handling vehicle.

<荷役車両>
荷役車両1は、荷役車両1の作業現場において、荷役車両1の周辺に存在する物体から対象を識別する。本実施形態においては、荷役車両1を適宜、フォークリフト1、と称する。なお、荷役車両は特に限定されるものではなく、例えば、フォークアタッチメントを取り付け可能なホイールローダであってもよい。
<Cargo handling vehicle>
The cargo handling vehicle 1 identifies a target from objects existing around the cargo handling vehicle 1 at the work site of the cargo handling vehicle 1. In this embodiment, the cargo handling vehicle 1 is appropriately referred to as a forklift 1. Note that the cargo handling vehicle is not particularly limited, and may be, for example, a wheel loader to which a fork attachment can be attached.

フォークリフト1は、運搬物の荷取り作業及び荷置き作業等の荷役作業を行う。フォークリフト1は、例えば、地面上に置かれた運搬物を取り上げる荷取り作業を行う。フォークリフト1は、例えば、他の運搬物の上段に積まれた運搬物を取り上げる荷取り作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を荷置きスペースに取りおろす荷置き作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を貨物車両の荷台上に取りおろす荷置き作業を行う。フォークリフト1は、例えば、フォーク13で取り上げた運搬物を地面上に置かれた他の運搬物の上段に取りおろす荷置き作業を行う。 The forklift 1 performs cargo handling operations such as loading and unloading of transported objects. For example, the forklift 1 performs a loading operation of picking up a cargo placed on the ground. For example, the forklift 1 performs a loading operation of picking up a cargo loaded on top of another cargo. For example, the forklift 1 performs a loading operation of unloading an article picked up by the fork 13 into a loading space. For example, the forklift 1 performs a loading operation of unloading an object picked up by the fork 13 onto the loading platform of a cargo vehicle. For example, the forklift 1 performs a loading operation in which an object picked up by the fork 13 is placed on top of other objects placed on the ground.

対象とは、フォークリフト1の荷役対象である。本実施形態では、対象は、例えば、運搬物、運搬物を載置可能な荷置きスペース、又は、貨物車両の荷台である。 The object is the object to be handled by the forklift 1. In this embodiment, the target is, for example, an object to be transported, a storage space where the object can be placed, or a loading platform of a freight vehicle.

本実施形態では、運搬物は、荷物を積載する荷役台や容器である。運搬物は、例えば、パレットやスキッド、コンテナである。運搬物は、フォーク挿し込み穴を備える。 In this embodiment, the transported object is a loading platform or a container on which cargo is loaded. The conveyed object is, for example, a pallet, a skid, or a container. The conveyed object is equipped with a fork insertion hole.

フォークリフト1は、荷取り作業及び荷置き作業の際に、対象(運搬物、荷置きスペース、又は、貨物車両の荷台)を識別して、フォークリフト1を当該対象に対して自動で正対するように操舵制御が行われる(自動制御機能)。 The forklift 1 is configured to identify an object (carried object, cargo storage space, or loading platform of a freight vehicle) and automatically orient the forklift 1 directly toward the object during loading and unloading operations. Steering control is performed (automatic control function).

自動制御機能では、フォークリフト1のステアリング操作又は作業機操作の少なくともいずれか一方が自動制御される。本実施形態では、オペレータは、フォークリフト1のアクセル操作を行う。本実施形態では、自動制御開始エリアまで、言い換えると、対象が識別されるまでは、フォークリフト1は、オペレータの操作によりマニュアルで移動する。 In the automatic control function, at least either the steering operation of the forklift 1 or the operation of the working machine is automatically controlled. In this embodiment, the operator operates the accelerator of the forklift 1. In this embodiment, the forklift 1 is manually moved by the operator's operation until it reaches the automatic control start area, in other words, until the object is identified.

<フォークリフトの全体構成>
図1は、実施形態に係るフォークリフト1を左前方斜め上側から見た斜視図である。フォークリフト1は、車体10と、動力源21と、車体10の前方に配置される作業機2と、車体10を支持する走行装置と、運転室20とを備える。動力源21は、図示しない油圧ポンプを駆動する。動力源21は、例えば、エンジンである。
<Overall configuration of forklift>
FIG. 1 is a perspective view of a forklift 1 according to an embodiment, viewed diagonally from the upper left front side. The forklift 1 includes a vehicle body 10, a power source 21, a working machine 2 disposed in front of the vehicle body 10, a traveling device that supports the vehicle body 10, and a driver's cab 20. The power source 21 drives a hydraulic pump (not shown). The power source 21 is, for example, an engine.

車体10の前方には、運搬物を取り上げるための作業機2が設置されている。作業機2は、マスト14と、支持部131と、フォーク13と、リフトシリンダ15と、チルトシリンダ16と、サイドシフトシリンダ17とを有する。マスト14は、左右軸回りに回転可能に車体10の前方に取り付けられている。マスト14は、車体10に対して前傾姿勢又は後傾姿勢をとることが可能である。支持部131は、マスト14に支持される。支持部131は、マスト14に沿って上下方向に移動可能である。フォーク13は、支持部131を介してマスト14に支持されている。フォーク13は、マスト14に沿って昇降する。 A working machine 2 is installed in front of the vehicle body 10 for picking up objects to be transported. The work machine 2 includes a mast 14 , a support portion 131 , a fork 13 , a lift cylinder 15 , a tilt cylinder 16 , and a side shift cylinder 17 . The mast 14 is attached to the front of the vehicle body 10 so as to be rotatable around the left and right axis. The mast 14 can be tilted forward or backward with respect to the vehicle body 10. The support part 131 is supported by the mast 14. The support part 131 is movable in the vertical direction along the mast 14. The fork 13 is supported by the mast 14 via a support portion 131. The fork 13 moves up and down along the mast 14.

リフトシリンダ15は、車体10に対してフォーク13を上下方向に移動させる。チルトシリンダ16は、車体10に対してマスト14を前後方向に傾斜させる。サイドシフトシリンダ17は、車体10に対してフォーク13を左右方向に移動させる。 The lift cylinder 15 moves the fork 13 vertically relative to the vehicle body 10. The tilt cylinder 16 tilts the mast 14 in the longitudinal direction with respect to the vehicle body 10. The side shift cylinder 17 moves the fork 13 in the left-right direction with respect to the vehicle body 10.

リフトシリンダ15は、マスト14と支持部131との間に配置される。リフトシリンダ15は、支持部131を上下方向に移動することにより、フォーク13を上下方向に移動させる。支持部131とフォーク13とは、上下方向に一緒に移動する。支持部131とフォーク13とは、マスト14に沿って上下方向に移動する。チルトシリンダ16は、車体10とマスト14との間に配置される。チルトシリンダ16は、マスト14を前後方向に傾斜させることにより、フォーク14を前後方向に傾斜させる。 Lift cylinder 15 is arranged between mast 14 and support part 131. The lift cylinder 15 moves the fork 13 in the vertical direction by moving the support part 131 in the vertical direction. The support portion 131 and the fork 13 move together in the vertical direction. The support portion 131 and the fork 13 move in the vertical direction along the mast 14. The tilt cylinder 16 is arranged between the vehicle body 10 and the mast 14. The tilt cylinder 16 tilts the mast 14 in the front-back direction, thereby tilting the fork 14 in the front-back direction.

走行装置は、フォークリフト1を走行させる。走行装置は、フォークリフト1の進行、制動、及び操舵を行う。進行とは、フォークリフト1が前進又は後進することをいう。制動とは、フォークリフト1が減速又は停止することをいう。操舵とは、フォークリフト1の走行方向が変更されることをいう。走行装置は、前輪11と、後輪12と、走行モータ22と、図示しないブレーキ装置と、ステアリングシリンダ18とを有する。 The traveling device causes the forklift 1 to travel. The traveling device moves, brakes, and steers the forklift 1. Advancing means that the forklift 1 moves forward or backward. Braking means that the forklift 1 decelerates or stops. Steering refers to changing the traveling direction of the forklift 1. The traveling device includes a front wheel 11, a rear wheel 12, a traveling motor 22, a brake device (not shown), and a steering cylinder 18.

前輪11及び後輪12のそれぞれは、車体10を支持する。前輪11の少なくとも一部は、車体10よりも下方に配置される。後輪12の少なくとも一部は、車体10よりも下方に配置される。前輪11は、後輪12よりも前方に配置される。前輪11は、車体10の左側及び右側のそれぞれに配置される。後輪12は、車体10の左側及び右側のそれぞれに配置される。前輪11及び後輪12のそれぞれは、回転軸を中心に回転可能である。 Each of the front wheels 11 and the rear wheels 12 supports the vehicle body 10. At least a portion of the front wheel 11 is arranged below the vehicle body 10. At least a portion of the rear wheel 12 is arranged below the vehicle body 10. The front wheel 11 is arranged further forward than the rear wheel 12. The front wheels 11 are arranged on the left and right sides of the vehicle body 10, respectively. The rear wheels 12 are arranged on the left and right sides of the vehicle body 10, respectively. Each of the front wheel 11 and the rear wheel 12 is rotatable around a rotation axis.

走行モータ22は、フォークリフト1を進行させるための駆動力を発生する。走行モータ22は、前輪11を回転させることによって、フォークリフト1を前進又は後進させる。走行モータ22は、図示しない油圧ポンプから吐出される作動油によって駆動する。前輪11は、走行モータ22が発生する回転力により回転する駆動輪である。ブレーキ装置は、フォークリフト1を制動させる。 The travel motor 22 generates driving force for moving the forklift 1. The travel motor 22 rotates the front wheels 11 to move the forklift 1 forward or backward. The travel motor 22 is driven by hydraulic oil discharged from a hydraulic pump (not shown). The front wheel 11 is a drive wheel that rotates by the rotational force generated by the travel motor 22. The brake device brakes the forklift 1.

ステアリングシリンダ18は、フォークリフト1を操舵する。ステアリングシリンダ18は、後輪12を操舵することによって、フォークリフト1の走行方向を変更させる。後輪12は、ステアリングシリンダ18により操舵される操舵輪である。ステアリングシリンダ18は、ステアリング制御弁24を介して供給される作動油によって動作する。 The steering cylinder 18 steers the forklift 1. The steering cylinder 18 changes the running direction of the forklift 1 by steering the rear wheels 12. The rear wheel 12 is a steered wheel that is steered by a steering cylinder 18. The steering cylinder 18 is operated by hydraulic oil supplied through the steering control valve 24.

表示装置26は、運転室20に配置されている。表示装置26は、液晶ディスプレイ(LCD:Liquid Crystal Display)又は有機ELディスプレイ(OELD:Organic Electroluminescence Display)のようなフラットパネルディスプレイを含む。表示装置26は、コントローラ60から送信された画像を表示する。 The display device 26 is arranged in the driver's cab 20. The display device 26 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OELD). The display device 26 displays the image transmitted from the controller 60.

操作部27は、フォークリフト1のオペレータによって操作される。操作部27は、運転室20の運転席の周辺に配置される。操作部27に対して行われた操作は、操作信号(オペレータ指令)としてコントローラ60によって取得される。操作部27は、複数のボタン、レバー、スイッチ等を含んでもよい。 The operating unit 27 is operated by the operator of the forklift 1. The operation unit 27 is arranged around the driver's seat in the driver's cab 20. The operation performed on the operation unit 27 is acquired by the controller 60 as an operation signal (operator command). The operation unit 27 may include a plurality of buttons, levers, switches, and the like.

操作部27は、例えば、自動制御機能の許可操作を受け付ける。操作部27は、例えば、自動制御機能の許可操作を受け付け可能なボタン、レバー、スイッチ等である。自動制御機能が許可されている間、対象の識別処理が実行される。 The operation unit 27 receives, for example, an operation to permit the automatic control function. The operation unit 27 is, for example, a button, lever, switch, etc. that can accept an operation to permit an automatic control function. Target identification processing is performed while the automatic control function is enabled.

操作部27は、識別部66によって対象が識別された場合、識別された対象を荷役作業を行う目標として決定する自動制御開始操作を受け付ける。自動制御開始操作が受け付けられると、そのときに識別されている対象が自動制御機能の対象として決定される。自動制御が開始されると、決定された対象に対する荷役作業のために、フォークリフト1のステアリング操作又は作業機操作の少なくともいずれか一方が自動制御される。 When an object is identified by the identification section 66, the operation section 27 receives an automatic control start operation for determining the identified object as a target for cargo handling work. When the automatic control start operation is accepted, the target identified at that time is determined as the target of the automatic control function. When the automatic control is started, at least one of the steering operation of the forklift 1 and the operation of the working machine is automatically controlled for cargo handling work on the determined target.

運転室20の前方には、ステアリングホイール31が配置される。オペレータは、手でステアリングホイール31を操作して、フォークリフト1を操舵する。 A steering wheel 31 is arranged in front of the driver's cab 20. The operator manually operates the steering wheel 31 to steer the forklift 1.

フォークリフト1は、作業機レバー32、前後進切替レバー33、アクセルペダル34、車速センサ35、ステアリング角センサ36、及び、作業機負荷センサ37を備える。作業機レバー32は、フォークリフト1のフォーク13を操作するための操作用の部材である。前後進切替レバー33は、フォークリフト1の進行方向を前方又は後方のいずれか一方に切り替えるための操作用の部材である。アクセルペダル34は、フォークリフト1の走行速度を変更するための操作用の部材である。 The forklift 1 includes a work machine lever 32, a forward/reverse switching lever 33, an accelerator pedal 34, a vehicle speed sensor 35, a steering angle sensor 36, and a work machine load sensor 37. The work machine lever 32 is an operating member for operating the fork 13 of the forklift 1. The forward/backward switching lever 33 is an operating member for switching the traveling direction of the forklift 1 to either the forward direction or the backward direction. The accelerator pedal 34 is an operating member for changing the traveling speed of the forklift 1.

車速センサ35は、フォークリフト1の車速を検出する。車速センサ35は、検出した車速データをコントローラ60へ送信する。 Vehicle speed sensor 35 detects the vehicle speed of forklift 1. Vehicle speed sensor 35 transmits detected vehicle speed data to controller 60.

ステアリング角センサ36は、フォークリフト1のステアリング角を検出する。ステアリング角センサ36は、検出したステアリング角度データをコントローラ60へ送信する。 The steering angle sensor 36 detects the steering angle of the forklift 1. Steering angle sensor 36 transmits detected steering angle data to controller 60.

作業機負荷センサ37は、作業機2にかかる負荷を検出する。作業機負荷センサ37は、例えば、作業機2の少なくとも一部に配置された歪ゲージやロードセル等の荷重測定デバイスである。作業機負荷センサ37により検出された負荷データは、コントローラ60へ出力される。なお、作業機2にかかる負荷は、例えば、リフトシリンダ15を駆動させる圧油の圧力を検出する油圧センサを用いて検出してもよい。この場合、運搬物がフォーク13によって支持されている状態と支持されていない状態とで、作業機2に掛かる負荷が変化する。作業機負荷センサ37は、作業機2に掛かる負荷の変化を検出する。 The work machine load sensor 37 detects the load on the work machine 2. The work machine load sensor 37 is, for example, a load measuring device such as a strain gauge or a load cell disposed on at least a portion of the work machine 2. Load data detected by the work machine load sensor 37 is output to the controller 60. Note that the load applied to the working machine 2 may be detected using, for example, a hydraulic sensor that detects the pressure of pressure oil that drives the lift cylinder 15. In this case, the load applied to the working machine 2 changes depending on whether the transported object is supported by the fork 13 or not. The work machine load sensor 37 detects changes in the load applied to the work machine 2.

<3次元センサ及びカメラ>
フォークリフト1は、3次元センサ51、カメラ52及びコントローラ60を備える。3次元センサ51、カメラ52及びコントローラ60は、無線又は有線によりデータを通信可能に接続されている。
<3D sensor and camera>
The forklift 1 includes a three-dimensional sensor 51, a camera 52, and a controller 60. The three-dimensional sensor 51, camera 52, and controller 60 are connected to be able to communicate data wirelessly or by wire.

3次元センサ51及びカメラ52は、1組としてフォークリフト1に取り付けられている。本実施形態では、フォークリフト1には、4組の3次元センサ51及びカメラ52が配置されている。なお、3次元センサ51及びカメラ52の数は特に限定されるものではなく、例えば、フォークリフト1に2つの3次元センサ51が配置されていてもよいし、4つ以上のカメラ52が配置されていてもよい。 The three-dimensional sensor 51 and camera 52 are attached to the forklift 1 as a set. In this embodiment, four sets of three-dimensional sensors 51 and cameras 52 are arranged on the forklift 1. Note that the number of three-dimensional sensors 51 and cameras 52 is not particularly limited; for example, two three-dimensional sensors 51 may be disposed on the forklift 1, or four or more cameras 52 may be disposed on the forklift 1. It's okay.

3次元センサ51は、物体の3次元データを取得する。物体の3次元データは、物体の表面に規定される複数の検出点からなる点群を含む。点群は、3次元センサ51と物体の表面に規定される複数の検出点のそれぞれとの相対距離及び相対位置を示す。3次元センサ51として、レーザ光を射出することにより物体を検出するレーザセンサ(LiDAR:Light Detection and Ranging)が例示される。なお、3次元センサ51は、赤外光を射出することにより物体を検出する赤外線センサ又は電波を射出することにより物体を検出するレーダセンサ(RADAR:Radio Detection and Ranging)でもよい。 The three-dimensional sensor 51 acquires three-dimensional data of an object. The three-dimensional data of an object includes a point group consisting of a plurality of detection points defined on the surface of the object. The point group indicates the relative distance and position between the three-dimensional sensor 51 and each of the plurality of detection points defined on the surface of the object. As the three-dimensional sensor 51, a laser sensor (LiDAR: Light Detection and Ranging) that detects an object by emitting laser light is exemplified. Note that the three-dimensional sensor 51 may be an infrared sensor that detects objects by emitting infrared light or a radar sensor (RADAR: Radio Detection and Ranging) that detects objects by emitting radio waves.

3次元センサ51は、フォークリフト1の周辺に存在する物体を検出する物体検出センサである。3次元センサ51は、フォークリフト1の周辺の対象を検出可能である。3次元センサ51は、検出した物体検出データをコントローラ60へ送信する。3次元センサ51は、例えば、数10[m]程度の範囲を検出可能である。3次元センサ51は、フォークリフト1に複数が配置されている。3次元センサ51の少なくとも1つは、運搬物を識別するために、運搬物のフォーク挿し込み穴と近い高さに配置されている。3次元センサ51の少なくとも1つは、例えば、地面上又は貨物車両の荷台上に配置された運搬物のフォーク挿し込み穴と近い高さに配置される。本実施形態では、3次元センサ51は、3次元センサ51、3次元センサ51、3次元センサ51、及び3次元センサ51を備える。3次元センサ51、3次元センサ51、3次元センサ51、及び3次元センサ51の区別を特に要しない場合、単に3次元センサ51という。3次元センサ51は、検出した物体検出データをコントローラ60へ送信する。 The three-dimensional sensor 51 is an object detection sensor that detects objects existing around the forklift 1. The three-dimensional sensor 51 can detect objects around the forklift 1. The three-dimensional sensor 51 transmits detected object detection data to the controller 60. The three-dimensional sensor 51 can detect a range of, for example, several tens of meters. A plurality of three-dimensional sensors 51 are arranged on the forklift 1. At least one of the three-dimensional sensors 51 is arranged at a height close to the fork insertion hole of the transported object in order to identify the transported object. At least one of the three-dimensional sensors 51 is arranged, for example, at a height close to a fork insertion hole of a transported item arranged on the ground or on the loading platform of a freight vehicle. In this embodiment, the three-dimensional sensor 51 includes a three-dimensional sensor 51 1 , a three-dimensional sensor 51 2 , a three-dimensional sensor 51 3 , and a three-dimensional sensor 51 4 . The three-dimensional sensor 51 1 , the three-dimensional sensor 51 2 , the three-dimensional sensor 51 3 , and the three-dimensional sensor 51 4 are simply referred to as the three-dimensional sensor 51 when there is no particular need to distinguish them. The three-dimensional sensor 51 transmits detected object detection data to the controller 60.

3次元センサ51は、フォークリフト1の前方の右側方を検出する。3次元センサ51は、前輪11の上方に位置するフェンダ19Rより上方に配置されている。3次元センサ51は、運転室20の前下方の右側方に配置されている。本実施形態では、3次元センサ51は、カメラ52の下方に配置されている。 The three-dimensional sensor 511 detects the front right side of the forklift 1. The three-dimensional sensor 511 is arranged above the fender 19R, which is located above the front wheel 11. The three-dimensional sensor 511 is arranged on the right side of the lower front of the driver's cab 20. In this embodiment, the three-dimensional sensor 51 1 is arranged below the camera 52 1 .

3次元センサ51は、フォークリフト1の前方の左側方を検出する。3次元センサ51は、前輪11の上方に位置するフェンダ19Lより上方に配置されている。3次元センサ51は、運転室20の前下方の左側方に配置されている。本実施形態では、3次元センサ51は、カメラ52の下方に配置されている。 The three-dimensional sensor 512 detects the front left side of the forklift 1. The three-dimensional sensor 512 is arranged above the fender 19L located above the front wheel 11. The three-dimensional sensor 512 is arranged on the left side of the lower front of the driver's cab 20. In this embodiment, the three-dimensional sensor 51 2 is placed below the camera 52 2 .

3次元センサ51は、フォークリフト1の積荷時に、フォークリフト1の前方を検出する。3次元センサ51は、フォークリフト1の積荷時に、フォーク13上の積荷によって前方の検出範囲が遮られない位置に配置されている。3次元センサ51は、前輪11の上方に位置するフェンダ19L上に配置されている。本実施形態では、3次元センサ51は、カメラ52の下方に配置されている。 The three-dimensional sensor 513 detects the front of the forklift 1 when the forklift 1 is loaded. The three-dimensional sensor 513 is arranged at a position where the front detection range is not blocked by the load on the fork 13 when the forklift 1 is loaded. The three-dimensional sensor 513 is arranged on the fender 19L located above the front wheel 11. In this embodiment, the three-dimensional sensor 51 3 is placed below the camera 52 3 .

3次元センサ51は、フォークリフト1の空荷時に、フォークリフト1の前方中央の下方を検出する。3次元センサ51は、フォークリフト1の空荷時に、フォーク13によって前方の検出範囲が遮られない位置に配置されている。3次元センサ51は、フォークリフト1の空荷時に、地面等に置かれた運搬物のフォーク挿し込み穴、又は、他の運搬物の上段に積まれた運搬物のフォーク挿し込み穴を検出可能な位置に配置されている。3次元センサ51は、車体10の前方中央部の下方に配置されている。3次元センサ51は、フォーク13の後部に配置され車体10に対してフォーク13を支持する支持部131の中央部の下方に配置されている。3次元センサ51は、フォーク13とともに昇降する。本実施形態では、3次元センサ51は、カメラ52の下方に配置されている。 The three-dimensional sensor 514 detects the lower part of the front center of the forklift 1 when the forklift 1 is empty. The three-dimensional sensor 514 is arranged at a position where the front detection range is not blocked by the fork 13 when the forklift 1 is empty. The three-dimensional sensor 514 is capable of detecting the fork insertion hole of a transported object placed on the ground or the like, or the fork insertion hole of a transported object loaded on the upper stage of another transported object, when the forklift 1 is empty. It is placed in a certain position. The three-dimensional sensor 514 is arranged below the front central part of the vehicle body 10. The three-dimensional sensor 514 is disposed below the center of a support portion 131 that is disposed at the rear of the fork 13 and supports the fork 13 with respect to the vehicle body 10. The three-dimensional sensor 514 moves up and down together with the fork 13. In this embodiment, the three-dimensional sensor 51 4 is placed below the camera 52 4 .

図2-1は、実施形態に係る3次元センサの取付位置及び指向方向を示す概略図である。図2-1に示す例では、フォークリフト1の右側に、フォークリフト1から近い順に運搬物201R、運搬物202R及び運搬物203Rが配置されている。フォークリフト1の左側に、フォークリフト1から近い順に運搬物201L、運搬物202L及び運搬物203Lが配置されている。符号101は、3次元センサ51の指向方向及び検出範囲を模式的に示す。符号102は、3次元センサ51の指向方向及び検出範囲を模式的に示す。符号103は、3次元センサ51の指向方向及び検出範囲を模式的に示す。符号104は、3次元センサ51の指向方向及び検出範囲を模式的に示す。フォークリフト1は、3次元センサ51は、3次元センサ51、3次元センサ51、3次元センサ51、及び3次元センサ51によりフォークリフト1の前方の全方位を検出可能である。 FIG. 2-1 is a schematic diagram showing the mounting position and pointing direction of the three-dimensional sensor according to the embodiment. In the example shown in FIG. 2-1, a transported object 201R, a transported object 202R, and a transported object 203R are arranged on the right side of the forklift 1 in the order of distance from the forklift 1. On the left side of the forklift 1, a transported object 201L, a transported object 202L, and a transported object 203L are arranged in order of distance from the forklift 1. Reference numeral 101 schematically indicates the pointing direction and detection range of the three-dimensional sensor 511 . Reference numeral 102 schematically indicates the pointing direction and detection range of the three-dimensional sensor 512 . Reference numeral 103 schematically indicates the pointing direction and detection range of the three-dimensional sensor 513 . Reference numeral 104 schematically indicates the pointing direction and detection range of the three-dimensional sensor 514 . The forklift 1 can detect all directions in front of the forklift 1 using the three-dimensional sensor 51 , the three-dimensional sensor 51 1 , the three-dimensional sensor 51 2 , the three-dimensional sensor 51 3 , and the three-dimensional sensor 51 4 .

図2-2は、実施形態に係るフォークリフトの積荷時の3次元センサの取付位置及び指向方向を示す概略図である。図2-2は、3次元センサ51の取付位置及び指向方向を示す。図2-2に示すように、フォークリフト1の積荷時、3次元センサ51の検出範囲は、運搬物200によって遮られない。フォークリフト1の積荷時、フォークリフト1は、3次元センサ51により前方が検出可能である。 FIG. 2-2 is a schematic diagram showing the mounting position and orientation direction of the three-dimensional sensor when the forklift is loaded according to the embodiment. FIG. 2-2 shows the mounting position and pointing direction of the three-dimensional sensor 513 . As shown in FIG. 2-2, when the forklift 1 is loaded, the detection range of the three-dimensional sensor 513 is not obstructed by the object 200 to be transported. When the forklift 1 is loaded, the front of the forklift 1 can be detected by the three-dimensional sensor 513 .

図2-3は、実施形態に係るフォークリフトの空荷時の3次元センサの取付位置及び指向方向を示す概略図である。図2-3は、3次元センサ51の取付位置及び指向方向を示す。図2-3の左側の図に示すように、フォークリフト1の空荷時、フォーク13が下げられている状態では、2段積みの運搬物200の下段の運搬物200の下方が、3次元センサ51の検出範囲に含まれる。図2-3の右側の図に示すように、フォークリフト1の空荷時、フォーク13が持ち上げられた状態では、2段積みの運搬物200の上段の運搬物200の下方が、3次元センサ51の検出範囲に含まれる。フォークリフト1の空荷時、フォークリフト1は、3次元センサ51により前方が検出可能である。 FIG. 2-3 is a schematic diagram showing the mounting position and pointing direction of the three-dimensional sensor when the forklift is unloaded according to the embodiment. FIG. 2-3 shows the mounting position and pointing direction of the three-dimensional sensor 514 . As shown in the diagram on the left side of FIG. 2-3, when the forklift 1 is empty and the fork 13 is lowered, the lower part of the lower transported object 200 of the two-tiered transported object 200 is exposed to the three-dimensional sensor. Included in the detection range of 514 . As shown in the right-hand diagram of FIG. Included in the detection range of 4 . When the forklift 1 is empty, the front of the forklift 1 can be detected by the three-dimensional sensor 514 .

カメラ52は、フォークリフト1の周辺に存在する物体を撮像する。本実施形態では、カメラ52は、単眼のカメラである。カメラ52は、光学系と、イメージセンサとを有する。イメージセンサは、CCD(Couple Charged Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサを含む。カメラ52によって撮像された画像は、フレームレートに応じて、単位時間あたりに複数の画像を含む。 The camera 52 images objects around the forklift 1. In this embodiment, the camera 52 is a monocular camera. Camera 52 has an optical system and an image sensor. The image sensor includes a CCD (Couple Charged Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The images captured by the camera 52 include a plurality of images per unit time depending on the frame rate.

カメラ52は、フォークリフト1の周辺の画像を撮像可能である。カメラ52は、例えば、数10[m]程度の範囲を撮像可能である。カメラ52は、フォークリフト1に複数が配置されている。カメラ52の少なくとも1つは、運搬物を識別するために、運搬物のフォーク挿し込み穴と近い高さに配置されている。カメラ52の少なくとも1つは、例えば、地面上又は貨物車両の荷台上に配置された運搬物のフォーク挿し込み穴と近い高さに配置される。本実施形態では、カメラ52は、カメラ52、カメラ52、カメラ52、及びカメラ52を備える。カメラ52、カメラ52、カメラ52、及びカメラ52の区別を特に要しない場合、単にカメラ52という。カメラ52は、撮像した画像データを物体検出データとしてコントローラ60へ送信する。 The camera 52 is capable of capturing images around the forklift 1. The camera 52 is capable of capturing an image in a range of, for example, several tens of meters. A plurality of cameras 52 are arranged on the forklift 1. At least one of the cameras 52 is placed at a height close to the fork insertion hole of the conveyance to identify the conveyance. At least one of the cameras 52 is placed, for example, at a height close to a fork insertion hole of a conveyance placed on the ground or on the bed of a cargo vehicle. In this embodiment, the cameras 52 include a camera 52 1 , a camera 52 2 , a camera 52 3 , and a camera 52 4 . Camera 52 1 , camera 52 2 , camera 52 3 , and camera 52 4 are simply referred to as cameras 52 unless they need to be distinguished. The camera 52 transmits captured image data to the controller 60 as object detection data.

カメラ52は、フォークリフト1の前方の右側方を撮像する。カメラ52は、フェンダ19Rより上方に配置されている。カメラ52は、運転室20の前下方の右側方に配置されている。本実施形態では、カメラ52は、3次元センサ51の上方に配置されている。 The camera 521 images the front right side of the forklift 1. The camera 521 is arranged above the fender 19R. The camera 521 is disposed on the lower front right side of the driver's cab 20. In this embodiment, the camera 52 1 is placed above the three-dimensional sensor 51 1 .

カメラ52は、フォークリフト1の前方の左側方を撮像する。カメラ52は、フェンダ19Lより上方に配置されている。カメラ52は、運転室20の前下方の左側方に配置されている。本実施形態では、カメラ52は、3次元センサ51の上方に配置されている。 The camera 522 images the front left side of the forklift 1. The camera 522 is placed above the fender 19L. The camera 522 is placed on the left side of the lower front of the driver's cab 20. In this embodiment, the camera 52 2 is placed above the three-dimensional sensor 51 2 .

カメラ52は、フォークリフト1の積荷時に、フォークリフト1の前方を撮像する。カメラ52は、フォークリフト1の積荷時に、フォーク13上の積荷によって前方の撮像範囲が遮られない位置に配置されている。カメラ52は、フェンダ19L上に配置されている。本実施形態では、カメラ52は、3次元センサ51の上方に配置されている。 The camera 523 images the front of the forklift 1 when the forklift 1 is loaded. The camera 523 is arranged at a position where the front imaging range is not obstructed by the load on the fork 13 when the forklift 1 is loaded. The camera 523 is placed on the fender 19L. In this embodiment, the camera 52 3 is placed above the three-dimensional sensor 51 3 .

カメラ52は、フォークリフト1の空荷時に、フォークリフト1の前方中央の下方を撮像する。カメラ52は、フォークリフト1の空荷時に、フォーク13によって前方の撮像範囲が遮られない位置に配置されている。カメラ52は、フォークリフト1の空荷時に、地面等に置かれた運搬物のフォーク挿し込み穴、又は、他の運搬物の上段に積まれた運搬物のフォーク挿し込み穴を撮像可能な位置に配置されている。カメラ52は、車体10の前方中央部の下方に配置されている。カメラ52は、フォーク13の後部に配置され車体10に対してフォーク13を固定し支持する支持部131の中央部の下方に配置されている。カメラ52は、フォーク13とともに昇降する。本実施形態では、カメラ52は、3次元センサ51の上方に配置されている。 The camera 524 images the lower part of the front center of the forklift 1 when the forklift 1 is empty. The camera 524 is arranged at a position where the front imaging range is not blocked by the fork 13 when the forklift 1 is empty. The camera 524 is located at a position where it can image the fork insertion hole of a transported object placed on the ground or the like or the fork insertion hole of a transported object loaded on top of another transported object when the forklift 1 is empty. It is located in The camera 524 is disposed below the front central portion of the vehicle body 10. The camera 524 is disposed below the central portion of a support portion 131 that is disposed at the rear of the fork 13 and fixes and supports the fork 13 with respect to the vehicle body 10. The camera 524 moves up and down together with the fork 13. In this embodiment, the camera 52 4 is placed above the three-dimensional sensor 51 4 .

<フォークリフトの制御システム>
図3は、実施形態に係るフォークリフトの構成の一例を示す機能ブロック図である。フォークリフト1の制御システム70は、3次元センサ51と、コントローラ60とを備える。コントローラ60は、フォークリフト1の周辺の探索範囲内に存在する物体から対象を識別する。コントローラ60は、物体検出センサとしての3次元センサ51から物体検出データを取得可能である。コントローラ60は、CPU(Central Processing Unit)のような数値演算装置(プロセッサ)を含む。
<Forklift control system>
FIG. 3 is a functional block diagram showing an example of the configuration of the forklift according to the embodiment. The control system 70 for the forklift 1 includes a three-dimensional sensor 51 and a controller 60. The controller 60 identifies a target from objects existing within a search range around the forklift 1. The controller 60 can acquire object detection data from the three-dimensional sensor 51 as an object detection sensor. The controller 60 includes a numerical calculation device (processor) such as a CPU (Central Processing Unit).

図4は、実施形態に係るコンピュータシステムの一例を示すブロック図である。コントローラ60は、コンピュータシステム1000を含む。コンピュータシステム1000は、CPUのようなプロセッサ1001と、ROMのような不揮発性メモリ及びRAMのような揮発性メモリを含むメインメモリ1002と、ストレージ1003と、入出力回路を含むインターフェース1004とを有する。上述のコントローラ60の機能は、プログラムとしてストレージ1003に記憶されている。プロセッサ1001は、プログラムをストレージ1003から読み出してメインメモリ1002に展開し、プログラムに従って上述の処理を実行する。なお、プログラムは、ネットワークを介してコンピュータシステム1000に配信されてもよい。 FIG. 4 is a block diagram illustrating an example of a computer system according to an embodiment. Controller 60 includes computer system 1000. The computer system 1000 has a processor 1001 such as a CPU, a main memory 1002 including a nonvolatile memory such as a ROM and a volatile memory such as a RAM, a storage 1003, and an interface 1004 including an input/output circuit. The functions of the controller 60 described above are stored in the storage 1003 as a program. The processor 1001 reads the program from the storage 1003, expands it into the main memory 1002, and executes the above-described processing according to the program. Note that the program may be distributed to the computer system 1000 via a network.

本実施形態では、コントローラ60は、センサデータ取得部61と、画像取得部62と、記憶部63と、決定部64と、識別部66と、表示制御部69とを備える。 In this embodiment, the controller 60 includes a sensor data acquisition section 61 , an image acquisition section 62 , a storage section 63 , a determination section 64 , an identification section 66 , and a display control section 69 .

センサデータ取得部61は、3次元センサ51から物体検出データを取得する。センサデータ取得部61が取得した物体検出データは、例えば、複数の検出点からなる点群である。 The sensor data acquisition unit 61 acquires object detection data from the three-dimensional sensor 51. The object detection data acquired by the sensor data acquisition unit 61 is, for example, a point group consisting of a plurality of detection points.

画像取得部62は、カメラ52が撮像した画像データを取得する。画像取得部62が取得した画像データは、フレームごとの画像データである。 The image acquisition unit 62 acquires image data captured by the camera 52. The image data acquired by the image acquisition unit 62 is image data for each frame.

記憶部63は、RAM、ROM、フラッシュメモリ、及びハードディスクドライブの少なくとも一つを含む。記憶部63は、コントローラ60の処理で使用するデータ等を記憶する。 The storage unit 63 includes at least one of RAM, ROM, flash memory, and hard disk drive. The storage unit 63 stores data and the like used in processing by the controller 60.

記憶部63は、対象を識別するための対象辞書データ、及びフォークリフト1の車体座標系の原点を基準とした探索範囲を記憶する。本実施形態では、記憶部63は、第1探索範囲と、第1探索範囲と異なる第2探索範囲とを記憶する。第1探索範囲と第2探索範囲との区別を特に要しない場合、単に探索範囲という。 The storage unit 63 stores object dictionary data for identifying objects and a search range based on the origin of the vehicle body coordinate system of the forklift 1. In this embodiment, the storage unit 63 stores a first search range and a second search range different from the first search range. When there is no particular need to distinguish between the first search range and the second search range, they are simply referred to as search ranges.

探索範囲について説明する。フォークリフト1は、対象に正対するための自動操舵制御を行う場合、フォークリフト1の最大曲率等に応じて、切り返しなしで正対できる範囲が限定される。このため、3次元センサ51で検出できる範囲内の全ての対象を識別した場合、切り返しなしで正対ができない対象が含まれることがあり、自動操舵制御を開始しても正対が困難なおそれがある。また、自動制御機能の実行時、複数の対象が識別された場合、オペレータは、複数の対象から正対したい対象を選択する手間が増える。このように、3次元センサ51で検出できる範囲内の対象を全て識別することは、処理負荷の増大だけでなく、利便性の低下を招く。そこで、フォークリフト1が対象に対して切り返しなしで正対可能な範囲に応じて探索範囲を限定する。これにより、自動制御機能の実行時の処理負荷の増加を防ぎ、正対できない対象や複数の対象をオペレータに提示しないようにできる。 The search range will be explained. When the forklift 1 performs automatic steering control to directly face an object, the range in which the forklift 1 can face directly without turning back is limited depending on the maximum curvature of the forklift 1 and the like. Therefore, when all objects within the range that can be detected by the three-dimensional sensor 51 are identified, some objects may be included that cannot be directly faced without turning back, and it may be difficult to face directly even if automatic steering control is started. There is. Furthermore, when a plurality of objects are identified during execution of the automatic control function, the operator has to spend more time selecting the object he or she wants to face directly from among the plurality of objects. In this way, identifying all objects within the range that can be detected by the three-dimensional sensor 51 not only increases processing load but also reduces convenience. Therefore, the search range is limited according to the range in which the forklift 1 can directly face the target without turning back. This prevents an increase in the processing load during execution of the automatic control function, and prevents the operator from being presented with an object that cannot be directly faced or a plurality of objects.

図5は、実施形態に係る対象を探索する第1探索範囲110を示す模式図である。第1探索範囲110は、フォークリフト1の空荷時に、運搬物200を探索する探索範囲である。第1探索範囲110は、矩形形状である。第1探索範囲110は、前後方向と平行な第1辺110aと、左右方向と平行な第2辺110bを有する。第1探索範囲110の第1辺110aの長さは、Lyである。第1探索範囲110の第2辺110bの長さは、Lxである。 FIG. 5 is a schematic diagram showing a first search range 110 for searching for a target according to the embodiment. The first search range 110 is a search range for searching for the transported object 200 when the forklift 1 is empty. The first search range 110 has a rectangular shape. The first search range 110 has a first side 110a parallel to the front-rear direction and a second side 110b parallel to the left-right direction. The length of the first side 110a of the first search range 110 is Ly. The length of the second side 110b of the first search range 110 is Lx.

第1探索範囲110は、フォークリフト1が対象に対して切り返しなしで正対できる位置に設定される。本実施形態では、第1探索範囲110は、フォークリフト1の車体座標の原点を基準にして、左右方向(図5では左方)に距離Rx離間した位置に設定される。第1探索範囲110は、フォークリフト1の車体座標の原点を基準にして、第1辺110aの中点が前方に距離Ry離間した位置に設定される。第1探索範囲110は、フォークリフト1の車体座標の原点から距離Rx及び距離Ry離間した位置と、フォークリフト1近傍側(図5では右側)の第1辺110aと第1辺110aの垂直二等分線との交点の位置とが一致するように設定される。フォークリフト1の車体座標系の原点とは、例えば、前輪11の回転軸と車体10の幅方向中心を通る軸の交点である。フォークリフト1は、車体座標系の原点から左右方向に距離Rx以上、かつ、車体座標の原点から前方に距離Ry以上離間して位置する対象に対して、切り返しなしで正対可能である。 The first search range 110 is set at a position where the forklift 1 can face the target without turning back. In this embodiment, the first search range 110 is set at a position separated by a distance Rx in the left-right direction (to the left in FIG. 5) with respect to the origin of the vehicle body coordinates of the forklift 1. The first search range 110 is set at a position where the midpoint of the first side 110a is spaced forward by a distance Ry with respect to the origin of the vehicle body coordinates of the forklift 1. The first search range 110 is a position separated by a distance Rx and a distance Ry from the origin of the vehicle body coordinates of the forklift 1, and the first side 110a on the side near the forklift 1 (the right side in FIG. 5) and the first side 110a are perpendicularly bisected. The position of the intersection with the line is set to match. The origin of the vehicle body coordinate system of the forklift 1 is, for example, the intersection of the rotation axis of the front wheels 11 and the axis passing through the center of the vehicle body 10 in the width direction. The forklift 1 can directly face an object located at least a distance Rx in the left-right direction from the origin of the vehicle body coordinate system and at least a distance Ry forward from the origin of the vehicle body coordinate system without turning back.

本実施形態においては、第1探索範囲110の第1辺110aの長さは、対象である運搬物の正面の幅寸法と等しい。運搬物の正面とは、フォークリフト1が運搬物を取り上げる際に正対する面である。第1探索範囲110の第1辺の長さLyを運搬物の幅と同じとすることで、前後方向に並んだ複数の運搬物のうち1つの運搬物のみが第1探索範囲に入る。このため、複数の運搬物から1つの運搬物のみを識別することができる。本実施形態においては、第1探索範囲110の第2辺110bの長さは、第1辺よりも長く、第1探索範囲110は、長方形状である。 In this embodiment, the length of the first side 110a of the first search range 110 is equal to the width of the front of the object to be transported. The front surface of the transported object is the surface directly facing the forklift 1 when picking up the transported object. By setting the length Ly of the first side of the first search range 110 to be the same as the width of the transported object, only one transported object among the plurality of transported objects lined up in the front-rear direction enters the first search range. Therefore, only one conveyed object can be identified from a plurality of conveyed objects. In this embodiment, the length of the second side 110b of the first search range 110 is longer than the first side, and the first search range 110 has a rectangular shape.

図6は、実施形態に係る対象を探索する第2探索範囲111を示す模式図である。第2探索範囲111は、フォークリフト1の積荷時に、荷置きスペースを探索する探索範囲である。第2探索範囲111は、矩形形状である。第2探索範囲111は、前後方向と平行な第1辺111aと、左右方向と平行な第2辺111bを有する。第2探索範囲111の第1辺111aの長さは、3Ly+2Cyである。第2探索範囲111の第2辺111bの長さは、Lxである。 FIG. 6 is a schematic diagram showing a second search range 111 for searching for a target according to the embodiment. The second search range 111 is a search range for searching for a storage space when the forklift 1 is loaded. The second search range 111 has a rectangular shape. The second search range 111 has a first side 111a parallel to the front-rear direction and a second side 111b parallel to the left-right direction. The length of the first side 111a of the second search range 111 is 3Ly+2Cy. The length of the second side 111b of the second search range 111 is Lx.

第2探索範囲111は、フォークリフト1が対象に対して切り返しなしで正対できる位置に設定される。本実施形態では、第2探索範囲111は、フォークリフト1の車体座標の原点を基準にして、左右方向(図6では左方)に距離Rx離間した位置に設定される。第2探索範囲111は、フォークリフト1の車体座標の原点を基準にして、第1辺111aの中点が前方に距離Ry離間した位置に設定される。第2探索範囲111は、フォークリフト1の車体座標の原点から距離Rx及び距離Ry離間した位置と、フォークリフト1近傍側(図6では右側)の第1辺111aと第1辺111aの垂直二等分線との交点の位置とが一致するように設定される。 The second search range 111 is set at a position where the forklift 1 can face the target without turning back. In this embodiment, the second search range 111 is set at a position separated by a distance Rx in the left-right direction (leftward in FIG. 6) with respect to the origin of the vehicle body coordinates of the forklift 1. The second search range 111 is set at a position where the midpoint of the first side 111a is spaced forward by a distance Ry with respect to the origin of the vehicle body coordinates of the forklift 1. The second search range 111 is a position separated by a distance Rx and a distance Ry from the origin of the vehicle body coordinates of the forklift 1, and a perpendicular bisection of the first side 111a on the side near the forklift 1 (the right side in FIG. 6) and the first side 111a. The position of the intersection with the line is set to match.

本実施形態においては、第2探索範囲111の第1辺111aの長さは、第1探索範囲110の第1辺110aの長さよりも長い。図6に示す例では、第2探索範囲111は、領域C、領域F、及び領域Bを含む。領域C、領域F、及び領域Bの前後方向の長さは、Lyである。領域C、領域F、及び領域Bのそれぞれの前後方向の長さは、第1探索範囲110の第1辺110aの長さと等しい。領域Cと領域Fとの間隔、及び領域Fと領域Bとの間隔は、Cyである。Cyは、例えば、運搬物を隣接して載置する場合に必要な間隔である。領域Cは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲である。領域Bは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲よりも前方に位置する。領域Bは、領域Cよりも前方に位置する。領域Fは、図6に示す位置のフォークリフト1が切り返しなしで正対可能な範囲よりも後方に位置する。領域Fは、領域Cよりも後方に位置する。本実施形態においては、第2探索範囲111の第1辺111aの長さは、第2辺111bよりも長く、第2探索範囲111は、長方形状である。 In this embodiment, the length of the first side 111a of the second search range 111 is longer than the length of the first side 110a of the first search range 110. In the example shown in FIG. 6, the second search range 111 includes area C, area F, and area B. The lengths of region C, region F, and region B in the front-rear direction are Ly. The length of each of the regions C, F, and B in the front-rear direction is equal to the length of the first side 110a of the first search range 110. The distance between region C and region F and the distance between region F and region B are Cy. Cy is, for example, the distance required when objects to be transported are placed adjacent to each other. Region C is a range in which the forklift 1 in the position shown in FIG. 6 can face directly without turning back. Region B is located further forward than the range in which the forklift 1 in the position shown in FIG. 6 can face directly without turning back. Region B is located further forward than region C. Region F is located further back than the range in which the forklift 1 in the position shown in FIG. 6 can face directly without turning back. Region F is located further back than region C. In this embodiment, the length of the first side 111a of the second search range 111 is longer than the second side 111b, and the second search range 111 has a rectangular shape.

識別部66は、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する。本実施形態では、識別部66は、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する、決定部65によって決定された対象を識別する。識別部66は、例えば、判定部64によってフォーク13上に積荷がないと判定された場合、物体検出データから運搬物を識別する。識別部66は、例えば、判定部64によってフォーク13上に積荷があると判定された場合、物体検出データから荷置きスペースを識別する。識別部66は、例えば、判定部64によってフォーク13上に積荷があると判定された場合、物体検出データから貨物車両の荷台を識別する。 The identification unit 66 identifies a target from objects existing within the search range based on object detection data from the three-dimensional sensor 51 as an object detection sensor. In this embodiment, the identification unit 66 identifies the object determined by the determination unit 65 that exists within the search range based on object detection data from the three-dimensional sensor 51 as an object detection sensor. For example, when the determining unit 64 determines that there is no cargo on the fork 13, the identifying unit 66 identifies the object to be transported from the object detection data. For example, when the determination unit 64 determines that there is a load on the fork 13, the identification unit 66 identifies the storage space from the object detection data. For example, when the determining unit 64 determines that there is a load on the fork 13, the identifying unit 66 identifies the loading platform of the freight vehicle from the object detection data.

まず、識別部66による運搬物の識別について説明する。識別部66は、物体検出データから、探索範囲内に存在する運搬物を識別する。 First, identification of the transported object by the identification unit 66 will be explained. The identification unit 66 identifies objects to be transported within the search range from the object detection data.

図7は、実施形態に係る運搬物を識別する方法の一例を示す概略図である。図7に示す運搬物は、例えば、箱形状のパレットである。(a1)は、運搬物に3次元センサ51からレーザ光を照射して得られた物体検出データである点群を示す。(a2)は、(a1)の点群から推定した平面を網掛けして示す。平面は、点群が示す、3次元センサ51と物体の表面に規定される複数の検出点のそれぞれとの相対位置に基づいて推定される。推定された平面は、フォークリフト1が運搬物を取り上げる際にフォークリフト1と正対する面である。(a3)は、(a2)を上下方向視(平面視)に視点を変換した図である。(a3)において、(a2)で推定した平面を破線で示す。(a3)では、(a2)で推定した平面より左方に点群が表れている。楕円で囲んだ点群は、(a2)で推定した平面を通過した点群を示す。言い換えると、楕円で囲んだ点群は、運搬物のフォーク挿し込み穴を通過した点群である。(a4)は、推定した平面と、平面を通過した点群と3次元センサ51の座標系基準とを結ぶ直線との交点を求めた図である。(a5)は、(a4)で求めた交点の位置に点群を補完した図である。(a6)は、推定した平面を正面から見た二値画像に変換した図である。四角で囲んだ部分は、(a5)で補完した点群を示す。識別部66は、記憶部63に記憶された対象辞書データを参照して、補完した点群がフォーク挿し込み穴を示す特徴部であるか否かを判定し、運搬物を識別する。 FIG. 7 is a schematic diagram illustrating an example of a method for identifying a transported object according to an embodiment. The conveyed object shown in FIG. 7 is, for example, a box-shaped pallet. (a1) shows a point group that is object detection data obtained by irradiating a transported object with a laser beam from the three-dimensional sensor 51. (a2) shows the plane estimated from the point group of (a1) by hatching. The plane is estimated based on the relative positions of the three-dimensional sensor 51 and each of the plurality of detection points defined on the surface of the object, which are indicated by the point group. The estimated plane is a plane that directly faces the forklift 1 when the forklift 1 picks up the object. (a3) is a diagram obtained by converting the viewpoint of (a2) into an upward/downward view (planar view). In (a3), the plane estimated in (a2) is shown by a broken line. In (a3), a point group appears to the left of the plane estimated in (a2). The point group surrounded by an ellipse indicates the point group that passed through the plane estimated in (a2). In other words, the point group surrounded by an ellipse is the point group that has passed through the fork insertion hole of the transported object. (a4) is a diagram showing the intersection points of the estimated plane and a straight line connecting the point group passing through the plane and the coordinate system reference of the three-dimensional sensor 51. (a5) is a diagram in which the point group is complemented at the position of the intersection found in (a4). (a6) is a diagram in which the estimated plane is converted into a binary image viewed from the front. The boxed area shows the point group interpolated in (a5). The identification unit 66 refers to the target dictionary data stored in the storage unit 63, determines whether or not the supplemented point group is a feature indicating a fork insertion hole, and identifies the object to be transported.

例えば、運搬物を一時保管しておく施設では、運搬物が隣接して載置されている。このため、3次元センサ51の物体検出データである点群から、各運搬物を独立した物体として識別することが難しい。しかしながら、各運搬物に設けられたフォーク挿し込み穴を識別することにより、隣接した運搬物群から1つの運搬物を識別することが可能である。 For example, in a facility where transported items are temporarily stored, the transported items are placed adjacent to each other. For this reason, it is difficult to identify each conveyance object as an independent object from the point cloud that is the object detection data of the three-dimensional sensor 51. However, by identifying the fork insertion holes provided in each conveyance, it is possible to identify one conveyance from a group of adjacent conveyances.

次に、識別部66による荷置きスペースの識別について説明する。識別部66は、物体検出センサとしての3次元センサ51からの物体検出データから、識別された対象を基準として、基準から所定範囲内に存在する所定の大きさの空間を探索し、荷置きスペースを識別する。本実施形態では、識別部66は、物体検出データから、探索範囲内に存在する運搬物に基づいて、フォークリフト1が取り上げた運搬物を載置可能な荷置きスペースを識別する。より詳しくは、まず、識別部66は、探索範囲内に存在する運搬物を識別する。そして、識別部66は、識別した運搬物を基準として、基準の運搬物の周囲に存在する、所定の大きさの空間を探索する。言い換えると、探索部67は、識別した運搬物の周囲から、他の運搬物を載置可能な大きさの空間を探索する。 Next, identification of cargo storage spaces by the identification unit 66 will be explained. The identification unit 66 searches for a space of a predetermined size existing within a predetermined range from the reference based on the object detection data from the three-dimensional sensor 51 as an object detection sensor, using the identified object as a reference, and searches for a space of a predetermined size within a predetermined range from the reference. identify. In this embodiment, the identification unit 66 identifies a storage space in which the object picked up by the forklift 1 can be placed, based on the object detection data and the object existing within the search range. More specifically, first, the identification unit 66 identifies objects to be transported that are present within the search range. Then, the identification unit 66 uses the identified transported object as a reference to search for a space of a predetermined size that exists around the reference transported object. In other words, the search unit 67 searches around the identified transport object for a space large enough to accommodate another transport object.

図8は、実施形態に係る運搬物200の周囲に存在する荷置きスペースの位置を示す模式図である。運搬物の周囲とは、その運搬物に隣接する位置のことである。図8に示すように、運搬物200の周囲は、運搬物200の前方、運搬物200の後方、運搬物200の右方、及び運搬物200の上方である。所定の大きさの空間とは、例えば、運搬物の寸法以上の大きさを有する空間である。識別部66は、探索範囲内の運搬物を識別し、識別した運搬物の周囲に存在する所定の大きさの空間に基づいて、荷置きスペース140を識別する。識別部66は、第2探索範囲111に位置する運搬物200を基準の運搬物として、第2探索範囲111から基準の運搬物200の周囲に存在する、他の運搬物を載置可能な大きさの空間を探索する。 FIG. 8 is a schematic diagram showing the positions of storage spaces that exist around the transported object 200 according to the embodiment. The area around the conveyed object refers to the position adjacent to the conveyed object. As shown in FIG. 8, the periphery of the transported object 200 is the front of the transported object 200, the rear of the transported object 200, the right side of the transported object 200, and the upper side of the transported object 200. The space having a predetermined size is, for example, a space having a size larger than the size of the object to be transported. The identification unit 66 identifies the cargo within the search range, and identifies the storage space 140 based on a space of a predetermined size existing around the identified cargo. The identification unit 66 uses the transported object 200 located in the second search range 111 as a reference transported object, and identifies other transported objects that are large enough to place other transported objects that exist around the reference transported object 200 from the second search range 111. Explore the space.

本実施形態では、識別部66は、3次元センサ51からの物体検出データを用いて対象の識別を行うが、これに限られない。例えば、他の実施形態においては、識別部66は、カメラ52が撮像した撮像画像から特徴量を抽出し、抽出した特徴量と対象辞書データとに基づいて、撮像画像から対象を識別してもよい。対象の識別方法は、例えば、パターンマッチング、機械学習に基づく識別処理を行ってもよい。 In the present embodiment, the identification unit 66 identifies objects using object detection data from the three-dimensional sensor 51, but the invention is not limited thereto. For example, in another embodiment, the identification unit 66 may extract a feature amount from an image captured by the camera 52 and identify a target from the captured image based on the extracted feature amount and target dictionary data. good. The target identification method may be, for example, pattern matching or identification processing based on machine learning.

決定部64は、操作部27からの操作信号に基づいて、荷役作業を行う対象を決定する。より詳しくは、決定部64は、操作部27によって自動制御開始操作が受け付けられると、そのときに識別部66によって識別されている対象を荷役作業を行う目標として決定する。 The determining unit 64 determines the target for cargo handling work based on the operation signal from the operating unit 27. More specifically, when the automatic control start operation is received by the operation unit 27, the determination unit 64 determines the object identified by the identification unit 66 at that time as the target for carrying out cargo handling work.

表示制御部69は、表示装置26に画像を表示させる画像信号を出力する。表示制御部69は、カメラ52によって撮像された撮像画像を表示装置26に表示させる画像信号を出力する。 The display control unit 69 outputs an image signal that causes the display device 26 to display an image. The display control unit 69 outputs an image signal that causes the display device 26 to display the captured image captured by the camera 52.

表示制御部69は、識別部66の識別結果に基づいて、識別された対象を示す情報画像を表示装置26に表示させる画像信号を出力する。本実施形態では、表示制御部69は、識別部66によって識別された対象を示す情報画像を、カメラ52によって撮像された撮像画像に重畳して表示させるように画像信号を出力する。より詳しくは、表示制御部69は、識別部66の識別結果に基づいて、カメラ52によって撮像された撮像画像上の対象の位置に、識別部66によって識別された対象を示す第1態様の情報画像を重畳して表示装置26に表示させる画像信号を出力する。情報画像は、識別部66によって識別された対象をオペレータが容易に認識できるための画像である。本実施形態では、情報画像は、対象を表す枠線である。情報画像は、例えば、識別された対象の外形形状を表す形状線や、識別された対象を示唆するマーカー表示であってもよい。 The display control unit 69 outputs an image signal that causes the display device 26 to display an information image indicating the identified object based on the identification result of the identification unit 66. In the present embodiment, the display control unit 69 outputs an image signal so that the information image indicating the object identified by the identification unit 66 is displayed superimposed on the captured image captured by the camera 52. More specifically, based on the identification result of the identification unit 66, the display control unit 69 displays information of the first aspect indicating the object identified by the identification unit 66 at the position of the object on the captured image captured by the camera 52. It outputs an image signal on which the image is superimposed and displayed on the display device 26. The information image is an image that allows the operator to easily recognize the object identified by the identification unit 66. In this embodiment, the information image is a frame line representing the object. The information image may be, for example, a shape line representing the external shape of the identified object or a marker display suggesting the identified object.

表示制御部69は、例えば、カメラ52によって撮像された撮像画像に、識別した運搬物を表す第1態様の枠線を重畳して表示装置26に表示させる画像信号を出力する。表示制御部69は、例えば、カメラ52によって撮像された撮像画像に、識別した荷置きスペースを表す第1態様の枠線を重畳して表示装置26に表示させる画像信号を出力する。 The display control unit 69 outputs, for example, an image signal that causes the display device 26 to display the captured image captured by the camera 52 with a frame line of the first aspect representing the identified transported object superimposed thereon. For example, the display control unit 69 outputs an image signal that causes the display device 26 to display the image captured by the camera 52 with a frame line of the first aspect representing the identified cargo storage space superimposed thereon.

表示制御部69は、識別部66によって識別されている対象が、決定部64によって荷役作業を行う目標として決定された場合、情報画像の態様を変更する。本実施形態では、識別部66によって識別されている対象が、決定部64によって荷役作業を行う目標として決定された場合、表示制御部69は、第1態様の情報画像と異なる第2態様の情報画像を重畳して表示装置26に表示させる。より詳しくは、表示制御部69は、自動制御開始操作がされた場合、カメラ52によって撮像された撮像画像上の対象の位置に、荷役作業を行う目標として決定された対象を示す第2態様の枠線を重畳して表示装置6に表示させる。 The display control unit 69 changes the form of the information image when the object identified by the identification unit 66 is determined by the determination unit 64 as a target for cargo handling work. In the present embodiment, when the object identified by the identification unit 66 is determined by the determination unit 64 as a target for cargo handling work, the display control unit 69 displays information in a second aspect different from the information image in the first aspect. The images are superimposed and displayed on the display device 26. More specifically, when the automatic control start operation is performed, the display control unit 69 displays a second aspect of displaying an object determined as a target for cargo handling work at the position of the object on the image taken by the camera 52. The frame lines are superimposed and displayed on the display device 6.

第1態様と第2態様とは、例えば、枠線の色、線種、太さの少なくともいずれかが異なる。第1態様と第2態様とは、オペレータが区別容易に異なる。 The first aspect and the second aspect differ, for example, in at least one of the color, line type, and thickness of the frame line. The first aspect and the second aspect are different from each other so that they can be easily distinguished by an operator.

図9は、実施形態に係る、荷置きスペースを識別した場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、識別部66によって識別された荷置きスペースを示す第1態様の枠線161Aを重畳させた画像が表示される。図9に示す枠線161Aは、細い破線である。図9に示すように、撮像画像上の識別された荷置きスペースの位置に枠線161Aを重畳表示させることにより、オペレータは、識別された荷置きスペースを容易に認識することができる。 FIG. 9 is a schematic diagram showing an example of a display on a display device when a storage space is identified, according to the embodiment. The display unit 160 of the display device 26 displays an image in which a frame line 161A of the first aspect indicating the storage space identified by the identification unit 66 is superimposed on the image captured by the camera 52. The frame line 161A shown in FIG. 9 is a thin broken line. As shown in FIG. 9, by displaying a frame line 161A superimposed on the position of the identified cargo storage space on the captured image, the operator can easily recognize the identified cargo storage space.

図10は、実施形態に係る、識別した荷置きスペースが荷役作業を行う目標として決定された場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、決定部68によって決定された荷置きスペースを示す第2態様の枠線161Bを重畳させた画像が表示される。図10に示す枠線161Bは、太い実線である。図10に示すように、撮像画像上の識別された荷置きスペースの位置に枠線161Bを重畳表示させることにより、オペレータは、荷役作業を行う目標として決定された荷置きスペースを容易に認識することができる。 FIG. 10 is a schematic diagram illustrating an example of a display on the display device when the identified cargo storage space is determined as a target for carrying out cargo handling work, according to the embodiment. The display unit 160 of the display device 26 displays an image obtained by superimposing a frame line 161B of the second aspect indicating the storage space determined by the determining unit 68 on the image captured by the camera 52. The frame line 161B shown in FIG. 10 is a thick solid line. As shown in FIG. 10, by displaying a frame line 161B superimposed on the position of the identified cargo storage space on the captured image, the operator can easily recognize the cargo storage space determined as the target for cargo handling work. be able to.

図11は、実施形態に係る、運搬物を識別した場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、識別部66によって識別された運搬物を示す第1態様の枠線161Cを重畳させた画像が表示される。図11に示す枠線161Cは、細い破線である。図11に示すように、撮像画像上の識別された運搬物の位置に枠線161Cを重畳表示させることにより、オペレータは、識別された運搬物を容易に認識することができる。 FIG. 11 is a schematic diagram showing an example of a display on a display device when a transported object is identified, according to the embodiment. The display unit 160 of the display device 26 displays an image obtained by superimposing a frame line 161C of the first aspect indicating the transported object identified by the identification unit 66 on the image captured by the camera 52. A frame line 161C shown in FIG. 11 is a thin broken line. As shown in FIG. 11, by displaying a frame line 161C superimposed on the position of the identified transport object on the captured image, the operator can easily recognize the identified transport object.

図12は、実施形態に係る、識別した運搬物が荷役作業を行う目標として決定された場合における表示装置の表示の一例を示す模式図である。表示装置26の表示部160には、カメラ52によって撮像された画像に、決定部68によって決定された運搬物を示す第2態様の枠線161Dを重畳させた画像が表示される。図12に示す枠線161Dは、太い実線である。図12に示すように、撮像画像上の識別された運搬物の位置に枠線161Dを重畳表示させることにより、オペレータは、荷役作業を行う目標として決定された運搬物を容易に認識することができる。 FIG. 12 is a schematic diagram showing an example of the display on the display device when the identified cargo is determined as a target for cargo handling work, according to the embodiment. The display unit 160 of the display device 26 displays an image in which a frame line 161D of the second mode indicating the transported object determined by the determining unit 68 is superimposed on the image captured by the camera 52. The frame line 161D shown in FIG. 12 is a thick solid line. As shown in FIG. 12, by displaying a frame line 161D superimposed on the position of the identified transported object on the captured image, the operator can easily recognize the transported object determined as the target for cargo handling work. can.

本実施形態では、表示制御部69は、表示装置26への出力を制御する。表示制御部69は、表示制御部69は、図示しないネットワークを介して、表示装置26へ画像を配信するように制御してもよい。 In this embodiment, the display control unit 69 controls output to the display device 26. The display control unit 69 may control the display control unit 69 to distribute images to the display device 26 via a network (not shown).

<コントローラによる処理>
フォークリフト1の起動中に、対象の識別処理が開始されると、図13に示す処理が実行される。
<Processing by controller>
When the target identification process is started while the forklift 1 is being started, the process shown in FIG. 13 is executed.

<基本処理>
図13は、実施形態に係るフォークリフトの制御方法の処理の一例を示すフローチャートである。コントローラ60は、対象を探索する(ステップST11)。より詳しくは、コントローラ60は、識別部66によって、物体検出センサとしての3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を探索する。探索範囲内から探索する対象は、運搬物、荷置きスペース又は貨物車両の荷台である。コントローラ60は、ステップST12へ進む。
<Basic processing>
FIG. 13 is a flowchart illustrating an example of processing of the forklift control method according to the embodiment. The controller 60 searches for a target (step ST11). More specifically, the controller 60 uses the identification unit 66 to search for a target among objects existing within the search range based on object detection data from the three-dimensional sensor 51 as an object detection sensor. The object to be searched from within the search range is a cargo to be transported, a storage space, or a loading platform of a cargo vehicle. The controller 60 proceeds to step ST12.

コントローラ60は、対象が識別されたか否かを判定する(ステップST12)。より詳しくは、コントローラ60は、識別部66によって、物体検出データから、探索範囲内に存在する運搬物、荷置きスペース又は貨物車両の荷台が識別されたか否かを判定する。コントローラ60は、識別部66によって、物体検出データから、探索範囲内に存在する物体から対象が識別された場合(ステップST12でYes)、ステップST13へ進む。この場合、コントローラ60は、表示制御部69によって、識別部66の識別結果に基づいて、カメラ52によって撮像された画像上の対象の位置に、識別部66によって識別された対象を示す第1態様の情報画像である枠線161Aを重畳して表示装置26の表示部160に表示させる。コントローラ60は、識別部66によって、物体検出データから、探索範囲内に存在する物体から対象が識別されていない場合(ステップST12でNo)、ステップST11の処理を再度実行する。 The controller 60 determines whether the target has been identified (step ST12). More specifically, the controller 60 determines whether the identification unit 66 has identified an object to be transported, a cargo storage space, or a loading platform of a cargo vehicle existing within the search range from the object detection data. When the identification unit 66 identifies a target from objects existing within the search range based on the object detection data (Yes in step ST12), the controller 60 proceeds to step ST13. In this case, the controller 60 causes the display control unit 69 to display the object identified by the identification unit 66 in the first mode at the position of the object on the image captured by the camera 52 based on the identification result of the identification unit 66. A frame line 161A, which is an information image, is superimposed and displayed on the display unit 160 of the display device 26. If the identification unit 66 does not identify a target from objects existing within the search range based on the object detection data (No in step ST12), the controller 60 executes the process in step ST11 again.

コントローラ60は、識別した対象をオペレータが選択したか否かを判定する(ステップST13)。より詳しくは、コントローラ60は、操作部27からの自動制御開始操作を受信したか否かを判定する。コントローラ60は、操作部27からの自動制御開始操作を受信した場合(ステップST13でYes)、ステップST14へ進む。ステップST14からステップST22処理が、自動制御機能の処理である。コントローラ60は、操作部27からの自動制御開始操作を受信しなかった場合(ステップST13でNo)、ステップST11の処理を再度実行する。 The controller 60 determines whether the operator has selected the identified object (step ST13). More specifically, the controller 60 determines whether an automatic control start operation from the operation unit 27 has been received. When the controller 60 receives the automatic control start operation from the operation unit 27 (Yes in step ST13), the controller 60 proceeds to step ST14. The processing from step ST14 to step ST22 is the processing of the automatic control function. When the controller 60 does not receive the automatic control start operation from the operation unit 27 (No in step ST13), the controller 60 executes the process of step ST11 again.

コントローラ60は、選択した対象を荷役作業を行う目標として特定する(ステップST14)。より詳しくは、コントローラ60は、決定部64によって、自動制御開始操作が受け付けされたときに識別されている対象を荷役作業を行う目標として決定する。そして、コントローラ60は、表示制御部69によって、カメラ52により撮像された画像上の対象の位置に、荷役作業を行う目標として決定された対象を示す第2態様の情報画像である枠線161Bを重畳して表示装置26の表示部160に表示させる。コントローラ60は、ステップST15へ進む。 The controller 60 specifies the selected object as a target for cargo handling work (step ST14). More specifically, the controller 60 determines, by the determining unit 64, the object identified when the automatic control start operation is received as the target for performing cargo handling work. Then, the controller 60 causes the display control unit 69 to draw a frame line 161B, which is an information image of the second aspect, indicating the object determined as the target for cargo handling work, at the position of the object on the image captured by the camera 52. The images are displayed in a superimposed manner on the display unit 160 of the display device 26. The controller 60 proceeds to step ST15.

コントローラ60は、車体座標系の原点から目標までの距離を検出する(ステップST15)。コントローラ60は、ステップST16へ進む。 The controller 60 detects the distance from the origin of the vehicle body coordinate system to the target (step ST15). The controller 60 proceeds to step ST16.

コントローラ60は、目標までの経路を生成する(ステップST16)。コントローラ60は、ステップST17へ進む。 The controller 60 generates a route to the target (step ST16). The controller 60 proceeds to step ST17.

コントローラ60は、経路を追従するように制御する(ステップST17)。より詳しくは、コントローラ60は、経路を追従して走行するようにフォークリフト1を制御する。コントローラ60は、走行装置を制御する。本実施形態では、コントローラ60は、ステアリング制御弁24を介して、ステアリングシリンダ18を制御する。コントローラ60は、ステップST18へ進む。 The controller 60 performs control to follow the route (step ST17). More specifically, the controller 60 controls the forklift 1 to follow the route. Controller 60 controls the traveling device. In this embodiment, the controller 60 controls the steering cylinder 18 via the steering control valve 24. The controller 60 proceeds to step ST18.

コントローラ60は、車両と目標とが正対したか否かを判定する(ステップST18)。コントローラ60は、車両と目標とが正対したと判定する場合(ステップST18でYes)、ステップST19へ進む。コントローラ60は、車両と目標とが正対したと判定しない場合(ステップST18でNo)、ステップST17の処理を再度実行する。 The controller 60 determines whether the vehicle and the target are directly facing each other (step ST18). When the controller 60 determines that the vehicle and the target are directly facing each other (Yes in step ST18), the controller 60 proceeds to step ST19. When the controller 60 does not determine that the vehicle and the target are directly facing each other (No in step ST18), the controller 60 executes the process in step ST17 again.

コントローラ60は、車体座標系における目標基準点の位置を検出する(ステップST19)。より詳しくは、コントローラ60は、アプローチする対象の基準点である目標基準点の位置を検出する。コントローラ60は、ステップST20へ進む。 The controller 60 detects the position of the target reference point in the vehicle body coordinate system (step ST19). More specifically, the controller 60 detects the position of a target reference point, which is a reference point of an object to be approached. The controller 60 proceeds to step ST20.

コントローラ60は、作業機2の位置を検出する(ステップST20)。コントローラ60は、ステップST21へ進む。 Controller 60 detects the position of work machine 2 (step ST20). The controller 60 proceeds to step ST21.

コントローラ60は、目標基準点の位置と作業機2の位置とが一致するように作業機2を制御する(ステップST21)。より詳しくは、コントローラ60は、目標基準点の位置に作業機2の位置が一致するように作業機2を制御する。コントローラ60は、作業機制御弁23を介して、リフトシリンダ15、チルトシリンダ16及びサイドシフトシリンダ17を制御する。コントローラ60は、ステップST22へ進む。 The controller 60 controls the work machine 2 so that the position of the target reference point and the position of the work machine 2 match (step ST21). More specifically, the controller 60 controls the work implement 2 so that the position of the work implement 2 coincides with the position of the target reference point. The controller 60 controls the lift cylinder 15 , tilt cylinder 16 , and side shift cylinder 17 via the work equipment control valve 23 . The controller 60 proceeds to step ST22.

コントローラ60は、目標基準点の位置と作業機2の位置とが一致したか否かを判定する(ステップST22)。コントローラ60は、目標基準点の位置と作業機2の位置とが一致したと判定する場合(ステップST22でYes)、処理を終了する。コントローラ60は、目標基準点の位置と作業機2の位置とが一致していないと判定した場合(ステップST22でYes)、ステップST21の処理を再度実行する。 The controller 60 determines whether the position of the target reference point and the position of the working machine 2 match (step ST22). If the controller 60 determines that the position of the target reference point and the position of the working machine 2 match (Yes in step ST22), the process ends. When the controller 60 determines that the position of the target reference point and the position of the working machine 2 do not match (Yes in step ST22), the controller 60 executes the process of step ST21 again.

<効果>
以上説明したように、本実施形態では、フォークリフト1の周辺に存在する物体を検出する3次元センサ51からの物体検出データに基づいて、探索範囲内に存在する物体から対象を識別し、識別結果に基づいて、カメラ52によって撮像された画像に識別された対象を示す情報画像を表示装置26に表示させる、このように、本実施形態によれば、荷役作業を行うための目標となる対象を決定する際に、オペレータは、識別された対象とその他の対象を区別して確認することができる。
<Effect>
As explained above, in this embodiment, a target is identified from objects existing within a search range based on object detection data from the three-dimensional sensor 51 that detects objects existing around the forklift 1, and the identification result is In this way, according to the present embodiment, an information image indicating the object identified in the image captured by the camera 52 is displayed on the display device 26. When making a decision, the operator can distinguish between the identified object and other objects.

本実施形態では、荷役作業を行う目標とする対象が決定された場合、決定された対象を示す、第1態様と異なる第2態様の枠線を、決定された対象の位置に重畳して表示装置26に表示させる。このように、本実施形態によれば、荷役車両が荷役作業を行う目標に対して自動で正対するように自動制御がされる際に、オペレータは、識別された対象が荷役作業を行う目標として決定されたことを確認することができる。 In this embodiment, when a target object for carrying out cargo handling work is determined, a frame line in a second mode different from the first mode indicating the determined target is displayed superimposed on the position of the determined target. Displayed on the device 26. As described above, according to the present embodiment, when the cargo handling vehicle is automatically controlled to directly face the target for cargo handling work, the operator recognizes that the identified target is the target for cargo handling work. You can confirm that the decision has been made.

本実施形態では、第1態様と第2態様とは、枠線の色、線種、太さの少なくともいずれかが異なる。本実施形態によれば、自動制御開始操作がされた場合、オペレータは、表示装置26の表示によって、荷役作業を行う目標として決定された対象を容易に認識することができる。 In this embodiment, the first aspect and the second aspect differ in at least one of the color, line type, and thickness of the frame line. According to this embodiment, when the automatic control start operation is performed, the operator can easily recognize the target determined as the target for cargo handling work by the display on the display device 26.

<変形例>
図14は、変形例に係る遠隔で操作されるフォークリフトの構成の一例を示す機能ブロック図である。上述の実施形態においては、表示装置26は、運転室20に配置されているものとして説明したが、これに限定されない。図14に示すように、例えば、フォークリフト1から離れた遠隔に位置する監視室等に、遠隔操作装置及び遠隔表示装置を備えてもよい。
<Modified example>
FIG. 14 is a functional block diagram showing an example of the configuration of a remotely operated forklift according to a modified example. In the above-described embodiment, the display device 26 was described as being disposed in the driver's cab 20, but the display device 26 is not limited thereto. As shown in FIG. 14, for example, a remote control device and a remote display device may be provided in a monitoring room or the like located remotely away from the forklift 1.

1…フォークリフト(荷役車両)、10…車体、11…前輪、12…後輪、13…フォーク、14…マスト、15…リフトシリンダ、16…チルトシリンダ、17…サイドシフトシリンダ、18…ステアリングシリンダ、20…運転室、21…動力源、22…走行モータ、23…作業機制御弁、24…ステアリング制御弁、26…表示装置、27…操作部、31…ステアリングホイール、32…作業機レバー、33…前後進切替レバー、34…アクセルペダル、35…車速センサ、36…ステアリング角センサ、37…作業機負荷センサ(積荷検出センサ)、51…3次元センサ(物体検出センサ)、52…カメラ、60…コントローラ、61…センサデータ取得部、62…画像取得部、63…記憶部、64…決定部、66…識別部、69…表示制御部。 1... Forklift (cargo handling vehicle), 10... Vehicle body, 11... Front wheel, 12... Rear wheel, 13... Fork, 14... Mast, 15... Lift cylinder, 16... Tilt cylinder, 17... Side shift cylinder, 18... Steering cylinder, 20... Driver's cab, 21... Power source, 22... Travel motor, 23... Work equipment control valve, 24... Steering control valve, 26... Display device, 27... Operating unit, 31... Steering wheel, 32... Work equipment lever, 33 ... Forward/forward switching lever, 34... Accelerator pedal, 35... Vehicle speed sensor, 36... Steering angle sensor, 37... Work equipment load sensor (load detection sensor), 51... Three-dimensional sensor (object detection sensor), 52... Camera, 60 ...Controller, 61...Sensor data acquisition section, 62...Image acquisition section, 63...Storage section, 64...Determination section, 66...Identification section, 69...Display control section.

Claims (9)

荷役車両を制御するためのシステムであって、
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を検出する物体検出センサと、
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を撮像するカメラと、
前記物体検出センサから物体検出データを取得可能なコントローラと、
表示装置と、
を備え、
前記コントローラは、
前記物体検出センサからの前記物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、
前記カメラによって撮像された画像を前記表示装置に表示させる表示制御部と、を備え、
前記表示制御部は、前記識別部の識別結果に基づいて、識別された対象を示す情報画像を前記表示装置に表示させる、
システム。
A system for controlling a cargo handling vehicle,
an object detection sensor that is attached to the cargo handling vehicle and detects objects existing around the cargo handling vehicle;
a camera that is attached to the cargo handling vehicle and captures images of objects existing around the cargo handling vehicle;
a controller capable of acquiring object detection data from the object detection sensor;
a display device;
Equipped with
The controller includes:
an identification unit that identifies a target from objects existing within a search range based on the object detection data from the object detection sensor;
a display control unit that causes the display device to display an image captured by the camera;
The display control unit causes the display device to display an information image indicating the identified object based on the identification result of the identification unit.
system.
前記荷役車両のオペレータによって操作される操作部を備え、
前記コントローラは、前記操作部からの操作信号に基づいて、前記識別部によって識別されている対象を荷役作業を行う目標として決定する決定部を備え、
前記表示制御部は、前記決定部によって前記対象が荷役作業を行う目標として決定された場合、前記情報画像の態様を変更する、
請求項1に記載のシステム。
comprising an operation unit operated by an operator of the cargo handling vehicle,
The controller includes a determining unit that determines the object identified by the identifying unit as a target for cargo handling work based on an operation signal from the operating unit,
The display control unit changes an aspect of the information image when the target is determined by the determination unit as a target for cargo handling work.
The system of claim 1.
前記表示制御部は、
前記カメラによって撮影された前記画像上の前記対象の位置に、前記情報画像を重畳して前記表示装置に表示させる、
請求項1または2に記載のシステム。
The display control section includes:
superimposing the information image on the position of the object on the image taken by the camera and displaying it on the display device;
A system according to claim 1 or 2.
前記表示制御部は、
前記識別部によって対象が識別された場合、識別された前記対象を示す第1態様の情報画像を前記表示装置に表示させ、
前記決定部によって前記対象が荷役作業を行う目標として決定された場合、決定された前記対象を示す、前記第1態様と異なる第2態様の情報画像を、前記表示装置に表示させる、
請求項2に記載のシステム。
The display control section includes:
When a target is identified by the identification unit, displaying an information image of a first aspect indicating the identified target on the display device;
When the target is determined by the determining unit as a target for carrying out cargo handling work, displaying on the display device an information image in a second aspect different from the first aspect, which shows the determined target;
The system according to claim 2.
前記第1態様の情報画像及び前記第2態様の情報画像は、前記対象を表す枠線である、
請求項4に記載のシステム。
The information image of the first aspect and the information image of the second aspect are frame lines representing the object,
The system according to claim 4.
前記第1態様と前記第2態様とは、前記枠線の色、線種、太さの少なくともいずれかが異なる、
請求項5に記載のシステム。
The first aspect and the second aspect are different in at least one of the color, line type, and thickness of the frame line.
The system according to claim 5.
荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を検出する物体検出センサと、
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を撮像するカメラと、
前記物体検出センサから物体検出データを取得可能なコントローラと、
表示装置と、
を備えた荷役車両を制御するための方法であって、
前記物体検出センサからの前記物体検出データに基づいて、探索範囲内に存在する物体から対象を識別し、
前記カメラによって撮像された画像を前記表示装置に表示させ、
識別結果に基づいて、識別された前記対象を示す情報画像を前記表示装置に表示させる、
方法。
an object detection sensor that is attached to a cargo handling vehicle and detects objects existing around the cargo handling vehicle;
a camera that is attached to the cargo handling vehicle and captures images of objects existing around the cargo handling vehicle;
a controller capable of acquiring object detection data from the object detection sensor;
a display device;
A method for controlling a cargo handling vehicle comprising:
identifying a target from objects existing within a search range based on the object detection data from the object detection sensor;
displaying an image captured by the camera on the display device;
displaying an information image indicating the identified object on the display device based on the identification result;
Method.
前記荷役車両のオペレータによって操作される操作部からの操作信号に基づいて、識別されている対象を荷役作業を行う目標として決定し、
前記対象が荷役作業を行う目標として決定された場合、前記情報画像の態様を変更する、
請求項7に記載の方法。
determining the identified object as a target for cargo handling work based on an operation signal from an operation unit operated by an operator of the cargo handling vehicle;
changing the aspect of the information image when the target is determined as a target for cargo handling work;
The method according to claim 7.
荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を検出する物体検出センサと、
前記荷役車両に取り付けられ、前記荷役車両の周辺に存在する物体を撮像するカメラと、
前記物体検出センサから物体検出データを取得可能なコントローラと、
表示装置と、
を備え、
前記コントローラは、
前記物体検出センサからの前記物体検出データに基づいて、探索範囲内に存在する物体から対象を識別する識別部と、
前記カメラによって撮像された画像を前記表示装置に表示させる表示制御部と、を備え、
前記表示制御部は、前記識別部の識別結果に基づいて、識別された対象を示す情報画像を前記表示装置に表示させる、
荷役車両。
an object detection sensor that is attached to a cargo handling vehicle and detects objects existing around the cargo handling vehicle;
a camera that is attached to the cargo handling vehicle and captures images of objects existing around the cargo handling vehicle;
a controller capable of acquiring object detection data from the object detection sensor;
a display device;
Equipped with
The controller includes:
an identification unit that identifies a target from objects existing within a search range based on the object detection data from the object detection sensor;
a display control unit that causes the display device to display an image captured by the camera;
The display control unit causes the display device to display an information image indicating the identified object based on the identification result of the identification unit.
cargo handling vehicle.
JP2022137563A 2022-08-31 2022-08-31 System and method for controlling cargo handling vehicle and cargo handling vehicle Pending JP2024033761A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022137563A JP2024033761A (en) 2022-08-31 2022-08-31 System and method for controlling cargo handling vehicle and cargo handling vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022137563A JP2024033761A (en) 2022-08-31 2022-08-31 System and method for controlling cargo handling vehicle and cargo handling vehicle

Publications (1)

Publication Number Publication Date
JP2024033761A true JP2024033761A (en) 2024-03-13

Family

ID=90194544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022137563A Pending JP2024033761A (en) 2022-08-31 2022-08-31 System and method for controlling cargo handling vehicle and cargo handling vehicle

Country Status (1)

Country Link
JP (1) JP2024033761A (en)

Similar Documents

Publication Publication Date Title
CN109844834B (en) Dump truck and backing auxiliary device
US7219769B2 (en) Industrial vehicle equipped with load handling operation control apparatus
US9828223B2 (en) Fork-lift truck and method for operating a fork-lift truck
AU2013218883B2 (en) Periphery monitoring device for transportation vehicle
US20040073359A1 (en) Position control device and position control method of stevedoring apparatus in industrial vehicle
JP3921968B2 (en) Position detection method and position detection apparatus
JP2003171094A (en) Industrial vehicle handle knob and industrial vehicle
JP7215394B2 (en) Operation support device for cargo handling vehicle
JP7426881B2 (en) Cargo handling support system
JP2003252151A (en) Parking support system
JP2024033761A (en) System and method for controlling cargo handling vehicle and cargo handling vehicle
JP7287231B2 (en) Operation support device for cargo handling vehicle
JP2024018536A (en) Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle
US20200307575A1 (en) Vehicle comprising a working equipment, and a working equipment, and a method in relation thereto
JP2024018535A (en) Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle
WO2020170747A1 (en) Industrial vehicle travel assistance device
JP7268575B2 (en) Operation support device for cargo handling vehicle
JP2024018510A (en) Cargo handling vehicle, control method of cargo handling vehicle, and control system of cargo handling vehicle
JP2024034406A (en) System and method to control cargo handling vehicle
CN114859768A (en) System and method for remote operation of a work machine including an implement
JP2024034407A (en) System and method to control cargo handling vehicle
JP2024033370A (en) System and method for controlling cargo handling vehicle
CN112703167B (en) Container crane device and control method for container crane device
JP7135883B2 (en) Mobile body running system
JP2024033377A (en) System and method for controlling cargo handling vehicle