JP2024059197A - Loading operation support device, conveyance device, loading operation support method, and loading operation support program - Google Patents

Loading operation support device, conveyance device, loading operation support method, and loading operation support program Download PDF

Info

Publication number
JP2024059197A
JP2024059197A JP2022166727A JP2022166727A JP2024059197A JP 2024059197 A JP2024059197 A JP 2024059197A JP 2022166727 A JP2022166727 A JP 2022166727A JP 2022166727 A JP2022166727 A JP 2022166727A JP 2024059197 A JP2024059197 A JP 2024059197A
Authority
JP
Japan
Prior art keywords
loading platform
image
imaging means
edge
leg regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022166727A
Other languages
Japanese (ja)
Inventor
美徳 佐藤
Yoshinori Sato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Heavy Industries Ltd
Original Assignee
Sumitomo Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Heavy Industries Ltd filed Critical Sumitomo Heavy Industries Ltd
Priority to JP2022166727A priority Critical patent/JP2024059197A/en
Publication of JP2024059197A publication Critical patent/JP2024059197A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)
  • Image Analysis (AREA)

Abstract

To preferably support loading operation with respect to a loading platform with legs.SOLUTION: A forklift 1 includes an imaging unit 24 acquiring an image of a loading platform 30 having at least two legs 32 (a box pallet 30A or a post pallet 30B) and a control unit 27. The control unit 27 acquires a relative posture of the loading platform 30 relative to the imaging unit 24 based on an image of the loading platform 30 and determines whether or not the loading platform 30 faces the imaging unit 24 based on the relative posture of the loading platform 30. The control unit 27 extracts two leg regions G individually including the two legs 32 from the image of the loading platform 30 and obtains the relative posture of the loading platform 30 based on the two leg regions G.SELECTED DRAWING: Figure 3

Description

本発明は、荷取支援装置、搬送装置、荷取支援方法及び荷取支援プログラムに関する。 The present invention relates to a cargo handling assistance device, a transport device, a cargo handling assistance method, and a cargo handling assistance program.

従来、フォークリフトでの荷役作業では、運転者(作業者)が目視によりパレットの孔部(フォークポケット)を確認し、この孔部へのフォークの挿入可否を判断していた。そのため、特にパレットがフォークリフトから目視しづらい位置に置かれている場合などには、予測を頼りにフォークを挿入しなければならなかった。 Traditionally, when loading and unloading with a forklift, the driver (operator) would visually check the holes (fork pockets) in the pallet and determine whether or not the forks could be inserted into these holes. As a result, especially when the pallet was placed in a position that was difficult to see from the forklift, the driver had to insert the forks based on prediction.

そこで、例えば特許文献1に記載の技術では、パレットの画像を教師データとして機械学習させた学習モデルを用い、孔部へのフォークの挿入可否を判断している。 Therefore, for example, the technology described in Patent Document 1 uses a machine-learned learning model that uses images of pallets as training data to determine whether or not a fork can be inserted into a hole.

特許第6676198号公報Patent No. 6676198

しかしながら、上記特許文献1に記載の技術は、孔部(フォークポケット)を有する一般的な平パレットを対象としたものであり、ボックスパレットやポストパレット等のように脚部を有してその間にフォークが挿入される荷役台に対して最適化された技術ではない。
本発明は、このような事情に鑑みてなされたもので、脚部を有する荷役台に対する荷取作業を好適に支援することを目的とする。
However, the technology described in Patent Document 1 is intended for general flat pallets that have holes (fork pockets), and is not optimized for loading platforms that have legs between which forks can be inserted, such as box pallets and post pallets.
The present invention has been made in consideration of the above circumstances, and has an object to provide an optimal support for loading operations onto a loading platform having legs.

本発明に係る荷取支援装置は、
少なくとも2つの脚部を有する荷役台の画像を取得する撮像手段と、
前記荷役台の画像から前記2つの脚部を個別に含む2つの脚部領域を抽出し、前記2つの脚部領域に基づいて前記撮像手段に対する前記荷役台の相対姿勢を求める演算手段と、
前記荷役台の相対姿勢に基づいて、前記荷役台と前記撮像手段とが正対しているか否かを判定する判定手段と、
を備える。
The load collection assistance device according to the present invention is
an imaging means for acquiring an image of a platform having at least two legs;
a calculation means for extracting two leg regions each including the two legs from the image of the loading platform and determining a relative orientation of the loading platform with respect to the imaging means based on the two leg regions;
a determination means for determining whether the loading platform and the imaging means are directly facing each other based on the relative position of the loading platform;
Equipped with.

本発明によれば、脚部を有する荷役台に対する荷取作業を好適に支援できる。 The present invention can effectively assist with loading operations on loading platforms with legs.

実施形態に係るフォークリフトの外観を示す斜視図である。1 is a perspective view showing an appearance of a forklift according to an embodiment; 実施形態に係るフォークリフトの概略の制御構成を示すブロック図である。1 is a block diagram showing a schematic control configuration of a forklift according to an embodiment of the present invention; 実施形態に係る荷取支援処理の手順を示すフローチャートである。10 is a flowchart illustrating a procedure for a cargo collection assistance process according to the embodiment. 荷取支援処理における画像処理の内容を説明するための図である。11A and 11B are diagrams for explaining the contents of image processing in the cargo collection support process. 荷取支援処理における画像処理の内容を説明するための図である。11A and 11B are diagrams for explaining the contents of image processing in the cargo collection support process. 荷取支援処理における画像処理の内容を説明するための図である。11A and 11B are diagrams for explaining the contents of image processing in the cargo collection support process. 荷取支援処理における画像処理の内容を説明するための図である。11A and 11B are diagrams for explaining the contents of image processing in the cargo collection support process. 荷取支援処理における画像処理の内容を説明するための図である。11A and 11B are diagrams for explaining the contents of image processing in the cargo collection support process.

以下、本発明の実施形態について、図面を参照して詳細に説明する。 The following describes an embodiment of the present invention in detail with reference to the drawings.

[フォークリフトの構成]
図1は、本実施形態に係るフォークリフト1の外観を示す斜視図である。
本実施形態に係るフォークリフト1は、本発明に係る搬送装置の一例であり、車体11、フォーク12、昇降体(リフト)13、マスト14、車輪15を備える。マスト14は車体11の前方に設けられ、図示しない駆動源によって駆動されて車体11の前後に傾斜する。昇降体13は、図示しない駆動源によって駆動され、マスト14に沿って昇降する。昇降体13には、荷物や荷役台30などを保持する保持部としての左右一対のフォーク12が取り付けられている。
[Forklift configuration]
FIG. 1 is a perspective view showing the appearance of a forklift 1 according to this embodiment.
The forklift 1 according to this embodiment is an example of a transport device according to the present invention, and includes a vehicle body 11, forks 12, a lifting body (lift) 13, a mast 14, and wheels 15. The mast 14 is provided at the front of the vehicle body 11, and is driven by a driving source (not shown) to tilt the vehicle body 11 forward and backward. The lifting body 13 is driven by a driving source (not shown) to rise and fall along the mast 14. A pair of left and right forks 12 are attached to the lifting body 13 as holding parts for holding luggage, a loading platform 30, etc.

荷役台30は、フォークリフト1の荷役(荷取)対象となる荷物が載置・収容されるものである。荷役台30は、矩形板状の底板(台板)31と、その下面四隅に配置された脚部32とを有し、底板31の下方空間のうち隣り合う2つの脚部32の間の部分に一対のフォーク12が挿入されることにより、フォークリフト1に保持される。具体的に、本実施形態の荷役台30は、ボックスパレット30A又はポストパレット30Bである(図4(a)、(b)参照)。ボックスパレット30Aは、底板31上に金網状の矩形箱形のボックス33Aが固定されている。ポストパレット30Bは、底板31上の四隅に、脚部32と一体的に構成された支柱34Bを有している。ボックスパレット30A及びポストパレット30Bのいずれも、脚部32をボックス33A又は支柱34Bの上端に載せるようにして、複数を段積みできるようになっている。
なお、本発明に係る荷役台は、少なくとも2つの脚部を有するボックスパレットやポストパレット等を含み、脚部を有していない平パレット等は含まない。換言すれば、本発明に係る荷役台は、隣り合う脚部の間にフォークが挿入されるパレットを含み、いわゆるフォークポケットを有するパレットは含まない。脚部はキャスターでもよい。
また、以下の説明では、荷役台30の構成のうち、ボックスパレット30Aの構成には「A」を、ポストパレット30Bの構成には「B」を、当該構成の符号の末尾に付してこれらを識別する場合がある。
The loading platform 30 is a platform on which cargo to be handled (picked up) by the forklift 1 is placed and stored. The loading platform 30 has a rectangular bottom plate (base plate) 31 and legs 32 arranged at the four corners of the lower surface thereof. A pair of forks 12 are inserted between two adjacent legs 32 in the space below the bottom plate 31, so that the loading platform 30 is held by the forklift 1. Specifically, the loading platform 30 of this embodiment is a box pallet 30A or a post pallet 30B (see Figs. 4(a) and 4(b)). The box pallet 30A has a rectangular box-shaped wire mesh box 33A fixed on the bottom plate 31. The post pallet 30B has supports 34B integrally formed with the legs 32 at the four corners of the bottom plate 31. Both the box pallet 30A and the post pallet 30B can be stacked in multiple layers by placing the legs 32 on the upper ends of the boxes 33A or supports 34B.
The loading platform according to the present invention includes box pallets and post pallets that have at least two legs, but does not include flat pallets that do not have legs. In other words, the loading platform according to the present invention includes pallets in which forks are inserted between adjacent legs, but does not include pallets that have so-called fork pockets. The legs may be casters.
In addition, in the following description, the configurations of the loading platform 30 may be identified by adding an "A" to the end of the symbol for the box pallet 30A and a "B" to the end of the symbol for the post pallet 30B.

図2は、フォークリフト1の概略の制御構成を示すブロック図である。
この図に示すように、フォークリフト1は、上記構成に加え、駆動部21、操作部22、表示部23、撮影部24、記憶部26、制御部27を備える。本発明に係る荷取支援装置は、少なくとも撮影部24、制御部27を含んで構成される。
FIG. 2 is a block diagram showing a schematic control configuration of the forklift 1.
As shown in this figure, in addition to the above-mentioned components, the forklift 1 is equipped with a drive unit 21, an operation unit 22, a display unit 23, an image capturing unit 24, a storage unit 26, and a control unit 27. The load-receiving support device according to the present invention is configured to include at least the image capturing unit 24 and the control unit 27.

駆動部21は、フォークリフト1の各種駆動源である走行モータ、操舵モータ及び荷役モータ(いずれも図示省略)を含む。走行モータは、車輪15のうちの駆動輪を駆動する。操舵モータは、車輪15のうちの操舵輪を回転(操舵動作)させる。荷役モータは、昇降体13の昇降とマスト14の傾倒との各動作を行わせる駆動源である。
操作部22は、オペレータ(運転者)が各種操作を行う操作手段である。操作部22は、例えばハンドルやペダル、レバー、各種ボタン等を含み、これらの操作内容に応じた操作信号を制御部27に出力する。
The drive unit 21 includes a travel motor, a steering motor, and a loading motor (all not shown) which are various drive sources of the forklift 1. The travel motor drives the drive wheels of the wheels 15. The steering motor rotates (performs a steering operation) the steering wheels of the wheels 15. The loading motor is a drive source which performs the operations of raising and lowering the lifting body 13 and tilting the mast 14.
The operation unit 22 is an operation means through which an operator (driver) performs various operations. The operation unit 22 includes, for example, a steering wheel, pedals, levers, various buttons, etc., and outputs operation signals according to the contents of these operations to the control unit 27.

表示部23は、例えば液晶ディスプレイ、有機エレクトロルミネッセンスディスプレイその他のディスプレイであり、制御部27から入力される表示信号に基づいて各種情報を表示する。なお、表示部23は、操作部22の一部を兼ねるタッチパネルであってもよいし、音声表示(出力)が可能なスピーカを含んでもよい。
撮影部24は、所定の解像度を有するカメラであり、例えば昇降体13又はマスト14に前方向きに取り付けられている。撮影部24は、フォークリフト1の前方を撮影し、その画像(例えばRGB画像)を取得する。
The display unit 23 is, for example, a liquid crystal display, an organic electroluminescence display, or other display, and displays various information based on a display signal input from the control unit 27. The display unit 23 may be a touch panel that also serves as part of the operation unit 22, or may include a speaker capable of audio display (output).
The photographing unit 24 is a camera having a predetermined resolution, and is attached, for example, facing forward on the lifting body 13 or the mast 14. The photographing unit 24 photographs the area in front of the forklift 1 and acquires the image (for example, an RGB image).

記憶部26は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等を備えて構成されるメモリであり、各種のプログラム及びデータを記憶するとともに、制御部27の作業領域としても機能する。
本実施形態の記憶部26には、学習モデル261と、荷役台情報データベース(DB)262とが予め記憶されている。
学習モデル261は、荷役台30の撮像画像から脚部32を含む脚部領域G(図4参照)を抽出するものであり、機械学習により予め構築されて記憶部26に格納されている。学習モデル261は、深層学習されたニューラルネットワークを有するAI(Artificial Intelligence:人工知能)であってもよい。
荷役台情報データベース262には、荷役台30の形状等の情報が、荷役台30の種類毎に整理されて格納されている。
さらに、本実施形態の記憶部26には、後述の荷取支援処理(図3参照)を実行するための荷取支援プログラム263が予め記憶されている。
The storage unit 26 is a memory configured to include, for example, a RAM (Random Access Memory) and a ROM (Read Only Memory), and stores various programs and data, and also functions as a work area for the control unit 27 .
In the memory unit 26 of this embodiment, a learning model 261 and a loading platform information database (DB) 262 are stored in advance.
The learning model 261 extracts a leg region G (see FIG. 4 ) including the leg 32 from the captured image of the loading platform 30, and is constructed in advance by machine learning and stored in the storage unit 26. The learning model 261 may be an AI (Artificial Intelligence) having a deep learning neural network.
The loading platform information database 262 stores information such as the shape of the loading platform 30 organized by type of loading platform 30 .
Furthermore, the storage unit 26 of this embodiment prestores a cargo collection assistance program 263 for executing a cargo collection assistance process (see FIG. 3) described below.

制御部27は、例えばCPU(Central Processing Unit)等を備えて構成され、フォークリフト1各部の動作を制御する。具体的に、制御部27は、操作部22の操作内容に基づいて駆動部21を動作させたり、記憶部26に予め記憶されているプログラムを展開し、展開されたプログラムと協働して各種処理を実行したりする。 The control unit 27 is configured with, for example, a CPU (Central Processing Unit) and controls the operation of each part of the forklift 1. Specifically, the control unit 27 operates the drive unit 21 based on the operation content of the operation unit 22, deploys a program pre-stored in the memory unit 26, and executes various processes in cooperation with the deployed program.

[荷取支援処理]
続いて、フォークリフト1が荷役台30にフォーク12を挿入する際の荷取動作を支援する荷取支援処理について説明する。
この荷取動作では、荷役台30の画像に基づいて荷役台30の姿勢が求められ、その結果に基づいて、荷役台30の下部へのフォーク12の挿入が好適にアシストされる。
図3は、荷取支援処理の手順を示すフローチャートであり、図4~図8は、荷取支援処理における画像処理の内容を説明するための図である。図4~図8では、(a)がボックスパレット30Aの例を、(b)がポストパレット30Bの例を、それぞれ示している。
[Pickup Assistance Processing]
Next, a load-receiving support process that supports the load-receiving operation when the forklift 1 inserts the forks 12 into the loading platform 30 will be described.
In this loading operation, the posture of the loading platform 30 is determined based on an image of the loading platform 30, and based on the result, the insertion of the forks 12 under the loading platform 30 is suitably assisted.
Fig. 3 is a flow chart showing the procedure for the goods collection assistance process, and Fig. 4 to Fig. 8 are diagrams for explaining the contents of image processing in the goods collection assistance process. In Fig. 4 to Fig. 8, (a) shows an example of a box pallet 30A, and (b) shows an example of a post pallet 30B.

荷取支援処理は、荷役台30の画像から荷役台30の相対姿勢を予測し、荷役台30との正対判定を行う処理である。この荷取支援処理は、制御部27が、オペレータの操作に基づいて記憶部26から荷取支援プログラム263を読み出して展開することで実行される。ここでは、フォークリフト1が荷役台30の前方まで走行してきた状態であるものとする。 The cargo handling assistance process is a process that predicts the relative posture of the loading platform 30 from an image of the loading platform 30 and determines whether the loading platform 30 is facing the loading platform 30. This cargo handling assistance process is executed by the control unit 27 reading and deploying the cargo handling assistance program 263 from the memory unit 26 based on the operation of the operator. Here, it is assumed that the forklift 1 has traveled to the front of the loading platform 30.

図3に示すように、荷取支援処理が実行されると、まず制御部27は、撮影部24により荷役台30の画像を取得する(ステップS1)。
このステップでは、制御部27は、オペレータの操作に基づいて、撮影部24を動作させて前方の荷役台30を含む画像を取得し、記憶部26に記憶させる。これにより、例えば図4(a)、(b)に示すような荷役台30の撮像画像Mが得られる。撮像画像Mは表示部23にリアルタイム表示させてもよい。
なお、撮影タイミングはオペレータの操作に基づくものでなくともよく、例えば所定の撮影タイミングで定期的にフォークリフト1前方を撮影し、その画像から荷役台30を検出することとしてもよい。
As shown in FIG. 3, when the cargo handling assistance process is executed, the control unit 27 first acquires an image of the cargo handling platform 30 by the photographing unit 24 (step S1).
In this step, the control unit 27 operates the photographing unit 24 based on the operation of the operator to obtain an image including the loading platform 30 in front, and stores the image in the storage unit 26. As a result, a captured image M of the loading platform 30, for example, as shown in Figures 4(a) and 4(b), is obtained. The captured image M may be displayed in real time on the display unit 23.
The timing of photographing does not have to be based on the operation of the operator. For example, the image of the area in front of the forklift 1 may be photographed periodically at a predetermined photographing timing, and the loading platform 30 may be detected from the image.

次に、制御部27は、ステップS1で取得した荷役台30の撮像画像Mを学習モデル261に入力し、撮像画像Mのうち手前側(正面に近い側)の2つの脚部領域Gを抽出する(ステップS2)。
脚部領域Gは、例えば図4(a)、(b)に示すように、各脚部32を含む領域であって、撮像画像Mの上下左右に沿った四辺を有する矩形状の局所領域である。このステップでは、制御部27は、手前側の2つの脚部32を個別に含む2つの脚部領域Gを、学習モデル261により撮像画像Mから抽出する。学習モデル261は、上述のように、例えばニューラルネットワーク等を利用した機械学習により、荷役台30の画像から手前側の2つの脚部領域Gを抽出するように予め構築されたモデルである。
Next, the control unit 27 inputs the captured image M of the loading platform 30 acquired in step S1 into the learning model 261, and extracts the two leg regions G on the front side (closer to the front) of the captured image M (step S2).
4A and 4B, the leg region G is a region including each leg 32, and is a rectangular local region having four sides along the top, bottom, left, and right of the captured image M. In this step, the control unit 27 extracts two leg regions G each including the two legs 32 on the front side from the captured image M using the learning model 261. As described above, the learning model 261 is a model that is constructed in advance by machine learning using, for example, a neural network, so as to extract the two leg regions G on the front side from the image of the loading platform 30.

次に、制御部27は、撮像画像Mのうち、2つの脚部領域Gの間の底面エッジLaを抽出する(ステップS3)。
このステップでは、例えば図5(a)、(b)に示すように、制御部27は、2つの脚部領域Gを全て含むエッジ検出領域Gwを設定し、そのうち底板31の直線状の下縁を底面エッジ(第1エッジ)Laとして抽出(エッジ検出)する。
Next, the control unit 27 extracts the bottom edge La between the two leg regions G from the captured image M (step S3).
In this step, as shown in Figures 5 (a) and (b), for example, the control unit 27 sets an edge detection area Gw that includes all two leg areas G, and extracts (edge detects) the linear lower edge of the bottom plate 31 as the bottom edge (first edge) La.

次に、制御部27は、ステップS3で抽出した底面エッジLaに基づいて、撮影部24に対する荷役台30の相対姿勢を求める(ステップS4)。
このステップでは、制御部27は、撮影部24に対する荷役台30の相対姿勢として、エッジ検出領域Gwの横線Xに対する底面エッジLaの相対角度θを算出する。エッジ検出領域Gwの横線Xは、荷役台30の画像のうち、撮影部24(すなわちフォークリフト1)の左右方向に対応する方向(以下、単に「左右方向」という場合がある。)に沿った直線である。相対角度θは、撮影部24と荷役台30とが正対するに連れて小さくなる。
なお、このステップでは、2つの脚部領域Gに基づいて、荷役台30の相対姿勢に加え、撮影部24に対する荷役台30の相対位置を求めてもよい。
Next, the control unit 27 determines the relative attitude of the loading platform 30 with respect to the photographing unit 24 based on the bottom surface edge La extracted in step S3 (step S4).
In this step, the control unit 27 calculates the relative angle θ of the bottom edge La with respect to the horizontal line X of the edge detection area Gw as the relative attitude of the loading platform 30 with respect to the photographing unit 24. The horizontal line X of the edge detection area Gw is a straight line along a direction corresponding to the left-right direction of the photographing unit 24 (i.e., the forklift 1) (hereinafter, sometimes simply referred to as the "left-right direction") in the image of the loading platform 30. The relative angle θ becomes smaller as the photographing unit 24 and the loading platform 30 face each other directly.
In this step, in addition to the relative attitude of the loading platform 30, the relative position of the loading platform 30 with respect to the imaging unit 24 may also be obtained based on the two leg regions G.

次に、制御部27は、ステップS4で求めた荷役台30の相対姿勢に基づいて、撮影部24(すなわちフォークリフト1)と荷役台30とが正対しているか否かを判定する(ステップS5)。
具体的に、制御部27は、荷役台30の相対姿勢としてステップS4で求めた底面エッジLaの相対角度θが所定の閾値よりも小さい場合に、撮影部24と荷役台30が正対していると判定する。閾値は、例えば底板31の下方空間へのフォーク12の挿入が可能な相対角度θの上限値として、予め設定されている。
Next, the control unit 27 determines whether the image capturing unit 24 (i.e., the forklift 1) and the loading platform 30 are facing each other directly based on the relative attitude of the loading platform 30 obtained in step S4 (step S5).
Specifically, the control unit 27 determines that the photographing unit 24 and the loading platform 30 are facing each other directly when the relative angle θ of the bottom edge La obtained in step S4 as the relative posture of the loading platform 30 is smaller than a predetermined threshold value. The threshold value is set in advance as, for example, an upper limit value of the relative angle θ at which the fork 12 can be inserted into the space below the bottom plate 31.

また、ステップS5では、底面エッジLaの相対角度θに基づく手法に代えて、2つの脚部領域G(又はエッジ検出領域Gw)の左右対称の度合いに基づいて、荷役台30との正対判定を行ってもよい。つまり、2つの脚部領域G(又はエッジ検出領域Gw)の左右対称の度合いが所定以上の場合に、撮影部24と荷役台30が正対していると判定してもよい。より詳しくは、例えば、各脚部領域G(又はエッジ検出領域Gw)と底面エッジLaとの交点のY座標(画像の縦方向座標)が、左右で一致、もしくは左右の差が閾値以下の場合に、撮影部24と荷役台30が正対していると判定してもよい。あるいは、2つの脚部領域G(又はエッジ検出領域Gw)のX方向(画像の横方向)の中心線から、後述する左右2つの垂直エッジE(図7参照)までのX方向の距離が互いに等しい、もしくは当該距離の差が閾値以下の場合に、撮影部24と荷役台30が正対していると判定してもよい。
この場合、上述のステップS4では、底面エッジLaの相対角度θに代えて、脚部領域G(又はエッジ検出領域Gw)の左右対称の度合いを求める上記各数値を算出すればよい。
In step S5, instead of the method based on the relative angle θ of the bottom edge La, the photographing unit 24 may be determined to be facing the loading platform 30 based on the degree of symmetry between the two leg regions G (or edge detection regions Gw). That is, when the degree of symmetry between the two leg regions G (or edge detection regions Gw) is equal to or greater than a predetermined value, it may be determined that the photographing unit 24 and the loading platform 30 are facing each other. More specifically, for example, when the Y coordinates (vertical coordinates of the image) of the intersections between the leg regions G (or edge detection regions Gw) and the bottom edge La match on the left and right, or when the difference between the left and right coordinates is equal to or less than a threshold value, it may be determined that the photographing unit 24 and the loading platform 30 are facing each other. Alternatively, when the distances in the X direction from the center line of the two leg regions G (or edge detection regions Gw) in the X direction (horizontal direction of the image) to the two vertical edges E (see FIG. 7) described later are equal to each other, or when the difference between the distances is equal to or less than a threshold value, it may be determined that the photographing unit 24 and the loading platform 30 are facing each other.
In this case, in step S4 described above, instead of the relative angle θ of the bottom edge La, the above-mentioned numerical values for determining the degree of left-right symmetry of the leg region G (or the edge detection region Gw) may be calculated.

なお、撮影部24による画像情報と併せて、その深度情報(奥行き情報)を取得した場合、さらに高精度に荷役台30の相対姿勢を算出できる。深度情報を得る構成は特に限定されず、例えば、撮影部24とは別に(又は一体的に)TOF(Time Of Flight)センサ等を設けてもよいし、撮影部24として三次元の点群データを含む画像が得られるRGB-Dカメラ(デプスカメラ)やステレオカメラ等を用いてもよい。もしくは、荷役台30のサイズが既知であれば(荷役台情報DB262から取得できれば)、撮影部24の内部パラメータから、画像上のスケール(とアスペクト比)に基づいて距離を求めてもよい。
具体的に、撮像画像Mの深度情報を有する場合には、例えば図6(a)、(b)に示すように、各脚部領域Gから少なくとも2つの点Pを任意に抽出し、各点Pの深度を含む三次元座標を取得する。そして、この少なくとも2つの点Pの三次元座標から、荷役台30の相対姿勢として、底板31に垂直なヨー軸Y回りの回転量を算出できる。この場合、底面エッジLaと後述の下端エッジLb(図8参照)に囲まれた領域から、一直線上に位置しない3つ以上の点Pを抽出し、当該3つ以上の点Pの三次元座標から荷役台30の相対姿勢を求めてもよい。
あるいは、例えば図7(a)、(b)に示すように、ボックス33Aの手前側の2つの角部の縁(又は、手前側の2つの支柱34Bの縁)に沿った上下方向の2つの垂直エッジEを抽出(エッジ検出)する。そして、底面エッジLaと、上下方向の2つ垂直エッジEとの2つの交点の三次元座標から、荷役台30の相対姿勢を求めてもよい。
あるいは、ボックス33Aの手前側の2つの角部(又は、手前側の2つの支柱34B)の上端部分を含む2つの上端領域Uを抽出する。そして、2つの上端領域Uの三次元座標から、荷役台30の相対姿勢を求めてもよい。
これらの手法により、チルト角度を含む荷役台30の三次元的な相対姿勢を求めることができる。なお、チルト角度は、荷役台30の前面(ポストパレット30Bの場合は仮想面)を求めてその傾きを算出できればよい。例えばボックスパレット30Aの場合は、前面のパネル35Aを抽出してその傾きを求めてもよい。
In addition, when depth information is acquired together with the image information from the photographing unit 24, the relative attitude of the loading platform 30 can be calculated with even higher accuracy. The configuration for acquiring the depth information is not particularly limited, and for example, a TOF (Time Of Flight) sensor or the like may be provided separately from (or integrated with) the photographing unit 24, or an RGB-D camera (depth camera) or a stereo camera that can acquire images including three-dimensional point cloud data may be used as the photographing unit 24. Alternatively, if the size of the loading platform 30 is known (if it can be acquired from the loading platform information DB 262), the distance may be calculated based on the scale (and aspect ratio) on the image from the internal parameters of the photographing unit 24.
Specifically, when depth information of the captured image M is available, for example as shown in Figures 6(a) and 6(b), at least two points P are arbitrarily extracted from each leg region G, and three-dimensional coordinates including the depth of each point P are obtained. Then, from the three-dimensional coordinates of the at least two points P, the amount of rotation about the yaw axis Y perpendicular to the bottom plate 31 can be calculated as the relative attitude of the loading platform 30. In this case, three or more points P that are not located on a straight line may be extracted from the region surrounded by the bottom edge La and a lower end edge Lb (see Figure 8) described later, and the relative attitude of the loading platform 30 may be obtained from the three-dimensional coordinates of the three or more points P.
7A and 7B, for example, two vertical edges E in the up-down direction along the edges of the two corners on the front side of the box 33A (or the edges of the two pillars 34B on the front side) are extracted (edge detection).The relative attitude of the loading platform 30 may then be obtained from the three-dimensional coordinates of two intersections between the bottom edge La and the two vertical edges E.
Alternatively, two upper end regions U including the upper end portions of the two corners on the front side of the box 33A (or the two support columns 34B on the front side) are extracted. Then, the relative attitude of the loading platform 30 may be obtained from the three-dimensional coordinates of the two upper end regions U.
These methods make it possible to obtain the three-dimensional relative posture of the loading platform 30, including the tilt angle. The tilt angle can be calculated by obtaining the front surface of the loading platform 30 (a virtual surface in the case of the post pallet 30B) and calculating the inclination. For example, in the case of the box pallet 30A, the front panel 35A may be extracted and its inclination may be obtained.

ステップS5において、撮影部24と荷役台30とが正対していると判定した場合(ステップS5;Yes)、制御部27は、一対のフォーク12の挿入候補位置Nを表示部23に表示させる(ステップS6)。
一対の挿入候補位置Nは、例えば、底面エッジLaよりも下側かつ2つの脚部領域Gの間の空間範囲のうち、2つの脚部領域Gを結ぶ方向に所定距離(例えば現在の一対のフォーク12間の距離)だけ離間した2箇所の位置である。このステップでは、制御部27は、挿入候補位置Nを求めたうえで、表示部23に表示させた撮像画像M上に重畳表示させる。
また、挿入候補位置Nの表示と併せて、撮影部24(すなわちフォークリフト1)が荷役台30に正対していることをオペレータに報知(例えば表示部23に「OK」と表示する等)してもよい。
In step S5, if it is determined that the photographing unit 24 and the loading platform 30 are directly facing each other (step S5; Yes), the control unit 27 causes the display unit 23 to display candidate insertion positions N for the pair of forks 12 (step S6).
The pair of candidate insertion positions N are, for example, two positions that are below the bottom edge La and within the spatial range between the two leg regions G, spaced apart by a predetermined distance (for example, the distance between the current pair of forks 12) in the direction connecting the two leg regions G. In this step, the control unit 27 determines the candidate insertion positions N, and then displays them superimposed on the captured image M displayed on the display unit 23.
In addition to displaying the candidate insertion position N, the operator may be notified that the photographing unit 24 (i.e., the forklift 1) is directly facing the loading platform 30 (for example, by displaying "OK" on the display unit 23).

なお、ステップS6では、例えば図8(a)、(b)に示すように、挿入候補位置Nの表示に代えて(又はこれと併せて)、フォーク12を挿入可能な挿入空間AR(図中のドット箇所)を表示部23に表示させてもよい。挿入空間ARは、底面エッジLa及びこれに平行な下端エッジ(第2エッジ)Lbと、2つの脚部領域Gとに囲まれたフォーク挿入領域(脚部領域Gは含まない)である。下端エッジLbは、底面エッジLaに平行であって、少なくともいずれか一方の脚部32の下端に接する(他方の脚部32とは離れていてもよい)直線として、撮像画像Mから抽出される。
これにより、フォーク12が挿入される範囲として挿入空間ARを指定できる(自動運転の場合には挿入空間ARに限定できる)ため、荷取作業時におけるフォーク12と挿入空間AR外の物体との干渉のおそれを抑制できる。例えば、段積みされた上側の荷役台30を荷取する場合、下側の荷役台30に積まれた荷をフォーク12で傷付ける事態を回避できる。なお、自動運転(例えばフォークリフト1が無人搬送車)の場合、フォーク12が挿入空間ARに挿入されるように制御されればよく、挿入空間ARの表示は省略してもよい。
またこのとき、撮影部24に対する荷役台30の相対姿勢及び相対位置に基づいて、フォーク12の左右方向位置が挿入空間AR内に含まれるか否かを判定してもよい。
8(a) and 8(b), instead of (or in addition to) displaying the insertion candidate position N, an insertion space AR (a dot in the figure) into which the fork 12 can be inserted may be displayed on the display unit 23. The insertion space AR is a fork insertion area (excluding the leg area G) surrounded by a bottom edge La, a lower end edge (second edge) Lb parallel to the bottom edge La, and two leg areas G. The lower end edge Lb is extracted from the captured image M as a straight line parallel to the bottom edge La and tangent to the lower end of at least one of the legs 32 (it may be separated from the other leg 32).
This allows the insertion space AR to be specified as the range into which the forks 12 are inserted (in the case of automatic driving, it can be limited to the insertion space AR), thereby reducing the risk of interference between the forks 12 and objects outside the insertion space AR during cargo picking. For example, when picking up cargo from the upper loading platform 30 of a stack, it is possible to avoid a situation in which the forks 12 damage the cargo loaded on the lower loading platform 30. Note that in the case of automatic driving (for example, when the forklift 1 is an unmanned guided vehicle), it is sufficient to control the forks 12 to be inserted into the insertion space AR, and the display of the insertion space AR may be omitted.
At this time, it may be determined whether or not the left-right direction position of the forks 12 is included within the insertion space AR based on the relative posture and position of the loading platform 30 with respect to the photographing unit 24.

また、ステップS6では、挿入空間ARの中心線Cを表示部23に表示させてもよい。中心線Cは、例えば、挿入空間ARの中心位置を通って荷役台30の奥行き方向に平行な線である。ただし、中心線Cは、少なくとも左右方向において挿入空間ARの中心であればよい。
これにより、2つの脚部領域Gの間の部分と一対のフォーク12とが左右方向において互いの中心が対応(例えば一致)するようにオペレータを促す(自動運転の場合にはそのように一対のフォーク12を制御する)ことができる。そのため、フォーク12により荷役台30を保持した状態の安定性を向上させることができる。ひいては、荷崩れ等の不具合を抑制でき、安全性も向上させることができる。なお、自動運転(例えばフォークリフト1が無人搬送車)の場合、2つの脚部領域Gの間の部分と一対のフォーク12とが左右方向において互いの中心が対応するように、一対のフォーク12が制御されればよく、中心線Cの表示は省略してもよい。
In step S6, the center line C of the insertion space AR may be displayed on the display unit 23. The center line C is, for example, a line that passes through the center position of the insertion space AR and is parallel to the depth direction of the loading platform 30. However, it is sufficient that the center line C is at least the center of the insertion space AR in the left-right direction.
This makes it possible to prompt the operator to make the center of the portion between the two leg regions G and the pair of forks 12 correspond (for example, coincide) in the left-right direction (in the case of automatic driving, the pair of forks 12 are controlled in this manner). Therefore, it is possible to improve the stability of the state in which the loading platform 30 is held by the forks 12. In addition, it is possible to suppress problems such as load collapse, and to improve safety. Note that in the case of automatic driving (for example, when the forklift 1 is an unmanned guided vehicle), it is sufficient that the pair of forks 12 are controlled so that the center of the portion between the two leg regions G and the pair of forks 12 correspond in the left-right direction, and the display of the center line C may be omitted.

一方、ステップS5において、撮影部24と荷役台30とが正対していないと判定した場合(ステップS5;No)、制御部27は、撮影部24(すなわちフォークリフト1)が荷役台30に正対していないことをオペレータに報知する(ステップS7)。
この場合の報知態様は特に限定されず、表示部23に警告表示(例えば「パレットに正対していません!」等)を表示させてもよいし、図示しないスピーカに警告音を出力させたりしてもよい。
さらにこの場合、荷役台30に正対していない状態での荷取作業を防ぐため、フォークリフト1の前進動作を停止させる(規制する)等してもよい。
On the other hand, if it is determined in step S5 that the photographing unit 24 and the loading platform 30 are not facing each other (step S5; No), the control unit 27 notifies the operator that the photographing unit 24 (i.e., the forklift 1) is not facing the loading platform 30 (step S7).
The manner of notification in this case is not particularly limited, and may include displaying a warning message on the display unit 23 (e.g., "You are not facing the pallet!") or outputting a warning sound from a speaker (not shown).
Furthermore, in this case, in order to prevent cargo pick-up work from being performed while not facing the loading platform 30, the forward movement of the forklift 1 may be stopped (restricted), etc.

次に、制御部27は、荷取支援処理を終了させるか否かを判定し(ステップS8)、終了させないと判定した場合には(ステップS8;No)、上述のステップS1へ処理を移行する。
そして、例えば荷取作業の終了等により、荷取支援処理を終了させると判定した場合には(ステップS8;Yes)、制御部27は、荷取支援処理を終了させる。
Next, the control unit 27 judges whether or not to end the goods collection assistance process (step S8), and if it is judged not to end the process (step S8; No), the control unit 27 proceeds to the above-mentioned step S1.
Then, when it is determined that the goods collection assistance process should be ended, for example, due to the completion of the goods collection operation (step S8; Yes), the control unit 27 ends the goods collection assistance process.

[本実施形態の技術的効果]
以上のように、本実施形態によれば、荷役台30の撮像画像Mから2つの脚部32を個別に含む2つの脚部領域Gが抽出され、当該2つの脚部領域Gに基づいて撮影部24に対する荷役台30の相対姿勢が求められる。そして、荷役台30の相対姿勢に基づいて、荷役台30と撮影部24(すなわちフォークリフト1)とが正対しているか否かが判定される。
これにより、脚部32を有するボックスパレット30Aやポストパレット30B等の荷役台30に対して、フォークリフト1との正対判定を好適に行うことができる。したがって、脚部32を有する荷役台30に対する荷取作業を好適に支援することができる。
[Technical effect of the present embodiment]
As described above, according to this embodiment, two leg regions G each including the two legs 32 are extracted from the captured image M of the loading platform 30, and the relative orientation of the loading platform 30 with respect to the imaging unit 24 is obtained based on the two leg regions G. Then, based on the relative orientation of the loading platform 30, it is determined whether the loading platform 30 and the imaging unit 24 (i.e., the forklift 1) are directly facing each other.
This makes it possible to suitably determine whether the forklift 1 is facing the loading platform 30, such as the box pallet 30A or the post pallet 30B, which has the legs 32. Therefore, the loading operation for the loading platform 30 having the legs 32 can be suitably supported.

また、本実施形態によれば、2つの脚部領域Gに基づいて、2つの脚部領域Gの間の部分を含むエッジ検出領域Gwにおける荷役台30の底板31の下縁が底面エッジLaとして抽出され、底面エッジLaに基づいて荷役台30の相対姿勢が求められる。
これにより、好適に底面エッジLaを抽出し、荷役台30の相対姿勢を求めることができる。また、画像範囲を絞ってエッジ抽出を行うため、画像全体に対してエッジ抽出を行う場合に比べて抽出ミスの発生を低減できる。
In addition, according to this embodiment, based on the two leg regions G, the lower edge of the bottom plate 31 of the loading platform 30 in the edge detection region Gw including the portion between the two leg regions G is extracted as a bottom edge La, and the relative posture of the loading platform 30 is determined based on the bottom edge La.
This makes it possible to suitably extract the bottom edge La and determine the relative attitude of the loading platform 30. In addition, because edge extraction is performed by narrowing down the image range, the occurrence of extraction errors can be reduced compared to when edge extraction is performed on the entire image.

また、本実施形態によれば、荷役台30と撮影部24(すなわちフォークリフト1)とが正対していると判定された場合、底面エッジLaと平行であって脚部32の下端を通る下端エッジLbが撮像画像Mから抽出される。そして、底面エッジLaと下端エッジLbと2つの脚部領域Gとに囲まれた挿入空間ARが表示部23に表示される。
これにより、フォーク12が挿入される範囲として挿入空間ARを指定できるため、荷取作業時におけるフォーク12と挿入空間AR外の物体との干渉のおそれを抑制できる。例えば、段積みされた上側の荷役台30を荷取する場合に、下側の荷役台30に積まれた荷をフォーク12で傷付ける事態を回避できる。
Furthermore, according to this embodiment, when it is determined that the loading platform 30 and the photographing unit 24 (i.e., the forklift 1) are facing each other, a bottom edge Lb that is parallel to the bottom edge La and passes through the bottom end of the leg 32 is extracted from the captured image M. Then, an insertion space AR surrounded by the bottom edge La, the bottom edge Lb, and the two leg regions G is displayed on the display unit 23.
This allows the insertion space AR to be specified as the range into which the forks 12 are inserted, thereby reducing the risk of the forks 12 interfering with an object outside the insertion space AR during cargo pick-up work. For example, when picking up cargo from an upper loading platform 30 of a stack, it is possible to prevent the forks 12 from damaging the cargo loaded on the lower loading platform 30.

また、本実施形態によれば、荷役台30と撮影部24(すなわちフォークリフト1)とが正対していると判定された場合に、2つの脚部領域Gの間の部分と一対のフォーク12とが、撮影部24の左右方向に対応する方向において互いの中心が対応するように一対のフォーク12が制御される。
これにより、フォーク12により荷役台30を保持した状態の安定性を向上させることができる。ひいては、荷崩れ等の不具合を抑制でき、安全性も向上させることができる。
Furthermore, according to this embodiment, when it is determined that the loading platform 30 and the photographing unit 24 (i.e., the forklift 1) are facing each other, the pair of forks 12 are controlled so that the centers of the part between the two leg areas G and the pair of forks 12 correspond to each other in the direction corresponding to the left-right direction of the photographing unit 24.
This improves the stability of the state in which the loading platform 30 is held by the forks 12. This in turn makes it possible to prevent problems such as the collapse of the load, and improves safety.

また、本実施形態によれば、撮影部24が深度情報を有する撮像画像Mを取得可能である場合、この深度情報に基づいて荷役台30の相対姿勢が求められる。
これにより、チルト角度を含む荷役台30の三次元的な相対姿勢を好適に求めることができる。
Furthermore, according to this embodiment, if the photographing unit 24 is capable of acquiring a captured image M having depth information, the relative attitude of the loading platform 30 is obtained based on this depth information.
This makes it possible to suitably determine the three-dimensional relative posture of the loading platform 30, including the tilt angle.

また、本実施形態によれば、荷役台30と撮影部24(すなわちフォークリフト1)とが正対していないと判定された場合に、当該判定結果が報知される。
これにより、フォークリフト1のオペレータ等に状況を速やかに報知できる。
Furthermore, according to this embodiment, if it is determined that the loading platform 30 and the image capturing unit 24 (i.e., the forklift 1) are not directly facing each other, the determination result is notified.
This allows the operator of the forklift 1 or the like to be promptly notified of the situation.

[その他]
以上、本発明の実施形態について説明したが、本発明は上記の実施形態に限られない。
例えば、上記実施形態では、荷取支援処理において、荷役台30との正対判定(ステップS5)を行ってから、フォーク12の挿入位置の表示(ステップS6)を行うこととした。しかし、荷役台30との正対判定を行うことなく、フォーク12の挿入位置の表示を行うこととしてもよい。
[others]
Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment.
For example, in the above embodiment, in the load handling support process, the facing determination with respect to the loading platform 30 (step S5) is performed before the display of the insertion position of the fork 12 (step S6). However, the insertion position of the fork 12 may be displayed without performing the facing determination with respect to the loading platform 30.

また、上記実施形態では、荷取支援処理の全てがフォークリフト1上で実行されることとしたが、荷取支援処理の少なくとも一部が外部設備(例えば荷役作業場の管理室)で実行されることとしてもよい。例えば、外部設備とフォークリフト1に通信手段を設け、撮影した画像をフォークリフト1から外部設備の演算装置に送信して、この演算装置で算出した結果をフォークリフト1に送信することとしてもよい。 In addition, in the above embodiment, all of the cargo handling assistance processing is performed on the forklift 1, but at least a part of the cargo handling assistance processing may be performed in external equipment (e.g., a control room at a loading and unloading work site). For example, a communication means may be provided in the external equipment and the forklift 1, and the captured image may be transmitted from the forklift 1 to a computing device in the external equipment, and the results calculated by this computing device may be transmitted to the forklift 1.

また、本発明に係る搬送装置は、荷役台を保持して搬送するものであればフォークリフトに限定されず、例えば荷を無人(自動)で搬送する無人搬送車(例えばAGV:Automated Guided Vehicle)などであってもよい。搬送装置が無人搬送車の場合、荷取支援処理のステップS6、S7における表示処理や報知処理は、例えば、フォークリフト1と通信可能な外部設備の表示部(報知部)に対して行ってもよい。
その他、上記実施形態で示した細部は、発明の趣旨を逸脱しない範囲で適宜変更可能である。
Furthermore, the transport device according to the present invention is not limited to a forklift as long as it holds and transports a loading platform, and may be, for example, an automated guided vehicle (e.g., AGV) that transports loads without a driver (automatic), etc. If the transport device is an automated guided vehicle, the display process and notification process in steps S6 and S7 of the load collection support process may be performed on, for example, a display unit (notification unit) of external equipment that can communicate with the forklift 1.
In addition, the details shown in the above embodiment can be modified as appropriate without departing from the spirit of the invention.

1 フォークリフト(搬送装置)
12 フォーク(保持部)
23 表示部
24 撮影部(撮像手段)
26 記憶部
27 制御部(演算手段、判定手段、表示手段、制御手段、報知手段)
30 荷役台
30A ボックスパレット
30B ポストパレット
31 底板
32 脚部
33A ボックス
34B 支柱
35A パネル
261 学習モデル
263 荷取支援プログラム
AR 挿入空間(フォーク挿入領域)
C 中心線
E 垂直エッジ
G 脚部領域
Gw エッジ検出領域
La 底面エッジ(第1エッジ)
Lb 下端エッジ(第2エッジ)
M 撮像画像
N 挿入候補位置
P 点
U 上端領域
X 横線
θ 相対角度
1. Forklift (transportation device)
12 Fork (holding part)
23 Display unit 24 Photography unit (imaging means)
26 Memory unit 27 Control unit (calculation means, determination means, display means, control means, notification means)
30 Loading platform 30A Box pallet 30B Post pallet 31 Bottom plate 32 Leg 33A Box 34B Support 35A Panel 261 Learning model 263 Loading support program AR Insertion space (fork insertion area)
C: center line E: vertical edge G: foot area Gw: edge detection area La: bottom edge (first edge)
Lb: Lower edge (second edge)
M: captured image N: insertion candidate position P: point U: upper end area X: horizontal line θ: relative angle

Claims (11)

少なくとも2つの脚部を有する荷役台の画像を取得する撮像手段と、
前記荷役台の画像から前記2つの脚部を個別に含む2つの脚部領域を抽出し、前記2つの脚部領域に基づいて前記撮像手段に対する前記荷役台の相対姿勢を求める演算手段と、
前記荷役台の相対姿勢に基づいて、前記荷役台と前記撮像手段とが正対しているか否かを判定する判定手段と、
を備える荷取支援装置。
an imaging means for acquiring an image of a platform having at least two legs;
a calculation means for extracting two leg regions each including the two legs from the image of the loading platform and determining a relative orientation of the loading platform with respect to the imaging means based on the two leg regions;
a determination means for determining whether the loading platform and the imaging means are directly facing each other based on the relative position of the loading platform;
A cargo handling assistance device comprising:
前記演算手段は、
前記2つの脚部領域に基づいて、前記2つの脚部領域の間の部分を含む領域における前記荷役台の底板の下縁を第1エッジとして抽出し、
前記第1エッジに基づいて前記荷役台の相対姿勢を求める、
請求項1に記載の荷取支援装置。
The calculation means includes:
Based on the two leg regions, a lower edge of a bottom plate of the loading platform in an area including a portion between the two leg regions is extracted as a first edge;
determining a relative attitude of the loading platform based on the first edge;
The load-receiving assist device according to claim 1.
前記演算手段は、前記荷役台の相対姿勢として、前記撮像手段の左右方向に対応する方向と前記第1エッジとのなす角度を算出し、
前記判定手段は、前記角度が所定の閾値よりも小さい場合に、前記荷役台と前記撮像手段とが正対していると判定する、
請求項2に記載の荷取支援装置。
the calculation means calculates, as a relative attitude of the loading platform, an angle between a direction corresponding to a left-right direction of the imaging means and the first edge;
The determination means determines that the loading platform and the imaging means are directly facing each other when the angle is smaller than a predetermined threshold value.
The load-receiving assist device according to claim 2.
前記荷役台と前記撮像手段とが正対していると前記判定手段が判定した場合に、前記第1エッジと平行であって前記脚部の下端に接する第2エッジを前記荷役台の画像から抽出し、前記第1エッジと前記第2エッジと前記2つの脚部領域とに囲まれたフォーク挿入領域を表示部に表示させる表示手段を備える、
請求項2に記載の荷取支援装置。
a display unit that displays a fork insertion area surrounded by the first edge, the second edge, and the two leg areas on a display unit when the determination unit determines that the loading platform and the imaging unit are directly facing each other, the second edge being parallel to the first edge and in contact with the lower end of the leg from the image of the loading platform,
The load-receiving assist device according to claim 2.
前記演算手段は、前記2つの脚部領域に基づいて、前記撮像手段に対する前記荷役台の相対位置を求める、
請求項1に記載の荷取支援装置。
The calculation means determines a relative position of the loading platform with respect to the imaging means based on the two leg regions.
The load-receiving assist device according to claim 1.
前記荷役台を保持する一対の保持部を備える搬送装置を制御する制御手段を備え、
前記制御手段は、前記荷役台と前記撮像手段とが正対していると前記判定手段が判定した場合に、前記2つの脚部領域の間の部分と前記一対の保持部とを、前記撮像手段の左右方向に対応する方向において互いの中心を対応させる、
請求項1に記載の荷取支援装置。
a control means for controlling a conveying device having a pair of holding parts for holding the loading platform;
When the determination means determines that the loading platform and the imaging means are directly facing each other, the control means causes the center of a portion between the two leg regions and the pair of holding portions to correspond to each other in a direction corresponding to the left-right direction of the imaging means.
The load-receiving assist device according to claim 1.
前記撮像手段は、深度情報を有する前記画像を取得可能であり、
前記演算手段は、前記深度情報に基づいて、前記荷役台の相対姿勢を求める、
請求項1に記載の荷取支援装置。
The imaging means is capable of acquiring the image having depth information,
The calculation means determines the relative attitude of the loading platform based on the depth information.
The load-receiving assist device according to claim 1.
前記荷役台と前記撮像手段とが正対していないと前記判定手段が判定した場合に、当該判定結果を報知する報知手段を備える、
請求項1に記載の荷取支援装置。
a notification means for notifying a result of the determination when the determination means determines that the loading platform and the imaging means are not directly facing each other,
The load-receiving assist device according to claim 1.
請求項1に記載の荷取支援装置と、
前記荷役台を保持する一対の保持部と、を備える、
搬送装置。
The load receiving assist device according to claim 1 ,
A pair of holding parts for holding the loading platform;
Conveying device.
少なくとも2つの脚部を有する荷役台の画像を取得する撮像手段を備える荷取支援装置の制御手段が、
前記荷役台の画像から前記2つの脚部を個別に含む2つの脚部領域を抽出し、前記2つの脚部領域に基づいて前記撮像手段に対する前記荷役台の相対姿勢を求める演算工程と、
前記荷役台の相対姿勢に基づいて、前記荷役台と前記撮像手段とが正対しているか否かを判定する判定固定と、
を実行する荷取支援方法。
A control means for a loading assist device including an imaging means for acquiring an image of a loading platform having at least two legs,
a calculation step of extracting two leg regions each including the two legs from the image of the loading platform and determining a relative attitude of the loading platform with respect to the imaging means based on the two leg regions;
a determination as to whether the loading platform and the imaging means are facing each other based on the relative posture of the loading platform;
A cargo handling assistance method.
少なくとも2つの脚部を有する荷役台の画像を取得する撮像手段を備える荷取支援装置のコンピュータを、
前記荷役台の画像から前記2つの脚部を個別に含む2つの脚部領域を抽出し、前記2つの脚部領域に基づいて前記撮像手段に対する前記荷役台の相対姿勢を求める演算手段、
前記荷役台の相対姿勢に基づいて、前記荷役台と前記撮像手段とが正対しているか否かを判定する判定手段、
として機能させる荷取支援プログラム。
A computer of a loading assist device including an imaging means for acquiring an image of a loading platform having at least two legs,
a computing means for extracting two leg regions each including the two legs from the image of the loading platform and determining a relative attitude of the loading platform with respect to the imaging means based on the two leg regions;
a determination means for determining whether the loading platform and the imaging means are directly facing each other based on the relative position of the loading platform;
A cargo assistance program that serves as a.
JP2022166727A 2022-10-18 2022-10-18 Loading operation support device, conveyance device, loading operation support method, and loading operation support program Pending JP2024059197A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022166727A JP2024059197A (en) 2022-10-18 2022-10-18 Loading operation support device, conveyance device, loading operation support method, and loading operation support program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022166727A JP2024059197A (en) 2022-10-18 2022-10-18 Loading operation support device, conveyance device, loading operation support method, and loading operation support program

Publications (1)

Publication Number Publication Date
JP2024059197A true JP2024059197A (en) 2024-05-01

Family

ID=90828217

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022166727A Pending JP2024059197A (en) 2022-10-18 2022-10-18 Loading operation support device, conveyance device, loading operation support method, and loading operation support program

Country Status (1)

Country Link
JP (1) JP2024059197A (en)

Similar Documents

Publication Publication Date Title
CN110054121B (en) Intelligent forklift and container pose deviation detection method
JP4666154B2 (en) Cargo handling support device for forklift
US20210078843A1 (en) Position and posture estimation system
JP7300646B2 (en) Conveyor
JP6858104B2 (en) Information processing device and information processing method
JP3921968B2 (en) Position detection method and position detection apparatus
JP2021066576A (en) Operation support device of cargo handling vehicle
WO2023024561A1 (en) Shelf shifting deviation correction method and apparatus, automated guided vehicle, and storage medium
JP2020109030A (en) Determination device, determination method and program
JP7569225B2 (en) Loading support device, transport device, loading support method, and loading support program
JP2024059197A (en) Loading operation support device, conveyance device, loading operation support method, and loading operation support program
KR102318692B1 (en) Unmanned freight transportation apparatus for multi-stage pallet of atypical support type, and method for operating the same
JP7192706B2 (en) Position and orientation estimation device
JP2021160860A (en) Freight handling assistance system
JP7556308B2 (en) Position and orientation estimation device
JP7025109B2 (en) Cargo handling system
JP2024064336A (en) Loading assistance device, loading vehicle, and loading assistance system
JP2024013690A (en) Cargo handling support device, conveying device, cargo handling support method, and cargo handling support program
US20210347617A1 (en) Engaging an element
JP7544628B2 (en) Loading vehicles and assessment programs
JP2024094473A (en) Cargo handling vehicle, control method of the same, and control program of the same
JP7563419B2 (en) Luggage compartment storage state detection system, luggage compartment storage state detection program, and luggage compartment storage state detection method
JP2023101128A (en) Cargo handling vehicle and determination program
JP2024078012A (en) Packaging appearance detection device
CN117120801A (en) Measuring device and measuring method