JP2020040811A - Determination device and determination method - Google Patents

Determination device and determination method Download PDF

Info

Publication number
JP2020040811A
JP2020040811A JP2018170930A JP2018170930A JP2020040811A JP 2020040811 A JP2020040811 A JP 2020040811A JP 2018170930 A JP2018170930 A JP 2018170930A JP 2018170930 A JP2018170930 A JP 2018170930A JP 2020040811 A JP2020040811 A JP 2020040811A
Authority
JP
Japan
Prior art keywords
forklift
pallet
facing
determination
fork
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018170930A
Other languages
Japanese (ja)
Other versions
JP6722733B2 (en
Inventor
剛司 泉
Goji Izumi
剛司 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2018170930A priority Critical patent/JP6722733B2/en
Publication of JP2020040811A publication Critical patent/JP2020040811A/en
Application granted granted Critical
Publication of JP6722733B2 publication Critical patent/JP6722733B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Abstract

To determine whether or not a fork lift faces a pallet.SOLUTION: A determination unit (1) comprises a facing determination unit (104) that determines whether or not a fork lift (5) faces a target pallet, by using a learnt model obtained by mechanically learning a correlation between whether or not the fork lift faces the pallet and an image of the pallet with a cargo object placed thereon, the image being taken by a photographing device (3) installed on the fork lift (5).SELECTED DRAWING: Figure 1

Description

本発明は、フォークリフトが、積荷を積載したパレットと正対しているか否かを判定する判定装置等に関する。   The present invention relates to a determination device and the like for determining whether a forklift is directly facing a pallet loaded with a load.

フォークリフトを用いた荷役作業においては、フォークリフトの運転者は、積荷を積載したパレットのフォークポケットにフォークを挿し込み、パレットごと積荷を持ち上げて、その積荷を運搬するという一連の操作を行う。これら一連の操作のうち、フォークポケットにフォークを挿し込むフォーク挿し込み操作の難易度が特に高く、運転者によっては、フォークの挿し込みに手間取ったり、パレットにフォークを衝突させてしまったりすることがある。   In a cargo handling operation using a forklift, a driver of the forklift performs a series of operations of inserting a fork into a fork pocket of a pallet loaded with a load, lifting the load along with the pallet, and transporting the load. Of these series of operations, the difficulty of inserting the fork into the fork pocket is particularly high, and depending on the driver, it may take time to insert the fork or cause the fork to collide with the pallet. is there.

フォーク挿し込み操作を容易にするための技術としては、例えば特許文献1が挙げられる。特許文献1には、レーザ光線を反射する光線反射面を形成したパレットに、フォークと同じ高さのレーザ光線を照射し、運転手にその反射光を目印にしてフォークのパレットに対する高さ位置合わせを行わせる技術が開示されている。   As a technique for facilitating the fork insertion operation, for example, Patent Document 1 is cited. Patent Document 1 discloses that a pallet having a light reflecting surface for reflecting a laser beam is irradiated with a laser beam having the same height as a fork, and the height of the fork is adjusted with respect to the pallet using the reflected light as a mark for a driver. Is disclosed.

特開2005−298000号公報JP 2005-298000 A

特許文献1に記載された技術によれば、フォークのパレットに対する高さ位置合わせは容易になる。しかしながら、フォークとパレットの高さ位置が合っていたとしても、フォークリフトがパレットに正対していなければ、フォーク挿し込み操作がスムーズに進まなかったり、パレットにフォークが接触したりすることがあった。   According to the technique described in Patent Literature 1, height alignment of the fork with respect to the pallet becomes easy. However, even if the height position of the fork and the pallet is matched, if the forklift is not directly facing the pallet, the fork insertion operation may not proceed smoothly or the fork may contact the pallet.

本発明は上記の問題点に鑑みてなされたものであり、その目的は、フォークリフトがパレットに正対しているか否かを判定することができる判定装置等を提供することにある。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a determination device and the like that can determine whether a forklift is directly facing a pallet.

上記の課題を解決するために、本発明の一態様に係る判定装置は、フォークリフトに設置された撮影装置にて該フォークリフトの荷役対象物が載置されたパレットを撮影した画像と、該フォークリフトが上記パレットに正対しているか否かとの相関関係を機械学習した学習済みモデルを用いて、上記フォークリフトの荷役対象物が載置された対象パレットを上記撮影装置にて撮影した画像から、上記フォークリフトが上記対象パレットに正対しているか否かを判定する正対判定部を備えている。   In order to solve the above-described problems, a determination device according to one embodiment of the present invention includes an image capturing device that is mounted on a forklift, an image of a pallet on which a material to be unloaded is placed, and the forklift Using a learned model that machine-learned the correlation with whether or not the pallet is directly facing, from the image of the target pallet on which the cargo handling object of the forklift is placed by the imaging device, A facing determination unit that determines whether or not the facing pallet is facing is provided.

また、上記の課題を解決するために、本発明の一態様に係る判定方法は、判定装置による判定方法であって、フォークリフトに設置された撮影装置にて該フォークリフトの荷役対象物が載置されたパレットを撮影した画像と、該フォークリフトが上記パレットに正対しているか否かとの相関関係を機械学習した学習済みモデルを用いて、上記フォークリフトの荷役対象物が載置された対象パレットを上記撮影装置にて撮影した画像から、上記フォークリフトが上記対象パレットに正対しているか否かを判定する正対判定ステップを含む。   Further, in order to solve the above problem, a determination method according to an aspect of the present invention is a determination method using a determination device, in which a cargo handling target object of the forklift is mounted on an imaging device installed on the forklift. Using a learned model in which the correlation between the image of the pallet taken and the forklift facing the pallet or not is machine-learned, the object pallet on which the forklift cargo handling object is placed is photographed. A facing determination step of determining whether or not the forklift is facing the target pallet from an image captured by the apparatus.

本発明の一態様によれば、対象パレットを撮影した画像に基づき、フォークリフトが対象パレットに正対しているか否かを判定することができる。   According to one embodiment of the present invention, it is possible to determine whether or not a forklift is facing the target pallet based on an image of the target pallet.

本発明の実施形態1に係る判定装置の要部構成の一例を示すブロック図である。It is a block diagram showing an example of the important section composition of the judging device concerning Embodiment 1 of the present invention. 本発明の実施形態1の概要について説明するための図である。FIG. 1 is a diagram for describing an outline of a first embodiment of the present invention. 上記判定装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the said determination apparatus performs. 本発明の実施形態2の概要について説明するための図である。It is a figure for explaining an outline of Embodiment 2 of the present invention. 本発明の実施形態2に係る判定装置における制御部の要部構成の一例を示すブロック図である。It is a block diagram showing an example of the important section composition of the control part in the judgment device concerning Embodiment 2 of the present invention. 本発明の実施形態3に係る判定装置における制御部の要部構成の一例を示すブロック図である。It is a block diagram showing an example of important section composition of a control part in a judgment device concerning Embodiment 3 of the present invention.

〔実施形態1〕
(概要)
まず、図2を参照して、実施形態1の判定装置1による処理の概要を説明する。図2は、判定装置1による処理の概要について説明するための図である。図2の(a)では、架台上に載置された、積荷(荷役対象物)900を積載したパレット(対象パレット)800に対し、フォークリフト5が荷役作業を行う様子を示している。また、図2の(b)では、同図の(a)の様子を上方から見た状態を示している。
[Embodiment 1]
(Overview)
First, with reference to FIG. 2, an outline of a process performed by the determination device 1 according to the first embodiment will be described. FIG. 2 is a diagram for describing an outline of a process performed by the determination device 1. FIG. 2A illustrates a state in which the forklift 5 performs a cargo handling operation on a pallet (target pallet) 800 loaded with a cargo (loading target) 900 placed on a gantry. FIG. 2B shows the state of FIG. 2A viewed from above.

フォークリフト5は、パレット800に積載された積荷900を、フォークリフト5のフォーク50をパレット800のフォークポケット801に挿入することにより、パレット800ごと移動させる荷役作業を行う。判定装置1は、この荷役作業において、フォークリフト5がパレット800と正対しているか否かを判定する装置である。なお、フォークポケット801は、図2の(b)に示すように、左右一対のフォーク50がそれぞれ挿入される左右一対の開口部からなる。   The forklift 5 performs a cargo handling operation in which the load 900 loaded on the pallet 800 is moved by inserting the fork 50 of the forklift 5 into the fork pocket 801 of the pallet 800. The determination device 1 is a device that determines whether the forklift 5 faces the pallet 800 in the cargo handling operation. The fork pocket 801 includes a pair of left and right openings into which a pair of left and right forks 50 are inserted, as shown in FIG. 2B.

ここで、フォークリフト5のフォーク50をパレット800のフォークポケット801に適切に挿入させるためには、フォークリフト5がパレット800に対して正対している必要がある。フォークリフト5がパレット800に対して正対していないと、フォークリフト5のフォーク50がフォークポケット801に入らなかったり、フォークポケット801の途中で引っかかったりするためである。   Here, in order to properly insert the fork 50 of the forklift 5 into the fork pocket 801 of the pallet 800, the forklift 5 needs to face the pallet 800. This is because if the forklift 5 does not face the pallet 800, the fork 50 of the forklift 5 does not enter the fork pocket 801 or gets stuck in the fork pocket 801.

なお、フォークリフト5がパレット800に対して、完全に正対(フォーク50の突出方向とフォークポケット801の延在方向が平行な状態)となっていなくとも、正対に近い状態となっていれば荷役作業は問題なく行われる。このため、本明細書で「正対」という場合、完全な正対状態の他、荷役作業に支障がない範囲で完全な正対状態からずれた状態も含まれる。   Even if the forklift 5 is not completely opposed to the pallet 800 (the direction in which the fork 50 projects and the direction in which the fork pocket 801 extends is parallel), the forklift 5 is in a state close to the pallet 800. Cargo handling work is performed without any problem. For this reason, the term “facing” in the present specification includes not only a perfect facing state but also a state deviating from the perfect facing state within a range that does not hinder cargo handling work.

本実施形態では、図2の(a)に示すように、フォークリフト5のフォーク50の位置からパレット800を撮影する撮影装置3を設けている。そして、判定装置1は、撮影装置3による撮影画像からフォークリフト5がパレット800と正対しているか否かを判定する。ここで、正対していないと判定した場合、判定装置1は、例えば図2の(b)に示すように、フォークリフト5がパレット800に対して正対していない旨を報知する。なお、図2の(b)に示す例では、「パレットに正対していません。車体の向きを調整して下さい」と報知している。   In the present embodiment, as shown in FIG. 2A, the photographing device 3 for photographing the pallet 800 from the position of the fork 50 of the forklift 5 is provided. Then, the determination device 1 determines whether or not the forklift 5 faces the pallet 800 from the image captured by the imaging device 3. Here, when it is determined that the pallet 800 is not directly facing, the determining device 1 notifies that the forklift 5 is not directly facing the pallet 800 as shown in FIG. In addition, in the example shown in FIG. 2B, it is informed that “It is not directly facing the pallet. Please adjust the direction of the vehicle body”.

撮影装置3は、上述したように、フォークリフト5がパレット800と正対しているか否かを判定するための画像を撮影する。撮影装置3が撮影する画像は静止画像であってもよいし、動画像であってもよい。なお、本実施形態では、静止画像を撮影する場合を想定している。   As described above, the image capturing device 3 captures an image for determining whether the forklift 5 faces the pallet 800 or not. The image photographed by the photographing device 3 may be a still image or a moving image. In the present embodiment, it is assumed that a still image is captured.

図2の例では、撮影装置3は、一対のフォーク50における各基部の中間の位置に取り付けられており、その撮影方向はフォークリフト5の正面方向(水平方向)である。無論、撮影装置3はパレット800におけるフォークポケット801が開口している側面を撮影できる位置に取り付ければよく、図示の例に限られない。ただし、フォーク50の基部のようにフォーク50の昇降に合わせて昇降する位置に撮影装置3を設置することにより、パレット800およびフォークポケット801を正面あるいは正面に近い方向から撮影することができるので、このような位置に撮影装置3を設置することが好ましい。   In the example of FIG. 2, the photographing device 3 is mounted at an intermediate position between the bases of the pair of forks 50, and the photographing direction is the front direction (horizontal direction) of the forklift 5. Of course, the photographing device 3 may be mounted at a position where the side surface of the pallet 800 where the fork pocket 801 is open can be photographed, and is not limited to the illustrated example. However, the pallet 800 and the fork pocket 801 can be photographed from the front or a direction close to the front by installing the photographing device 3 at a position where the pallet 800 and the fork 50 are raised and lowered in accordance with the lifting and lowering of the fork 50, such as the base of the fork 50. It is preferable to install the photographing device 3 at such a position.

(判定装置1の要部構成)
次に、図1を参照して判定装置1の要部構成について説明する。図1は、判定装置1の要部構成の一例を示すブロック図である。図1に示されるように、判定装置1は、判定装置1の各部を統括して制御する制御部10と、判定装置1が使用する各種データを記憶する記憶部20、および音声を出力する音声出力部40を備えている。また、制御部10には、操作検出部101、撮影制御部102、入力データ生成部103、正対判定部104、および報知制御部105が含まれている。
(Main Configuration of Judgment Device 1)
Next, a configuration of a main part of the determination device 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating an example of a main configuration of the determination device 1. As shown in FIG. 1, the determination device 1 includes a control unit 10 that integrally controls each unit of the determination device 1, a storage unit 20 that stores various data used by the determination device 1, and a voice that outputs a voice. An output unit 40 is provided. In addition, the control unit 10 includes an operation detection unit 101, an imaging control unit 102, an input data generation unit 103, a facing determination unit 104, and a notification control unit 105.

操作検出部101は、フォークリフト5で所定の操作が行われたことを検出する。具体的には、操作検出部101は、フォーク50を昇降させる操作が行われたこと、およびフォークリフト5の向きを調整する操作が行われたことを検出する。なお、上記検出の方法は特に限定されず、例えばフォークリフト5と通信することにより検出してもよいし、フォークリフト5またはその運転者を撮影した画像を解析することにより検出してもよいし、センサ等を用いて検出してもよい。以下説明するように、操作検出部101による上記操作の検出が撮影制御部102による撮影の契機となる。   The operation detection unit 101 detects that a predetermined operation has been performed on the forklift 5. Specifically, the operation detection unit 101 detects that an operation of lifting and lowering the fork 50 and an operation of adjusting the direction of the forklift 5 have been performed. The detection method is not particularly limited. For example, the detection may be performed by communicating with the forklift 5, the detection may be performed by analyzing an image of the forklift 5 or its driver, or the sensor may be detected. May be used for detection. As described below, detection of the above operation by the operation detection unit 101 triggers imaging by the imaging control unit 102.

撮影制御部102は、撮影装置3の動作を制御して、上述の撮影画像を撮影させる。本実施形態では、撮影装置3がフォーク50と連動して昇降するので、撮影制御部102は、撮影装置3の撮影範囲にパレット800が入ったときに撮影装置3に撮影を行わせる。具体的には、撮影制御部102は、フォーク50の昇降が終了したタイミングで撮影装置3に撮影を行わせる。フォーク50の昇降が終了したタイミングは、フォーク50を昇降させる操作を操作検出部101が検出した後、該操作が検出されなくなったタイミングから特定可能である。   The photographing control unit 102 controls the operation of the photographing device 3 to photograph the above-described photographed image. In the present embodiment, since the photographing device 3 moves up and down in conjunction with the fork 50, the photographing control unit 102 causes the photographing device 3 to photograph when the pallet 800 enters the photographing range of the photographing device 3. Specifically, the photographing control unit 102 causes the photographing device 3 to photograph at the timing when the lifting and lowering of the fork 50 is completed. The timing at which the raising and lowering of the fork 50 is completed can be specified from the timing at which the operation is no longer detected after the operation detecting unit 101 detects an operation to raise and lower the fork 50.

このように、昇降終了時点において撮影を行わせることにより、撮影装置3の撮影範囲にパレット800が入ったタイミングで自動的に撮影を行うことができる。また、撮影回数を必要最小限に抑えることができるので、撮影画像を用いた判定装置1の処理回数や処理時間も必要最小限に抑えて、判定装置1の負荷が少ない効率的な処理が実現される。   In this way, by causing the photographing to be performed at the end of the vertical movement, the photographing can be automatically performed at the timing when the pallet 800 enters the photographing range of the photographing device 3. In addition, since the number of times of photographing can be minimized, the number of times of processing and the processing time of the determination device 1 using captured images are also minimized, and efficient processing with a small load on the determination device 1 is realized. Is done.

なお、撮影の契機は上記の例に限定されない。例えば、フォーク50をフォークポケット801に挿し込む際には、フォーク50の傾きを調整するティルト操作が行われることが多い。このため、操作検出部101がティルト操作を検出し、撮影制御部102が当該操作が検出されたときに撮影を行わせてもよい。この他にも、例えば、操作検出部101は、撮影の契機として、フォークリフト5が低速で前進および後退を行いながら進行方向の微調整を行う等の、荷役作業の開始時に特有の態様でフォークリフト5が運転されていることを検出してもよい。   It should be noted that the timing of shooting is not limited to the above example. For example, when inserting the fork 50 into the fork pocket 801, a tilt operation for adjusting the inclination of the fork 50 is often performed. Therefore, the operation detection unit 101 may detect a tilt operation, and the imaging control unit 102 may perform imaging when the operation is detected. In addition to this, for example, the operation detecting unit 101 may use the forklift 5 in a specific manner at the start of the cargo handling operation, such as performing fine adjustment of the traveling direction while the forklift 5 moves forward and backward at a low speed, as an opportunity for shooting. May be detected as being operated.

(入力データ生成部103と入力データについて)
入力データ生成部103は、正対判定部104が使用する学習済みモデルに入力する入力データを生成する。より詳細には、入力データ生成部103は、撮影装置3から撮影画像を取得して、取得した撮影画像から入力データを生成する。本実施形態では、撮影装置3から取得した撮影画像をそのまま入力データとする例を説明する。
(About the input data generation unit 103 and the input data)
The input data generation unit 103 generates input data to be input to the learned model used by the facing determination unit 104. More specifically, the input data generation unit 103 acquires a captured image from the imaging device 3 and generates input data from the acquired captured image. In the present embodiment, an example will be described in which a captured image acquired from the imaging device 3 is used as input data as it is.

入力データの生成に用いる上記撮影画像は、上記学習済みモデルの生成に用いた教師データの画像と同様の撮影条件で撮影した画像であることが好ましい。上記撮影条件には、例えば、撮影装置3と、被写体(パレット800)との位置関係、被写体の背景、および周囲の明るさ等が含まれる。撮影条件を揃えるため、例えば、教師データに用いた画像が、フォークの基部に固定した撮影装置で撮影された画像であれば、撮影画像もフォーク50の基部に固定した撮影装置3で撮影されたものとすることが好ましい。   The captured image used for generating the input data is preferably an image captured under the same capturing conditions as the image of the teacher data used for generating the learned model. The photographing conditions include, for example, the positional relationship between the photographing device 3 and the subject (palette 800), the background of the subject, and the surrounding brightness. In order to make the shooting conditions uniform, for example, if the image used for the teacher data is an image shot by a shooting device fixed to the base of the fork, the shot image is also shot by the shooting device 3 fixed to the base of the fork 50. Preferably,

なお、入力データは、フォークリフト5とパレット800との位置関係(正対しているか否か)の特徴が表れたデータであればよく、必ずしも撮影画像をそのまま入力データとする必要はない。例えば、入力データ生成部103は、撮影画像に対して所定の処理を施した画像を、入力データとしてもよい。上記所定の処理は、フォークリフト5とパレット800との位置関係の特徴を失わせることなく、該特徴と関係のない情報を減らすことができるものであればよい。例えば、撮影画像がカラー画像である場合、入力データ生成部103は、該撮影画像をグレースケール化したデータを、入力データとして正対判定部104に供給してもよい。あるいは、撮影画像が動画像である場合、入力データ生成部103は、該撮影画像を構成する一部のフレームを抽出し、該一部のフレームを入力データとして正対判定部104に供給してもよい。   It should be noted that the input data only needs to be data indicating characteristics of the positional relationship between the forklift 5 and the pallet 800 (whether the forklift 5 and the pallet 800 face each other), and it is not always necessary to use the captured image as it is. For example, the input data generation unit 103 may use an image obtained by performing a predetermined process on a captured image as input data. The predetermined process may be any process that can reduce information not related to the positional relationship between the forklift 5 and the pallet 800 without losing the feature. For example, when the captured image is a color image, the input data generating unit 103 may supply grayscale data of the captured image to the facing determination unit 104 as input data. Alternatively, when the captured image is a moving image, the input data generation unit 103 extracts a part of the frame constituting the captured image, and supplies the extracted part of the frame to the facing determination unit 104 as input data. Is also good.

さらに、入力データ生成部103は、例えば撮影画像に写る被写体の中から所定の被写体(例えばパレット800)を検出し、検出した被写体が写る領域のみから入力データを生成してもよい。これにより、被写体の背景の影響を排除することができるので、正対判定部104における判定精度を高めることができる。なお、所定の被写体の検出には、例えばCNN(Convolutional Neural Network)等の学習済みモデルを用いることができる。   Further, the input data generation unit 103 may detect a predetermined subject (for example, a pallet 800) from the subjects appearing in the captured image, and may generate the input data only from an area where the detected subject appears. Accordingly, the influence of the background of the subject can be eliminated, so that the accuracy of the facing determination unit 104 can be improved. Note that a learned model such as a CNN (Convolutional Neural Network) can be used to detect a predetermined subject.

ただし、入力データ生成部103は、入力データとして、教師データと同じ形式のデータを生成する必要がある。例えば、教師データがグレースケールの静止画像であれば、入力データもグレースケールの静止画像とする必要がある。   However, the input data generation unit 103 needs to generate, as input data, data in the same format as the teacher data. For example, if the teacher data is a grayscale still image, the input data also needs to be a grayscale still image.

(正対判定部104と学習済みモデルについて)
正対判定部104は、機械学習により生成された学習済みモデルを用いてフォークリフト5がパレット800と正対しているか否かを判定する。この学習済みモデルの生成には、例えば、フォークリフト5とパレット800とが正対している状態で撮影したパレット800の画像と、正対していない状態で撮影したパレット800の画像とを教師データとして用いることができる。
(About the facing determination unit 104 and the learned model)
The facing determination unit 104 determines whether the forklift 5 faces the pallet 800 using a learned model generated by machine learning. For generation of the learned model, for example, an image of the pallet 800 taken in a state where the forklift 5 and the pallet 800 face each other and an image of the pallet 800 taken in a state where the forklift 5 and the pallet 800 do not face each other are used as teacher data. be able to.

教師データが静止画像である場合、CNNの学習済みモデルを用いることにより、信頼性の高い出力データを得ることができる。また、正対している状態と、正対していない状態の境界となるような多数の画像を教師データとすることが好ましい。これにより、正対している(フォーク50の挿し込みに支障がない)状態と、正対していない(フォーク50の挿し込みに支障がある)状態とを適切に識別可能となる。このように、学習済みモデルを用いた本実施形態の正対判定では、厳密には正対していない状態であっても、フォーク50の挿し込みに支障がない状態であれば正対していると判定するため、判定装置1は実用性が高いといえる。   When the teacher data is a still image, highly reliable output data can be obtained by using the trained model of the CNN. In addition, it is preferable that a large number of images that are boundaries between a face-to-face state and a face-to-face state are not used as teacher data. This makes it possible to appropriately distinguish between a state in which the fork 50 is directly facing (there is no problem in inserting the fork 50) and a state in which the face is not directly facing (there is no problem in inserting the fork 50). As described above, in the facing determination of the present embodiment using the trained model, even if the vehicle is not facing strictly, it is facing if it does not hinder insertion of the fork 50. Therefore, it can be said that the determination device 1 has high practicality.

正対判定部104は、以上のようにして生成された学習済みモデルに対し、入力データ生成部103が撮影画像から生成した入力データを入力する。これにより、学習済みモデルは、フォークリフト5がパレット800と正対していない確率を示す出力データを出力すると共に、正対している確率を示す出力データを出力する。そして、正対判定部104は、これらの出力データに基づいて、フォークリフト5がパレット800と正対しているか否かを判定する。例えば、正対判定部104は、正対している確率が正対していない確率よりも高ければ正対していると判定し、逆に、正対していない確率が正対している確率よりも高ければ正対していないと判定してもよい。   The facing determination unit 104 inputs the input data generated from the captured image by the input data generation unit 103 to the learned model generated as described above. As a result, the learned model outputs output data indicating the probability that the forklift 5 is not directly facing the pallet 800, and outputs output data indicating the probability that the forklift 5 is facing the pallet 800. The facing determination unit 104 determines whether the forklift 5 faces the pallet 800 based on the output data. For example, the facing determination unit 104 determines that the user is facing when the probability of facing is higher than the probability of not facing, and conversely, if the probability of not facing is higher than the probability of facing directly. It may be determined that they are not facing each other.

なお、正対判定部104は、正対していない状態で撮影したパレット800の画像を教師データとする一方、正対している状態で撮影したパレット800の画像は教師データに含めることなく生成した学習済みモデルを用いてもよい。同様に、正対判定部104は、正対している状態で撮影したパレット800の画像を教師データとする一方、正対していない状態で撮影したパレット800の画像を教師データに含めることなく生成した学習済みモデルを用いてもよい。これらの場合、正対判定部104は、学習済みモデルが出力した出力データが示す確率が閾値以上であるか否かによって、正対しているか否かを判定すればよい。例えば、正対判定部104は、前者の学習済みモデルを用いる場合、該学習済みモデルが出力した出力データが示す確率が閾値以上であれば正対していないと判定し、閾値未満であれば正対していると判定する。   Note that the facing determination unit 104 uses the image of the pallet 800 taken in the face-to-face state as the teacher data, while the image of the pallet 800 taken in the face-to-face state is generated without being included in the teacher data. A completed model may be used. Similarly, the facing determination unit 104 generates the image of the pallet 800 taken in the face-to-face state as the teacher data while generating the image of the pallet 800 taken in the face-to-face state without including it in the teacher data. A trained model may be used. In these cases, the facing determination unit 104 may determine whether or not the facing is based on whether or not the probability indicated by the output data output by the trained model is equal to or greater than a threshold. For example, when the former learned model is used, the facing determination unit 104 determines that the user is not facing the user if the probability indicated by the output data output by the learned model is equal to or greater than a threshold, and determines that the user is not facing the user if the probability is less than the threshold. It is determined that it is.

(報知制御部105と報知の例について)
報知制御部105は、正対判定部104が、フォークリフト5がパレット800と正対していないと判定した場合、その旨を音声出力部40に報知させる。なお、報知の態様はこの例に限定されず、例えば報知制御部105は、表示装置にフォークリフト5がパレット800と正対していないことを示す情報を表示させることによって報知してもよい。この表示装置は、判定装置1が備えていてもよいし、判定装置1の外部に設置されているものであってもよい。例えば、フォークリフト5が表示装置を備えている場合、報知制御部105は、フォークリフト5が備えている表示装置に上記情報を表示させて報知してもよい。また、例えば、フォークリフト5の運転者が所持する装置(例えば、眼鏡型等のウェアラブルデバイスや、携帯電話機やタブレット端末等)に上記情報を表示させてもよい。音声出力によって報知する場合も同様であり、報知制御部105は、判定装置1の外部に設置されている装置に音声出力させることにより、フォークリフト5がパレット800と正対していないことを運転者に報知してもよい。
(About the notification control unit 105 and an example of notification)
When the facing determination unit 104 determines that the forklift 5 is not facing the pallet 800, the notification control unit 105 causes the audio output unit 40 to notify that fact. The mode of the notification is not limited to this example. For example, the notification control unit 105 may perform the notification by displaying information indicating that the forklift 5 is not directly facing the pallet 800 on the display device. This display device may be provided in the determination device 1 or may be provided outside the determination device 1. For example, when the forklift 5 includes a display device, the notification control unit 105 may display the information on the display device of the forklift 5 to notify the display device. Further, for example, the above information may be displayed on a device (for example, a wearable device such as an eyeglass type, a mobile phone, a tablet terminal, or the like) carried by the driver of the forklift 5. The same applies to the case of notifying by voice output. The notification control unit 105 outputs a voice to a device installed outside the determination device 1 to notify the driver that the forklift 5 is not directly facing the pallet 800. You may be notified.

(処理の流れ)
次に、図3を参照して、判定装置1が実行する処理の流れについて説明する。図3は、判定装置1が実行する処理(判定方法)の一例を示すフローチャートである。
(Processing flow)
Next, the flow of processing executed by the determination device 1 will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of a process (determination method) performed by the determination device 1.

S1では、撮影制御部102は、撮影装置3の撮影範囲にパレット800が入ったか否かを判定する。具体的には、撮影制御部102は、操作検出部101によるフォーク50を昇降させる操作の検出結果に基づいて、撮影装置3の撮影範囲にパレット800が入ったか否かを判定する。ここで撮影範囲に入ったと判定された場合(S1でYES)、S2に進む。一方、撮影範囲に入っていないと判定された場合(S1でNO)、S1に戻り、同様の処理を繰り返す。   In S1, the imaging control unit 102 determines whether the pallet 800 has entered the imaging range of the imaging device 3. Specifically, the photographing control unit 102 determines whether or not the pallet 800 has entered the photographing range of the photographing device 3 based on the detection result of the operation of moving the fork 50 up and down by the operation detecting unit 101. Here, if it is determined that the image has entered the shooting range (YES in S1), the process proceeds to S2. On the other hand, if it is determined that it is not within the shooting range (NO in S1), the process returns to S1, and the same processing is repeated.

S2では、撮影制御部102は、撮影装置3にパレット800を含む撮影画像を撮影させ、S3に進む。そして、S3では、入力データ生成部103は、撮影装置3から撮影画像を取得し、入力データを生成する。実施形態1では、上述の通り、入力データ生成部103は、撮影画像をそのまま入力データとして用いる。   In S2, the photographing control unit 102 causes the photographing device 3 to photograph a photographed image including the pallet 800, and proceeds to S3. Then, in S3, the input data generation unit 103 acquires a captured image from the imaging device 3, and generates input data. In the first embodiment, as described above, the input data generation unit 103 uses a captured image as it is as input data.

S4(正対判定ステップ)では、正対判定部104は、S3で生成された入力データを上述の学習済みモデルに入力し、該学習済みモデルからの出力データに基づいて、フォークリフト5がパレット800と正対しているか否かを判定する。正対していると判定した場合(S4でYES)、図3の処理は終了する。なお、この場合、報知制御部105は、正対している旨のメッセージを音声出力部40に出力させてもよい。   In S4 (facing determination step), the facing determining unit 104 inputs the input data generated in S3 to the above-described learned model, and the forklift 5 moves the pallet 800 based on the output data from the learned model. It is determined whether or not it is directly facing. When it is determined that the user is facing directly (YES in S4), the processing in FIG. 3 ends. In this case, the notification control unit 105 may cause the audio output unit 40 to output a message indicating that the user is facing the user.

一方、S4で正対していないと判定された場合(S4でNO)には、S5に進む。S5では、報知制御部105が、音声出力部40にフォークリフト5がパレット800と正対していない旨を報知させる。そして、S6に進む。   On the other hand, if it is determined in S4 that they are not facing each other (NO in S4), the process proceeds to S5. In S5, the notification control unit 105 causes the sound output unit 40 to notify that the forklift 5 is not directly facing the pallet 800. Then, the process proceeds to S6.

S6では、操作検出部101は、フォークリフト5の方向を調整する操作が行われたか否かを判定する。ここで、方向を調整する操作が行われたと判定した場合(S6でYES)、S2に戻る。この場合、正対判定部104は、該調整後に撮影装置3が撮影したパレット800の画像から、フォークリフト5がパレット800に正対しているか否かを判定することになる。これにより、方向を調整する操作を行った運転者に、その操作によってフォークリフト5がパレット800に正対した状態となったか否かをフィードバックすることができる。よって、運転者は、スムーズにフォークリフト5をパレット800に正対させることができる。   In S6, the operation detection unit 101 determines whether an operation for adjusting the direction of the forklift 5 has been performed. Here, when it is determined that the operation of adjusting the direction has been performed (YES in S6), the process returns to S2. In this case, the facing determination unit 104 determines whether the forklift 5 faces the pallet 800 from the image of the pallet 800 taken by the photographing device 3 after the adjustment. Thus, it is possible to feed back to the driver who has performed the operation of adjusting the direction whether or not the forklift 5 has faced the pallet 800 by the operation. Therefore, the driver can smoothly face the forklift 5 to the pallet 800.

(実施形態1のまとめ)
以上のように、正対判定部104は、フォークリフト5に設置された撮影装置3にてフォークリフト5の荷役対象物が載置されたパレット800を撮影した画像と、フォークリフト5がパレット800に正対しているか否かとの相関関係を機械学習した学習済みモデルを用いて、フォークリフト5の荷役対象物が載置されたパレット800を撮影装置3にて撮影した画像から、フォークリフト5がパレット800に正対しているか否かを判定する。
(Summary of Embodiment 1)
As described above, the facing determination unit 104 is configured such that the image capturing apparatus 3 installed on the forklift 5 captures an image of the pallet 800 on which the cargo handling object of the forklift 5 is mounted, and the forklift 5 faces the pallet 800 directly. The forklift 5 faces the pallet 800 from an image obtained by photographing the pallet 800 on which the cargo handling object of the forklift 5 is placed with the photographing device 3 using a learned model in which the correlation with whether or not the pallet 800 has been machine-learned. Is determined.

これにより、パレット800を撮影した画像に基づき、フォークリフト5がパレット800に正対しているか否かを判定することができる。また、フォークリフト5がパレット800に正対していないときには、報知制御部105がフォークリフト5の運転者への報知を行うので、荷役作業の失敗を未然に防ぐことができる。   This makes it possible to determine whether or not the forklift 5 faces the pallet 800 based on the image of the pallet 800 taken. In addition, when the forklift 5 is not directly facing the pallet 800, the notification control unit 105 notifies the driver of the forklift 5 so that failure of the cargo handling work can be prevented beforehand.

〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。これは実施形態3以降も同様である。
[Embodiment 2]
Another embodiment of the present invention will be described below. For convenience of description, members having the same functions as the members described in the first embodiment are denoted by the same reference numerals, and description thereof will not be repeated. This is the same in the third and subsequent embodiments.

(概要)
実施形態1の判定装置1は、フォークリフト5がパレット800と正対しているか否かを判定し、正対していない場合にその旨を報知する。これに対し、本実施形態の判定装置1は、フォークリフト5がパレット800と正対しているか否かだけではなく、正対した状態からどの程度ずれているかも判定し、その判定結果を報知する。これにより、運転者はフォークリフト5の向きをスムーズに微調整してフォークリフト5をパレット800に正対させることができる。
(Overview)
The determination device 1 of the first embodiment determines whether or not the forklift 5 is directly facing the pallet 800, and reports that the forklift 5 is not facing the pallet 800. On the other hand, the determination device 1 of the present embodiment determines not only whether the forklift 5 faces the pallet 800 but also how much the forklift 5 deviates from the facing state, and reports the determination result. Thereby, the driver can smoothly finely adjust the direction of the forklift 5 and face the forklift 5 to the pallet 800.

図4を参照して、本実施形態の概要を説明する。図4は、本実施形態の概要を説明するための図である。図4の(a)〜(c)には、荷役作業を行おうとするフォークリフト5を上方から見た様子を示している。図4の(a)に示すように、フォークリフト5がパレット800と正対していない場合、判定装置1の音声出力部40は、フォークリフト5がパレット800と正対していない旨を報知している。この報知は実施形態1と同様である。   An outline of the present embodiment will be described with reference to FIG. FIG. 4 is a diagram for explaining the outline of the present embodiment. FIGS. 4A to 4C show the forklift 5 for carrying out the cargo handling operation as viewed from above. As shown in FIG. 4A, when the forklift 5 does not face the pallet 800, the sound output unit 40 of the determination device 1 notifies that the forklift 5 does not face the pallet 800. This notification is the same as in the first embodiment.

その後、フォークリフト5の向きが調整され、図4の(b)では、フォークリフト5がパレット800に対し、図4の(a)よりは正対する状態に近付いたが、また正対しているとは言えない状態となっている。この状態において、音声出力部40は、正対状態に近付いてはいるが、まだ正対していない旨を報知している。本実施形態では、正対した状態からずれている程度を判定するので、図4の(b)のような報知が可能になる。   Thereafter, the direction of the forklift 5 is adjusted, and in FIG. 4B, the forklift 5 approaches the pallet 800 more closely than in FIG. 4A, but it can be said that it is again facing. There is no state. In this state, the audio output unit 40 reports that the player is approaching the facing state but has not yet faced it. In the present embodiment, the degree of deviation from the face-to-face state is determined, so that the notification as shown in FIG.

そして、さらにフォークリフト5の方向が調整された図4の(c)では、フォークリフト5がパレット800と正対する状態となっている。この状態において、音声出力部40はフォークリフト5がパレット800と正対している旨を報知している。なお、図4の(c)の状態では、報知を省略してもよい。   In FIG. 4C in which the direction of the forklift 5 is further adjusted, the forklift 5 faces the pallet 800. In this state, the audio output unit 40 notifies that the forklift 5 is directly facing the pallet 800. In the state of FIG. 4C, the notification may be omitted.

(判定装置1の要部構成)
次に、図5を参照して、本実施形態における判定装置1の制御部10の要部構成について説明する。図5は、制御部10の要部構成の一例を示すブロック図である。本実施形態の制御部10には、上述した実施形態1における制御部10に含まれる各構成(図1参照)に加えて、ずれ度合い判定部111が含まれている。
(Main Configuration of Judgment Device 1)
Next, a configuration of a main part of the control unit 10 of the determination device 1 according to the present embodiment will be described with reference to FIG. FIG. 5 is a block diagram illustrating an example of a main configuration of the control unit 10. The control unit 10 of the present embodiment includes a deviation degree determination unit 111 in addition to the components (see FIG. 1) included in the control unit 10 of the first embodiment.

ずれ度合い判定部111は、正対判定部104が使用する学習済みモデルからの出力データ(出力値)に基づき、フォークリフト5がパレット800に正対している状態からずれている程度を判定する。具体的には、ずれ度合い判定部111は、正対判定部104が使用する学習済みモデルから出力される確率の値、すなわち正対していない状態に該当する確率および正対している状態に該当する確率の少なくとも何れかに基づいて上記の判定を行う。なお、以下では正対していない状態に該当する確率に基づいて判定する例を説明する。   The deviation degree determination unit 111 determines the degree of deviation of the forklift 5 from the state of directly facing the pallet 800 based on output data (output value) from the learned model used by the facing determination unit 104. More specifically, the deviation degree determination unit 111 corresponds to the probability value output from the learned model used by the facing determination unit 104, that is, the probability corresponding to the non-facing state and the probability corresponding to the facing state. The above determination is made based on at least one of the probabilities. In the following, an example will be described in which a determination is made based on a probability corresponding to a state in which the user does not face directly.

ここで、パレット800の撮影画像において、パレット800が明らかに傾いている場合、つまり正対していない状態の特徴が撮影画像に顕著に表れている場合には、学習済みモデルの出力データは100%に近い確率を示す。一方、パレット800の撮影画像において、パレット800の傾き度合いがより小さい場合、つまり正対していない状態の特徴が撮影画像に明確には表れていない場合には、学習済みモデルの出力データが示す確率はより低い値となる。ずれ度合い判定部111は、この性質を利用して上記の判定を行う。   Here, in the captured image of the pallet 800, when the pallet 800 is clearly tilted, that is, when the characteristic of the state in which the pallet 800 does not face directly appears in the captured image, the output data of the learned model is 100%. Shows a probability close to. On the other hand, in the captured image of the pallet 800, when the degree of inclination of the pallet 800 is smaller, that is, when the feature of the pallet 800 is not clearly shown in the captured image, the probability that the output data of the trained model indicates Is a lower value. The deviation degree determination unit 111 makes the above determination using this property.

具体的には、ずれ度合い判定部111は、学習済みモデルの出力データが示す確率値が何れの数値範囲に属するかに応じて、フォークリフト5がパレット800に正対している状態からずれている程度を判定する。例えば、ずれ度合い判定部111の判定のため、正対していない状態に該当する確率値について、50%未満、50%以上80%未満、80%以上、の3つの数値範囲を設定しておいてもよい。そして、ずれ度合い判定部111は、上記確率値が80%以上であった場合にずれ度合いが大きいと判定し、上記確率値が50%以上80%未満であった場合にずれ度合いが小さいと判定してもよい。なお、上記確率値が50%未満の場合には、正対判定部104が正対していると判定するので、ずれ度合い判定部111による判定は省略される。   Specifically, the deviation degree determination unit 111 determines the degree of deviation of the forklift 5 from the state in which the forklift 5 is directly facing the pallet 800 according to which numerical range the probability value indicated by the output data of the learned model belongs to. Is determined. For example, three numerical ranges of less than 50%, 50% or more and less than 80%, and 80% or more are set for the probability value corresponding to the state of not facing directly for the determination by the deviation degree determination unit 111. Is also good. Then, the deviation degree determination unit 111 determines that the deviation degree is large when the probability value is 80% or more, and determines that the deviation degree is small when the probability value is 50% or more and less than 80%. May be. If the probability value is less than 50%, the facing determination unit 104 determines that the vehicle is facing directly, and the determination by the deviation degree determination unit 111 is omitted.

また、本実施形態の報知制御部105は、ずれ度合い判定部111の判定結果に応じた報知を行う。例えば、報知制御部105は、ずれ度合い判定部111がずれ度合いが大きいと判定した場合には、正対している状態から大きくずれていること、あるいはフォークリフト5の向きを大きく調整する必要があることを運転者に報知してもよい。同様に、報知制御部105は、ずれ度合い判定部111がずれ度合いが小さいと判定した場合には、正対している状態から少しずれていること、あるいはフォークリフト5の向きを少し調整する必要があることを運転者に報知してもよい。   Further, the notification control unit 105 of the present embodiment performs notification according to the determination result of the deviation degree determination unit 111. For example, when the deviation degree determination unit 111 determines that the degree of deviation is large, the notification control unit 105 indicates that the state is greatly deviated from the state of facing directly, or that the direction of the forklift 5 needs to be largely adjusted. May be notified to the driver. Similarly, when the deviation degree determination unit 111 determines that the degree of deviation is small, the notification control unit 105 needs to slightly deviate from the facing state or slightly adjust the direction of the forklift 5. This may be notified to the driver.

また、ずれ度合い判定部111は、フォークリフト5の方向を調整する操作が行われた場合にずれ度合いを判定してもよい。そして、報知制御部105は、フォークリフト5の方向調整前のずれ度合いと、方向調整後のずれ度合いに応じた報知を行ってもよい。例えば、図4の(a)の例のように方向調整前にずれ度合いが大きいと判定されており、図4の(b)の例のように方向調整後にずれ度合いが小さいと判定された場合、報知制御部105は、調整の向きが正しいことを報知してもよい。逆に、方向調整前にずれ度合いが小さいと判定されており、方向調整後にずれ度合いが大きいと判定された場合、報知制御部105は、調整の向きが誤っていること、あるいは逆方向に調整すべきことを報知してもよい。   Further, the shift degree determining unit 111 may determine the shift degree when an operation of adjusting the direction of the forklift 5 is performed. Then, the notification control unit 105 may perform notification according to the deviation degree before the direction adjustment of the forklift 5 and the deviation degree after the direction adjustment. For example, when the degree of deviation is determined to be large before the direction adjustment as in the example of FIG. 4A, and the degree of deviation is determined to be small after the direction adjustment as in the example of FIG. The notification control unit 105 may notify that the direction of the adjustment is correct. Conversely, when it is determined that the degree of deviation is small before the direction adjustment, and when it is determined that the degree of deviation is large after the direction adjustment, the notification control unit 105 determines that the direction of the adjustment is incorrect or that the adjustment is performed in the opposite direction. You may be notified of what to do.

(実施形態2のまとめ)
以上のように、実施形態2の判定装置1は、正対判定部104が使用する学習済みモデルからの出力データに基づき、フォークリフト5がパレット800に正対している状態からずれている程度を判定するずれ度合い判定部111を備えている。これにより、フォークリフト5がパレット800に正対している状態からどの程度ずれているかを運転者にフィードバックすることが可能になる。よって、運転者は、フォークリフト5の向きをスムーズに微調整してフォークリフト5をパレット800に正対させることが可能になる。
(Summary of Embodiment 2)
As described above, the determination device 1 of the second embodiment determines the degree of deviation of the forklift 5 from the state of directly facing the pallet 800 based on the output data from the learned model used by the facing determination unit 104. The shift degree determining unit 111 is provided. As a result, it is possible to feed back to the driver how much the forklift 5 deviates from the state where the forklift 5 faces the pallet 800 directly. Therefore, the driver can smoothly finely adjust the direction of the forklift 5 and face the forklift 5 to the pallet 800.

なお、フォークリフト5とパレット800とのずれ度合いが異なる教師データによる機械学習で生成した学習済みモデルを用いることによっても、ずれ度合いを判定することは可能である。ただし、本実施形態のように、正対しているか否かの判定を行うための学習済みモデルの出力データを利用する構成とした場合、学習済みモデルを生成するコストと学習済みモデルを用いた演算コストを増加させることなくずれ度合いを判定することができるので好ましい。   The degree of deviation can be determined also by using a learned model generated by machine learning using teacher data having different degrees of deviation between the forklift 5 and the pallet 800. However, in the case of using the output data of the trained model to determine whether or not the robot is facing directly, as in the present embodiment, the cost of generating the trained model and the calculation using the trained model This is preferable because the degree of deviation can be determined without increasing the cost.

〔実施形態3〕
上述したように、荷役作業では、フォークリフト5のフォーク50をパレット800のフォークポケット801に挿入することによって、パレット800ごと積荷を移動させる。ここで、フォークリフト5のフォーク50はティルトさせることができるようになっており、フォークポケット801への挿入時にフォーク50が水平になっていない場合、フォーク50がフォークポケット801に接触してしまうことがある。つまり、フォークリフト5がパレット800に正対していても、フォーク50がティルト状態(フォーク50の基部に対し、フォークの先端が上方または下方に位置している状態)であれば、荷役作業が失敗するおそれがある。
[Embodiment 3]
As described above, in the cargo handling operation, the load is moved together with the pallet 800 by inserting the fork 50 of the forklift 5 into the fork pocket 801 of the pallet 800. Here, the fork 50 of the forklift 5 can be tilted. If the fork 50 is not horizontal when inserted into the fork pocket 801, the fork 50 may come into contact with the fork pocket 801. is there. In other words, even if the forklift 5 is directly facing the pallet 800, if the fork 50 is in a tilt state (a state in which the tip of the fork is located above or below the base of the fork 50), the cargo handling operation fails. There is a risk.

そこで、本実施形態では、フォークリフト5がパレット800と正対しているか否かを判定すると共に、フォーク50がティルト状態であるか否かを判定する例を説明する。図6を参照して、本実施形態における判定装置1の制御部10の要部構成について説明する。図6は、制御部10の要部構成の一例を示すブロック図である。本実施形態の制御部10には、実施形態2の制御部10(図5)に含まれる各部に加えて、ティルト判定部121が含まれている。なお、ずれ度合いを判定する必要がない場合には、ずれ度合い判定部111は省略してもよい。   Thus, in the present embodiment, an example will be described in which it is determined whether the forklift 5 faces the pallet 800 and whether the fork 50 is in the tilt state. With reference to FIG. 6, the main configuration of the control unit 10 of the determination device 1 in the present embodiment will be described. FIG. 6 is a block diagram illustrating an example of a main configuration of the control unit 10. The control unit 10 of the present embodiment includes a tilt determination unit 121 in addition to the components included in the control unit 10 (FIG. 5) of the second embodiment. When it is not necessary to determine the degree of deviation, the degree of deviation determination unit 111 may be omitted.

ティルト判定部121は、フォーク50がティルト状態であるか否か(フォーク50が水平であるか傾いているか)を判定する。このティルト判定には、所定の位置からティルト状態のフォーク50を撮影した画像から生成した教師データと、上記所定の位置から水平状態のフォーク50を撮影した画像から生成した教師データとを用いた機械学習により生成した学習済みモデルを利用できる。   The tilt determination unit 121 determines whether the fork 50 is in a tilt state (whether the fork 50 is horizontal or inclined). The tilt determination is performed by using a teacher data generated from an image of the fork 50 in a tilted state from a predetermined position and a teacher data generated from an image of the fork 50 in a horizontal state from the predetermined position. A learned model generated by learning can be used.

実施形態1で説明したように、一対のフォーク50における各基部の中間に撮影装置3を配置し、水平方向前方に向けて撮影した場合、撮影画像にはフォーク50が写る。このため、本実施形態では、上記撮影画像から入力データ生成部103が生成した入力データを、ティルト判定部121による判定にも流用する。これにより、1つの撮影画像から、正対判定とティルト判定との両方を行うことができる。無論、ティルト判定には、正対判定用とは別に撮影された画像を用いて生成した入力データを用いてもよい。また、同じ撮影画像を用いる場合であっても、正対判定用とは異なる、ティルト判定用の入力データを生成してもよい。   As described in the first embodiment, when the photographing device 3 is arranged in the middle of each base of the pair of forks 50 and photographed forward in the horizontal direction, the photographed image shows the fork 50. Therefore, in the present embodiment, the input data generated by the input data generation unit 103 from the captured image is also used for the determination by the tilt determination unit 121. Thereby, both the facing determination and the tilt determination can be performed from one captured image. Needless to say, input data generated by using an image photographed separately from that for the facing determination may be used for the tilt determination. Further, even when the same photographed image is used, input data for tilt determination, which is different from that for facing determination, may be generated.

ティルト判定部121が、上記学習モデルに対して上記入力データを入力することにより、学習済みモデルは、フォーク50がティルト状態である確率を示す出力データを出力すると共に、フォーク50がティルト状態ではない確率を示す出力データを出力する。そして、ティルト判定部121は、これらの出力データに基づいて、フォーク50がティルト状態であるか否かを判定する。この判定は、正対判定部104による判定と同様であるから説明を省略する。   When the tilt determination unit 121 inputs the input data to the learning model, the learned model outputs output data indicating the probability that the fork 50 is in the tilt state, and the fork 50 is not in the tilt state. Outputs output data indicating the probability. Then, the tilt determination unit 121 determines whether the fork 50 is in the tilt state based on the output data. This determination is the same as the determination by the facing determination unit 104, and a description thereof will be omitted.

そして、本実施形態の報知制御部105は、ティルト判定部121がティルト状態であると判定した場合には、その旨をフォークリフト5の運転者に報知する。報知の態様が特に限定されないことは、上記各実施形態における正対判定結果等の報知と同様である。   When the tilt determination unit 121 determines that the vehicle is in the tilt state, the notification control unit 105 of the present embodiment notifies the driver of the forklift 5 of the fact. The manner of the notification is not particularly limited, as in the notification of the facing determination result and the like in the above embodiments.

(実施形態3のまとめ)
以上のように、本実施形態の判定装置1は、ティルト状態のフォークを撮影した画像を教師データとして機械学習した学習済みモデルを用いて、フォーク50を撮影した画像から、フォーク50がティルト状態であるか否かを判定するティルト判定部121を備えている。よって、ティルト状態を自動で検出することができる。また、ティルト状態であると判定された場合には、報知制御部105がフォークリフト5の運転者への報知を行うので、荷役作業の失敗を未然に防ぐことが可能になる。
(Summary of Embodiment 3)
As described above, the determination device 1 of the present embodiment uses the learned model obtained by machine learning using the image of the fork in the tilted state as the teacher data, from the image of the fork 50 in the tilted state. A tilt determining unit 121 that determines whether or not there is a counter is provided. Therefore, the tilt state can be automatically detected. In addition, when it is determined that the vehicle is in the tilt state, the notification control unit 105 notifies the driver of the forklift 5, so that it is possible to prevent the failure of the cargo handling work before it occurs.

〔変形例〕
上述の各実施形態の構成は、運転者の操作によらず自動で荷役作業を行うことができるフォークリフトに適用することもできる。この場合、判定装置1は、報知制御部105の代わりに、フォークリフトの向き(正対する方向)を調整するための、フォークリフト制御部を備えていればよい。これにより、フォークリフト5とパレット800を自動で正対させることができる。
(Modification)
The configuration of each of the embodiments described above can also be applied to a forklift capable of performing a cargo handling operation automatically without a driver's operation. In this case, the determination device 1 may include a forklift control unit for adjusting the direction of the forklift (the direction facing the forklift) instead of the notification control unit 105. This allows the forklift 5 and the pallet 800 to automatically face each other.

〔分散処理について〕
上記各実施形態で説明した判定装置1の実行する処理の一部は、判定装置1と通信接続された1または複数の装置に実行させてもよい。例えば、正対判定部104の実行する処理の一部を、判定装置1と通信接続されたAIサーバに実行させてもよい。この場合、例えば、判定装置1は、入力データをAIサーバに送信し、該AIサーバから出力データを受信して、フォークリフト5がパレット800と正対しているか否かを判定する。
[About distributed processing]
Part of the processing performed by the determination device 1 described in each of the above embodiments may be performed by one or more devices that are communicatively connected to the determination device 1. For example, part of the processing performed by the facing determination unit 104 may be performed by an AI server that is communicably connected to the determination device 1. In this case, for example, the determination device 1 transmits the input data to the AI server, receives the output data from the AI server, and determines whether the forklift 5 faces the pallet 800 or not.

〔ソフトウェアによる実現例〕
判定装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of the determination device 1 (particularly, each unit included in the control unit 10) may be realized by a logic circuit (hardware) formed on an integrated circuit (IC chip) or the like, or may be realized by software. .

後者の場合、判定装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the determination device 1 includes a computer that executes instructions of a program that is software for realizing each function. This computer includes, for example, one or more processors and a computer-readable recording medium storing the program. Then, in the computer, the object of the present invention is achieved by the processor reading the program from the recording medium and executing the program. As the processor, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) can be used. Examples of the recording medium include “temporary tangible medium” such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, and a programmable logic circuit. Further, a RAM (Random Access Memory) for expanding the program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (a communication network, a broadcast wave, or the like) capable of transmitting the program. Note that one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above-described program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the embodiments described above, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

1 判定装置
3 撮影装置
5 フォークリフト
50 フォーク
104 正対判定部
111 ずれ度合い判定部
121 ティルト判定部
800 パレット(対象パレット)
801 フォークポケット
900 積荷(荷役対象物)
DESCRIPTION OF SYMBOLS 1 Judgment apparatus 3 Photographing apparatus 5 Forklift 50 Fork 104 Face-to-face judging part 111 Deflection degree judging part 121 Tilt judging part 800 Pallet (target pallet)
801 Fork pocket 900 Cargo (loading target)

Claims (5)

フォークリフトに設置された撮影装置にて該フォークリフトの荷役対象物が載置されたパレットを撮影した画像と、該フォークリフトが上記パレットに正対しているか否かとの相関関係を機械学習した学習済みモデルを用いて、上記フォークリフトの荷役対象物が載置された対象パレットを上記撮影装置にて撮影した画像から、上記フォークリフトが上記対象パレットに正対しているか否かを判定する正対判定部を備えていることを特徴とする判定装置。   An image obtained by photographing a pallet on which a cargo handling object of the forklift is mounted by a photographing device installed on the forklift, and a learned model obtained by machine learning a correlation between whether the forklift is directly facing the pallet or not. Using an image of the target pallet on which the cargo handling object of the forklift is placed by the photographing device, provided with a facing determination unit that determines whether the forklift is facing the target pallet or not. A determining device. 上記正対判定部は、上記フォークリフトが正対する方向を調整する操作が行われた場合に、該調整後に上記撮影装置が撮影した上記対象パレットの画像から、上記フォークリフトが上記対象パレットに正対しているか否かを判定することを特徴とする請求項1に記載の判定装置。   The facing determination unit, when an operation of adjusting the direction facing the forklift is performed, from the image of the target pallet photographed by the imaging device after the adjustment, the forklift facing the target pallet The determination device according to claim 1, wherein the determination device determines whether or not there is an error. 上記学習済みモデルからの出力値に基づき、上記フォークリフトが上記対象パレットに正対している状態からずれている程度を判定するずれ度合い判定部を備えていることを特徴とする請求項1または2に記載の判定装置。   3. The apparatus according to claim 1, further comprising: a deviation degree determination unit configured to determine a degree of deviation of the forklift from a state of directly facing the target pallet based on an output value from the learned model. 4. The determination device according to the above. ティルト状態のフォークを撮影した画像を教師データとして機械学習した学習済みモデルを用いて、上記フォークリフトのフォークを撮影した画像から、当該フォークがティルト状態であるか否かを判定するティルト判定部を備えていることを特徴とする請求項1から3の何れか1項に記載の判定装置。   A tilt determining unit that determines whether or not the fork is in a tilt state from an image of a fork of the forklift using a learned model obtained by machine learning using an image of a fork in a tilt state as teacher data; The determination device according to any one of claims 1 to 3, wherein: 判定装置による判定方法であって、
フォークリフトに設置された撮影装置にて該フォークリフトの荷役対象物が載置されたパレットを撮影した画像と、該フォークリフトが上記パレットに正対しているか否かとの相関関係を機械学習した学習済みモデルを用いて、上記フォークリフトの荷役対象物が載置された対象パレットを上記撮影装置にて撮影した画像から、上記フォークリフトが上記対象パレットに正対しているか否かを判定する正対判定ステップを含むことを特徴とする判定方法。
A determination method by a determination device,
An image obtained by photographing a pallet on which a cargo handling object of the forklift is mounted by a photographing device installed on a forklift, and a learned model obtained by machine learning a correlation between whether the forklift is directly facing the pallet or not. A facing determination step of determining whether or not the forklift is facing the target pallet from an image obtained by capturing the target pallet on which the cargo handling object of the forklift is placed by the photographing device. A determination method characterized by the following.
JP2018170930A 2018-09-12 2018-09-12 Judgment device and judgment method Active JP6722733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018170930A JP6722733B2 (en) 2018-09-12 2018-09-12 Judgment device and judgment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170930A JP6722733B2 (en) 2018-09-12 2018-09-12 Judgment device and judgment method

Publications (2)

Publication Number Publication Date
JP2020040811A true JP2020040811A (en) 2020-03-19
JP6722733B2 JP6722733B2 (en) 2020-07-15

Family

ID=69799154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170930A Active JP6722733B2 (en) 2018-09-12 2018-09-12 Judgment device and judgment method

Country Status (1)

Country Link
JP (1) JP6722733B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107174A (en) * 2018-12-28 2020-07-09 住友ナコ フォ−クリフト株式会社 Transfer system, transfer device, calculator, learning method

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0780790A (en) * 1993-09-16 1995-03-28 Fujitsu Ltd Three-dimensional object grasping system
JPH11322294A (en) * 1998-05-13 1999-11-24 Shinko Electric Co Ltd Vehicle operation assisting device and industrial vehicle
JP2004209997A (en) * 2002-12-26 2004-07-29 Mitsubishi Motors Corp Parking support device
JP2009101970A (en) * 2007-10-25 2009-05-14 Nsk Ltd Parking supporting device
JP2010188744A (en) * 2009-02-13 2010-09-02 Clarion Co Ltd Device, method and program for supporting parking
JP5747181B2 (en) * 2010-02-26 2015-07-08 パナソニックIpマネジメント株式会社 Parking assistance device
JP2017151652A (en) * 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle
JP2018107315A (en) * 2016-12-27 2018-07-05 ファナック株式会社 Machine learning device for printed board assembling work, control device, industrial machine, assembly system, and machine learning method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0780790A (en) * 1993-09-16 1995-03-28 Fujitsu Ltd Three-dimensional object grasping system
JPH11322294A (en) * 1998-05-13 1999-11-24 Shinko Electric Co Ltd Vehicle operation assisting device and industrial vehicle
JP2004209997A (en) * 2002-12-26 2004-07-29 Mitsubishi Motors Corp Parking support device
JP2009101970A (en) * 2007-10-25 2009-05-14 Nsk Ltd Parking supporting device
JP2010188744A (en) * 2009-02-13 2010-09-02 Clarion Co Ltd Device, method and program for supporting parking
JP5747181B2 (en) * 2010-02-26 2015-07-08 パナソニックIpマネジメント株式会社 Parking assistance device
JP2017151652A (en) * 2016-02-23 2017-08-31 村田機械株式会社 Object state specification method, object state specification apparatus, and conveyance vehicle
JP2018107315A (en) * 2016-12-27 2018-07-05 ファナック株式会社 Machine learning device for printed board assembling work, control device, industrial machine, assembly system, and machine learning method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020107174A (en) * 2018-12-28 2020-07-09 住友ナコ フォ−クリフト株式会社 Transfer system, transfer device, calculator, learning method
JP7029728B2 (en) 2018-12-28 2022-03-04 住友ナコ フォ-クリフト株式会社 Transport system, transport device, computer, learning method

Also Published As

Publication number Publication date
JP6722733B2 (en) 2020-07-15

Similar Documents

Publication Publication Date Title
CN106250894B (en) Card information identification method and device
JP6613343B1 (en) Determination apparatus and determination method
US20090046900A1 (en) Imaging apparatus, imaging method and computer program
US8098903B2 (en) Apparatus for adjusting focus and exposure based on a face image and method of controlling same
US20210042912A1 (en) Method, Apparatus and System for Detecting Fundus Image Based on Machine Learning
US20180213147A1 (en) Information processing apparatus having camera function and producing guide display to capture character recognizable image, control method thereof, and storage medium
US10692230B2 (en) Document imaging using depth sensing camera
US8903201B2 (en) Method and apparatus for enhanced document capture
US10489621B2 (en) Reading device and mobile terminal
CN106056117A (en) Image processing method and device for rectangular object
CN104808836A (en) Electronic Device, Method, and Program for Supporting Touch Panel Operation
JP2020040811A (en) Determination device and determination method
US10860176B2 (en) Image control method and device
US10965858B2 (en) Image processing apparatus, control method thereof, and non-transitory computer-readable storage medium for detecting moving object in captured image
CN110853102A (en) Novel robot vision calibration and guide method, device and computer equipment
JP2010034820A (en) Projector, control method of projector, and control program
CN113920083A (en) Image-based size measurement method and device, electronic equipment and storage medium
JP6674515B2 (en) Judgment device and judgment method
JP6893198B2 (en) Information processing device and information processing method
US20230342576A1 (en) Optical symbol, information processing device, and code reading method
US10521653B2 (en) Image processing device, image processing method, and storage medium
JP4715653B2 (en) Laser pointer position determination system and laser pointer position determination method
JP2017219940A (en) Notification device, electronic apparatus, notification method, and program
JP2015032261A (en) Display device and control method
JP2020037464A (en) Determination device and determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200326

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200403

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200407

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200616

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200622

R150 Certificate of patent or registration of utility model

Ref document number: 6722733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150