JP6586496B1 - Output control device and output control method - Google Patents
Output control device and output control method Download PDFInfo
- Publication number
- JP6586496B1 JP6586496B1 JP2018170931A JP2018170931A JP6586496B1 JP 6586496 B1 JP6586496 B1 JP 6586496B1 JP 2018170931 A JP2018170931 A JP 2018170931A JP 2018170931 A JP2018170931 A JP 2018170931A JP 6586496 B1 JP6586496 B1 JP 6586496B1
- Authority
- JP
- Japan
- Prior art keywords
- output control
- irradiation
- driver
- forklift
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Forklifts And Lifting Vehicles (AREA)
Abstract
【課題】照射装置からの照射光がパレットで反射した反射光がフォークリフトの運転者から見えにくい場合に、反射光を見やすくする。【解決手段】出力制御装置(1)は、学習済みモデルを用いて、フォークリフトの高さ位置合わせを行う運転者の様子を撮影した画像から所定の表情または動作を検出する検出部(103)と、所定の表情または動作を検出した場合に、照射装置(2)に光照射の態様を変更させる出力制御部(104)と、を備えている。【選択図】図1An object of the present invention is to make it easy to see reflected light when reflected light reflected from a pallet by an irradiation device is difficult to see from a forklift driver. An output control device (1) includes a detection unit (103) for detecting a predetermined facial expression or motion from an image obtained by photographing a driver performing position alignment of a forklift using a learned model. And an output control unit (104) that causes the irradiation device (2) to change the mode of light irradiation when a predetermined facial expression or motion is detected. [Selection] Figure 1
Description
本発明は、フォークリフトからパレットに光照射する照射装置を制御する出力制御装置等に関する。 The present invention relates to an output control device for controlling an irradiation device that irradiates light to a pallet from a forklift.
フォークリフトを用いた荷役作業においては、フォークリフトの運転者は、積荷を積載したパレットのフォークポケットにフォークを差し込み、パレットごと積荷を持ち上げて、その積荷を運搬するという一連の操作を行う。これら一連の操作のうち、フォークポケットにフォークを差し込むフォーク差込操作の難易度が特に高く、運転者によっては、フォークの差し込みに手間取ったり、パレットにフォークを衝突させてしまったりすることがある。 In a cargo handling operation using a forklift, a forklift driver performs a series of operations of inserting a fork into a fork pocket of a pallet loaded with a load, lifting the load together with the pallet, and transporting the load. Of these series of operations, the difficulty of inserting a fork into the fork pocket is particularly high, and depending on the driver, it may take time to insert the fork or cause the fork to collide with the pallet.
フォーク差込操作を容易にするための技術としては、例えば、特許文献1が挙げられる。特許文献1には、レーザ光線を反射する光線反射面を形成したパレットに、フォークと同じ高さのレーザ光線を照射し、運転手にその反射光を目印にしてフォークのパレットに対する高さ位置合わせを行わせる技術が開示されている。
As a technique for facilitating the fork insertion operation, for example,
上記の技術によれば、フォークのパレットに対する高さ位置合わせは容易になる。しかしながら、光線反射面が形成されていないパレットについては高さ位置合わせが困難となる場合がある。また、パレットが高所に配置されている場合等には、光線反射面が形成されていても、レーザ光線が見えにくいことも想定される。 According to the above technique, the height alignment of the fork with respect to the pallet becomes easy. However, it may be difficult to align the height of a pallet on which no light reflecting surface is formed. Further, when the pallet is arranged at a high place, it is assumed that the laser beam is difficult to see even if the light reflecting surface is formed.
本発明の一態様は、照射装置からの照射光がパレットで反射した反射光がフォークリフトの運転者から見えにくい場合に、パレットからの反射光を見やすくすることができる出力制御装置等を提供することを目的とする。 One aspect of the present invention provides an output control device and the like that makes it easy to see reflected light from a pallet when reflected light reflected from the pallet is difficult to see from a forklift driver. With the goal.
上記の課題を解決するために、本発明の一態様に係る出力制御装置は、フォークリフトの荷役対象物が載置されたパレットに対してフォークリフトに設置された照射装置が照射した照射光が該パレットで反射した反射光を目印として該フォークリフトのフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときの上記フォークリフトの運転者の表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成された学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者の様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する検出部と、上記検出部が上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御部と、を備えている。 In order to solve the above-described problem, an output control device according to an aspect of the present invention is configured such that irradiation light irradiated by an irradiation device installed on a forklift is applied to the pallet on which a load handling object of the forklift is placed. The forklift driver's facial expression and operation when the forklift is positioned with the reflected light reflected by the forklift as a mark, and when the reflected light is difficult to see Using a learned model generated by machine learning using an image in which the image is taken as teacher data, at least one of the facial expression and the motion is obtained from an image obtained by photographing the driver who wants to perform the height alignment. And detecting the detection unit and controlling the irradiation device when the detection unit detects at least one of the facial expression and the movement. It includes an output control section for changing the manner of light irradiation, the.
また、上記の課題を解決するために、本発明の一態様に係る出力制御方法は、出力制御装置による出力制御方法であって、フォークリフトの荷役対象物が載置されたパレットに対してフォークリフトに設置された照射装置が照射した照射光が該パレットで反射した反射光を目印として該フォークリフトのフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときの上記フォークリフトの運転者の表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成された学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者の様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する検出ステップと、上記検出ステップにおいて上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御ステップと、を含む。 In order to solve the above-described problem, an output control method according to an aspect of the present invention is an output control method using an output control device, in which a forklift is attached to a pallet on which a forklift object to be loaded is placed. This is an image of a situation in which the fork lift of the forklift is positioned using the reflected light reflected by the pallet as a mark, and the reflected light is difficult to see. Using the learned model generated by machine learning using teacher images as images of at least one of the facial expressions and movements of the forklift driver, we photographed the driver trying to perform the height alignment. A detection step of detecting at least one of the facial expression and the motion from the captured image, and the facial expression and When detecting at least one of the serial operation, including controlling the irradiation device and an output control step of changing the manner of light irradiation, the.
本発明の一態様によれば、照射装置からの照射光がパレットで反射した反射光がフォークリフトの運転者から見えにくい場合に、パレットからの反射光を見やすくすることができる。 According to one aspect of the present invention, when the reflected light reflected from the irradiating device by the pallet is difficult to see from the driver of the forklift, the reflected light from the pallet can be easily seen.
〔実施形態1〕
(出力制御の概要)
本実施形態の出力制御装置による出力制御の概要を図2に基づいて説明する。図2は、出力制御装置1による出力制御の概要を示す図である。図2に示すように、フォークリフト3に設置された照射装置2からのレーザ光(照射光)LがパレットPの側面に照射されている。
(Outline of output control)
An outline of output control by the output control apparatus of the present embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an outline of output control by the
出力制御装置1は、レーザ光LがパレットPの側面で反射された反射光がフォークリフト3を運転する運転者Aから見えにくい状況を検出した場合に、照射装置2を制御してレーザ光Lの照射態様を変更させる装置である。
The
照射装置2は、フォークリフト3が備える一対のフォークの爪部の先端と同じ高さで、かつそれら爪部の中間位置(2つの爪部から等距離の位置)に、フォークリフト3に固定されている。また、照射装置2は、フォークの昇降に合わせて昇降するように固定されている。照射装置2は、フォークリフト3の前方に向けて水平に、かつ扇形に横に拡がるようにレーザ光Lを射出する。つまり、照射装置2は、爪部の延長線上に水平に直線状に拡がるレーザ光Lを照射する(図3のラインLN参照)。
The
図2の例では、フォークリフト3を運転する運転者Aは、レーザ光LがパレットPで反射した反射光を目印として該フォークリフト3のフォークの高さ位置合わせを行おうとしている。そして、この運転者Aの様子を撮影装置4が撮影しており、撮影した画像が出力制御装置1に入力されている。なお、撮影する画像は、静止画像であってもよいし、動画像であってもよい。
In the example of FIG. 2, the driver A who operates the
出力制御装置1は、撮影装置4から上記画像を取得する。そして、当該画像から運転者Aがレーザ光Lのラインの位置が見えにくいことを示す所定の表情および所定の動作の少なくとも何れかを検出した場合、レーザ光Lのラインが運転者Aから見やすくなるようにレーザ光Lの照射態様を変更する。これにより、照射装置2からのレーザ光LがパレットPで反射した反射光が運転者Aから見えにくい場合に、該反射光を見やすくすることができる。
The
なお、出力制御装置1は、照射装置2と一体に構成されていてもよいし、フォークリフト3に搭載されていてもよいし、フォークリフト3から離れた位置に設置されていてもよい。また、出力制御装置1は、複数の照射装置2を制御対象としてもよい。この場合、出力制御装置1は、各照射装置2が搭載されたフォークリフト3について撮影された画像を取得して、上述の所定の表情や所定の動作を検出し、その検出結果に従って各照射装置2を制御する。
In addition, the
また、撮影装置4は、出力制御装置1の出力制御専用に設けられていてもよいし、他の用途で設けられている撮影装置を撮影装置4として流用してもよい。例えば、フォークリフト3による作業が行われる施設内を監視するための監視カメラ、フォークリフト3に搭載されたドライブレコーダ用のカメラを撮影装置4として流用してもよい。
The
(出力制御装置の要部構成)
出力制御装置1の要部構成について、図1に基づいて説明する。図1は、出力制御装置1の要部構成の一例を示すブロック図である。図示のように、出力制御装置1は、出力制御装置1の各部を統括して制御する制御部10と、出力制御装置1が使用する各種データを記憶する記憶部20と、出力制御装置1に対する入力操作を受け付ける入力部30を備えている。また、制御部10には、撮影制御部101、入力データ生成部102、検出部103、および出力制御部104が含まれている。また、図1には、照射装置2と撮影装置4についても併せて図示している。
(Main components of the output control device)
The principal part structure of the
撮影制御部101は、撮影装置4に対して撮影開始および撮影終了の指示を行う。上述のように、撮影の対象は、レーザ光LがパレットPで反射した反射光を目印としてフォークの高さ位置合わせを行おうとしている運転者Aの様子、より詳細には、高さ位置合わせを行おうとしている運転者Aの表情および動作の少なくとも何れかである。なお、以下では説明を簡単にするため、運転者Aの表情(すなわち顔)を撮影させる例を説明する。
The photographing
入力データ生成部102は、フォークの高さ位置合わせを行おうとしている運転者Aの表情および動作の少なくとも何れかを撮影した画像から、後述する学習済みモデルに対する入力データを生成する。上述のとおり、ここでは運転者Aの顔を撮影させることを想定しているため、入力データ生成部102は、運転者Aの顔を撮影した画像から入力データを生成する。
The input
検出部103は、上記の学習済みモデルを用いて、高さ位置合わせを行おうとする運転者Aの様子を撮影した画像から、所定の表情および所定の動作の少なくとも何れかを検出する。所定の動作とは、過去にフォークリフト(フォークリフト3または他のフォークリフト)の運転者(運転者Aまたは他の運転者)がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときに当該運転者が行った動作である。所定の動作の具体例としては、例えば、レーザ光の反射光を見上げる(あるいは見下ろす)角度を変える動作、フォークの昇降を繰り返す動作、目の上方に手をかざす動作等が挙げられる。同様に、所定の表情とは、過去にフォークリフトの運転者がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときの当該運転者の表情である。所定の表情の具体例としては、例えば、見えにくそうに目を細めた表情や、イライラした表情等が挙げられる。本実施形態では、検出部103が、運転者Aが上記所定の表情であることを検出する例を説明する。
The
出力制御部104は、検出部103が上記所定の表情を検出した場合に、照射装置2を制御してレーザ光Lの照射態様を変更させる。無論、出力制御部104は、検出部103が上記所定の動作を検出した場合にも同様の処理を行う。レーザ光Lの照射態様の例については後述する。
When the
(学習済みモデルと検出部の検出について)
検出部103が使用する上記学習済みモデルは、教師データを用いた機械学習により生成された学習済みモデルである。この教師データとしては、例えば、過去にフォークリフトの運転者がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときの当該運転者の表情(上述した所定の表情)を撮影した画像を用いることができる。なお、上記フォークリフトは、図2に示したフォークリフト3であってもよいし、他のフォークリフトであってもよい。また、上記運転者は、図2に示した運転者Aであってもよいし他の運転者であってもよい。
(About detection of learned model and detector)
The learned model used by the
上記のような教師データを用いて、例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)のパラメータを最適化することにより、画像から上記所定の表情を検出するための学習済みモデルを生成することができる。なお、上記学習済みモデルはCNNに限られないが、本実施形態のように画像から所定の表情を検出する場合には、高い検出精度が実現できるCNNが好適である。 By using the teacher data as described above, for example, by optimizing the parameters of a convolutional neural network (CNN), a learned model for detecting the predetermined facial expression from an image can be generated. . The learned model is not limited to CNN. However, when a predetermined facial expression is detected from an image as in the present embodiment, CNN that can realize high detection accuracy is preferable.
このようにして生成された学習済みデータに対し、運転者Aを撮影した画像から生成された入力データを入力すると、その画像に写る運転者Aが上記所定の表情である確率を示す出力データが出力される。検出部103は、学習済みモデルが出力した出力データに示される確率が所定の閾値以上であれば、運転者Aが上記所定の表情であると検出する。
When input data generated from an image of the driver A is input to the learned data generated in this manner, output data indicating the probability that the driver A in the image is the predetermined facial expression is displayed. Is output. If the probability indicated in the output data output from the learned model is equal to or greater than a predetermined threshold, the
なお、上記教師データとしては、例えば、過去にフォークリフトの運転者がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときの当該運転者の動作(上述した所定の動作)を撮影した画像を用いることもできる。これにより、画像から上記所定の動作を検出するための学習済みモデルを生成することができる。この場合、当該所定の動作を撮影した動画像を教師データとしてもよいし、該動画像から抽出した静止画像(フレーム画像)を教師データとしてもよい。 As the teacher data, for example, the driver's operation when the forklift driver tried to align the height of the fork in the past but the reflected light was difficult to see (predetermined operation described above). A photographed image can also be used. As a result, a learned model for detecting the predetermined motion can be generated from the image. In this case, a moving image obtained by photographing the predetermined operation may be used as teacher data, and a still image (frame image) extracted from the moving image may be used as teacher data.
上記所定の動作を検出する場合、CNNを単体で用いるよりは、例えば、CNNとRNN(Recurrent Neural Network)、あるいはCNNとLSTM(Long Short-Term Memory)を組み合わせた学習済みモデルを用いることが好ましい。RNNやLSTMのような時系列データの扱いに適したモデルと、画像認識性能の高いCNNとを組み合わせることにより、信頼性の高い出力データを得ることができる。 When detecting the predetermined operation, it is preferable to use, for example, a learned model that combines CNN and RNN (Recurrent Neural Network) or CNN and LSTM (Long Short-Term Memory) rather than using CNN alone. . By combining a model suitable for handling time-series data such as RNN and LSTM and CNN having high image recognition performance, highly reliable output data can be obtained.
(入力データについて)
入力データ生成部102は、運転者Aがフォークリフト3のフォークを位置合わせする様子を撮影した画像から入力データを生成する。例えば、撮影装置4が撮影した画像が動画像である場合、入力データ生成部102は、当該動画像から所定の時間間隔でフレーム画像を抽出し、抽出した各フレーム画像を入力データとしてもよい。
(About input data)
The input
入力データの生成に用いる画像は、上記学習済みモデルの機械学習にて教師データとして用いた画像と同様の撮影条件で撮影したものであることが好ましい。上記撮影条件には、例えば、撮影装置4と、被写体である運転者Aとの位置関係、運転者Aの背景、および周囲の明るさ等が含まれる。
The image used for generating the input data is preferably a photograph taken under the same photographing conditions as the image used as the teacher data in the machine learning of the learned model. The photographing conditions include, for example, the positional relationship between the photographing
また、入力データ生成部102は、画像をそのまま入力データとして用いてもよいし、画像に対して所定の処理を施したものを用いてもよい。上記所定の処理は、上記所定の表情の特徴を失わせることなく、該特徴と関係のない情報を減らすことができるものであればよい。例えば、画像がカラー画像であれば、グレースケール化して入力データとしてもよい。
The input
さらに、入力データ生成部102は、例えば画像に写る対象物の中から運転者Aとその顔部分を検出し、検出した顔部分から入力データを生成してもよい。これにより、運転者Aの背景の影響を排除することができるので、検出精度を高めることができる。なお、運転者Aの検出には、例えば公知の画像解析技術や、CNN等の学習済みモデル等を用いることができる。ただし、入力データ生成部102は、教師データと同じ形式の入力データを生成する必要がある。
Furthermore, the input
(レーザ光の照射態様の例)
照射装置2によるレーザ光Lの照射態様の例について、図3〜5に基づいて説明する。図3は、通常の照射態様の一例を示す図である。図4は、変更後の照射態様の一例を示す図である。図5は、変更後の照射態様の他の例を示す図である。
(Example of laser light irradiation mode)
The example of the irradiation mode of the laser beam L by the
上述のように、照射装置2は、フォークリフト3の爪部の延長線上に、かつ扇形に横に拡がるようにレーザ光Lを射出する。このため、フォークリフト3の爪部の延長線上にパレットPが位置する状態においては、図3に示すように、レーザ光LがパレットPの側面で反射して、該側面上に反射光のラインLNが表れる。なお、上記側面とは、パレットPの側面のうち、フォークリフト3が正対している側面であって、フォークを挿し込むための開口部である一組のフォークポケットFPが開口している側面である。
As described above, the
ラインLNの高さは、フォークリフト3の爪部の高さに等しい。このため、運転者Aは、ラインLNの位置がフォークポケットFPの高さ方向の中心を通る位置となるようにフォークを昇降する。これにより、フォークをフォークポケットFPに位置合わせすることができる。
The height of the line LN is equal to the height of the claw portion of the
出力制御部104は、照射装置2の照射態様を図3のような通常の照射態様から他の照射態様に変更する。これにより、運転者AがラインLNを視認し難い状況を改善することが可能になる。変更後の照射態様は、上記状況を改善し得るような態様であればよい。例えば、出力制御部104は、照射装置2の出力を上げてラインLNの輝度を上げる、照射装置2に光照射を断続的に行わせてラインLNを点滅させる等の制御を行うことにより、照射態様を変更してもよい。この他にも、例えば、出力制御部104は、レーザ光Lの光路にレンズなどの光学部材を挿入することにより、レーザ光Lが高さ方向に拡がるようにし、これによりラインLNの高さ方向の幅を広くしてもよい。
The
また、レーザ光Lに加えて、あるいはレーザ光Lの代わりにフォークの位置合わせの目印となる映像をパレットP等に投影することにより、運転者AがラインLNを視認し難い状況を改善してもよい。図4および図5は、フォークの位置合わせの目印となる映像を投影した例を示す図である。なお、照射装置2による通常態様での照射を終了させて代わりに映像を投影させる制御、および照射装置2による通常態様での照射を継続しつつ、他の映像をさらに投影させる制御も照射装置2による光照射の態様を変更させる制御の一例である。
In addition to the laser beam L, or instead of the laser beam L, an image that serves as a mark for fork alignment is projected onto the pallet P or the like, thereby improving the situation in which it is difficult for the driver A to visually recognize the line LN. Also good. 4 and 5 are diagrams illustrating an example in which an image serving as a mark for fork alignment is projected. Note that the
図4の例では、同図の(a)に示すように、パレットP上にラインLNが表れていると共に、ラインLNを中心とする矩形枠FMが投影されている。図4の(a)〜(d)に示すように、この矩形枠FMのサイズを時系列で小さくしていく。これにより、運転者Aには矩形枠FMがラインLNに向かって収束するように視認される。なお、(d)の状態の後は、再度(a)の状態に戻して、矩形枠FMのサイズを時系列で小さくしてもよいし、矩形枠FMの投影を終了してもよい。 In the example of FIG. 4, a line LN appears on the pallet P and a rectangular frame FM centered on the line LN is projected as shown in FIG. As shown in FIGS. 4A to 4D, the size of the rectangular frame FM is reduced in time series. Accordingly, the driver A visually recognizes the rectangular frame FM so as to converge toward the line LN. After the state (d), the state may be returned to the state (a) again, and the size of the rectangular frame FM may be reduced in time series, or the projection of the rectangular frame FM may be terminated.
矩形枠FMは、ラインLNよりも広い範囲に投影されるので運転者Aに視認されやすく、また矩形枠FMがラインLNに向かって収束するので、広い範囲に投影された矩形枠FMからラインLNの位置を運転者に認識させることも容易である。よって、図4のような光照射を行うことにより、運転者Aは、ラインLNの位置を容易に把握して、スムーズにフォークの位置合わせを行うことができる。また、ラインLNの太さを時系列で変化させることによっても同様の効果を得ることができる。なお、投影する枠線は、矩形に限らず、楕円等の他の形状の枠であってもよいし、完全な枠でなくてもよい(すなわち、枠の一部が欠けていてもよい)。 Since the rectangular frame FM is projected in a wider range than the line LN, it is easily visible to the driver A, and since the rectangular frame FM converges toward the line LN, the rectangular frame FM is projected from the projected rectangular frame FM to the line LN. It is also easy for the driver to recognize the position of. Therefore, by performing the light irradiation as shown in FIG. 4, the driver A can easily grasp the position of the line LN and smoothly align the fork. Further, the same effect can be obtained by changing the thickness of the line LN in time series. The frame line to be projected is not limited to a rectangle, and may be a frame of another shape such as an ellipse, or may not be a complete frame (that is, a part of the frame may be missing). .
一方、図5の例では、ラインLNの代わりにキャラクタの画像を投影してフォークの高さを示している。図5の(a)の状態では、キャラクタの画像の一例である顔画像FCが、パレットPの上に載置された荷物に投影されている。顔画像FCは、右目FC1、左目FC2、および口FC3、という3つの部分からなり、右目FC1および左目FC2の高さ方向における中心位置がフォークの先端の高さに対応している。 On the other hand, in the example of FIG. 5, the image of the character is projected instead of the line LN to indicate the height of the fork. In the state of FIG. 5A, a face image FC, which is an example of a character image, is projected onto a load placed on the pallet P. The face image FC includes three parts, a right eye FC1, a left eye FC2, and a mouth FC3, and the center positions of the right eye FC1 and the left eye FC2 in the height direction correspond to the height of the tip of the fork.
つまり、図5の(a)の状態では、フォークの先端はフォークポケットFPよりも上方に位置しており、運転者Aは荷物に投影された顔画像FCから、フォークの先端がフォークポケットFPよりも上方に位置していることを認識できる。よって、運転者Aは、フォークリフト3を操作してフォークを下降させ、図5の(b)に示すように、顔画像FCの右目FC1および左目FC2がフォークポケットFPの位置に重なるようにフォークの位置を調整し、これによりフォークの位置合わせが完了する。
That is, in the state of FIG. 5 (a), the tip of the fork is located above the fork pocket FP, and the driver A can see the tip of the fork from the fork pocket FP from the face image FC projected on the luggage. Can also be recognized as being located above. Therefore, the driver A operates the
顔画像FCは、ラインLNよりも広い範囲に投影されるので運転者Aに視認されやすい。また、運転者Aが、投影される画像が顔画像FCであることを認識していれば、運転者Aは顔画像FCの少なくとも一部(例えば口FC3の部分)を視認できれば、その位置から右目FC1および左目FC2位置(すなわちフォークの先端の高さ)を推測することができる。よって、図5のような光照射を行うことにより、運転者Aは、フォークの先端の高さを容易に把握して、スムーズにフォークの位置合わせを行うことができる。さらに、運転者Aは、顔画像FCから、フォークがフォークポケットFPに対して左右方向にずれていないかを確認することもできる。 Since the face image FC is projected in a wider range than the line LN, it is easily visible to the driver A. Further, if the driver A recognizes that the projected image is the face image FC, the driver A can recognize from the position if the driver A can visually recognize at least a part of the face image FC (for example, the part of the mouth FC3). The positions of the right eye FC1 and the left eye FC2 (that is, the height of the tip of the fork) can be estimated. Therefore, by performing the light irradiation as shown in FIG. 5, the driver A can easily grasp the height of the tip of the fork and can smoothly align the fork. Furthermore, the driver A can also confirm from the face image FC whether the fork is displaced in the left-right direction with respect to the fork pocket FP.
なお、図4や図5のような映像を投影する場合、照射装置2とは別に、他の照射装置として例えば映像投影装置をフォークリフトに搭載しておけばよい。そして、出力制御部104は、この映像投影装置を制御することにより、照射装置2のみによる照射態様から、映像投影装置を用いた照射態様に変更してもよい。また、照射装置2を多様な映像を投影できる構成として、上述のような映像を投影させてもよい。
In addition, when projecting an image as shown in FIGS. 4 and 5, for example, an image projection apparatus may be mounted on a forklift as another irradiation apparatus, separately from the
無論、上述の光照射の態様は一例に過ぎない。例えば、フォークの先端の高さよりも上側の領域と、下側の領域にそれぞれ異なる色の光を投影してもよい。また、フォークの先端の高さからの距離に応じて投影する色を段階的または連続的に異ならせてもよい。このような態様で光照射を行うことにより、運転者Aは、投影される映像を容易に認識することができると共に、フォークの先端の高さを容易に把握して、スムーズにフォークの位置合わせを行うことができる。 Of course, the above-described mode of light irradiation is only an example. For example, different colors of light may be projected onto the upper region and the lower region of the fork tip. Further, the color to be projected may be changed stepwise or continuously according to the distance from the height of the tip of the fork. By irradiating light in such a manner, the driver A can easily recognize the projected image, easily grasp the height of the tip of the fork, and smoothly align the fork. It can be performed.
(処理の流れ)
出力制御装置1が実行する処理の流れについて、図6に基づいて説明する。図6は、出力制御装置1が実行する処理(出力制御方法)の一例を示すフローチャートである。
(Process flow)
The flow of processing executed by the
S1では、撮影制御部101は、出力制御部104が照射装置2にレーザ光Lの照射を開始させたか否かを判定する。ここで照射を開始させたと判定された場合(S1でYES)には、S2に進み、照射を開始させていないと判定された場合(S1でNO)には、S1の判定を繰り返す。
In S <b> 1, the
S2では、撮影制御部101は、撮影装置4に撮影開始を指示する。そして、入力データ生成部102は、上記指示に従って撮影を開始した撮影装置4から画像を取得して、当該画像から入力データを生成する。上述のように、ここでは撮影装置4は動画像を撮影し、入力データ生成部102は、撮影された動画像から抽出したフレーム画像を入力データとする。なお、入力データを生成する処理は、後述のS5で撮影終了と判定されるまで継続して行われる。
In S <b> 2, the photographing
S3(検出ステップ)では、検出部103が、学習済みモデルを用いて運転者Aが所定の表情であることを検出する。具体的には、検出部103は、学習済みモデルにS2で生成された入力データを入力し、該学習済みモデルが出力した出力データに示される確率が所定の閾値以上であれば、運転者Aが上記所定の表情であることを検出する。ここで所定の表情が検出された場合(S3でYES)にはS6に進み、検出されなかった場合(S3でNO)にはS4に進む。
In S3 (detection step), the
S4では、撮影制御部101は、出力制御部104が照射装置2にレーザ光Lの照射を終了させたか否かを判定する。ここで照射を終了させたと判定した場合(S4でYES)にはS5に進み、照射を終了させていないと判定した場合(S4でNO)にはS3に戻る。なお、S3に戻った場合、前回のS3で使用した入力データの次に生成された入力データを用いてS3の処理が行われる。
In S <b> 4, the
S5では、撮影制御部101が撮影装置4に撮影終了を指示する。これにより、S2における入力データの生成も終了となり、図6の処理は終了する。
In S <b> 5, the
S6(出力制御ステップ)では、出力制御部104が照射装置2にレーザ光Lの照射態様を変更させる。S6の終了後、処理はS3に戻る。S3に戻ってYESと判定された場合、再度S6の処理が行われるが、2度目のS6の処理では、1度目の変更後の照射態様からさらに異なる照射態様に変更することが好ましい。これにより、照射態様を変更させてもなお、運転手Aがレーザ光Lの反射光を認識し難い場合に、さらに照射態様を変更させて反射光を認識しやすくすることができる。
In S6 (output control step), the
上述のS1、S4に関して、出力制御部104が照射装置2にレーザ光Lの照射を開始させる契機、および照射を終了させる契機は特に限定されない。例えば、入力部30に対してレーザ光Lの照射を開始させる操作が行われたことを契機として照射を開始させてもよい。照射終了も同様である。また、例えば、フォークのティルトが手前傾斜(先端が基部よりも高い位置にある状態)から水平に変化した場合、直後にフォークの挿入が行われる可能性があるため、上記変化を検出したことを契機として照射を開始させてもよい。また、フォークをフォークポケットFPに挿し込む操作が開始された時点では照射の必要がなくなっているので、上記操作の開始を検出したことを契機として照射を終了させてもよい。
Regarding S1 and S4 described above, the trigger for the
(実施形態1のまとめ)
以上のように、本実施形態で使用する学習済みモデルは、フォークリフト3の荷役対象物が載置されたパレットPに対してフォークリフト3に設置された照射装置2が照射した照射光が該パレットPで反射した反射光を目印として該フォークリフト3のフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときのフォークリフト3の運転者Aの表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成される。
(Summary of Embodiment 1)
As described above, in the learned model used in the present embodiment, the irradiation light irradiated by the
また、検出部103は、上記学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者Aの様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する。そして、出力制御部104は、検出部103が上記表情および上記動作の少なくとも何れかを検出した場合に、照射装置2を制御して光照射の態様を変更させる。
In addition, the
このように、出力制御装置1によれば、パレットPからの反射光が見えにくかったときの運転者Aの表情および動作の少なくとも何れかを検出した場合に、光照射の態様を変更させる。よって、パレットPからの反射光が運転者Aから見えにくいときに、自動的にパレットPからの反射光を見やすくして、運転者Aに高さ位置合わせ作業をスムーズに行わせることができる。
As described above, according to the
〔実施形態2〕
本発明の実施形態2について、以下に説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
本実施形態の出力制御装置1において、検出部103は、上述の所定の動作および上述の所定の表情の少なくとも何れかを複数種類、検出対象としている。そして、出力制御部104は、検出部103が検出した上記種類に応じた態様で光照射がなされるように照射装置2を制御する。
In the
例えば、複数種類の上記所定の表情を検出対象とする場合、検出対象とする各表情についての教師データを用いた機械学習により生成した学習済みモデルを用いればよい。検出部103は、この学習済みモデルに入力データ生成部102が生成した入力データを入力することにより、各種類の表情をそれぞれ検出することができる。複数種類の上記所定の動作を検出対象とする場合も同様である。
For example, when a plurality of types of predetermined facial expressions are to be detected, a learned model generated by machine learning using teacher data for each facial expression to be detected may be used. The
また、上記所定の表情と上記所定の動作をそれぞれ検出してもよい。この場合、所定の表情を検出するための学習済みモデルと、所定の動作を検出するための学習済みモデルをそれぞれ用意しておけばよい。そして、入力データ生成部102は、所定の表情を検出するための学習済みモデルに入力する入力データと、所定の動作を検出するための学習済みモデルに入力する入力データをそれぞれ生成すればよい。これにより、検出部103は、各学習済みモデルの出力データに基づき、所定の表情と所定の動作をそれぞれ検出することができる。
Further, the predetermined facial expression and the predetermined motion may be detected respectively. In this case, a learned model for detecting a predetermined facial expression and a learned model for detecting a predetermined motion may be prepared. Then, the input
検出された表情または動作の種類に応じた態様について、パレットPからの反射光が運転者Aから見えにくい状況には複数のパターンが考えられる。このパターンとしては、例えば、運転者Aが反射光のラインLNのおおまかな位置を認識はしているがラインLNの色や輝度の関係で、そのラインLNを視認し難いパターン(以下、パターンaと記載)が挙げられる。また、他のパターンとして、例えば、運転者Aが反射光のラインLNの位置すら認識できていないパターン(以下、パターンbと記載)が挙げられる。 A plurality of patterns are conceivable in a situation in which the reflected light from the palette P is difficult to be seen by the driver A with respect to the detected facial expression or the mode according to the type of action. As this pattern, for example, a pattern in which the driver A recognizes the approximate position of the line LN of reflected light but is difficult to visually recognize the line LN due to the color and brightness of the line LN (hereinafter referred to as a pattern a). Described). In addition, as another pattern, for example, a pattern in which the driver A cannot recognize even the position of the line LN of reflected light (hereinafter referred to as a pattern b) can be cited.
パターンaに対応する表情としては、例えば目を細める等のレーザ光が見えにくそうな表情が挙げられる。また、パターンaに対応する動作としては、例えば目の上に手をかざす動作や瞬きを繰り返す動作が挙げられる。パターンbに対応する動作としては、例えばラインLNを見上げるあるいは見下ろす角度(顔の向き)を変える動作が挙げられる。 Examples of facial expressions corresponding to the pattern a include facial expressions that make it difficult to see laser light such as narrowing the eyes. Examples of the operation corresponding to the pattern a include an operation of holding a hand over the eye and an operation of repeating blinking. As the operation corresponding to the pattern b, for example, there is an operation of changing the angle (face direction) at which the line LN is looked up or looked down.
出力制御部104は、このようなパターンに応じた態様で光照射がなされるように照射装置2を制御してもよい。例えば、出力制御部104は、パターンaの表情または動作が検出された場合には、ラインLNの視認性を高めるように照射装置2を制御してもよい。具体的には、出力制御部104は、照射装置2の出力するレーザ光Lの輝度を上げる制御、およびレーザ光Lの色を変える制御の少なくとも何れかを実行してもよい。一方、出力制御部104は、パターンbの表情または動作が検出された場合には、ラインLNの位置を運転者Aが認識しやすくなるように、例えば照射装置2の出力するレーザ光Lの幅を広くする等の光照射の範囲を広げる制御を行ってもよい。
The
(実施形態2のまとめ)
上述のように、パレットPからの反射光の見えにくさにも色々なパターンがあるため、どのように見えにくいのかに応じた態様で光照射を行うことが好ましい。そこで、本実施形態の検出部103は、上述のように、表情および動作の少なくとも何れかを複数種類、検出対象としている。そして、出力制御部104は、検出部103が検出した種類に応じた態様で光照射がなされるように照射装置2を制御する。これにより、パレットPからの反射光の見えにくさのパターンに応じた、運転者Aがパレットからの反射光をより視認しやすい態様で光照射を行わせることができる。
(Summary of Embodiment 2)
As described above, since there are various patterns in the difficulty of seeing the reflected light from the palette P, it is preferable to perform the light irradiation in a manner according to how difficult it is to see. Therefore, as described above, the
〔分散処理について〕
上記各実施形態で説明した出力制御装置1の実行する処理の一部は、出力制御装置1と通信接続された1または複数の装置に実行させてもよい。例えば、検出部103が実行する処理のうち、学習済みモデルを用いた演算処理を、出力制御装置1と通信接続されたAIサーバに実行させてもよい。この場合、出力制御装置1は、入力データを生成してAIサーバに送信し、該AIサーバから出力データを受信して、運転者Aの所定の表情および動作の少なくとも何れかを検出する。
[About distributed processing]
A part of the processing executed by the
〔ソフトウェアによる実現例〕
出力制御装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of the output control apparatus 1 (particularly each unit included in the control unit 10) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software. Good.
後者の場合、出力制御装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.
1 出力制御装置
2 照射装置
3 フォークリフト
A 運転者
L レーザ光(照射光)
P パレット
103 検出部
104 出力制御部
1
Claims (2)
上記検出部が上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御部と、を備え、
上記検出部は、上記表情および上記動作の少なくとも何れかを複数種類、検出対象としており、
上記出力制御部は、上記検出部が検出した上記種類に応じた態様で光照射がなされるように上記照射装置を制御することを特徴とする出力制御装置。 A state in which the fork height of the forklift is aligned using the reflected light reflected from the pallet of the irradiation light applied to the pallet on which the object to be handled by the forklift is placed. Using a learned model generated by machine learning using a captured image, which is an image showing at least one of the expression and movement of the forklift driver when the reflected light is difficult to see A detection unit for detecting at least one of the facial expression and the movement from an image obtained by photographing a driver who wants to perform the height alignment;
An output control unit that controls the irradiation device to change the mode of light irradiation when the detection unit detects at least one of the facial expression and the movement ; and
The detection unit has at least one of the facial expression and the motion as a plurality of types of detection targets,
The output control unit, the output control device, characterized that you control the illumination device so that the light irradiation is performed in a manner that depends on the type of the detection unit has detected.
フォークリフトの荷役対象物が載置されたパレットに対してフォークリフトに設置された照射装置が照射した照射光が該パレットで反射した反射光を目印として該フォークリフトのフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときの上記フォークリフトの運転者の表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成された学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者の様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する検出ステップと、
上記検出ステップにおいて上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御ステップと、を含み、
上記検出ステップでは、上記表情および上記動作の少なくとも何れかを複数種類、検出対象としており、
上記出力制御ステップでは、上記検出ステップにて検出した上記種類に応じた態様で光照射がなされるように上記照射装置を制御することを特徴とする出力制御方法。 An output control method by an output control device,
A state in which the fork height of the forklift is aligned using the reflected light reflected from the pallet of the irradiation light applied to the pallet on which the object to be handled by the forklift is placed. Using a learned model generated by machine learning using a captured image, which is an image showing at least one of the expression and movement of the forklift driver when the reflected light is difficult to see A detection step of detecting at least one of the facial expression and the movement from an image obtained by photographing a driver who wants to perform the height alignment;
When detecting at least one of the expression and the operation in the detecting step, seen including an output control step of changing the manner of light irradiation by controlling the irradiation device, and
In the detection step, a plurality of types of at least one of the facial expression and the motion are detected,
In the output control step, the output control method is characterized in that the irradiation device is controlled so that light irradiation is performed in a manner corresponding to the type detected in the detection step .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018170931A JP6586496B1 (en) | 2018-09-12 | 2018-09-12 | Output control device and output control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018170931A JP6586496B1 (en) | 2018-09-12 | 2018-09-12 | Output control device and output control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6586496B1 true JP6586496B1 (en) | 2019-10-02 |
JP2020040812A JP2020040812A (en) | 2020-03-19 |
Family
ID=68095423
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018170931A Active JP6586496B1 (en) | 2018-09-12 | 2018-09-12 | Output control device and output control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6586496B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7556807B2 (en) | 2021-03-04 | 2024-09-26 | トヨタ自動車株式会社 | Positioning Support Device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6892210B1 (en) * | 2020-04-01 | 2021-06-23 | 三菱ロジスネクスト株式会社 | Image storage system and image storage program for cargo handling vehicles |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59186899A (en) * | 1983-04-01 | 1984-10-23 | 株式会社小松製作所 | Method of detecting position of pallet in unmanned carrier ccargo gear |
JP3622948B2 (en) * | 2000-01-27 | 2005-02-23 | 日本輸送機株式会社 | forklift |
JP2005298000A (en) * | 2004-04-12 | 2005-10-27 | Nippon Yusoki Co Ltd | Device and method for checking pallet position |
JP5513433B2 (en) * | 2011-03-31 | 2014-06-04 | 富士通フロンテック株式会社 | Two electronic devices with camera capable of using magnifier function and visibility control method |
JP6212984B2 (en) * | 2013-06-27 | 2017-10-18 | カシオ計算機株式会社 | Projection apparatus, projection method, and program |
-
2018
- 2018-09-12 JP JP2018170931A patent/JP6586496B1/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7556807B2 (en) | 2021-03-04 | 2024-09-26 | トヨタ自動車株式会社 | Positioning Support Device |
Also Published As
Publication number | Publication date |
---|---|
JP2020040812A (en) | 2020-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6613343B1 (en) | Determination apparatus and determination method | |
US10997465B2 (en) | Information processing device, information processing method, and storage medium | |
JP4309439B2 (en) | Object take-out device | |
JP3735624B2 (en) | Projection display device | |
JP2019156641A (en) | Image processing device for fork lift and control program | |
JP6586496B1 (en) | Output control device and output control method | |
JP6575350B2 (en) | Laser processing equipment | |
JP4910975B2 (en) | Information processing apparatus, instruction system, and control program | |
JP5468981B2 (en) | Image measuring machine, program, and teaching method for image measuring machine | |
JP2017161965A (en) | Face image processing apparatus | |
JP2005284874A (en) | Projector and command extraction method | |
JP2020045219A (en) | Insertion control apparatus and insertion control method | |
WO2022205827A1 (en) | Structured light image processing method, obstacle detection method, module and device | |
US20210067692A1 (en) | Mobile terminal device that generates picture where person's eye direction in shot image has been modified | |
JP2020037464A (en) | Determination device and determination method | |
JP2000276297A (en) | Device and method for detecting pointing position, presentation system, and information storage medium | |
JP6674515B2 (en) | Judgment device and judgment method | |
JP6722733B2 (en) | Judgment device and judgment method | |
JP4451195B2 (en) | Gaze detection device | |
JP6893198B2 (en) | Information processing device and information processing method | |
JP6793382B1 (en) | Imaging equipment, information processing equipment, methods and programs | |
JP7399160B2 (en) | Light pattern irradiation control device and light pattern irradiation control method | |
JP6911882B2 (en) | Laser marker | |
JP2019107062A (en) | sewing machine | |
JP6733945B1 (en) | Imaging device, information processing device, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190709 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190903 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190909 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6586496 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |