JP6586496B1 - Output control device and output control method - Google Patents

Output control device and output control method Download PDF

Info

Publication number
JP6586496B1
JP6586496B1 JP2018170931A JP2018170931A JP6586496B1 JP 6586496 B1 JP6586496 B1 JP 6586496B1 JP 2018170931 A JP2018170931 A JP 2018170931A JP 2018170931 A JP2018170931 A JP 2018170931A JP 6586496 B1 JP6586496 B1 JP 6586496B1
Authority
JP
Japan
Prior art keywords
output control
irradiation
driver
forklift
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018170931A
Other languages
Japanese (ja)
Other versions
JP2020040812A (en
Inventor
剛司 泉
剛司 泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2018170931A priority Critical patent/JP6586496B1/en
Application granted granted Critical
Publication of JP6586496B1 publication Critical patent/JP6586496B1/en
Publication of JP2020040812A publication Critical patent/JP2020040812A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)

Abstract

【課題】照射装置からの照射光がパレットで反射した反射光がフォークリフトの運転者から見えにくい場合に、反射光を見やすくする。【解決手段】出力制御装置(1)は、学習済みモデルを用いて、フォークリフトの高さ位置合わせを行う運転者の様子を撮影した画像から所定の表情または動作を検出する検出部(103)と、所定の表情または動作を検出した場合に、照射装置(2)に光照射の態様を変更させる出力制御部(104)と、を備えている。【選択図】図1An object of the present invention is to make it easy to see reflected light when reflected light reflected from a pallet by an irradiation device is difficult to see from a forklift driver. An output control device (1) includes a detection unit (103) for detecting a predetermined facial expression or motion from an image obtained by photographing a driver performing position alignment of a forklift using a learned model. And an output control unit (104) that causes the irradiation device (2) to change the mode of light irradiation when a predetermined facial expression or motion is detected. [Selection] Figure 1

Description

本発明は、フォークリフトからパレットに光照射する照射装置を制御する出力制御装置等に関する。   The present invention relates to an output control device for controlling an irradiation device that irradiates light to a pallet from a forklift.

フォークリフトを用いた荷役作業においては、フォークリフトの運転者は、積荷を積載したパレットのフォークポケットにフォークを差し込み、パレットごと積荷を持ち上げて、その積荷を運搬するという一連の操作を行う。これら一連の操作のうち、フォークポケットにフォークを差し込むフォーク差込操作の難易度が特に高く、運転者によっては、フォークの差し込みに手間取ったり、パレットにフォークを衝突させてしまったりすることがある。   In a cargo handling operation using a forklift, a forklift driver performs a series of operations of inserting a fork into a fork pocket of a pallet loaded with a load, lifting the load together with the pallet, and transporting the load. Of these series of operations, the difficulty of inserting a fork into the fork pocket is particularly high, and depending on the driver, it may take time to insert the fork or cause the fork to collide with the pallet.

フォーク差込操作を容易にするための技術としては、例えば、特許文献1が挙げられる。特許文献1には、レーザ光線を反射する光線反射面を形成したパレットに、フォークと同じ高さのレーザ光線を照射し、運転手にその反射光を目印にしてフォークのパレットに対する高さ位置合わせを行わせる技術が開示されている。   As a technique for facilitating the fork insertion operation, for example, Patent Document 1 is cited. In Patent Document 1, a pallet formed with a light reflecting surface that reflects a laser beam is irradiated with a laser beam having the same height as the fork, and the height alignment of the fork with respect to the pallet is performed using the reflected light as a mark. A technique for performing the above is disclosed.

特開2005−298000号公報JP 2005-298000 A

上記の技術によれば、フォークのパレットに対する高さ位置合わせは容易になる。しかしながら、光線反射面が形成されていないパレットについては高さ位置合わせが困難となる場合がある。また、パレットが高所に配置されている場合等には、光線反射面が形成されていても、レーザ光線が見えにくいことも想定される。   According to the above technique, the height alignment of the fork with respect to the pallet becomes easy. However, it may be difficult to align the height of a pallet on which no light reflecting surface is formed. Further, when the pallet is arranged at a high place, it is assumed that the laser beam is difficult to see even if the light reflecting surface is formed.

本発明の一態様は、照射装置からの照射光がパレットで反射した反射光がフォークリフトの運転者から見えにくい場合に、パレットからの反射光を見やすくすることができる出力制御装置等を提供することを目的とする。   One aspect of the present invention provides an output control device and the like that makes it easy to see reflected light from a pallet when reflected light reflected from the pallet is difficult to see from a forklift driver. With the goal.

上記の課題を解決するために、本発明の一態様に係る出力制御装置は、フォークリフトの荷役対象物が載置されたパレットに対してフォークリフトに設置された照射装置が照射した照射光が該パレットで反射した反射光を目印として該フォークリフトのフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときの上記フォークリフトの運転者の表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成された学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者の様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する検出部と、上記検出部が上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御部と、を備えている。   In order to solve the above-described problem, an output control device according to an aspect of the present invention is configured such that irradiation light irradiated by an irradiation device installed on a forklift is applied to the pallet on which a load handling object of the forklift is placed. The forklift driver's facial expression and operation when the forklift is positioned with the reflected light reflected by the forklift as a mark, and when the reflected light is difficult to see Using a learned model generated by machine learning using an image in which the image is taken as teacher data, at least one of the facial expression and the motion is obtained from an image obtained by photographing the driver who wants to perform the height alignment. And detecting the detection unit and controlling the irradiation device when the detection unit detects at least one of the facial expression and the movement. It includes an output control section for changing the manner of light irradiation, the.

また、上記の課題を解決するために、本発明の一態様に係る出力制御方法は、出力制御装置による出力制御方法であって、フォークリフトの荷役対象物が載置されたパレットに対してフォークリフトに設置された照射装置が照射した照射光が該パレットで反射した反射光を目印として該フォークリフトのフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときの上記フォークリフトの運転者の表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成された学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者の様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する検出ステップと、上記検出ステップにおいて上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御ステップと、を含む。   In order to solve the above-described problem, an output control method according to an aspect of the present invention is an output control method using an output control device, in which a forklift is attached to a pallet on which a forklift object to be loaded is placed. This is an image of a situation in which the fork lift of the forklift is positioned using the reflected light reflected by the pallet as a mark, and the reflected light is difficult to see. Using the learned model generated by machine learning using teacher images as images of at least one of the facial expressions and movements of the forklift driver, we photographed the driver trying to perform the height alignment. A detection step of detecting at least one of the facial expression and the motion from the captured image, and the facial expression and When detecting at least one of the serial operation, including controlling the irradiation device and an output control step of changing the manner of light irradiation, the.

本発明の一態様によれば、照射装置からの照射光がパレットで反射した反射光がフォークリフトの運転者から見えにくい場合に、パレットからの反射光を見やすくすることができる。   According to one aspect of the present invention, when the reflected light reflected from the irradiating device by the pallet is difficult to see from the driver of the forklift, the reflected light from the pallet can be easily seen.

本発明の実施形態1に係る出力制御装置の要部構成の一例を示すブロック図である。It is a block diagram which shows an example of a principal part structure of the output control apparatus which concerns on Embodiment 1 of this invention. 上記出力制御装置による出力制御の概要を示す図である。It is a figure which shows the outline | summary of the output control by the said output control apparatus. 通常の照射態様の一例を示す図である。It is a figure which shows an example of a normal irradiation aspect. フォークの位置合わせの目印となる映像を投影した例を示す図である。It is a figure which shows the example which projected the image | video used as the mark of the fork alignment. フォークの位置合わせの目印となる映像を投影した他の例を示す図である。It is a figure which shows the other example which projected the image | video used as the mark of the fork alignment. 上記出力制御装置が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the said output control apparatus performs.

〔実施形態1〕
(出力制御の概要)
本実施形態の出力制御装置による出力制御の概要を図2に基づいて説明する。図2は、出力制御装置1による出力制御の概要を示す図である。図2に示すように、フォークリフト3に設置された照射装置2からのレーザ光(照射光)LがパレットPの側面に照射されている。
Embodiment 1
(Outline of output control)
An outline of output control by the output control apparatus of the present embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an outline of output control by the output control device 1. As shown in FIG. 2, the side surface of the pallet P is irradiated with laser light (irradiation light) L from the irradiation device 2 installed on the forklift 3.

出力制御装置1は、レーザ光LがパレットPの側面で反射された反射光がフォークリフト3を運転する運転者Aから見えにくい状況を検出した場合に、照射装置2を制御してレーザ光Lの照射態様を変更させる装置である。   The output control device 1 controls the irradiation device 2 to control the irradiation of the laser light L when the reflected light reflected by the side surface of the pallet P is difficult to see from the driver A driving the forklift 3. It is an apparatus that changes the irradiation mode.

照射装置2は、フォークリフト3が備える一対のフォークの爪部の先端と同じ高さで、かつそれら爪部の中間位置(2つの爪部から等距離の位置)に、フォークリフト3に固定されている。また、照射装置2は、フォークの昇降に合わせて昇降するように固定されている。照射装置2は、フォークリフト3の前方に向けて水平に、かつ扇形に横に拡がるようにレーザ光Lを射出する。つまり、照射装置2は、爪部の延長線上に水平に直線状に拡がるレーザ光Lを照射する(図3のラインLN参照)。   The irradiation device 2 is fixed to the forklift 3 at the same height as the tips of the claw portions of the pair of forks included in the forklift 3 and at an intermediate position between the claw portions (equal distance from the two claw portions). . Moreover, the irradiation apparatus 2 is being fixed so that it may raise / lower with the raising / lowering of a fork. The irradiation device 2 emits the laser beam L so as to spread horizontally toward the front of the forklift 3 and horizontally in a fan shape. That is, the irradiation apparatus 2 irradiates the laser beam L that spreads horizontally and linearly on the extension line of the claw portion (see the line LN in FIG. 3).

図2の例では、フォークリフト3を運転する運転者Aは、レーザ光LがパレットPで反射した反射光を目印として該フォークリフト3のフォークの高さ位置合わせを行おうとしている。そして、この運転者Aの様子を撮影装置4が撮影しており、撮影した画像が出力制御装置1に入力されている。なお、撮影する画像は、静止画像であってもよいし、動画像であってもよい。   In the example of FIG. 2, the driver A who operates the forklift 3 tries to align the height of the fork of the forklift 3 using the reflected light reflected by the pallet P as the laser beam L as a mark. The imaging device 4 captures the state of the driver A, and the captured image is input to the output control device 1. Note that the image to be captured may be a still image or a moving image.

出力制御装置1は、撮影装置4から上記画像を取得する。そして、当該画像から運転者Aがレーザ光Lのラインの位置が見えにくいことを示す所定の表情および所定の動作の少なくとも何れかを検出した場合、レーザ光Lのラインが運転者Aから見やすくなるようにレーザ光Lの照射態様を変更する。これにより、照射装置2からのレーザ光LがパレットPで反射した反射光が運転者Aから見えにくい場合に、該反射光を見やすくすることができる。   The output control device 1 acquires the image from the photographing device 4. When the driver A detects at least one of a predetermined facial expression and a predetermined operation indicating that the position of the line of the laser light L is difficult to see from the image, the line of the laser light L becomes easy to see from the driver A. Thus, the irradiation mode of the laser beam L is changed. Thereby, when the reflected light which the laser beam L from the irradiation apparatus 2 reflected on the palette P is hard to see from the driver | operator A, this reflected light can be made easy to see.

なお、出力制御装置1は、照射装置2と一体に構成されていてもよいし、フォークリフト3に搭載されていてもよいし、フォークリフト3から離れた位置に設置されていてもよい。また、出力制御装置1は、複数の照射装置2を制御対象としてもよい。この場合、出力制御装置1は、各照射装置2が搭載されたフォークリフト3について撮影された画像を取得して、上述の所定の表情や所定の動作を検出し、その検出結果に従って各照射装置2を制御する。   In addition, the output control apparatus 1 may be comprised integrally with the irradiation apparatus 2, may be mounted in the forklift 3, and may be installed in the position away from the forklift 3. Moreover, the output control apparatus 1 is good also considering the several irradiation apparatus 2 as a control object. In this case, the output control device 1 acquires an image photographed with respect to the forklift 3 on which each irradiation device 2 is mounted, detects the above-mentioned predetermined facial expression and predetermined motion, and each irradiation device 2 according to the detection result. To control.

また、撮影装置4は、出力制御装置1の出力制御専用に設けられていてもよいし、他の用途で設けられている撮影装置を撮影装置4として流用してもよい。例えば、フォークリフト3による作業が行われる施設内を監視するための監視カメラ、フォークリフト3に搭載されたドライブレコーダ用のカメラを撮影装置4として流用してもよい。   The imaging device 4 may be provided exclusively for output control of the output control device 1, or an imaging device provided for other purposes may be used as the imaging device 4. For example, a monitoring camera for monitoring the inside of a facility where work by the forklift 3 is performed, and a camera for a drive recorder mounted on the forklift 3 may be used as the imaging device 4.

(出力制御装置の要部構成)
出力制御装置1の要部構成について、図1に基づいて説明する。図1は、出力制御装置1の要部構成の一例を示すブロック図である。図示のように、出力制御装置1は、出力制御装置1の各部を統括して制御する制御部10と、出力制御装置1が使用する各種データを記憶する記憶部20と、出力制御装置1に対する入力操作を受け付ける入力部30を備えている。また、制御部10には、撮影制御部101、入力データ生成部102、検出部103、および出力制御部104が含まれている。また、図1には、照射装置2と撮影装置4についても併せて図示している。
(Main components of the output control device)
The principal part structure of the output control apparatus 1 is demonstrated based on FIG. FIG. 1 is a block diagram illustrating an example of a main configuration of the output control device 1. As shown in the figure, the output control device 1 controls the control unit 10 that controls each part of the output control device 1, the storage unit 20 that stores various data used by the output control device 1, and the output control device 1. An input unit 30 that receives an input operation is provided. The control unit 10 includes a photographing control unit 101, an input data generation unit 102, a detection unit 103, and an output control unit 104. FIG. 1 also shows the irradiation device 2 and the photographing device 4 together.

撮影制御部101は、撮影装置4に対して撮影開始および撮影終了の指示を行う。上述のように、撮影の対象は、レーザ光LがパレットPで反射した反射光を目印としてフォークの高さ位置合わせを行おうとしている運転者Aの様子、より詳細には、高さ位置合わせを行おうとしている運転者Aの表情および動作の少なくとも何れかである。なお、以下では説明を簡単にするため、運転者Aの表情(すなわち顔)を撮影させる例を説明する。   The photographing control unit 101 instructs the photographing device 4 to start photographing and finish photographing. As described above, the object to be photographed is the state of the driver A who is trying to perform the height alignment of the fork using the reflected light reflected by the pallet P as the laser beam L, and more specifically, the height alignment. This is at least one of the facial expression and the motion of the driver A who is going to perform. In the following, for the sake of simplicity, an example in which the facial expression (that is, the face) of the driver A is photographed will be described.

入力データ生成部102は、フォークの高さ位置合わせを行おうとしている運転者Aの表情および動作の少なくとも何れかを撮影した画像から、後述する学習済みモデルに対する入力データを生成する。上述のとおり、ここでは運転者Aの顔を撮影させることを想定しているため、入力データ生成部102は、運転者Aの顔を撮影した画像から入力データを生成する。   The input data generation unit 102 generates input data for a learned model, which will be described later, from an image obtained by capturing at least one of the facial expression and movement of the driver A who is trying to align the height of the fork. As described above, since it is assumed here that the face of the driver A is photographed, the input data generation unit 102 generates input data from an image obtained by photographing the face of the driver A.

検出部103は、上記の学習済みモデルを用いて、高さ位置合わせを行おうとする運転者Aの様子を撮影した画像から、所定の表情および所定の動作の少なくとも何れかを検出する。所定の動作とは、過去にフォークリフト(フォークリフト3または他のフォークリフト)の運転者(運転者Aまたは他の運転者)がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときに当該運転者が行った動作である。所定の動作の具体例としては、例えば、レーザ光の反射光を見上げる(あるいは見下ろす)角度を変える動作、フォークの昇降を繰り返す動作、目の上方に手をかざす動作等が挙げられる。同様に、所定の表情とは、過去にフォークリフトの運転者がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときの当該運転者の表情である。所定の表情の具体例としては、例えば、見えにくそうに目を細めた表情や、イライラした表情等が挙げられる。本実施形態では、検出部103が、運転者Aが上記所定の表情であることを検出する例を説明する。   The detection unit 103 detects at least one of a predetermined facial expression and a predetermined action from an image obtained by photographing the state of the driver A who is going to perform height alignment using the learned model. Predetermined motion is when the driver (driver A or other driver) of the forklift (forklift 3 or other forklift) tried to align the height of the fork in the past, but the reflected light was difficult to see The operation performed by the driver. Specific examples of the predetermined operation include an operation of changing the angle at which the reflected light of the laser beam is looked up (or looking down), an operation of repeatedly raising and lowering the fork, and an operation of holding a hand over the eyes. Similarly, the predetermined expression is the expression of the driver when the driver of the forklift tried to align the height of the fork in the past, but the reflected light was difficult to see. Specific examples of the predetermined facial expression include, for example, an expression that narrows the eyes so that it is difficult to see, an irritated expression, and the like. In the present embodiment, an example will be described in which the detection unit 103 detects that the driver A has the predetermined facial expression.

出力制御部104は、検出部103が上記所定の表情を検出した場合に、照射装置2を制御してレーザ光Lの照射態様を変更させる。無論、出力制御部104は、検出部103が上記所定の動作を検出した場合にも同様の処理を行う。レーザ光Lの照射態様の例については後述する。   When the detection unit 103 detects the predetermined facial expression, the output control unit 104 controls the irradiation device 2 to change the irradiation mode of the laser light L. Of course, the output control unit 104 performs the same processing when the detection unit 103 detects the predetermined operation. An example of the irradiation mode of the laser light L will be described later.

(学習済みモデルと検出部の検出について)
検出部103が使用する上記学習済みモデルは、教師データを用いた機械学習により生成された学習済みモデルである。この教師データとしては、例えば、過去にフォークリフトの運転者がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときの当該運転者の表情(上述した所定の表情)を撮影した画像を用いることができる。なお、上記フォークリフトは、図2に示したフォークリフト3であってもよいし、他のフォークリフトであってもよい。また、上記運転者は、図2に示した運転者Aであってもよいし他の運転者であってもよい。
(About detection of learned model and detector)
The learned model used by the detection unit 103 is a learned model generated by machine learning using teacher data. As this teacher data, for example, the driver of the forklift tried to align the height of the fork in the past, but the driver's facial expression when the reflected light was difficult to see (predetermined facial expression described above) was photographed. Images can be used. In addition, the forklift 3 shown in FIG. 2 may be sufficient as the said forklift, and another forklift may be sufficient as it. Further, the driver may be the driver A shown in FIG. 2 or another driver.

上記のような教師データを用いて、例えば畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)のパラメータを最適化することにより、画像から上記所定の表情を検出するための学習済みモデルを生成することができる。なお、上記学習済みモデルはCNNに限られないが、本実施形態のように画像から所定の表情を検出する場合には、高い検出精度が実現できるCNNが好適である。   By using the teacher data as described above, for example, by optimizing the parameters of a convolutional neural network (CNN), a learned model for detecting the predetermined facial expression from an image can be generated. . The learned model is not limited to CNN. However, when a predetermined facial expression is detected from an image as in the present embodiment, CNN that can realize high detection accuracy is preferable.

このようにして生成された学習済みデータに対し、運転者Aを撮影した画像から生成された入力データを入力すると、その画像に写る運転者Aが上記所定の表情である確率を示す出力データが出力される。検出部103は、学習済みモデルが出力した出力データに示される確率が所定の閾値以上であれば、運転者Aが上記所定の表情であると検出する。   When input data generated from an image of the driver A is input to the learned data generated in this manner, output data indicating the probability that the driver A in the image is the predetermined facial expression is displayed. Is output. If the probability indicated in the output data output from the learned model is equal to or greater than a predetermined threshold, the detection unit 103 detects that the driver A is the predetermined facial expression.

なお、上記教師データとしては、例えば、過去にフォークリフトの運転者がフォークの高さ位置合わせを行おうとしたが、反射光が見えにくかったときの当該運転者の動作(上述した所定の動作)を撮影した画像を用いることもできる。これにより、画像から上記所定の動作を検出するための学習済みモデルを生成することができる。この場合、当該所定の動作を撮影した動画像を教師データとしてもよいし、該動画像から抽出した静止画像(フレーム画像)を教師データとしてもよい。   As the teacher data, for example, the driver's operation when the forklift driver tried to align the height of the fork in the past but the reflected light was difficult to see (predetermined operation described above). A photographed image can also be used. As a result, a learned model for detecting the predetermined motion can be generated from the image. In this case, a moving image obtained by photographing the predetermined operation may be used as teacher data, and a still image (frame image) extracted from the moving image may be used as teacher data.

上記所定の動作を検出する場合、CNNを単体で用いるよりは、例えば、CNNとRNN(Recurrent Neural Network)、あるいはCNNとLSTM(Long Short-Term Memory)を組み合わせた学習済みモデルを用いることが好ましい。RNNやLSTMのような時系列データの扱いに適したモデルと、画像認識性能の高いCNNとを組み合わせることにより、信頼性の高い出力データを得ることができる。   When detecting the predetermined operation, it is preferable to use, for example, a learned model that combines CNN and RNN (Recurrent Neural Network) or CNN and LSTM (Long Short-Term Memory) rather than using CNN alone. . By combining a model suitable for handling time-series data such as RNN and LSTM and CNN having high image recognition performance, highly reliable output data can be obtained.

(入力データについて)
入力データ生成部102は、運転者Aがフォークリフト3のフォークを位置合わせする様子を撮影した画像から入力データを生成する。例えば、撮影装置4が撮影した画像が動画像である場合、入力データ生成部102は、当該動画像から所定の時間間隔でフレーム画像を抽出し、抽出した各フレーム画像を入力データとしてもよい。
(About input data)
The input data generation unit 102 generates input data from an image obtained by photographing how the driver A aligns the fork of the forklift 3. For example, when the image photographed by the photographing device 4 is a moving image, the input data generation unit 102 may extract a frame image from the moving image at a predetermined time interval, and may use each extracted frame image as input data.

入力データの生成に用いる画像は、上記学習済みモデルの機械学習にて教師データとして用いた画像と同様の撮影条件で撮影したものであることが好ましい。上記撮影条件には、例えば、撮影装置4と、被写体である運転者Aとの位置関係、運転者Aの背景、および周囲の明るさ等が含まれる。   The image used for generating the input data is preferably a photograph taken under the same photographing conditions as the image used as the teacher data in the machine learning of the learned model. The photographing conditions include, for example, the positional relationship between the photographing device 4 and the driver A who is the subject, the background of the driver A, the ambient brightness, and the like.

また、入力データ生成部102は、画像をそのまま入力データとして用いてもよいし、画像に対して所定の処理を施したものを用いてもよい。上記所定の処理は、上記所定の表情の特徴を失わせることなく、該特徴と関係のない情報を減らすことができるものであればよい。例えば、画像がカラー画像であれば、グレースケール化して入力データとしてもよい。   The input data generation unit 102 may use the image as input data as it is, or may use an image obtained by performing a predetermined process on the image. The predetermined process may be any process that can reduce information unrelated to the characteristic without losing the characteristic of the predetermined facial expression. For example, if the image is a color image, the input data may be converted to gray scale.

さらに、入力データ生成部102は、例えば画像に写る対象物の中から運転者Aとその顔部分を検出し、検出した顔部分から入力データを生成してもよい。これにより、運転者Aの背景の影響を排除することができるので、検出精度を高めることができる。なお、運転者Aの検出には、例えば公知の画像解析技術や、CNN等の学習済みモデル等を用いることができる。ただし、入力データ生成部102は、教師データと同じ形式の入力データを生成する必要がある。   Furthermore, the input data generation unit 102 may detect the driver A and its face portion from, for example, an object shown in the image, and generate input data from the detected face portion. Thereby, since the influence of the background of the driver A can be eliminated, the detection accuracy can be increased. For detection of the driver A, for example, a known image analysis technique, a learned model such as CNN, or the like can be used. However, the input data generation unit 102 needs to generate input data in the same format as the teacher data.

(レーザ光の照射態様の例)
照射装置2によるレーザ光Lの照射態様の例について、図3〜5に基づいて説明する。図3は、通常の照射態様の一例を示す図である。図4は、変更後の照射態様の一例を示す図である。図5は、変更後の照射態様の他の例を示す図である。
(Example of laser light irradiation mode)
The example of the irradiation mode of the laser beam L by the irradiation apparatus 2 is demonstrated based on FIGS. FIG. 3 is a diagram illustrating an example of a normal irradiation mode. FIG. 4 is a diagram illustrating an example of the irradiation mode after the change. FIG. 5 is a diagram illustrating another example of the irradiation mode after the change.

上述のように、照射装置2は、フォークリフト3の爪部の延長線上に、かつ扇形に横に拡がるようにレーザ光Lを射出する。このため、フォークリフト3の爪部の延長線上にパレットPが位置する状態においては、図3に示すように、レーザ光LがパレットPの側面で反射して、該側面上に反射光のラインLNが表れる。なお、上記側面とは、パレットPの側面のうち、フォークリフト3が正対している側面であって、フォークを挿し込むための開口部である一組のフォークポケットFPが開口している側面である。   As described above, the irradiation device 2 emits the laser light L on the extension line of the claw portion of the forklift 3 so as to spread horizontally in a fan shape. Therefore, in a state where the pallet P is positioned on the extended line of the claw portion of the forklift 3, as shown in FIG. 3, the laser beam L is reflected by the side surface of the pallet P, and the reflected light line LN is formed on the side surface. Appears. In addition, the said side surface is a side surface with which the forklift 3 is facing directly among the side surfaces of the pallet P, and is a side surface in which one set of fork pockets FP which is an opening part for inserting a fork is opened. .

ラインLNの高さは、フォークリフト3の爪部の高さに等しい。このため、運転者Aは、ラインLNの位置がフォークポケットFPの高さ方向の中心を通る位置となるようにフォークを昇降する。これにより、フォークをフォークポケットFPに位置合わせすることができる。   The height of the line LN is equal to the height of the claw portion of the forklift 3. For this reason, the driver A raises and lowers the fork so that the position of the line LN is a position that passes through the center of the fork pocket FP in the height direction. Thereby, the fork can be aligned with the fork pocket FP.

出力制御部104は、照射装置2の照射態様を図3のような通常の照射態様から他の照射態様に変更する。これにより、運転者AがラインLNを視認し難い状況を改善することが可能になる。変更後の照射態様は、上記状況を改善し得るような態様であればよい。例えば、出力制御部104は、照射装置2の出力を上げてラインLNの輝度を上げる、照射装置2に光照射を断続的に行わせてラインLNを点滅させる等の制御を行うことにより、照射態様を変更してもよい。この他にも、例えば、出力制御部104は、レーザ光Lの光路にレンズなどの光学部材を挿入することにより、レーザ光Lが高さ方向に拡がるようにし、これによりラインLNの高さ方向の幅を広くしてもよい。   The output control unit 104 changes the irradiation mode of the irradiation device 2 from the normal irradiation mode as shown in FIG. 3 to another irradiation mode. As a result, it is possible to improve the situation in which it is difficult for the driver A to visually recognize the line LN. The irradiation mode after the change may be a mode that can improve the above situation. For example, the output control unit 104 performs irradiation control by increasing the output of the irradiation device 2 to increase the brightness of the line LN, causing the irradiation device 2 to perform light irradiation intermittently, and blinking the line LN. You may change an aspect. In addition, for example, the output control unit 104 inserts an optical member such as a lens in the optical path of the laser light L so that the laser light L spreads in the height direction, and thereby the height direction of the line LN. The width of may be widened.

また、レーザ光Lに加えて、あるいはレーザ光Lの代わりにフォークの位置合わせの目印となる映像をパレットP等に投影することにより、運転者AがラインLNを視認し難い状況を改善してもよい。図4および図5は、フォークの位置合わせの目印となる映像を投影した例を示す図である。なお、照射装置2による通常態様での照射を終了させて代わりに映像を投影させる制御、および照射装置2による通常態様での照射を継続しつつ、他の映像をさらに投影させる制御も照射装置2による光照射の態様を変更させる制御の一例である。   In addition to the laser beam L, or instead of the laser beam L, an image that serves as a mark for fork alignment is projected onto the pallet P or the like, thereby improving the situation in which it is difficult for the driver A to visually recognize the line LN. Also good. 4 and 5 are diagrams illustrating an example in which an image serving as a mark for fork alignment is projected. Note that the irradiation apparatus 2 also performs control to end irradiation in the normal mode by the irradiation apparatus 2 and project an image instead, and control to further project another image while continuing irradiation in the normal mode by the irradiation apparatus 2. It is an example of the control which changes the aspect of light irradiation by.

図4の例では、同図の(a)に示すように、パレットP上にラインLNが表れていると共に、ラインLNを中心とする矩形枠FMが投影されている。図4の(a)〜(d)に示すように、この矩形枠FMのサイズを時系列で小さくしていく。これにより、運転者Aには矩形枠FMがラインLNに向かって収束するように視認される。なお、(d)の状態の後は、再度(a)の状態に戻して、矩形枠FMのサイズを時系列で小さくしてもよいし、矩形枠FMの投影を終了してもよい。   In the example of FIG. 4, a line LN appears on the pallet P and a rectangular frame FM centered on the line LN is projected as shown in FIG. As shown in FIGS. 4A to 4D, the size of the rectangular frame FM is reduced in time series. Accordingly, the driver A visually recognizes the rectangular frame FM so as to converge toward the line LN. After the state (d), the state may be returned to the state (a) again, and the size of the rectangular frame FM may be reduced in time series, or the projection of the rectangular frame FM may be terminated.

矩形枠FMは、ラインLNよりも広い範囲に投影されるので運転者Aに視認されやすく、また矩形枠FMがラインLNに向かって収束するので、広い範囲に投影された矩形枠FMからラインLNの位置を運転者に認識させることも容易である。よって、図4のような光照射を行うことにより、運転者Aは、ラインLNの位置を容易に把握して、スムーズにフォークの位置合わせを行うことができる。また、ラインLNの太さを時系列で変化させることによっても同様の効果を得ることができる。なお、投影する枠線は、矩形に限らず、楕円等の他の形状の枠であってもよいし、完全な枠でなくてもよい(すなわち、枠の一部が欠けていてもよい)。   Since the rectangular frame FM is projected in a wider range than the line LN, it is easily visible to the driver A, and since the rectangular frame FM converges toward the line LN, the rectangular frame FM is projected from the projected rectangular frame FM to the line LN. It is also easy for the driver to recognize the position of. Therefore, by performing the light irradiation as shown in FIG. 4, the driver A can easily grasp the position of the line LN and smoothly align the fork. Further, the same effect can be obtained by changing the thickness of the line LN in time series. The frame line to be projected is not limited to a rectangle, and may be a frame of another shape such as an ellipse, or may not be a complete frame (that is, a part of the frame may be missing). .

一方、図5の例では、ラインLNの代わりにキャラクタの画像を投影してフォークの高さを示している。図5の(a)の状態では、キャラクタの画像の一例である顔画像FCが、パレットPの上に載置された荷物に投影されている。顔画像FCは、右目FC1、左目FC2、および口FC3、という3つの部分からなり、右目FC1および左目FC2の高さ方向における中心位置がフォークの先端の高さに対応している。   On the other hand, in the example of FIG. 5, the image of the character is projected instead of the line LN to indicate the height of the fork. In the state of FIG. 5A, a face image FC, which is an example of a character image, is projected onto a load placed on the pallet P. The face image FC includes three parts, a right eye FC1, a left eye FC2, and a mouth FC3, and the center positions of the right eye FC1 and the left eye FC2 in the height direction correspond to the height of the tip of the fork.

つまり、図5の(a)の状態では、フォークの先端はフォークポケットFPよりも上方に位置しており、運転者Aは荷物に投影された顔画像FCから、フォークの先端がフォークポケットFPよりも上方に位置していることを認識できる。よって、運転者Aは、フォークリフト3を操作してフォークを下降させ、図5の(b)に示すように、顔画像FCの右目FC1および左目FC2がフォークポケットFPの位置に重なるようにフォークの位置を調整し、これによりフォークの位置合わせが完了する。   That is, in the state of FIG. 5 (a), the tip of the fork is located above the fork pocket FP, and the driver A can see the tip of the fork from the fork pocket FP from the face image FC projected on the luggage. Can also be recognized as being located above. Therefore, the driver A operates the forklift 3 to lower the fork, and as shown in FIG. 5B, the driver A moves the fork so that the right eye FC1 and the left eye FC2 of the face image FC overlap the position of the fork pocket FP. The position is adjusted, thereby completing the fork alignment.

顔画像FCは、ラインLNよりも広い範囲に投影されるので運転者Aに視認されやすい。また、運転者Aが、投影される画像が顔画像FCであることを認識していれば、運転者Aは顔画像FCの少なくとも一部(例えば口FC3の部分)を視認できれば、その位置から右目FC1および左目FC2位置(すなわちフォークの先端の高さ)を推測することができる。よって、図5のような光照射を行うことにより、運転者Aは、フォークの先端の高さを容易に把握して、スムーズにフォークの位置合わせを行うことができる。さらに、運転者Aは、顔画像FCから、フォークがフォークポケットFPに対して左右方向にずれていないかを確認することもできる。   Since the face image FC is projected in a wider range than the line LN, it is easily visible to the driver A. Further, if the driver A recognizes that the projected image is the face image FC, the driver A can recognize from the position if the driver A can visually recognize at least a part of the face image FC (for example, the part of the mouth FC3). The positions of the right eye FC1 and the left eye FC2 (that is, the height of the tip of the fork) can be estimated. Therefore, by performing the light irradiation as shown in FIG. 5, the driver A can easily grasp the height of the tip of the fork and can smoothly align the fork. Furthermore, the driver A can also confirm from the face image FC whether the fork is displaced in the left-right direction with respect to the fork pocket FP.

なお、図4や図5のような映像を投影する場合、照射装置2とは別に、他の照射装置として例えば映像投影装置をフォークリフトに搭載しておけばよい。そして、出力制御部104は、この映像投影装置を制御することにより、照射装置2のみによる照射態様から、映像投影装置を用いた照射態様に変更してもよい。また、照射装置2を多様な映像を投影できる構成として、上述のような映像を投影させてもよい。   In addition, when projecting an image as shown in FIGS. 4 and 5, for example, an image projection apparatus may be mounted on a forklift as another irradiation apparatus, separately from the irradiation apparatus 2. Then, the output control unit 104 may change the irradiation mode using only the irradiation device 2 to the irradiation mode using the video projection device by controlling the video projection device. In addition, the irradiation apparatus 2 may be configured to project various images, and the above-described images may be projected.

無論、上述の光照射の態様は一例に過ぎない。例えば、フォークの先端の高さよりも上側の領域と、下側の領域にそれぞれ異なる色の光を投影してもよい。また、フォークの先端の高さからの距離に応じて投影する色を段階的または連続的に異ならせてもよい。このような態様で光照射を行うことにより、運転者Aは、投影される映像を容易に認識することができると共に、フォークの先端の高さを容易に把握して、スムーズにフォークの位置合わせを行うことができる。   Of course, the above-described mode of light irradiation is only an example. For example, different colors of light may be projected onto the upper region and the lower region of the fork tip. Further, the color to be projected may be changed stepwise or continuously according to the distance from the height of the tip of the fork. By irradiating light in such a manner, the driver A can easily recognize the projected image, easily grasp the height of the tip of the fork, and smoothly align the fork. It can be performed.

(処理の流れ)
出力制御装置1が実行する処理の流れについて、図6に基づいて説明する。図6は、出力制御装置1が実行する処理(出力制御方法)の一例を示すフローチャートである。
(Process flow)
The flow of processing executed by the output control device 1 will be described with reference to FIG. FIG. 6 is a flowchart illustrating an example of processing (output control method) executed by the output control device 1.

S1では、撮影制御部101は、出力制御部104が照射装置2にレーザ光Lの照射を開始させたか否かを判定する。ここで照射を開始させたと判定された場合(S1でYES)には、S2に進み、照射を開始させていないと判定された場合(S1でNO)には、S1の判定を繰り返す。   In S <b> 1, the imaging control unit 101 determines whether the output control unit 104 has caused the irradiation apparatus 2 to start irradiation with the laser light L. If it is determined that the irradiation is started (YES in S1), the process proceeds to S2. If it is determined that the irradiation is not started (NO in S1), the determination in S1 is repeated.

S2では、撮影制御部101は、撮影装置4に撮影開始を指示する。そして、入力データ生成部102は、上記指示に従って撮影を開始した撮影装置4から画像を取得して、当該画像から入力データを生成する。上述のように、ここでは撮影装置4は動画像を撮影し、入力データ生成部102は、撮影された動画像から抽出したフレーム画像を入力データとする。なお、入力データを生成する処理は、後述のS5で撮影終了と判定されるまで継続して行われる。   In S <b> 2, the photographing control unit 101 instructs the photographing device 4 to start photographing. Then, the input data generation unit 102 acquires an image from the imaging device 4 that has started imaging in accordance with the above instruction, and generates input data from the image. As described above, here, the imaging device 4 captures a moving image, and the input data generation unit 102 uses a frame image extracted from the captured moving image as input data. Note that the process of generating input data is continuously performed until it is determined in S5, which will be described later, that photographing has been completed.

S3(検出ステップ)では、検出部103が、学習済みモデルを用いて運転者Aが所定の表情であることを検出する。具体的には、検出部103は、学習済みモデルにS2で生成された入力データを入力し、該学習済みモデルが出力した出力データに示される確率が所定の閾値以上であれば、運転者Aが上記所定の表情であることを検出する。ここで所定の表情が検出された場合(S3でYES)にはS6に進み、検出されなかった場合(S3でNO)にはS4に進む。   In S3 (detection step), the detection unit 103 detects that the driver A has a predetermined facial expression using the learned model. Specifically, the detection unit 103 inputs the input data generated in S2 to the learned model, and if the probability indicated in the output data output from the learned model is equal to or greater than a predetermined threshold, the driver A Is detected as the predetermined expression. If a predetermined facial expression is detected (YES in S3), the process proceeds to S6, and if not detected (NO in S3), the process proceeds to S4.

S4では、撮影制御部101は、出力制御部104が照射装置2にレーザ光Lの照射を終了させたか否かを判定する。ここで照射を終了させたと判定した場合(S4でYES)にはS5に進み、照射を終了させていないと判定した場合(S4でNO)にはS3に戻る。なお、S3に戻った場合、前回のS3で使用した入力データの次に生成された入力データを用いてS3の処理が行われる。   In S <b> 4, the imaging control unit 101 determines whether the output control unit 104 has finished irradiating the irradiation apparatus 2 with the laser light L. If it is determined that the irradiation has ended (YES in S4), the process proceeds to S5. If it is determined that the irradiation has not ended (NO in S4), the process returns to S3. When the process returns to S3, the process of S3 is performed using the input data generated next to the input data used in the previous S3.

S5では、撮影制御部101が撮影装置4に撮影終了を指示する。これにより、S2における入力データの生成も終了となり、図6の処理は終了する。   In S <b> 5, the shooting control unit 101 instructs the shooting device 4 to end shooting. Thereby, the generation of the input data in S2 is also ended, and the processing in FIG. 6 is ended.

S6(出力制御ステップ)では、出力制御部104が照射装置2にレーザ光Lの照射態様を変更させる。S6の終了後、処理はS3に戻る。S3に戻ってYESと判定された場合、再度S6の処理が行われるが、2度目のS6の処理では、1度目の変更後の照射態様からさらに異なる照射態様に変更することが好ましい。これにより、照射態様を変更させてもなお、運転手Aがレーザ光Lの反射光を認識し難い場合に、さらに照射態様を変更させて反射光を認識しやすくすることができる。   In S6 (output control step), the output control unit 104 causes the irradiation device 2 to change the irradiation mode of the laser light L. After the end of S6, the process returns to S3. If YES in S3, the process of S6 is performed again. However, in the second process of S6, it is preferable to change the irradiation mode after the first change to a different irradiation mode. Thus, even when the irradiation mode is changed, when the driver A is difficult to recognize the reflected light of the laser light L, the irradiation mode can be further changed to make it easier to recognize the reflected light.

上述のS1、S4に関して、出力制御部104が照射装置2にレーザ光Lの照射を開始させる契機、および照射を終了させる契機は特に限定されない。例えば、入力部30に対してレーザ光Lの照射を開始させる操作が行われたことを契機として照射を開始させてもよい。照射終了も同様である。また、例えば、フォークのティルトが手前傾斜(先端が基部よりも高い位置にある状態)から水平に変化した場合、直後にフォークの挿入が行われる可能性があるため、上記変化を検出したことを契機として照射を開始させてもよい。また、フォークをフォークポケットFPに挿し込む操作が開始された時点では照射の必要がなくなっているので、上記操作の開始を検出したことを契機として照射を終了させてもよい。   Regarding S1 and S4 described above, the trigger for the output control unit 104 to start the irradiation of the laser light L in the irradiation device 2 and the trigger to end the irradiation are not particularly limited. For example, the irradiation may be started when an operation for starting the irradiation of the laser beam L is performed on the input unit 30. The same applies to the end of irradiation. In addition, for example, if the fork tilt changes horizontally from a forward tilt (a state where the tip is higher than the base), the fork may be inserted immediately after that, so that the change is detected. Irradiation may be started as an opportunity. Further, since the irradiation is no longer necessary when the operation for inserting the fork into the fork pocket FP is started, the irradiation may be terminated when the start of the operation is detected.

(実施形態1のまとめ)
以上のように、本実施形態で使用する学習済みモデルは、フォークリフト3の荷役対象物が載置されたパレットPに対してフォークリフト3に設置された照射装置2が照射した照射光が該パレットPで反射した反射光を目印として該フォークリフト3のフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときのフォークリフト3の運転者Aの表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成される。
(Summary of Embodiment 1)
As described above, in the learned model used in the present embodiment, the irradiation light irradiated by the irradiation device 2 installed on the forklift 3 is applied to the pallet P on which the cargo handling object of the forklift 3 is placed. FIG. 6 is an image of a situation where the fork height of the forklift 3 is aligned using the reflected light reflected by the forklift 3 as a mark, and at least the expression and operation of the driver A of the forklift 3 when the reflected light is difficult to see It is generated by machine learning using an image in which any of the images is captured as teacher data.

また、検出部103は、上記学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者Aの様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する。そして、出力制御部104は、検出部103が上記表情および上記動作の少なくとも何れかを検出した場合に、照射装置2を制御して光照射の態様を変更させる。   In addition, the detection unit 103 detects at least one of the facial expression and the motion from an image obtained by photographing the state of the driver A who wants to perform the height alignment using the learned model. And the output control part 104 controls the irradiation apparatus 2 and changes the aspect of light irradiation, when the detection part 103 detects at least any one of the said facial expression and the said operation | movement.

このように、出力制御装置1によれば、パレットPからの反射光が見えにくかったときの運転者Aの表情および動作の少なくとも何れかを検出した場合に、光照射の態様を変更させる。よって、パレットPからの反射光が運転者Aから見えにくいときに、自動的にパレットPからの反射光を見やすくして、運転者Aに高さ位置合わせ作業をスムーズに行わせることができる。   As described above, according to the output control device 1, when at least one of the facial expression and the operation of the driver A when the reflected light from the pallet P is difficult to see, the light irradiation mode is changed. Therefore, when it is difficult for the driver A to see the reflected light from the pallet P, the reflected light from the pallet P is automatically made easy to see, and the driver A can perform the height alignment operation smoothly.

〔実施形態2〕
本発明の実施形態2について、以下に説明する。なお、説明の便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
[Embodiment 2]
Embodiment 2 of the present invention will be described below. For convenience of explanation, members having the same functions as those described in the first embodiment are given the same reference numerals, and the description thereof will not be repeated.

本実施形態の出力制御装置1において、検出部103は、上述の所定の動作および上述の所定の表情の少なくとも何れかを複数種類、検出対象としている。そして、出力制御部104は、検出部103が検出した上記種類に応じた態様で光照射がなされるように照射装置2を制御する。   In the output control device 1 of the present embodiment, the detection unit 103 sets a plurality of types of detection targets as at least one of the above-described predetermined action and the above-described predetermined facial expression. And the output control part 104 controls the irradiation apparatus 2 so that light irradiation may be performed in the aspect according to the said type which the detection part 103 detected.

例えば、複数種類の上記所定の表情を検出対象とする場合、検出対象とする各表情についての教師データを用いた機械学習により生成した学習済みモデルを用いればよい。検出部103は、この学習済みモデルに入力データ生成部102が生成した入力データを入力することにより、各種類の表情をそれぞれ検出することができる。複数種類の上記所定の動作を検出対象とする場合も同様である。   For example, when a plurality of types of predetermined facial expressions are to be detected, a learned model generated by machine learning using teacher data for each facial expression to be detected may be used. The detection unit 103 can detect each type of facial expression by inputting the input data generated by the input data generation unit 102 to the learned model. The same applies to a case where a plurality of types of predetermined operations are to be detected.

また、上記所定の表情と上記所定の動作をそれぞれ検出してもよい。この場合、所定の表情を検出するための学習済みモデルと、所定の動作を検出するための学習済みモデルをそれぞれ用意しておけばよい。そして、入力データ生成部102は、所定の表情を検出するための学習済みモデルに入力する入力データと、所定の動作を検出するための学習済みモデルに入力する入力データをそれぞれ生成すればよい。これにより、検出部103は、各学習済みモデルの出力データに基づき、所定の表情と所定の動作をそれぞれ検出することができる。   Further, the predetermined facial expression and the predetermined motion may be detected respectively. In this case, a learned model for detecting a predetermined facial expression and a learned model for detecting a predetermined motion may be prepared. Then, the input data generation unit 102 may generate input data to be input to the learned model for detecting a predetermined facial expression and input data to be input to the learned model for detecting a predetermined action. Thereby, the detection part 103 can each detect a predetermined facial expression and a predetermined operation | movement based on the output data of each learned model.

検出された表情または動作の種類に応じた態様について、パレットPからの反射光が運転者Aから見えにくい状況には複数のパターンが考えられる。このパターンとしては、例えば、運転者Aが反射光のラインLNのおおまかな位置を認識はしているがラインLNの色や輝度の関係で、そのラインLNを視認し難いパターン(以下、パターンaと記載)が挙げられる。また、他のパターンとして、例えば、運転者Aが反射光のラインLNの位置すら認識できていないパターン(以下、パターンbと記載)が挙げられる。   A plurality of patterns are conceivable in a situation in which the reflected light from the palette P is difficult to be seen by the driver A with respect to the detected facial expression or the mode according to the type of action. As this pattern, for example, a pattern in which the driver A recognizes the approximate position of the line LN of reflected light but is difficult to visually recognize the line LN due to the color and brightness of the line LN (hereinafter referred to as a pattern a). Described). In addition, as another pattern, for example, a pattern in which the driver A cannot recognize even the position of the line LN of reflected light (hereinafter referred to as a pattern b) can be cited.

パターンaに対応する表情としては、例えば目を細める等のレーザ光が見えにくそうな表情が挙げられる。また、パターンaに対応する動作としては、例えば目の上に手をかざす動作や瞬きを繰り返す動作が挙げられる。パターンbに対応する動作としては、例えばラインLNを見上げるあるいは見下ろす角度(顔の向き)を変える動作が挙げられる。   Examples of facial expressions corresponding to the pattern a include facial expressions that make it difficult to see laser light such as narrowing the eyes. Examples of the operation corresponding to the pattern a include an operation of holding a hand over the eye and an operation of repeating blinking. As the operation corresponding to the pattern b, for example, there is an operation of changing the angle (face direction) at which the line LN is looked up or looked down.

出力制御部104は、このようなパターンに応じた態様で光照射がなされるように照射装置2を制御してもよい。例えば、出力制御部104は、パターンaの表情または動作が検出された場合には、ラインLNの視認性を高めるように照射装置2を制御してもよい。具体的には、出力制御部104は、照射装置2の出力するレーザ光Lの輝度を上げる制御、およびレーザ光Lの色を変える制御の少なくとも何れかを実行してもよい。一方、出力制御部104は、パターンbの表情または動作が検出された場合には、ラインLNの位置を運転者Aが認識しやすくなるように、例えば照射装置2の出力するレーザ光Lの幅を広くする等の光照射の範囲を広げる制御を行ってもよい。   The output control unit 104 may control the irradiation apparatus 2 so that light irradiation is performed in a manner according to such a pattern. For example, the output control unit 104 may control the irradiation device 2 so as to increase the visibility of the line LN when an expression or motion of the pattern a is detected. Specifically, the output control unit 104 may execute at least one of control for increasing the luminance of the laser light L output from the irradiation device 2 and control for changing the color of the laser light L. On the other hand, the output control unit 104 detects, for example, the width of the laser light L output from the irradiation device 2 so that the driver A can easily recognize the position of the line LN when the expression or action of the pattern b is detected. Control may be performed to widen the range of light irradiation such as widening.

(実施形態2のまとめ)
上述のように、パレットPからの反射光の見えにくさにも色々なパターンがあるため、どのように見えにくいのかに応じた態様で光照射を行うことが好ましい。そこで、本実施形態の検出部103は、上述のように、表情および動作の少なくとも何れかを複数種類、検出対象としている。そして、出力制御部104は、検出部103が検出した種類に応じた態様で光照射がなされるように照射装置2を制御する。これにより、パレットPからの反射光の見えにくさのパターンに応じた、運転者Aがパレットからの反射光をより視認しやすい態様で光照射を行わせることができる。
(Summary of Embodiment 2)
As described above, since there are various patterns in the difficulty of seeing the reflected light from the palette P, it is preferable to perform the light irradiation in a manner according to how difficult it is to see. Therefore, as described above, the detection unit 103 according to the present embodiment uses a plurality of types of at least one of facial expressions and actions as detection targets. And the output control part 104 controls the irradiation apparatus 2 so that light irradiation may be performed in the aspect according to the kind which the detection part 103 detected. Thereby, the light irradiation can be performed in a manner in which the driver A can more easily visually recognize the reflected light from the pallet according to the pattern of difficulty in seeing the reflected light from the pallet P.

〔分散処理について〕
上記各実施形態で説明した出力制御装置1の実行する処理の一部は、出力制御装置1と通信接続された1または複数の装置に実行させてもよい。例えば、検出部103が実行する処理のうち、学習済みモデルを用いた演算処理を、出力制御装置1と通信接続されたAIサーバに実行させてもよい。この場合、出力制御装置1は、入力データを生成してAIサーバに送信し、該AIサーバから出力データを受信して、運転者Aの所定の表情および動作の少なくとも何れかを検出する。
[About distributed processing]
A part of the processing executed by the output control device 1 described in each of the above embodiments may be executed by one or a plurality of devices connected to the output control device 1 in communication. For example, among the processes executed by the detection unit 103, an arithmetic process using a learned model may be executed by an AI server that is connected to the output control apparatus 1 in communication. In this case, the output control device 1 generates input data, transmits it to the AI server, receives the output data from the AI server, and detects at least one of the predetermined facial expression and motion of the driver A.

〔ソフトウェアによる実現例〕
出力制御装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control block of the output control apparatus 1 (particularly each unit included in the control unit 10) may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be realized by software. Good.

後者の場合、出力制御装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the output control apparatus 1 includes a computer that executes instructions of a program that is software that realizes each function. The computer includes, for example, one or more processors and a computer-readable recording medium storing the program. In the computer, the processor reads the program from the recording medium and executes the program, thereby achieving the object of the present invention. For example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) can be used as the processor. As the recording medium, a “non-temporary tangible medium” such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, or the like can be used. Further, a RAM (Random Access Memory) for expanding the program may be further provided. The program may be supplied to the computer via an arbitrary transmission medium (such as a communication network or a broadcast wave) that can transmit the program. Note that one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。   The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention.

1 出力制御装置
2 照射装置
3 フォークリフト
A 運転者
L レーザ光(照射光)
P パレット
103 検出部
104 出力制御部
1 Output Control Device 2 Irradiation Device 3 Forklift A Driver L Laser Light (Irradiation Light)
P Pallet 103 Detection unit 104 Output control unit

Claims (2)

フォークリフトの荷役対象物が載置されたパレットに対してフォークリフトに設置された照射装置が照射した照射光が該パレットで反射した反射光を目印として該フォークリフトのフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときの上記フォークリフトの運転者の表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成された学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者の様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する検出部と、
上記検出部が上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御部と、を備え
上記検出部は、上記表情および上記動作の少なくとも何れかを複数種類、検出対象としており、
上記出力制御部は、上記検出部が検出した上記種類に応じた態様で光照射がなされるように上記照射装置を制御することを特徴とする出力制御装置。
A state in which the fork height of the forklift is aligned using the reflected light reflected from the pallet of the irradiation light applied to the pallet on which the object to be handled by the forklift is placed. Using a learned model generated by machine learning using a captured image, which is an image showing at least one of the expression and movement of the forklift driver when the reflected light is difficult to see A detection unit for detecting at least one of the facial expression and the movement from an image obtained by photographing a driver who wants to perform the height alignment;
An output control unit that controls the irradiation device to change the mode of light irradiation when the detection unit detects at least one of the facial expression and the movement ; and
The detection unit has at least one of the facial expression and the motion as a plurality of types of detection targets,
The output control unit, the output control device, characterized that you control the illumination device so that the light irradiation is performed in a manner that depends on the type of the detection unit has detected.
出力制御装置による出力制御方法であって、
フォークリフトの荷役対象物が載置されたパレットに対してフォークリフトに設置された照射装置が照射した照射光が該パレットで反射した反射光を目印として該フォークリフトのフォークの高さ位置合わせを行う様子を撮影した画像であって、上記反射光が見えにくかったときの上記フォークリフトの運転者の表情および動作の少なくとも何れかが写った画像を教師データとした機械学習により生成された学習済みモデルを用いて、上記高さ位置合わせを行おうとする運転者の様子を撮影した画像から上記表情および上記動作の少なくとも何れかを検出する検出ステップと、
上記検出ステップにおいて上記表情および上記動作の少なくとも何れかを検出した場合に、上記照射装置を制御して光照射の態様を変更させる出力制御ステップと、を含み、
上記検出ステップでは、上記表情および上記動作の少なくとも何れかを複数種類、検出対象としており、
上記出力制御ステップでは、上記検出ステップにて検出した上記種類に応じた態様で光照射がなされるように上記照射装置を制御することを特徴とする出力制御方法。
An output control method by an output control device,
A state in which the fork height of the forklift is aligned using the reflected light reflected from the pallet of the irradiation light applied to the pallet on which the object to be handled by the forklift is placed. Using a learned model generated by machine learning using a captured image, which is an image showing at least one of the expression and movement of the forklift driver when the reflected light is difficult to see A detection step of detecting at least one of the facial expression and the movement from an image obtained by photographing a driver who wants to perform the height alignment;
When detecting at least one of the expression and the operation in the detecting step, seen including an output control step of changing the manner of light irradiation by controlling the irradiation device, and
In the detection step, a plurality of types of at least one of the facial expression and the motion are detected,
In the output control step, the output control method is characterized in that the irradiation device is controlled so that light irradiation is performed in a manner corresponding to the type detected in the detection step .
JP2018170931A 2018-09-12 2018-09-12 Output control device and output control method Active JP6586496B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018170931A JP6586496B1 (en) 2018-09-12 2018-09-12 Output control device and output control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018170931A JP6586496B1 (en) 2018-09-12 2018-09-12 Output control device and output control method

Publications (2)

Publication Number Publication Date
JP6586496B1 true JP6586496B1 (en) 2019-10-02
JP2020040812A JP2020040812A (en) 2020-03-19

Family

ID=68095423

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018170931A Active JP6586496B1 (en) 2018-09-12 2018-09-12 Output control device and output control method

Country Status (1)

Country Link
JP (1) JP6586496B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7556807B2 (en) 2021-03-04 2024-09-26 トヨタ自動車株式会社 Positioning Support Device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6892210B1 (en) * 2020-04-01 2021-06-23 三菱ロジスネクスト株式会社 Image storage system and image storage program for cargo handling vehicles

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59186899A (en) * 1983-04-01 1984-10-23 株式会社小松製作所 Method of detecting position of pallet in unmanned carrier ccargo gear
JP3622948B2 (en) * 2000-01-27 2005-02-23 日本輸送機株式会社 forklift
JP2005298000A (en) * 2004-04-12 2005-10-27 Nippon Yusoki Co Ltd Device and method for checking pallet position
JP5513433B2 (en) * 2011-03-31 2014-06-04 富士通フロンテック株式会社 Two electronic devices with camera capable of using magnifier function and visibility control method
JP6212984B2 (en) * 2013-06-27 2017-10-18 カシオ計算機株式会社 Projection apparatus, projection method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7556807B2 (en) 2021-03-04 2024-09-26 トヨタ自動車株式会社 Positioning Support Device

Also Published As

Publication number Publication date
JP2020040812A (en) 2020-03-19

Similar Documents

Publication Publication Date Title
JP6613343B1 (en) Determination apparatus and determination method
US10997465B2 (en) Information processing device, information processing method, and storage medium
JP4309439B2 (en) Object take-out device
JP3735624B2 (en) Projection display device
JP2019156641A (en) Image processing device for fork lift and control program
JP6586496B1 (en) Output control device and output control method
JP6575350B2 (en) Laser processing equipment
JP4910975B2 (en) Information processing apparatus, instruction system, and control program
JP5468981B2 (en) Image measuring machine, program, and teaching method for image measuring machine
JP2017161965A (en) Face image processing apparatus
JP2005284874A (en) Projector and command extraction method
JP2020045219A (en) Insertion control apparatus and insertion control method
WO2022205827A1 (en) Structured light image processing method, obstacle detection method, module and device
US20210067692A1 (en) Mobile terminal device that generates picture where person&#39;s eye direction in shot image has been modified
JP2020037464A (en) Determination device and determination method
JP2000276297A (en) Device and method for detecting pointing position, presentation system, and information storage medium
JP6674515B2 (en) Judgment device and judgment method
JP6722733B2 (en) Judgment device and judgment method
JP4451195B2 (en) Gaze detection device
JP6893198B2 (en) Information processing device and information processing method
JP6793382B1 (en) Imaging equipment, information processing equipment, methods and programs
JP7399160B2 (en) Light pattern irradiation control device and light pattern irradiation control method
JP6911882B2 (en) Laser marker
JP2019107062A (en) sewing machine
JP6733945B1 (en) Imaging device, information processing device, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190709

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190903

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190909

R150 Certificate of patent or registration of utility model

Ref document number: 6586496

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150