JP2021089569A - Cargo handling system - Google Patents

Cargo handling system Download PDF

Info

Publication number
JP2021089569A
JP2021089569A JP2019219523A JP2019219523A JP2021089569A JP 2021089569 A JP2021089569 A JP 2021089569A JP 2019219523 A JP2019219523 A JP 2019219523A JP 2019219523 A JP2019219523 A JP 2019219523A JP 2021089569 A JP2021089569 A JP 2021089569A
Authority
JP
Japan
Prior art keywords
unit
image data
learning model
safety score
vehicle body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019219523A
Other languages
Japanese (ja)
Other versions
JP6918908B2 (en
Inventor
絢介 甲斐
Kensuke Kai
絢介 甲斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2019219523A priority Critical patent/JP6918908B2/en
Publication of JP2021089569A publication Critical patent/JP2021089569A/en
Application granted granted Critical
Publication of JP6918908B2 publication Critical patent/JP6918908B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Forklifts And Lifting Vehicles (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an unmanned work vehicle which can adjust a melody output state in accordance with situations in a facility.SOLUTION: The unmanned work vehicle comprises a vehicle body, a sound output unit 201 which outputs a prescribed melody during travel of the vehicle body, an image data generation unit 203 which captures an image including the front of the vehicle body to generate image data, a learning model unit 204 which is machine-trained to, in response to input of the image data, generate a safety score indicative a level of safety of a travel route of the vehicle body by using a machine learning algorithm having a prescribed parameter, a processing unit 205 which inputs the image data to the learning model unit 204 to acquire the safety score from the learning model unit 204, and a sound control unit 206 which adjusts an output state of the melody in accordance with the safety score.SELECTED DRAWING: Figure 1

Description

本発明は、無人作業車および荷役システムに関する。 The present invention relates to an unmanned work vehicle and a cargo handling system.

倉庫内では、管理装置の管理下で、複数の無人作業車(例えば、レーザー誘導方式の無人フォークリフト)が走行および荷役作業を行う。管理装置は、各無人作業車の走行ルートを決定し、決定した走行ルートを無人作業車に通知する。通知を受けた無人作業車は、自己位置を認識しながら、通知された走行ルートに従って走行する。 In the warehouse, a plurality of unmanned work vehicles (for example, a laser-guided unmanned forklift) run and handle cargo under the control of a management device. The management device determines the travel route of each unmanned work vehicle, and notifies the unmanned work vehicle of the determined travel route. The unmanned work vehicle that receives the notification travels according to the notified travel route while recognizing its own position.

レーザー誘導方式の無人フォークリフトは、レーザースキャナを備える(例えば、特許文献1参照)。レーザースキャナは、レーザー光源を回転させながら周囲にレーザーを投光するとともに、倉庫内に配置された複数の反射板からの反射光を検出する。レーザー誘導方式の無人フォークリフトは、反射板の位置をマップ上で記憶しており、三角測量の原理に基づいて自己位置を算出する。これにより、レーザー誘導方式の無人フォークリフトは、自己位置を認識しながら、通知された走行ルートを走行することができる。 The laser-guided unmanned forklift is provided with a laser scanner (see, for example, Patent Document 1). The laser scanner projects a laser to the surroundings while rotating the laser light source, and detects the reflected light from a plurality of reflecting plates arranged in the warehouse. The laser-guided unmanned forklift stores the position of the reflector on the map and calculates its own position based on the principle of triangulation. As a result, the laser-guided unmanned forklift truck can travel on the notified travel route while recognizing its own position.

特開平8−161039号公報Japanese Unexamined Patent Publication No. 8-161039

無人フォークリフトは、倉庫内にいる作業者への注意を促す目的で、メロディーを出力しながら走行する。しかしながら、従来の無人フォークリフトは、倉庫内の状況に応じてメロディーの出力状態を調整できないという問題がある。 The unmanned forklift runs while outputting a melody for the purpose of calling attention to the workers in the warehouse. However, the conventional unmanned forklift has a problem that the output state of the melody cannot be adjusted according to the situation in the warehouse.

本発明は上記事情に鑑みてなされたものであって、その課題とするところは、施設内(例えば、倉庫内)の状況に応じてメロディーの出力状態を調整可能な無人作業車および荷役システムを提供することにある。 The present invention has been made in view of the above circumstances, and an object of the present invention is an unmanned work vehicle and a cargo handling system capable of adjusting the output state of a melody according to the situation in a facility (for example, in a warehouse). To provide.

上記課題を解決するために、本発明に係る無人作業車は、
走行および荷役作業を行う無人作業車であって、
車体と、
前記車体の走行中に所定のメロディーを出力する音声出力部と、
前記車体の前方を含む画像を撮影して画像データを生成する画像データ生成部と、
前記画像データが入力されると、所定のパラメータを有する機械学習アルゴリズムを用いて、前記車体の走行ルートの安全性の程度を示す安全性スコアを生成するように機械学習された学習モデル部と、
前記画像データを前記学習モデル部に入力することで前記学習モデル部から前記安全性スコアを取得する処理部と、
前記安全性スコアに応じて前記メロディーの出力状態を調整する音声制御部と、
を備えることを特徴とする。
In order to solve the above problems, the unmanned work vehicle according to the present invention
An unmanned work vehicle that travels and handles cargo.
With the car body
An audio output unit that outputs a predetermined melody while the vehicle body is running,
An image data generation unit that captures an image including the front of the vehicle body and generates image data,
When the image data is input, a learning model unit that is machine-learned to generate a safety score indicating the degree of safety of the traveling route of the vehicle body by using a machine learning algorithm having a predetermined parameter, and a learning model unit.
A processing unit that acquires the safety score from the learning model unit by inputting the image data into the learning model unit, and a processing unit.
A voice control unit that adjusts the output state of the melody according to the safety score,
It is characterized by having.

上記無人作業車は、
前記音声制御部の制御下で警報音を出力する警報音出力部を備え、
前記音声制御部は、前記安全性スコアが所定の閾値よりも小さい場合に、前記警報音出力部に前記警報音を出力させることが好ましい。
The above unmanned work vehicle
An alarm sound output unit that outputs an alarm sound under the control of the voice control unit is provided.
It is preferable that the voice control unit causes the alarm sound output unit to output the alarm sound when the safety score is smaller than a predetermined threshold value.

上記課題を解決するために、本発明に係る荷役システムは、
管理装置と、前記管理装置の管理下で走行および荷役作業を行う複数の無人作業車と、を備える荷役システムであって、
前記無人作業車は、
車体と、
前記車体の走行中に所定のメロディーを出力する音声出力部と、
前記車体の前方を含む画像を撮影して画像データを生成する画像データ生成部と、
前記画像データが入力されると、所定のパラメータを有する機械学習アルゴリズムを用いて、前記車体の走行ルートの安全性の程度を示す安全性スコアを生成するように機械学習された学習モデル部と、
前記画像データを前記学習モデル部に入力することで前記学習モデル部から前記安全性スコアを取得する処理部と、
前記安全性スコアに応じて前記メロディーの出力状態を調整する音声制御部と、
を備えることを特徴とする。
In order to solve the above problems, the cargo handling system according to the present invention
A cargo handling system including a management device and a plurality of unmanned work platforms that travel and carry out cargo handling work under the control of the management device.
The unmanned work vehicle
With the car body
An audio output unit that outputs a predetermined melody while the vehicle body is running,
An image data generation unit that captures an image including the front of the vehicle body and generates image data,
When the image data is input, a learning model unit that is machine-learned to generate a safety score indicating the degree of safety of the traveling route of the vehicle body by using a machine learning algorithm having a predetermined parameter, and a learning model unit.
A processing unit that acquires the safety score from the learning model unit by inputting the image data into the learning model unit, and a processing unit.
A voice control unit that adjusts the output state of the melody according to the safety score,
It is characterized by having.

上記荷役システムにおいて、
前記無人作業車は、前記音声制御部の制御下で警報音を出力する警報音出力部を備え、
前記音声制御部は、前記安全性スコアが所定の閾値よりも小さい場合に、前記警報音出力部に前記警報音を出力させることが好ましい。
In the above cargo handling system
The unmanned work vehicle includes an alarm sound output unit that outputs an alarm sound under the control of the voice control unit.
It is preferable that the voice control unit causes the alarm sound output unit to output the alarm sound when the safety score is smaller than a predetermined threshold value.

上記荷役システムにおいて、
前記処理部は、前記学習モデル部に入力した前記画像データに前記学習モデル部から取得した前記安全性スコアを関連付けた、安全性スコア付きの画像データを前記管理装置に送信し、
前記管理装置は、
前記安全性スコア付きの画像データを収集して学習用データを生成する収集部と、
前記学習用データに基づく機械学習を行い、前記学習モデル部に含まれる前記パラメータを更新するための更新データを生成し、前記更新データを前記学習モデル部に送信するパラメータ更新部と、
を備え、
前記学習モデル部は、前記更新データに基づいて前記パラメータを更新するよう構成できる。
In the above cargo handling system
The processing unit transmits image data with a safety score in which the image data input to the learning model unit is associated with the safety score acquired from the learning model unit to the management device.
The management device is
A collection unit that collects image data with the safety score and generates learning data,
A parameter update unit that performs machine learning based on the learning data, generates update data for updating the parameters included in the learning model unit, and transmits the update data to the learning model unit.
With
The learning model unit can be configured to update the parameters based on the update data.

本発明によれば、施設内の状況に応じてメロディーの出力状態を調整可能な無人作業車および荷役システムを提供することができる。 According to the present invention, it is possible to provide an unmanned work vehicle and a cargo handling system in which the output state of a melody can be adjusted according to a situation in a facility.

第1実施形態に係る荷役システムのブロック図である。It is a block diagram of the cargo handling system which concerns on 1st Embodiment. 第1実施形態に係る無人作業車(無人フォークリフト)の側面図である。It is a side view of the unmanned work vehicle (unmanned forklift) which concerns on 1st Embodiment. 第1実施形態に係る荷役システムの平面図である。It is a top view of the cargo handling system which concerns on 1st Embodiment. 第2実施形態に係る荷役システムのブロック図である。It is a block diagram of the cargo handling system which concerns on 2nd Embodiment.

以下、添付図面を参照して、本発明に係る無人作業車および荷役システムの実施形態について説明する。 Hereinafter, embodiments of the unmanned work vehicle and the cargo handling system according to the present invention will be described with reference to the accompanying drawings.

[第1実施形態]
図1に、本発明の第1実施形態に係る荷役システム1のブロック図を示す。荷役システム1は、管理装置100と、少なくとも1台のレーザー誘導方式の無人フォークリフト200(本発明の「無人作業車」に相当)とを備える。
[First Embodiment]
FIG. 1 shows a block diagram of a cargo handling system 1 according to the first embodiment of the present invention. The cargo handling system 1 includes a management device 100 and at least one laser-guided unmanned forklift truck 200 (corresponding to the “unmanned work vehicle” of the present invention).

管理装置100は、通信部101と、統括制御部102と、表示部103とを備える。管理装置100は、図3に示すように、無人フォークリフト200が走行する施設(本実施形態では、複数の棚3を有する倉庫2)の外に設けてもよいし、施設の中に設けてもよい。 The management device 100 includes a communication unit 101, a general control unit 102, and a display unit 103. As shown in FIG. 3, the management device 100 may be provided outside the facility (in this embodiment, the warehouse 2 having a plurality of shelves 3) on which the unmanned forklift 200 travels, or may be provided inside the facility. Good.

通信部101は、管理装置100に予め登録された無人フォークリフト200と無線通信を行うよう構成されている。 The communication unit 101 is configured to perform wireless communication with the unmanned forklift 200 registered in advance in the management device 100.

統括制御部102は、無人フォークリフト200の走行および荷役作業を管理するよう構成されている。例えば、統括制御部102は、無人フォークリフト200の荷役作業のスケジュールを作成するとともに荷役作業を円滑に行うための走行ルートを決定する。統括制御部102は、通信部101を介して走行ルートを無人フォークリフト200に通知する。 The integrated control unit 102 is configured to manage the traveling and cargo handling work of the unmanned forklift 200. For example, the overall control unit 102 creates a schedule for the cargo handling work of the unmanned forklift 200 and determines a traveling route for smoothly performing the cargo handling work. The integrated control unit 102 notifies the unmanned forklift 200 of the traveling route via the communication unit 101.

表示部103は、例えば、液晶ディスプレイで構成されている。表示部103には、無人フォークリフト200の走行情報および荷役作業情報が表示される。 The display unit 103 is composed of, for example, a liquid crystal display. The display unit 103 displays running information and cargo handling work information of the unmanned forklift 200.

無人フォークリフト200は、管理装置100の管理下で走行および荷役作業を行うよう構成されている。図2に示すように、無人フォークリフト200は、車体210と、荷役装置211と、車体210の上部に設けられたレーザースキャナ212とを備える。荷役装置211は、車体210の前後に水平移動可能に設けられたマストと、マストに昇降可能に設けられたフォークとを含む。 The unmanned forklift 200 is configured to perform traveling and cargo handling operations under the control of the management device 100. As shown in FIG. 2, the unmanned forklift 200 includes a vehicle body 210, a cargo handling device 211, and a laser scanner 212 provided on the upper portion of the vehicle body 210. The cargo handling device 211 includes a mast provided so as to be horizontally movable in the front and rear of the vehicle body 210, and a fork provided in the mast so as to be able to move up and down.

図3に示すように、レーザースキャナ212は、レーザー光源を回転させながら周囲にレーザーLを投光し、倉庫2内に配置された複数の反射板4からの反射光L’を検出する。レーザースキャナ212の演算部は、反射板4の位置を所定のマップ上で記憶しており、三角測量の原理に基づいて車体210の現在地を算出する。このようにして、無人フォークリフト200は、車体210の現在地に関する現在地情報を取得しながら、通知された走行ルートに従って走行する。 As shown in FIG. 3, the laser scanner 212 projects the laser L to the surroundings while rotating the laser light source, and detects the reflected light L'from the plurality of reflectors 4 arranged in the warehouse 2. The calculation unit of the laser scanner 212 stores the position of the reflector 4 on a predetermined map, and calculates the current location of the vehicle body 210 based on the principle of triangulation. In this way, the unmanned forklift 200 travels according to the notified travel route while acquiring the current location information regarding the current location of the vehicle body 210.

再び図1を参照して、無人フォークリフト200は、音声出力部201と、警報音出力部202と、画像データ生成部203と、学習モデル部204と、処理部205と、音声制御部206とを備える。 With reference to FIG. 1 again, the unmanned forklift 200 includes a voice output unit 201, an alarm sound output unit 202, an image data generation unit 203, a learning model unit 204, a processing unit 205, and a voice control unit 206. Be prepared.

音声出力部201は、例えば、少なくとも1つのスピーカーで構成され、音声制御部206の制御下で車体210の走行中に所定のメロディーを出力する。なお、出力するメロディーは音声制御部206に記憶されている。 The voice output unit 201 is composed of, for example, at least one speaker, and outputs a predetermined melody while the vehicle body 210 is traveling under the control of the voice control unit 206. The output melody is stored in the voice control unit 206.

警報音出力部202は、例えば、少なくとも1つのスピーカーで構成され、音声制御部206の制御下で警報音を出力する。また、車体210の前部に障害物センサが設けられている場合、障害物センサが車体210の前方に存在する障害物(例えば、走行ルート上に置かれた荷物)を検出した際に、警報音出力部202が警報音を出力してもよい。 The alarm sound output unit 202 is composed of, for example, at least one speaker, and outputs an alarm sound under the control of the voice control unit 206. Further, when an obstacle sensor is provided in the front part of the vehicle body 210, an alarm is issued when the obstacle sensor detects an obstacle existing in front of the vehicle body 210 (for example, a luggage placed on a traveling route). The sound output unit 202 may output an alarm sound.

画像データ生成部203は、撮影手段および画像処理手段を含むよう構成されている。撮影手段は、車体210の前方を含む画像(静止画および/または動画)を撮影し、画像処理手段に出力する。画像処理手段は、当該画像に基づいて、学習モデル部204に入力可能な画像データを生成する。 The image data generation unit 203 is configured to include a photographing means and an image processing means. The photographing means captures an image (still image and / or moving image) including the front of the vehicle body 210 and outputs the image to the image processing means. The image processing means generates image data that can be input to the learning model unit 204 based on the image.

学習モデル部204は、画像データ生成部203で生成された画像データが入力されると、所定のパラメータを有するニューラルネットワーク等の機械学習アルゴリズムを用いて、走行ルートの安全性の程度を示す安全性スコアを生成するように機械学習された学習済みモデルである。 When the image data generated by the image data generation unit 203 is input, the learning model unit 204 uses a machine learning algorithm such as a neural network having a predetermined parameter to indicate the degree of safety of the traveling route. A trained model machine-learned to generate scores.

学習済みモデルの機械学習では、上記のとおりニューラルネットワーク等の機械学習アルゴリズムを用いて、教師データを大量に入力する。教師データは、倉庫2内の走行ルートを撮影した画像データに所定の安全性スコアを紐付けしたデータを含む。安全性スコアとしては、数値パラメータ(本実施形態では、1〜5の数値パラメータ)を用いる。数値パラメータの設定は、人またはコンピュータが行う。例えば、棚3の近くを走行し、かつ走行ルート上に人がいる場合は、安全性が低いと判断して小さい数値パラメータを設定する。画像データが示す走行ルートの状況と安全性の程度との間には、相関関係等の一定の関係が存在することを推認できる。 In machine learning of a trained model, a large amount of teacher data is input using a machine learning algorithm such as a neural network as described above. The teacher data includes data in which a predetermined safety score is associated with image data obtained by photographing a traveling route in the warehouse 2. Numerical parameters (numerical parameters 1 to 5 in this embodiment) are used as the safety score. Numerical parameters are set by a person or a computer. For example, when traveling near the shelf 3 and there is a person on the traveling route, it is judged that the safety is low and a small numerical parameter is set. It can be inferred that there is a certain relationship such as a correlation between the condition of the traveling route indicated by the image data and the degree of safety.

処理部205は、画像データ生成部203から取得した画像データを学習モデル部204に入力することで、学習モデル部204から安全性スコアを取得するよう構成されている。処理部205は、学習モデル部204に入力した画像データに学習モデル部204から取得した安全性スコアを関連付けて、安全性スコア付きの画像データを生成し、当該安全性スコア付きの画像データを管理装置100に送信してもよい。 The processing unit 205 is configured to acquire a safety score from the learning model unit 204 by inputting the image data acquired from the image data generation unit 203 into the learning model unit 204. The processing unit 205 associates the image data input to the learning model unit 204 with the safety score acquired from the learning model unit 204, generates image data with the safety score, and manages the image data with the safety score. It may be transmitted to the device 100.

処理部205および音声制御部206は、例えば、少なくとも1つのマイコンを含み、マイコンのCPUが所定のプログラムを実行すること等によって処理部205および音声制御部206の各種機能が実現される。 The processing unit 205 and the voice control unit 206 include, for example, at least one microcomputer, and various functions of the processing unit 205 and the voice control unit 206 are realized by the CPU of the microcomputer executing a predetermined program or the like.

音声制御部206は、処理部205から取得した安全性スコアに応じて、メロディーおよび警報音の出力状態を調整するよう構成されている。音声制御部206は、表1に示すような、安全性スコアとメロディーおよび警報音の出力状態との関係が規定されたデータを記憶している。 The voice control unit 206 is configured to adjust the output state of the melody and the alarm sound according to the safety score acquired from the processing unit 205. The voice control unit 206 stores data in which the relationship between the safety score and the output state of the melody and the alarm sound is defined as shown in Table 1.

Figure 2021089569
Figure 2021089569

安全性スコアの数値パラメータが5〜2の範囲では、音声制御部206は、安全性スコアの数値パラメータが小さくなる(安全性が低くなる)につれて、メロディーの音量が大きくなるように、メロディーの出力状態を調整する。 When the numerical parameter of the safety score is in the range of 5 to 2, the voice control unit 206 outputs the melody so that the volume of the melody becomes louder as the numerical parameter of the safety score becomes smaller (the safety becomes lower). Adjust the condition.

安全性スコアの数値パラメータが1の場合、音声制御部206は、音声出力部201にメロディーの出力を停止させる一方、警報音出力部202に警報音を出力させる。なお、音声制御部206は、メロディーの出力を停止させるかわりに、メロディーの音量を4よりも減少させた状態で警報音出力部202に警報音を出力させてもよい。 When the numerical parameter of the safety score is 1, the voice control unit 206 causes the voice output unit 201 to stop the output of the melody, and causes the alarm sound output unit 202 to output the alarm sound. Instead of stopping the output of the melody, the voice control unit 206 may output the alarm sound to the alarm sound output unit 202 in a state where the volume of the melody is reduced from 4.

上記のとおり、本実施形態に係る無人フォークリフト200によれば、安全性スコアに応じて、言い換えれば倉庫2内の走行ルートの状況に応じて、メロディーの出力状態を調整することができる。その結果、より効率的に作業者への注意を促すことが可能となり、例えば、無人フォークリフト200が警報音を出力する前に、作業者は無人フォークリフト200の存在に気付きやすくなる。 As described above, according to the unmanned forklift truck 200 according to the present embodiment, the output state of the melody can be adjusted according to the safety score, in other words, according to the situation of the traveling route in the warehouse 2. As a result, it becomes possible to call attention to the operator more efficiently, and for example, the operator becomes more likely to notice the existence of the unmanned forklift 200 before the unmanned forklift 200 outputs an alarm sound.

[第2実施形態]
図4に、本発明の第2実施形態に係る荷役システム11のブロック図を示す。荷役システム11は、管理装置300と、複数台のレーザー誘導方式の無人フォークリフト200とを備える。無人フォークリフト200の構成は、第1実施形態と共通するため、ここでは説明を省略する。
[Second Embodiment]
FIG. 4 shows a block diagram of the cargo handling system 11 according to the second embodiment of the present invention. The cargo handling system 11 includes a management device 300 and a plurality of laser-guided unmanned forklifts 200. Since the configuration of the unmanned forklift 200 is the same as that of the first embodiment, the description thereof will be omitted here.

管理装置300は、複数台の無人フォークリフト200の走行および荷役作業を管理する。管理装置300は、収集部301と、パラメータ更新部302とを備えること以外、第1実施形態の管理装置100と共通する。 The management device 300 manages the traveling and cargo handling operations of a plurality of unmanned forklifts 200. The management device 300 is common to the management device 100 of the first embodiment except that the collection unit 301 and the parameter update unit 302 are provided.

収集部301は、無人フォークリフト200から安全性スコア付きの画像データを収集し、当該安全性スコア付きの画像データに基づいてパラメータ更新部302に入力可能な学習用データを生成するよう構成されている。 The collecting unit 301 is configured to collect image data with a safety score from the unmanned forklift 200 and generate learning data that can be input to the parameter updating unit 302 based on the image data with the safety score. ..

また、収集部301は、無人フォークリフト200から画像データ(画像データ生成部203で生成された安全性スコアが付いていない画像データ)を収集し、当該画像データに安全性スコアを紐付けした学習用データを生成してもよい。この場合、学習用データは、第1実施形態の教師データと同様にして生成することができる。すなわち、収集部301は、安全性スコアとして数値パラメータ(本実施形態では、1〜5の数値パラメータ)を用いるとともに、個々の画像データに対して安全性スコアを設定する。例えば、棚3の近くを走行し、かつ走行ルート上に人がいる場合は、安全性が低いと判断して小さい数値パラメータを設定する。画像データが示す走行ルートの状況と安全性の程度との間には、相関関係等の一定の関係が存在することを推認できる。 Further, the collecting unit 301 collects image data (image data without a safety score generated by the image data generation unit 203) from the unmanned forklift 200, and associates the image data with the safety score for learning. Data may be generated. In this case, the learning data can be generated in the same manner as the teacher data of the first embodiment. That is, the collecting unit 301 uses numerical parameters (numerical parameters 1 to 5 in this embodiment) as the safety score, and sets the safety score for each image data. For example, when traveling near the shelf 3 and there is a person on the traveling route, it is judged that the safety is low and a small numerical parameter is set. It can be inferred that there is a certain relationship such as a correlation between the condition of the traveling route indicated by the image data and the degree of safety.

パラメータ更新部302は、無人フォークリフト200の学習モデル部204に含まれる機械学習アルゴリズムのパラメータ(例えば、ニューラルネットワークの重み付けのパラメータ)を更新するための更新データを生成する。パラメータ更新部302は、更新データを生成するために、ニューラルネットワーク等の機械学習アルゴリズムを用いて、学習用データに基づく機械学習を行う。パラメータ更新部302は、生成した更新データを、通信部101を介して複数台の無人フォークリフト200に送信する。 The parameter update unit 302 generates update data for updating the parameters of the machine learning algorithm (for example, the weighting parameters of the neural network) included in the learning model unit 204 of the unmanned forklift 200. The parameter update unit 302 performs machine learning based on the learning data by using a machine learning algorithm such as a neural network in order to generate the update data. The parameter update unit 302 transmits the generated update data to a plurality of unmanned forklifts 200 via the communication unit 101.

無人フォークリフト200の学習モデル部204は、受信した更新データに基づいて機械学習アルゴリズムのパラメータを更新する。これにより、学習モデル部204は、更新されたパラメータを有する機械学習アルゴリズムに基づいて、安全性スコアを生成することができる。 The learning model unit 204 of the unmanned forklift 200 updates the parameters of the machine learning algorithm based on the received update data. This allows the learning model unit 204 to generate a safety score based on a machine learning algorithm with updated parameters.

[変形例]
以上、本発明に係る無人作業車および荷役システムの実施形態について説明したが、本発明は上記実施形態に限定されるものではない。
[Modification example]
Although the embodiment of the unmanned work vehicle and the cargo handling system according to the present invention has been described above, the present invention is not limited to the above embodiment.

本発明の無人作業車は、車体と、車体の走行中に所定のメロディーを出力する音声出力部と、車体の前方を含む画像を撮影して画像データを生成する画像データ生成部と、画像データが入力されると、所定のパラメータを有する機械学習アルゴリズムを用いて、車体の走行ルートの安全性の程度を示す安全性スコアを生成するように機械学習された学習モデル部と、画像データを学習モデル部に入力することで学習モデル部から安全性スコアを取得する処理部と、安全性スコアに応じてメロディーの出力状態を調整する音声制御部と、を備えるのであれば適宜構成を変更できる。 The unmanned work vehicle of the present invention includes a vehicle body, an audio output unit that outputs a predetermined melody while the vehicle body is running, an image data generation unit that captures an image including the front of the vehicle body and generates image data, and image data. Is input, a learning model unit machine-learned to generate a safety score indicating the degree of safety of the traveling route of the vehicle body and image data are learned using a machine learning algorithm having a predetermined parameter. If it is provided with a processing unit that acquires a safety score from the learning model unit by inputting to the model unit and a voice control unit that adjusts the output state of the melody according to the safety score, the configuration can be changed as appropriate.

本発明の無人作業車は、レーザー誘導方式の無人フォークリフトに限定されるものではなく、別の方式の無人フォークリフトや無人搬送車でもよい。 The unmanned work vehicle of the present invention is not limited to the laser-guided unmanned forklift, and may be another type of unmanned forklift or automatic guided vehicle.

第1実施形態では、安全性スコアの数値パラメータを1〜5の範囲で設定しているが、当該範囲は適宜変更できる。また、音声制御部206は、安全性スコアの数値パラメータが小さくなるにつれてメロディーの音量が大きくなるようにメロディーの出力状態を調整しているが、音量に加えて、または音量の代わりに、メロディーの再生速度等を変更してもよい。 In the first embodiment, the numerical parameters of the safety score are set in the range of 1 to 5, but the range can be changed as appropriate. Further, the voice control unit 206 adjusts the output state of the melody so that the volume of the melody increases as the numerical parameter of the safety score decreases. The playback speed and the like may be changed.

第2実施形態に係る収集部301およびパラメータ更新部302は、管理装置300ではなく、無人フォークリフト200に備えられていてもよい。しかしながら、大量のデータを取得できるという観点からは、管理装置300が収集部301およびパラメータ更新部302を備えることが好ましい。 The collecting unit 301 and the parameter updating unit 302 according to the second embodiment may be provided in the unmanned forklift 200 instead of the management device 300. However, from the viewpoint that a large amount of data can be acquired, it is preferable that the management device 300 includes a collection unit 301 and a parameter update unit 302.

1、11 荷役システム
2 倉庫
3 棚
4 反射板
100、300 管理装置
101 通信部
102 統括制御部
103 表示部
200 無人フォークリフト
201 音声出力部
202 警報音出力部
203 画像データ生成部
204 学習モデル部
205 処理部
206 音声制御部
210 車体
211 荷役装置
212 レーザースキャナ
301 収集部
302 パラメータ更新部
1, 11 Cargo handling system 2 Warehouse 3 Shelf 4 Reflector 100, 300 Management device 101 Communication unit 102 General control unit 103 Display unit 200 Unmanned forklift 201 Voice output unit 202 Alarm sound output unit 203 Image data generation unit 204 Learning model unit 205 Processing Unit 206 Voice control unit 210 Body 211 Cargo handling device 212 Laser scanner 301 Collection unit 302 Parameter update unit

Claims (5)

走行および荷役作業を行う無人作業車であって、
車体と、
前記車体の走行中に所定のメロディーを出力する音声出力部と、
前記車体の前方を含む画像を撮影して画像データを生成する画像データ生成部と、
前記画像データが入力されると、所定のパラメータを有する機械学習アルゴリズムを用いて、前記車体の走行ルートの安全性の程度を示す安全性スコアを生成するように機械学習された学習モデル部と、
前記画像データを前記学習モデル部に入力することで前記学習モデル部から前記安全性スコアを取得する処理部と、
前記安全性スコアに応じて前記メロディーの出力状態を調整する音声制御部と、
を備えることを特徴とする無人作業車。
An unmanned work vehicle that travels and handles cargo.
With the car body
An audio output unit that outputs a predetermined melody while the vehicle body is running,
An image data generation unit that captures an image including the front of the vehicle body and generates image data,
When the image data is input, a learning model unit that is machine-learned to generate a safety score indicating the degree of safety of the traveling route of the vehicle body by using a machine learning algorithm having a predetermined parameter, and a learning model unit.
A processing unit that acquires the safety score from the learning model unit by inputting the image data into the learning model unit, and a processing unit.
A voice control unit that adjusts the output state of the melody according to the safety score,
An unmanned work vehicle characterized by being equipped with.
前記音声制御部の制御下で警報音を出力する警報音出力部を備え、
前記音声制御部は、前記安全性スコアが所定の閾値よりも小さい場合に、前記警報音出力部に前記警報音を出力させることを特徴とする請求項1に記載の無人作業車。
An alarm sound output unit that outputs an alarm sound under the control of the voice control unit is provided.
The unmanned work vehicle according to claim 1, wherein the voice control unit causes the alarm sound output unit to output the alarm sound when the safety score is smaller than a predetermined threshold value.
管理装置と、前記管理装置の管理下で走行および荷役作業を行う複数の無人作業車と、を備える荷役システムであって、
前記無人作業車は、
車体と、
前記車体の走行中に所定のメロディーを出力する音声出力部と、
前記車体の前方を含む画像を撮影して画像データを生成する画像データ生成部と、
前記画像データが入力されると、所定のパラメータを有する機械学習アルゴリズムを用いて、前記車体の走行ルートの安全性の程度を示す安全性スコアを生成するように機械学習された学習モデル部と、
前記画像データを前記学習モデル部に入力することで前記学習モデル部から前記安全性スコアを取得する処理部と、
前記安全性スコアに応じて前記メロディーの出力状態を調整する音声制御部と、
を備えることを特徴とする荷役システム。
A cargo handling system including a management device and a plurality of unmanned work platforms that travel and carry out cargo handling work under the control of the management device.
The unmanned work vehicle
With the car body
An audio output unit that outputs a predetermined melody while the vehicle body is running,
An image data generation unit that captures an image including the front of the vehicle body and generates image data,
When the image data is input, a learning model unit that is machine-learned to generate a safety score indicating the degree of safety of the traveling route of the vehicle body by using a machine learning algorithm having a predetermined parameter, and a learning model unit.
A processing unit that acquires the safety score from the learning model unit by inputting the image data into the learning model unit, and a processing unit.
A voice control unit that adjusts the output state of the melody according to the safety score,
A cargo handling system characterized by being equipped with.
前記無人作業車は、前記音声制御部の制御下で警報音を出力する警報音出力部を備え、
前記音声制御部は、前記安全性スコアが所定の閾値よりも小さい場合に、前記警報音出力部に前記警報音を出力させることを特徴とする請求項3に記載の荷役システム。
The unmanned work vehicle includes an alarm sound output unit that outputs an alarm sound under the control of the voice control unit.
The cargo handling system according to claim 3, wherein the voice control unit causes the alarm sound output unit to output the alarm sound when the safety score is smaller than a predetermined threshold value.
前記処理部は、前記学習モデル部に入力した前記画像データに前記学習モデル部から取得した前記安全性スコアを関連付けた、安全性スコア付きの画像データを前記管理装置に送信し、
前記管理装置は、
前記安全性スコア付きの画像データを収集して学習用データを生成する収集部と、
前記学習用データに基づく機械学習を行い、前記学習モデル部に含まれる前記パラメータを更新するための更新データを生成し、前記更新データを前記学習モデル部に送信するパラメータ更新部と、
を備え、
前記学習モデル部は、前記更新データに基づいて前記パラメータを更新することを特徴とする請求項3または4に記載の荷役システム。
The processing unit transmits image data with a safety score in which the image data input to the learning model unit is associated with the safety score acquired from the learning model unit to the management device.
The management device is
A collection unit that collects image data with the safety score and generates learning data,
A parameter update unit that performs machine learning based on the learning data, generates update data for updating the parameters included in the learning model unit, and transmits the update data to the learning model unit.
With
The cargo handling system according to claim 3 or 4, wherein the learning model unit updates the parameters based on the update data.
JP2019219523A 2019-12-04 2019-12-04 Cargo handling system Active JP6918908B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019219523A JP6918908B2 (en) 2019-12-04 2019-12-04 Cargo handling system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019219523A JP6918908B2 (en) 2019-12-04 2019-12-04 Cargo handling system

Publications (2)

Publication Number Publication Date
JP2021089569A true JP2021089569A (en) 2021-06-10
JP6918908B2 JP6918908B2 (en) 2021-08-11

Family

ID=76220240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019219523A Active JP6918908B2 (en) 2019-12-04 2019-12-04 Cargo handling system

Country Status (1)

Country Link
JP (1) JP6918908B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023010638A (en) * 2021-07-07 2023-01-20 ビジョンナビ ロボティクス(シェンチェン)カンパニー,リミテッド Warehouse location monitoring method, computer apparatus and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08202447A (en) * 1995-01-24 1996-08-09 Nippon Steel Corp Unmanned truck control method
JPH106979A (en) * 1996-06-25 1998-01-13 Bridgestone Corp Automatic guided vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08202447A (en) * 1995-01-24 1996-08-09 Nippon Steel Corp Unmanned truck control method
JPH106979A (en) * 1996-06-25 1998-01-13 Bridgestone Corp Automatic guided vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023010638A (en) * 2021-07-07 2023-01-20 ビジョンナビ ロボティクス(シェンチェン)カンパニー,リミテッド Warehouse location monitoring method, computer apparatus and storage medium
JP7352694B2 (en) 2021-07-07 2023-09-28 ビジョンナビ ロボティクス(シェンチェン)カンパニー,リミテッド Warehouse location monitoring method, computer equipment and storage media

Also Published As

Publication number Publication date
JP6918908B2 (en) 2021-08-11

Similar Documents

Publication Publication Date Title
US10829356B2 (en) De-centralized operational indicator system for a materials handling vehicle
US10604069B2 (en) Industrial vehicle geo-feature system
JP7072763B2 (en) How to determine driving behavior, devices, equipment and storage media
US20220108245A1 (en) Information processing device, information processing system, information processing method, and program
US7831350B2 (en) Vehicle information/task manager
JP2018162162A (en) Position determination device, position determination method, autonomous traveling vehicle, and position determination system
AU2017315755B2 (en) Observation based event tracking
US11345032B2 (en) Autonomous moving body and control program for autonomous moving body
JP6918908B2 (en) Cargo handling system
US20190258252A1 (en) Moving body, work support method, and work support system
JP6898054B2 (en) Cargo handling system
US11353880B2 (en) Autonomous moving body and control program for autonomous moving body
JP7084098B1 (en) Forklift and cargo handling system
JP7084099B1 (en) Forklift and cargo handling system
JP6874174B1 (en) Cargo handling system and management equipment
JP2018106346A (en) Alarm system and alarm program
JP6884240B1 (en) Unmanned work vehicle and cargo handling system
JP7084101B1 (en) Forklift and cargo handling system
US20220179409A1 (en) Optimizing management of autonomous vehicles
JP2021111144A (en) Information processing device
JP6204531B1 (en) Cargo handling vehicle system, break management method and control program
JP2008056441A (en) Overturning alarming device
JP6232467B2 (en) Cargo handling vehicle system, break management method and control program
JP7017294B2 (en) Manned unmanned forklift and cargo handling system
JP6208836B1 (en) Cargo handling vehicle system, break management method and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210721

R150 Certificate of patent or registration of utility model

Ref document number: 6918908

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150