JP6539395B1 - 予測装置および予測方法 - Google Patents

予測装置および予測方法 Download PDF

Info

Publication number
JP6539395B1
JP6539395B1 JP2018156350A JP2018156350A JP6539395B1 JP 6539395 B1 JP6539395 B1 JP 6539395B1 JP 2018156350 A JP2018156350 A JP 2018156350A JP 2018156350 A JP2018156350 A JP 2018156350A JP 6539395 B1 JP6539395 B1 JP 6539395B1
Authority
JP
Japan
Prior art keywords
unloading
time
load
information
unloading time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018156350A
Other languages
English (en)
Other versions
JP2020029344A (ja
Inventor
大塚 誠
誠 大塚
弘司 椎崎
弘司 椎崎
門地 正史
正史 門地
拓也 明石
拓也 明石
昭伍 南
昭伍 南
中島 慎
慎 中島
貴大 萩野
貴大 萩野
佑輔 竹内
佑輔 竹内
健次 中山
健次 中山
南望 大西
南望 大西
遼介 別府
遼介 別府
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2018156350A priority Critical patent/JP6539395B1/ja
Application granted granted Critical
Publication of JP6539395B1 publication Critical patent/JP6539395B1/ja
Publication of JP2020029344A publication Critical patent/JP2020029344A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Loading Or Unloading Of Vehicles (AREA)

Abstract

【課題】輸送車両の積荷の荷降ろし作業に要する時間を予測する。
【解決手段】荷降ろし時間予測装置(1)は、輸送車両の積荷に関する情報およびフォークリフトに関する情報と、積荷の荷降ろしに要した時間との相関関係を機械学習させた学習済みモデルを用いて、トラック(3)からの荷降ろし時間を予測する荷降ろし時間予測部(104)を備えている。
【選択図】図1

Description

本発明は、輸送車両の荷降ろし作業に要する時間を予測する、荷降ろし時間予測装置等に関する。
トラックなどの輸送車両で輸送される積荷は、輸送先に到着した後、フォークリフトなどの荷降ろし用の車両により、輸送車両から荷降ろしされる(例えば下記特許文献1参照)。
特開2010−235223号公報
上述の荷降ろし作業にはある程度の時間を要するため、複数の輸送車両の到着が重なった場合等には、後着の輸送車両は、先着の輸送車両からの荷降ろし作業が終わるまで待機する必要が生じることがあり、これが輸送車両の運転者の負担となっていた。先着の輸送車両からの荷降ろし作業に要する時間を予測することができれば、後着の輸送車両に対する通知や制御等を行うことが可能となり、後着の輸送車両の運転者の負担を軽減することが可能になる。
本発明の一態様は、輸送車両の積荷の荷降ろし作業に要する時間を予測することのできる荷降ろし時間予測装置等を提供することを目的とする。
上記の課題を解決するために、本発明の一態様に係る荷降ろし時間予測装置は、輸送車両の積荷に関する情報および該積荷の荷降ろしに使用した荷降ろし車両に関する情報と、該輸送車両の全ての積荷の荷降ろしに要した時間との相関関係を機械学習させた学習済みモデルを用いて、対象輸送車両の積荷に関する情報および該積荷の荷降ろしに使用可能な荷降ろし車両に関する情報から、上記対象輸送車両の全ての積荷の荷降ろしに要する所要時間を予測する荷降ろし時間予測部を備えている。
上記の課題を解決するために、本発明の一態様に係る荷降ろし時間予測装置による荷降ろし時間予測方法は、輸送車両の積荷に関する情報および該積荷の荷降ろしに使用した荷降ろし車両に関する情報と、該輸送車両の全ての積荷の荷降ろしに要した時間との相関関係を機械学習させた学習済みモデルを用いて、対象輸送車両の積荷に関する情報および該積荷の荷降ろしに使用可能な荷降ろし車両に関する情報から、上記対象輸送車両の全ての積荷の荷降ろしに要する所要時間を予測する荷降ろし時間予測ステップを含む。
本発明の一態様によれば、輸送車両の積荷の荷降ろしの所要時間を予測することできる。
本発明の実施形態1に係る荷降ろし時間予測装置の要部構成の一例を示すブロック図である。 上記荷降ろし時間予測装置を含む荷降ろし時間予測システムの概要を示す図である。 上記荷降ろし時間予測装置が実行する処理の一例を示すフローチャートである。 本発明の実施形態3に係る荷降ろし時間予測装置の要部構成の一例を示すブロック図である。 上記荷降ろし時間予測装置が実行する処理の一例を示すフローチャートである。
〔実施形態1〕
(システム概要)
本実施形態の荷降ろし時間予測システムの概要を図2に基づいて説明する。図2は、荷降ろし時間予測システム100の概要を示す図である。荷降ろし時間予測システム100は、対象輸送車両の積荷に関する情報および該積荷の荷降ろしに使用可能な荷降ろし車両に関する情報から、対象輸送車両の全ての積荷の荷降ろしの所要時間を予測するシステムである。なお、以下では、全ての積荷の荷降ろしの所要時間を、単に「荷降ろし時間」と呼ぶ。
図2に示す荷降ろし時間予測システム100は、荷降ろし時間の予測を行う荷降ろし時間予測装置1と、トラック3の積荷を撮影する撮影装置2とを含む。トラック3は、荷降ろし時間を予測する対象の車両である対象輸送車両の一例である。なお、対象輸送車両は荷物を輸送できる車両であればよく、トラックに限定されない。また、図2では、荷降ろし車両の例としてフォークリフトを記載しているが、荷降ろし車両は、積荷の荷降ろしに使用できる車両であればよく、フォークリフトに限られない。
撮影装置2は、トラック3が荷降ろしを行う場所において、トラック3の荷台の扉が開いたときに積荷を写すことができる位置に配置しておけばよい。また、撮影装置2として、既に設置されている防犯カメラを利用してもよい。撮影装置2が積荷を撮影した画像である積荷画像は、荷降ろし時間予測装置1に送信される。なお、撮影装置2は、トラック3に積荷を積み込む場所に設置してもよい。この場合、撮影装置2により積み込み完了時点の荷台上の積荷を撮影し、撮影した積荷画像を荷降ろし時間予測装置1に送信する。
また、荷降ろし時間予測装置1は、トラック3の荷降ろしに使用可能なフォークリフトを特定する。そして、荷降ろし時間予測装置1は、トラック3の積荷画像と、荷降ろしに使用可能なフォークリフトとに基づいて、トラック3からの荷降ろし時間を予測する。このように、荷降ろし時間予測システム100は、トラック3からの荷降ろし荷降ろし時間を予測する。
(荷降ろし時間予測装置の要部構成)
荷降ろし時間予測装置1の要部構成について図1に基づいて説明する。図1は、荷降ろし時間予測装置1の要部構成の一例を示すブロック図である。図示のように、荷降ろし時間予測装置1は、荷降ろし時間予測装置1の各部を統括して制御する制御部10と、荷降ろし時間予測装置1が使用する各種データを記憶する記憶部20とを備えている。さらに、荷降ろし時間予測装置1は、荷降ろし時間予測装置1に対する入力操作を受け付ける入力部30と、情報を出力するための出力部40と、他の装置(例えば図2の撮影装置2)と通信するための通信部50とを備えている。
また、制御部10には、積荷情報取得部101、荷降ろし車両情報取得部102、入力データ生成部103、荷降ろし時間予測部104、およびリソース決定部105が含まれている。そして、記憶部20には、トラック3の荷降ろしに使用可能なフォークリフトを特定するための荷降ろし車両情報201が記憶されている。
積荷情報取得部101は、トラック3の積荷に関する情報を取得する。本実施形態の積荷情報取得部101は、通信部50を介した通信により、トラック3の積荷に関する情報としては、上述の積荷画像を取得する。
荷降ろし車両情報取得部102は、トラック3の積荷の荷降ろしに使用可能なフォークリフトに関する情報である荷降ろし車両情報を取得する。具体的には、荷降ろし車両情報取得部102は、記憶部20に記憶されている荷降ろし車両情報201を取得する。
荷降ろし車両情報201は、上記のとおり、トラック3からの積荷の荷降ろしに使用可能なフォークリフトに関する情報である。荷降ろし車両情報201は、フォークリフトの使用状況に応じて適宜更新される。荷降ろし車両情報201は、トラック3からの荷降ろし時間と相関のある情報を含んでいればよい。例えば、荷降ろし車両情報201は、トラック3からの積荷の荷降ろしに使用可能なフォークリフトの種類、台数、および運転者の少なくとも何れかを示す情報を含んでいてもよい。
フォークリフトの種類を示す情報としては、例えばフォークリフトの種類(車種であってもよい)を示す車両ID(識別情報)を用いてもよい。また、フォークリフトの運転者を示す情報としては、各運転者に固有の運転者IDを用いてもよい。このような情報は、積荷情報取得部101が、フォークリフトおよび運転者の作業予定表を参照することによって取得することもできる。
なお、フォークリフトの種類は、荷降ろしにおける作業能力に応じてフォークリフトを分類したものであってもよい。例えば、所定サイズの積荷を単位時間当たりに荷降ろしできる量に応じてフォークリフトを分類してもよい。また、運転者を示す情報として、荷降ろしにおける作業能力に応じた運転者の分類を用いてもよい。この場合、運転者の作業能力を所定の基準で評価し、その評価結果に基づいて運転者を分類することができる。例えば、単位時間に荷降ろしできる積荷の量や、所定の作業の平均所要時間等の作業の速さを示す数値により運転者を評価してもよい。また、フォークリフトを用いた作業の経験年数や、フォークリフトの総運転時間等により運転者を分類してもよく、例えば新人とベテランのような分類としてもよい。
入力データ生成部103は、積荷情報取得部101が取得したトラック3の積荷画像および荷降ろし車両情報取得部102が取得した荷降ろし車両情報201から、荷降ろし時間予測部104が使用する学習済みモデルへの入力データを生成する。なお、学習済みモデルと入力データの詳細は後述する。
荷降ろし時間予測部104は、荷降ろし時間を予測する。具体的には、荷降ろし時間予測部104は、入力データ生成部103が生成した入力データを後述する学習済みモデルに入力して得られる出力値から、トラック3からの荷降ろし時間を予測する。
リソース決定部105は、荷降ろし時間予測部104が予測した荷降ろし時間に応じて、トラック3の積荷の荷降ろしに使用するリソース、すなわちフォークリフトの種類、台数、および運転者を決定する。なお、リソース決定部105は、フォークリフトの種類、台数、および運転者の少なくとも何れかを決定する構成であってもよい。
(学習済みモデルについて)
本実施形態の荷降ろし時間予測部104が使用する学習済みモデルは、荷降ろし時間を予測するために、教師ありの機械学習により生成された学習済みモデルである。以下では、この学習済みモデルについて説明する。なお、学習済みモデルとしては、例えば、CNN(Convolutional Neural Network)の学習済みモデルを用いることが好ましい。画像認識性能の高いCNNを用いることにより、積荷画像を含む入力データを用いた、荷降ろし時間の予測を高精度に行うことができる。
上記学習済みモデルの生成には、教師データとして、トラック等の輸送車両の積荷に関する情報および該積荷の荷降ろしに使用したフォークリフトに関する情報と、該輸送車両の荷降ろし時間とを対応付けたデータを用いる。なお、これらのデータのうち、積荷に関する情報およびフォークリフトに関する情報が入力データであり、荷降ろし時間が正解データである。
積荷に関する上記情報としては、例えば上記輸送車両の積荷画像を用いることができる。また、フォークリフトに関する上記情報としては、例えば上記輸送車両からの荷降ろしに使用したフォークリフトの種類、台数、および運転手の少なくとも何れかを示す情報を用いることができる。
荷降ろし時間については、所定範囲毎にクラスタ分けしておくことが好ましい。これにより、クラスタ分けしない場合と比べて学習済みモデルの構築に必要な教師データの数を抑えることができる。本実施形態では、荷降ろし時間を、クラスタA(10分未満)、B(10分以上20分未満)、C(20分以上30分未満)、D(30分以上40分未満)、E(40分以上50分未満)、およびF(50分以上)の6つのクラスタに分類して学習させた学習済みモデルを用いる例を説明する。無論、各クラスタをどのような時間範囲とするかは荷降ろしに要した時間をどの程度詳細に予測する必要があるか等に応じて適宜決めればよく、上記の例に限られない。
なお、積荷画像は、フォークリフトに関する情報と比べてデータ量が大きい。このため、積荷画像に対して次元削減を行う、あるいはフォークリフトに関する上記情報に重み付けをする等の処理を施すことにより、積荷に関する情報とフォークリフトに関する情報の双方を適切に反映させた教師データを用いることが好ましい。
(学習済みモデルを用いた荷降ろし時間の予測について)
過去に行われた輸送車両からの荷降ろしについて、上述のような教師データをそれぞれ生成し、生成した教師データを用いて機械学習を行うことにより、荷降ろし時間予測部104が使用する学習済みモデルを生成することができる。この学習済みモデルは、トラック3等の輸送車両の積荷に関する情報および該積荷の荷降ろしに使用した荷降ろし車両に関する情報と、該輸送車両からの荷降ろし時間との相関関係を機械学習させたモデルとなる。なお、学習済みモデルは、荷降ろし時間予測装置1が構築してもよい。この場合、荷降ろし時間予測装置1の制御部10に学習部を追加し、該学習部に上記のような教師データを与えることにより、学習済みモデルを構築することができる。
上記のようにして生成された学習済みモデルに入力データ生成部103が生成した入力データを入力すると、上述のA〜Fの6つのクラスタに該当する確率がそれぞれ出力される。そして、荷降ろし時間予測部104は、上記確率が最も高いクラスタに対応する時間を、荷降ろしに要する所要時間とする。例えば、クラスタA〜Fに該当する確率がそれぞれ、2%、15%、80%、2%、1%、1%であった場合、荷降ろし時間予測部104は、最も確率が高いクラスタCを特定する。
ここで、荷降ろし時間予測部104は、特定したクラスタに対応する時間範囲をそのまま出力してもよいし、上記時間範囲を代表する時間を出力してもよい。本実施形態では、荷降ろし時間予測部104が、特定したクラスタにおける時間範囲の下限値を出力する例を説明する。例えば、荷降ろし時間予測部104は、クラスタCを特定した場合、その範囲(20分以上30分未満)の下限値である20分を荷降ろし時間の予測値として出力する。無論、荷降ろし時間予測部104は、上記範囲の上限値を出力してもよいし、上限値および下限値の間の値(例えば上限値および下限値の平均値)を出力してもよい。
なお、学習済みモデルに入力する入力データの形式は、その学習済みモデルの機械学習に用いた教師データと同じにする。例えば、教師データにおける入力データが、積荷画像と、使用したフォークリフトの車両IDと、台数と、運転者IDとを組み合わせたデータであったとする。この場合、入力データ生成部103は、積荷画像と、荷降ろし車両情報201に示される、使用可能なフォークリフトの車両ID、台数、および運転者IDとを組み合わせた入力データを生成する。
(リソース決定方法)
リソース決定部105によるリソース決定方法について説明する。リソース決定部105は、荷降ろし時間予測部104が予測した荷降ろし時間に応じて、トラック3の積荷の荷降ろしに使用するフォークリフトの種類、台数、および運転者を決定する。これにより、予測した荷降ろし時間に応じた適切なリソースを決定することができる。例えば、予測した荷降ろし時間が短い場合には、それに応じた少ないリソース(少ない台数のフォークリフト、作業が遅い新人運転者など)が決定される。また、予測した荷降ろし時間よりも短時間で荷降ろしを完了させたい場合には、フォークリフトの台数を多くする、運転者をより作業の早い者に変更する等のように、リソースを増強することを決定してもよい。
例えば、リソース決定部105は、荷降ろし時間予測部104が予測した荷降ろし時間と所定の基準時間とを比較し、その比較結果に基づいて、トラック3の積荷の荷降ろしに使用するフォークリフトの種類、台数、および運転者を決定してもよい。この場合、予測された荷降ろし時間が、上記基準時間より短ければ、リソース決定部105は、荷降ろしに使用するリソースを、上記所要時間の予測に用いたリソースよりも減らすことを決定する。例えば、現在利用可能な全てのリソースを用いた場合の荷降ろし時間が予測された場合、リソース決定部105は、現在利用可能なリソースの一部を、上記荷降ろし作業に用いることを決定する。
ここでリソース決定部105は、リソースを減らす量を、予測された荷降ろし時間間と所定の基準時間との差に応じて決定してもよい。例えば、リソース決定部105は、予測された荷降ろし時間と上記基準時間との差が大きいほどリソースを大幅に減らしてもよく、これにより、実際の荷降ろし時間を基準時間に近付けることができる。この場合、リソースの変化と荷降ろしの所要時間との関係を予め定式化しておいてもよい。例えば、運転者をベテランから新人に変えた場合、荷降ろし時間がn倍(nは1以上の数)になることを定式化しておくことにより、新人を荷降ろしのリソースとして活用しつつ、基準時間以内に荷降ろしを終了させることも可能になる。また、余剰のリソースは他の作業に割り当てることもできる。
また、荷降ろし時間予測部104は、荷降ろしに使用可能なリソースの一部を用いた場合の荷降ろし時間を予測してもよい。この場合、リソース決定部105は、荷降ろし時間予測部104が予測した荷降ろし時間が、基準時間より長ければ、荷降ろしに使用するリソースを、上記荷降ろし時間の予測に用いたリソースよりも増強することを決定してもよい。
さらに、リソース決定部105は、トラック3および他の輸送車両の搬入状況に応じて上記基準時間を決定してもよい。例えば、リソース決定部105は、トラック3に後続する輸送車両の到着予定時刻を上記基準時間としてもよい。これにより、トラック3からの荷降ろしに必要十分なリソースを割り当てつつ、次に到着する輸送車両に順番待ち時間が発生することを防ぐことが可能になる。
(処理の流れ)
荷降ろし時間予測装置1が実行する処理の流れを図3に基づいて説明する。図3は、荷降ろし時間予測装置1が実行する処理(荷降ろし時間予測方法)の一例を示すフローチャートである。
S1では、積荷情報取得部101が、通信部50を介して、トラック3の積荷を撮影することによって得られた積荷画像を取得する。そして、積荷情報取得部101は、取得した積荷画像を入力データ生成部103に送信する。
S2では、荷降ろし車両情報取得部102が、荷降ろし車両情報201を取得し、使用可能なフォークリフトおよび運転者を特定する。そして、荷降ろし車両情報取得部102は、特定した使用可能なフォークリフトおよび運転者を、入力データ生成部103に通知する。
S3では、入力データ生成部103が、荷降ろし時間予測部104に入力するための入力データを生成する。具体的には、入力データ生成部103は、S1で取得された積荷画像と、S2で特定された使用可能なフォークリフトおよび運転者から入力データを生成する。
S4(荷降ろし時間予測ステップ)では、荷降ろし時間予測部104が、荷降ろし時間を予測する。具体的には、荷降ろし時間予測部104は、S3で生成された入力データを学習済みモデルに入力することによって出力された出力値から荷降ろし時間を予測する。なお、学習済みモデルの出力値から荷降ろし時間を予測する方法については、前述の「学習済みモデルについて」で説明したとおりである。
S5では、リソース決定部105が、荷降ろしに用いるフォークリフトと、その運転者とを決定し、決定した情報を出力部40に出力させる。なお、出力態様は特に限定されない。例えば、リソース決定部105は、出力部40が表示装置であれば表示出力させればよく、出力部40が音声出力装置であれば音声出力させればよい。また、リソース決定部105は、出力部40に上記のような出力を行わせると共に、あるいは上記のような出力を行わせる代わりに、例えば決定した運転者が所持する端末装置等の他の装置に対して、決定したフォークリフトを通知してもよい。
(予測時間の他の利用例)
荷降ろし時間予測装置1の制御部10には、荷降ろし時間予測部104が予測した荷降ろし時間に基づいてトラック3の後続の輸送車両に対する通知を行う通知部が含まれていてもよい。上記通知部は、荷降ろし時間予測部104が予測した荷降ろし時間をそのまま通知してもよいし、トラック3からの荷降ろしの開始時刻に上記荷降ろし時間を加算して荷降ろし終了予想時刻を算出し、算出した荷降ろし終了予想時刻を通知してもよい。また、通知先は後続の輸送車両が備えるカーナビゲーション装置等の通信機器であってもよいし、該輸送車両の運転者が所持する端末装置であってもよいし、所定のネットワーク上のサーバ等であってもよい。サーバに通知した場合、後続の輸送車両の運転手は、自身の端末装置等を用いて該サーバにアクセスすることにより、荷降ろし終了予想時刻を確認できる。
このように、荷降ろし時間予測装置1が通知部を備えている場合、後続の輸送車両の運転手に荷降ろし終了予想時刻を認識させることができる。そして、これにより該運転手は、待ち時間が発生しないか、あるいは最小限となるように、到着時刻を調整することが可能になる。
また、後続の輸送車両が、自走式の輸送車両である場合、荷降ろし時間予測装置1の制御部10には、荷降ろし時間予測部104が予測した荷降ろし時間に基づいて、トラック3に後続する自走式の輸送車両の動作を制御する輸送車両制御部が含まれていてもよい。例えば、上記輸送車両制御部は、トラック3からの荷降ろしの終了予想時刻を算出し、その時刻に到着するように自走式の輸送車両の走行を制御してもよい。この走行制御には、例えば出発時刻の調整、走行速度の調整などが含まれる。
このように、荷降ろし時間予測装置1が輸送車両制御部を備えている場合、トラック3の荷降ろしの完了を待つ時間が発生しないか、あるいは最小限となるように、自走式の輸送車両の到着時刻を調整することが可能になる。
(実施形態1のまとめ)
以上のように、本実施形態の荷降ろし時間予測部104は、トラック3の積荷に関する情報および該積荷の荷降ろしに使用可能なフォークリフトに関する荷降ろし車両情報201から、トラック3からの荷降ろし時間を予測する。よって、トラック3に積載された積荷および該積荷の荷降ろしに使用可能なフォークリフトを考慮した荷降ろし時間を予測することできる。そして、このようにして予測した荷降ろし時間を用いることにより、トラック3の荷降ろしに使用するリソース(フォークリフトとその運転者)の調整を行うことが可能になる。また、トラック3の荷降ろしが完了した後に荷降ろしを行う予定である後続の輸送車両に対する通知や制御等を行うことも可能となる。
また、本実施形態の荷降ろし時間予測部104は、トラック3の積荷に関する情報として、積荷が積載されたトラック3の荷台を撮影した積荷画像を用いる。よって、トラック3の荷台を撮影するだけで、トラック3の積荷に関する情報を容易に得ることができる。
〔実施形態2〕
本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。実施形態3以降も同様である。
実施形態1の荷降ろし時間予測装置1は、トラック3の積荷に関する情報として、トラック3の荷台を撮影した積荷画像を用いる。これに対し、本実施形態の荷降ろし時間予測装置1は、トラック3の積荷に関する情報として、トラック3の識別表示を撮影した画像を用いる。なお、以下ではこの画像を識別表示画像と呼ぶ。
上記識別表示は、その表示から、トラック3が積載している積荷のサイズ、個数、およびレイアウトを推定可能なものであればよい。例えば、積荷の搬入業者ごとに、搬送する積荷のサイズ、個数、およびレイアウトが決まっている場合がある。このような場合には、識別表示画像として、搬入業者を示す識別表示(トラック3の車体に描かれた文字や絵、記号、ナンバープレート等)を撮影した画像を用いればよい。
トラック3の積荷に関する情報として識別表示画像を用いて荷降ろし時間を予測するため、荷降ろし時間予測部104が用いる学習済みモデルは上記実施形態と異なっている。本実施形態で使用する学習済みモデルは、過去に荷降ろしが行われた輸送車両の識別表示画像と、その荷降ろしに使用したフォークリフトに関する情報とを入力データとし、荷降ろし時間を正解データとした教師データを用いて構築したものである。
このため、本実施形態の積荷情報取得部101は、トラック3の識別表示画像を取得する。識別表示画像を撮影する撮影装置は、トラック3の識別表示を撮影可能な位置に配置されていればよい。例えば、上記撮影装置は、トラック3の搬入先施設の入り口等に配置されていてもよい。また、既に設置されている防犯カメラを上記撮影装置として利用してもよい。
そして、本実施形態の入力データ生成部103は、積荷情報取得部101が取得した、トラック3の識別表示画像と、実施形態1と同様にして荷降ろし車両情報取得部102が取得した荷降ろし車両情報201から入力データを生成する。入力データ生成後の処理は実施形態1と同様であり、荷降ろし時間予測部104は、学習済みモデルに上記入力データを入力して得られる出力値から、荷降ろし時間を予測する。また、リソース決定部105が、予測された荷降ろし時間に応じたリソースを決定する。
なお、曜日や時間帯によって、積荷のサイズ、個数、およびレイアウトの特徴が異なっている場合、曜日および時間帯ごとに学習済みモデルを構築してもよい。この場合、荷降ろし時間予測部104は、トラック3が撮影された曜日および時間帯に応じた学習済みモデルを用いて荷降ろし時間を予測する。これにより、荷降ろし時間予測部104は、曜日および時間帯ごとの積荷の特徴を考慮して、より正確な荷降ろし時間を予測することが可能になる。また、曜日および時間帯の何れか一方に応じた学習済みモデルを構築してもよい。
(実施形態2のまとめ)
以上のように、本実施形態の荷降ろし時間予測部104は、トラック3の積荷に関する情報として、該積荷のサイズ、個数、およびレイアウトが推定可能な識別表示画像を用いる。トラック3の識別表示は、荷台を開ける前に撮影可能であるから、本実施形態の荷降ろし時間予測装置1によれば、荷台上の積荷を撮影した積荷画像を用いて予測する実施形態1の構成と比べて、荷降ろし時間をより早い時点で予測することが可能になる。
〔実施形態3〕
本実施形態の荷降ろし時間予測部104は、まず、実施形態2の荷降ろし時間予測部104と同様に、トラック3の積荷に関する情報として識別表示画像を用いて荷降ろし時間を予測する。その後、本実施形態の荷降ろし時間予測部104は、実施形態1の荷降ろし時間予測部104と同様に、トラック3の積荷に関する情報として積荷画像を用いて荷降ろし時間を予測する。これにより、まず識別表示画像に基づく大まかな荷降ろし時間を予測することができると共に、その後、積荷画像に基づくより正確な荷降ろし時間を予測することができる。
図4は、本発明の実施形態に係る荷降ろし時間予測装置1の要部構成の一例を示すブロック図である。図4に示すように、本実施形態の荷降ろし時間予測装置1は、制御部10にリソース仮決定部107が含まれている点で実施形態1の荷降ろし時間予測装置1と相違している。また、荷降ろし時間予測部104には、荷降ろし時間第一予測部106と、荷降ろし時間第二予測部108が含まれる点においても、実施形態1の荷降ろし時間予測装置1と相違している。
荷降ろし時間第一予測部106は、実施形態2の荷降ろし時間予測部104と同様に、トラック3の積荷に関する情報として識別表示画像を用いて生成された入力データから荷降ろしの所要時間を予測する。また、荷降ろし時間第二予測部108は、実施形態1の荷降ろし時間予測部104と同様に、トラック3の積荷に関する情報として積荷画像を用いて生成された入力データから荷降ろし時間を予測する。
このため、本実施形態の積荷情報取得部101は、識別表示画像を取得すると共に、積荷画像も取得する。また、本実施形態の入力データ生成部は、識別表示画像を用いて入力データを生成すると共に、積荷画像を用いて入力データを生成する。
リソース仮決定部107は、荷降ろし時間第一予測部106が予測した荷降ろしの所要時間に応じて、トラック3からの荷降ろしに使用するリソースを決定する。リソースは、フォークリフトの種類、台数、および運転者の少なくとも何れかであってもよい。リソース仮決定部107は、リソース決定部105と同様の処理を行うが、荷降ろし時間第一予測部106が予測した荷降ろし時間に基づいてリソースを決定する点でリソース決定部105と相違している。本実施形態のリソース決定部105は、荷降ろし時間第二予測部108が予測した荷降ろし時間に基づいてリソースを決定する。
(処理の流れ)
荷降ろし時間予測装置1が実行する処理の流れを図5に基づいて説明する。図5は、荷降ろし時間予測装置1が実行する処理(荷降ろし時間予測方法)の一例を示すフローチャートである。
S11では、積荷情報取得部101が、通信部50を介して識別表示画像を取得する。そして、積荷情報取得部101は、取得した識別表示画像を入力データ生成部103に送信する。
S12では、図3のS2と同様に、荷降ろし車両情報取得部102が、荷降ろし車両情報201を取得し、使用可能なフォークリフトおよび運転者を特定する。そして、荷降ろし車両情報取得部102は、特定した使用可能なフォークリフトおよび運転者を、入力データ生成部103に通知する。
S13では、入力データ生成部103が、荷降ろし時間第一予測部106に入力するためのデータを生成する。具体的には、入力データ生成部103は、S11で取得された識別表示画像と、S12で特定された使用可能なフォークリフトおよび運転者から入力データを生成する。
S14(荷降ろし時間予測ステップ)では、荷降ろし時間第一予測部106が、荷降ろし時間を予測する。具体的には、荷降ろし時間第一予測部106は、S13で生成された入力データを学習済みモデルに入力することによって出力された出力値から荷降ろし時間を予測する。なお、学習済みモデルの出力値から荷降ろし時間を予測する方法については、前述の「学習済みモデルについて」で説明したとおりである。また、ここで用いられる学習済みモデルは実施形態2で用いられる学習済みモデルと同じである。
S15では、リソース仮決定部107が、S14で予測された荷降ろし時間に基づき、荷降ろしに用いるリソースとして、フォークリフトと、その運転者とを決定し、決定した情報を出力部40に出力させる。なお、S15におけるリソースの決定は仮決定であり、最終的なリソースはS19で決定される。
S16では、図3のS1と同様に、積荷情報取得部101が、通信部50を介して、トラック3の積荷を撮影することによって得られた積荷画像を取得する。そして、積荷情報取得部101は、取得した積荷画像を入力データ生成部103に送信する。
S17では、入力データ生成部103が、荷降ろし時間第二予測部108に入力するための入力データを生成する。具体的には、入力データ生成部103は、S16で取得された積荷画像と、S12で特定された使用可能なフォークリフトおよび運転者から入力データを生成する。
S18(荷降ろし時間予測ステップ)では、荷降ろし時間第二予測部108が、荷降ろし時間を予測する。具体的には、荷降ろし時間第二予測部108は、S17で生成された入力データを学習済みモデルに入力することによって出力された出力値から荷降ろし時間を予測する。ここで用いられる学習済みモデルは実施形態1で用いられる学習済みモデルと同じである。
S19では、図3のS5と同様に、リソース決定部105が、荷降ろしに用いるフォークリフトと、その運転者とを決定し、決定した情報を出力部40に出力させる。なお、リソース決定部105は、S15で仮決定されたリソースと、S19で決定したリソースとの差分を出力部40に出力させてもよい。
(実施形態3のまとめ)
以上のように、荷降ろし時間第一予測部106は、トラック3の積荷に関する情報として識別表示画像を用いて荷降ろし時間を予測する。このように、識別表示画像を用いることで、おおよその荷降ろし時間を早い時点で予測することができる。これにより、リソース仮決定部107は、予測された荷降ろし時間に応じて、大まかなリソース(フォークリフトおよび運転者)をまず確保することができる。
そして、荷降ろし時間第一予測部106による予測の後、荷降ろし時間第二予測部108は、トラック3の積荷に関する情報として積荷画像を用いて荷降ろし時間を予測する。このように、積荷画像を用いることにより、荷降ろしに要するより正確な荷降ろし時間を予測することができる。そして、リソース決定部105は、リソース仮決定部107が決定したリソースよりも、より適切なリソースを決定することができるので、リソース仮決定部107の決定に基づいて確保されたリソースを、適切に調整することができる。
〔分散処理について〕
上記各実施形態で説明した荷降ろし時間予測装置1の実行する処理の一部は、荷降ろし時間予測装置1と通信接続された1または複数の装置に実行させてもよい。例えば、学習済みモデルを用いた演算処理を、荷降ろし時間予測装置1と通信接続されたAIサーバに実行させてもよい。この場合、荷降ろし時間予測装置1は、入力データ生成部103が生成した入力データをAIサーバに送信し、該AIサーバから学習済みモデルの出力値を受信して荷降ろし時間の予測を行う。
〔入力データについて〕
学習済みモデルに対する入力データとしては、画像をそのまま用いてもよいし、画像に対して所定の処理を施したものを用いてもよい。上記所定の処理は、積荷の特徴点を失わせることなく、特徴点と関係のない情報を減らすことができるものであればよい。例えば、画像がカラー画像であれば、グレースケール化して入力データとしてもよい。また、画像において、一部の領域のみを抽出して入力データとしてもよい。
さらに、例えば画像に写る対象物の中からトラック3の積荷が写る領域のみ、またはトラック3の識別表示が写る領域のみを入力データとしてもよい。これにより、トラック3の積荷およびトラック3の識別表示以外の背景の影響を排除することができるので、予測精度を高めることができる。なお、トラック3の積荷およびトラック3の識別表示の検出には、例えばCNN等の学習済みモデルを用いることができる。
〔荷降ろし車両情報について〕
上記各実施形態では、トラック3からの荷降ろしに使用可能なフォークリフトに関する情報として荷降ろし車両情報201を取得する例を示したが、トラック3からの荷降ろしに使用可能なフォークリフトに関する情報の取得方法はこの例に限られない。例えば、現在利用可能なフォークリフトが駐車されているフォークリフトの駐車スペースを撮影した画像を解析することにより、トラック3からの荷降ろしに使用可能なフォークリフトに関する情報を取得してもよい。この場合、画像解析には、各フォークリフトの画像を教師データとして機械学習することにより構築した学習済みモデルを用いることが好ましい。これにより、駐車スペースを撮影した画像から、駐車されているフォークリフトを検出することができると共に、検出したフォークリフトが何れの車両IDのフォークリフトであるかを特定することができる。この学習済みモデルについても、CNNを適用することが特定精度の面から好ましい。また、例えば運転者の待機場所を撮影した画像から上記と同様にして運転者を検出および識別し、識別した運転者をトラック3からの荷降ろし作業を行うことができる運転者として特定することも可能である。
〔ソフトウェアによる実現例〕
荷降ろし時間予測装置1の制御ブロック(特に制御部10に含まれる各部)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、荷降ろし時間予測装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔参考例〕
積荷が積載されたトラック3の荷台を撮影した画像を解析することにより、その積荷のサイズ、個数、およびレイアウトを特定することも可能である。この解析にもCNNを適用することができる。そして、特定したサイズ、個数、およびレイアウトと、荷降ろしに使用可能なフォークリフトの種類、台数、および運転者とから、荷降ろし時間を予測することも可能である。この予測には、上記各実施形態と同様の学習済みモデルを用いてもよいし、統計的手法等、他の手法を用いてもよい。
また、所定の識別表示のトラック3が、所定のサイズ、個数、およびレイアウトの積荷輸送していることが予めわかっている場合、識別表示画像の解析により、トラック3の積荷のサイズ、個数、およびレイアウトを特定可能である。そして、上記段落の例と同様に、特定したサイズ、個数、およびレイアウトと、荷降ろしに使用可能なフォークリフトの種類、台数、および運転者とから、荷降ろし時間を予測することも可能である。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 荷降ろし時間予測装置
104 荷降ろし時間予測部
105 リソース決定部

Claims (5)

  1. 輸送車両の積荷に関する情報および該積荷の荷降ろしに使用した荷降ろし車両に関する情報と、該輸送車両の全ての積荷の荷降ろしに要した時間との相関関係を機械学習させた学習済みモデルを用いて、対象輸送車両の積荷に関する情報および該積荷の荷降ろしに使用可能な荷降ろし車両に関する情報から、上記対象輸送車両の全ての積荷の荷降ろしに要する所要時間を予測する荷降ろし時間予測部を備えていることを特徴とする荷降ろし時間予測装置。
  2. 上記荷降ろし時間予測部が予測した上記所要時間に応じて、上記対象輸送車両の積荷の荷降ろしに使用する荷降ろし車両の種類、台数、および運転者の少なくとも何れかを決定するリソース決定部を備えていることを特徴とする請求項1に記載の荷降ろし時間予測装置。
  3. 上記荷降ろし時間予測部は、上記対象輸送車両の積荷に関する情報として、該積荷のサイズ、個数、およびレイアウトが推定可能な、上記対象輸送車両の識別表示を撮影した画像、および上記積荷が積載された上記対象輸送車両の荷台を撮影した画像の少なくとも何れかを用いることを特徴とする請求項1または2に記載の荷降ろし時間予測装置。
  4. 上記荷降ろし時間予測部は、上記対象輸送車両の積荷に関する情報として上記対象輸送車両の識別表示を撮影した画像を用いて上記所要時間を予測した後、上記対象輸送車両の積荷に関する情報として当該積荷が積載された上記対象輸送車両の荷台を撮影した画像を用いて上記所要時間を予測することを特徴とする請求項3に記載の荷降ろし時間予測装置。
  5. 荷降ろし時間予測装置による荷降ろし時間予測方法であって、
    輸送車両の積荷に関する情報および該積荷の荷降ろしに使用した荷降ろし車両に関する情報と、該輸送車両の全ての積荷の荷降ろしに要した時間との相関関係を機械学習させた学習済みモデルを用いて、対象輸送車両の積荷に関する情報および該積荷の荷降ろしに使用可能な荷降ろし車両に関する情報から、上記対象輸送車両の全ての積荷の荷降ろしに要する所要時間を予測する荷降ろし時間予測ステップを含むことを特徴とする荷降ろし時間予測方法。
JP2018156350A 2018-08-23 2018-08-23 予測装置および予測方法 Active JP6539395B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018156350A JP6539395B1 (ja) 2018-08-23 2018-08-23 予測装置および予測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156350A JP6539395B1 (ja) 2018-08-23 2018-08-23 予測装置および予測方法

Publications (2)

Publication Number Publication Date
JP6539395B1 true JP6539395B1 (ja) 2019-07-03
JP2020029344A JP2020029344A (ja) 2020-02-27

Family

ID=67144729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156350A Active JP6539395B1 (ja) 2018-08-23 2018-08-23 予測装置および予測方法

Country Status (1)

Country Link
JP (1) JP6539395B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7220421B2 (ja) * 2020-02-27 2023-02-10 株式会社大一商会 遊技機
JP7436878B2 (ja) * 2021-12-24 2024-02-22 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理方法、プログラム
JP7348548B2 (ja) * 2021-12-24 2023-09-21 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理方法、プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000142983A (ja) * 1998-11-09 2000-05-23 Daido Steel Co Ltd スクラップのトラック積荷下し方法
JP2004323230A (ja) * 2003-03-03 2004-11-18 Sagawa Express Co Ltd 地域内物流コンサルティング方法及びそのプログラム
JP2005227805A (ja) * 2004-02-10 2005-08-25 Hideki Kawada 引越し見積り方法、引越し見積りシステム及び引越し見積りシステムとして機能させるコンピュータにおいて実行可能なコンピュータプログラム
JP4718928B2 (ja) * 2005-08-02 2011-07-06 ユーピーアール株式会社 Phsによる移動機器の位置探査方法

Also Published As

Publication number Publication date
JP2020029344A (ja) 2020-02-27

Similar Documents

Publication Publication Date Title
JP6539395B1 (ja) 予測装置および予測方法
US11875422B2 (en) Baggage transportation using autonomous vehicle
US10176443B2 (en) Method and system for dispatching of vehicles in a public transportation network
JP2020504856A (ja) 画像に基づく車両損傷判定方法、装置および電子デバイス
CN108388837A (zh) 一种用于评估自主车辆的内部的系统和方法
CN113326126A (zh) 任务处理方法、任务调度方法、装置及计算机设备
CN113807759A (zh) 基于深度学习的货物运费决定方法以及装置
Awaisi et al. Deep reinforcement learning approach towards a smart parking architecture
US20210125300A1 (en) Transportation operator collaboration for enhanced user experience and operational efficiency
CN112001258B (zh) 物流货车准时到站识别方法、装置、设备和存储介质
CN111754261B (zh) 一种车辆出租意愿的评估方法、装置及终端设备
US11511769B2 (en) Data collecting system, server, and data processing apparatus
KR102482149B1 (ko) 노이즈가 있는 다중 모드형 데이터로부터 관심 지점에 대한 최적의 운송 서비스 위치의 자동 결정
CN113822614A (zh) 基于装卸场地状态提供运送服务的方法以及装置
CN111815250B (zh) 用于物流的货物状态识别方法、装置及二分类建模方法
US20210110326A1 (en) Route-based digital service management
CN115123302A (zh) 用于自动驾驶车辆的决策规划系统、方法和车辆
CN112238863A (zh) 用于运行自动化车辆的方法、装置和存储介质
US20240094725A1 (en) Remote assistance system and remote assistance method
WO2023101088A1 (ko) 혼적 가능성을 기초로 화물 운송경로를 선택하는 사용자 인터페이스 제공 방법 및 장치
US20230251637A1 (en) Control device, system, and adjustment method
US20220027836A1 (en) Yard check system with customer feedback
JP2024109444A (ja) Avpシステム
JP2020203753A (ja) 配達支援システムおよび配達支援プログラム
JP2024046464A (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190607

R150 Certificate of patent or registration of utility model

Ref document number: 6539395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150