JP2020135535A - 車両判別方法、車両判別装置および車両判別プログラム - Google Patents

車両判別方法、車両判別装置および車両判別プログラム Download PDF

Info

Publication number
JP2020135535A
JP2020135535A JP2019029538A JP2019029538A JP2020135535A JP 2020135535 A JP2020135535 A JP 2020135535A JP 2019029538 A JP2019029538 A JP 2019029538A JP 2019029538 A JP2019029538 A JP 2019029538A JP 2020135535 A JP2020135535 A JP 2020135535A
Authority
JP
Japan
Prior art keywords
vehicle
discrimination
state
emblem
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019029538A
Other languages
English (en)
Inventor
達也 亀津
Tatsuya Kametsu
達也 亀津
修司 千田
Shuji Senda
修司 千田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YE Digital Co Ltd
Original Assignee
YE Digital Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YE Digital Co Ltd filed Critical YE Digital Co Ltd
Priority to JP2019029538A priority Critical patent/JP2020135535A/ja
Publication of JP2020135535A publication Critical patent/JP2020135535A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】車両施設における車両の状態を、車両を特定しつつ精度よく判別し、車両施設を効率よく運用すること。【解決手段】実施形態に係る車両判別方法は、生成工程と、判別工程とを含む。生成工程は、車両施設の所定の駐停車領域ごとに設けられた第1のカメラによって撮像された正例となる撮像画像における車両のナンバーおよびエンブレムの該当領域が少なくとも特徴ベクトルに含まれるように機械学習を実行することによって、駐停車領域の状態判別モデルを生成する。判別工程は、第1のカメラによって撮像された判別対象分となる撮像画像を状態判別モデルへ入力することによって得られる出力値に基づいて、駐停車領域に駐停車中の車両のナンバーおよびエンブレムを判別する。【選択図】図2B

Description

開示の実施形態は、車両判別方法、車両判別装置および車両判別プログラムに関する。
従来、駐車場のような所定の駐停車領域を有する車両施設において、車両の入出場を管理する管理システムが知られている。
このような管理システムでは、たとえば入場ゲート機を通過する入場車両の台数と出場ゲート機を通過する出場車両の台数とを計数し、入場車両の総数から出場車両の総数を減算することによって現状の駐車台数を把握する。そして、かかる駐車台数が所定の最大駐車台数に達する場合は、車両の入場を制限し、最大駐車台数を下回っている場合は、車両の入場を許可するようにしている(たとえば、特許文献1参照)。
特開2003−141581号公報
しかしながら、上述した従来技術には、車両施設における車両の状態を、車両を特定しつつ精度よく判別し、車両施設を効率よく運用するうえで、さらなる改善の余地がある。
具体的には、上述した従来技術は、出場ゲート機において出場車両を検出するものであるため、たとえば、出場車両が発車して駐停車領域が空いたとしても、出場車両が出場ゲート機に到達するまでの間は、かかる駐停車領域は満車と判定されてしまう。このため、車両の入場が制限される時間が長くなってしまい、車両施設の稼働率を低下させてしまう。
特に、車両施設がトラック輸送の物流拠点となる物流センターである場合、物流センターは、昨今のインターネットを利用した電子商取引などの飛躍的な普及に伴う物流需要の増加に応じて、施設の大型化や、輸送機会の多頻度化も進んできている。このような物流センターにおいては、荷捌き場ほか、トラックの駐停車領域において、どのトラックがどのような状態にあるのかを精度よく判別し、運用の効率化を図ることが強く望まれている。
なお、こうした車両施設において、車両をカメラで撮影し、画像からナンバーを読み取って車両を判別する技術も知られている。しかし、たとえば複数台の車両を一台のカメラで撮影する場合や、設置場所が限られて近くで撮影できない場合、また、ズーム機能がない安価なカメラを利用している場合など、撮影条件によっては、ナンバーが小さく写ったり、画像の品質が悪かったりしてしまい、車両を判別できないことがある。
実施形態の一態様は、上記に鑑みてなされたものであって、車両施設における車両の状態を、車両を特定しつつ精度よく判別し、車両施設を効率よく運用することができる車両判別方法、車両判別装置および車両判別プログラムを提供することを目的とする。
実施形態の一態様に係る車両判別方法は、生成工程と、判別工程とを含む。前記生成工程は、車両施設の所定の駐停車領域ごとに設けられた第1のカメラによって撮像された正例となる撮像画像における車両のナンバーおよびエンブレムの該当領域が少なくとも特徴ベクトルに含まれるように機械学習を実行することによって、前記駐停車領域の状態判別モデルを生成する。前記判別工程は、前記第1のカメラによって撮像された判別対象分となる撮像画像を前記状態判別モデルへ入力することによって得られる出力値に基づいて、前記駐停車領域に駐停車中の車両のナンバーおよびエンブレムを判別する。
実施形態の一態様によれば、車両施設における車両の状態を、車両を特定しつつ精度よく判別し、車両施設を効率よく運用することができる。
図1Aは、実施形態に係る車両施設監視システムの概要説明図(その1)である。 図1Bは、実施形態に係る車両施設監視システムの概要説明図(その2)である。 図1Cは、実施形態に係る車両施設監視システムの概要説明図(その3)である。 図1Dは、実施形態に係る車両施設監視システムの概要説明図(その4)である。 図2Aは、実施形態に係る車両施設監視システムのブロック図である。 図2Bは、実施形態に係るサーバ装置のブロック図である。 図3Aは、第1判別モデルの一例を示す図である。 図3Bは、第2判別モデルの一例を示す図である。 図3Cは、第3判別モデルの一例を示す図(その1)である。 図3Dは、第3判別モデルの一例を示す図(その2)である。 図3Eは、第3判別モデルの一例を示す図(その3)である。 図3Fは、第3判別モデルの一例を示す図(その4)である。 図3Gは、第3判別モデルの一例を示す図(その5)である。 図3Hは、第3判別モデルの一例を示す図(その6)である。 図4は、入場車両リストの一例を示す図である。 図5Aは、スパンの状態パターンの具体例を示す図(その1)である。 図5Bは、スパンの状態パターンの具体例を示す図(その2)である。 図5Cは、スパンの状態パターンの具体例を示す図(その3)である。 図5Dは、スパンの状態パターンの具体例を示す図(その4)である。 図5Eは、スパンの状態パターンの具体例を示す図(その5)である。 図6Aは、全体監視画面の具体例を示す図である。 図6Bは、個別監視画面の具体例を示す図(その1)である。 図6Cは、個別監視画面の具体例を示す図(その2)である。 図6Dは、手動割り当て操作の一例を示す図である。 図7Aは、実施形態に係る生成部が実行する処理手順を示すフローチャートである。 図7Bは、実施形態に係る判別部が実行する処理手順を示すフローチャートである。 図8Aは、実施形態に係る車両施設監視システムが実行する処理手順を示すフローチャート(その1)である。 図8Bは、実施形態に係る車両施設監視システムが実行する処理手順を示すフローチャート(その2)である。 図8Cは、実施形態に係る車両施設監視システムが実行する処理手順を示すフローチャート(その3)である。 図8Dは、実施形態に係る車両施設監視システムが実行する処理手順を示すフローチャート(その4)である。 図9は、実施形態に係るサーバ装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下、添付図面を参照して、本願の開示する車両判別方法、車両判別装置および車両判別プログラムの実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。
また、以下では、車両施設が、トラック輸送の物流拠点となる物流センターである場合を例に挙げて説明を行うが、以下で「トラック」と言った場合、荷室を有し、かかる荷室へ輸送品を積載して、輸送品を物流センターへ搬入または物流センターから搬出することができる車両を広く含むものとする。
まず、実施形態に係る車両判別方法を適用した車両施設監視システムの概要について、図1A〜図1Dを参照して説明する。図1A〜図1Dは、実施形態に係る車両施設監視システム1の概要説明図(その1)〜(その4)である。
図1Aに示すように、実施形態に係る車両施設監視システム1は、物流センター2と、サーバ装置10(「車両判別装置」の一例に相当)とを含む。物流センター2は、輸送品の入荷、保管、ピッキング、流通加工、検品、出荷といった物流に関する各種業務が行われる。
たとえば、物流センター2は、トラックTが進入可能な複数のフロアを有し、各フロアには、所定の区画であるスパン21が設けられている。スパン21は、物流センター2における所定の駐停車領域の一例であって、トラックTの荷捌き場となる領域である。なお、本実施形態では、物流センター2が複数のフロアを有することとするが、物流センター2は単一のフロア、すなわち、平屋であってもよい。
図1Aに示すように、スパン21は、たとえば物流センター2内の柱と柱の間に形成されている。スパン21内のトラックTの駐停車箇所は、「バース」と呼ばれる。なお、スパン21は、複数のトラックを停めることができる寸法を有して形成されている。したがって、スパン21は、複数のバースを有する。
また、スパン21は、許容台数が動的に変化するように複数のトラックTを停車させることができる。言い換えれば、バースの数を動的に変化させることができる。
たとえば、1つのスパン21には、図中の「403」のスパン21に示すように、大型のトラックTを2台停車させることができる。また、同じ大きさのスパン21には、たとえば、小型のトラックT(図示略)を2台以上停車させることができる。また、無論、1つのスパン21には、大型と小型のトラックTを混在させて停車させることもできる。
なお、ここに言う「大型」、「小型」は、相対的なサイズの大小を指すものであって、車両寸法や最大積載量、車両総重量などによって分類される、「小型トラック」、「中型トラック」、「大型トラック」の規格を指すものではない。以下では、かかる「大型」および「小型」を区分けする必要がある場合については、「大型」のトラックは「トラックT1」と、「小型」のトラックは「トラックT2」と、それぞれ記載する。
また、図中の「404」のスパン21に示すように、スパン21は、前述の柱と柱の間にシャッター22を具備することができる。かかるシャッター22を閉めることにより、スパン21は戸締まりされた状態となる。なお、シャッター22は、「巻き取り式」、「折りたたみ式」、「オーバースライダー式」など、収納方法の違いは問わない。
また、物流センター2は、たとえば敷地内に、トラックTの待機場23を有する。待機場23は、物流センター2における所定の駐停車領域の一例であって、物流センター2内へ入場する前のトラックTを待機させておく場所である。
そして、車両施設監視システム1は、カメラ24を備える。カメラ24は、物流センター2におけるスパン21および待機場23ごとに設けられ、各スパン21および待機場23をそれぞれ撮像する。
なお、カメラ24は、たとえば物流センター2内の柱などに、それぞれ特定のスパン21をたとえば斜め前方などから撮像可能な向きで取り付けられる。また、カメラ24は、たとえば物流センター2の敷地内の柱などに、待機場23全体を斜め上方などから撮像可能な向きで取り付けられる。ただし、いずれもカメラ24の取り付けられる向きを限定するものではない。
また、カメラ24は、無線カメラであっても、有線カメラであってもよい。無線カメラの場合、カメラ24の配線を引き回す必要がなく、増設/変更等が容易であるというメリットが得られる。また、カメラ24は、スチルカメラであってもムービーカメラであってもよい。本実施形態では、カメラ24は、無線式のスチルカメラであるものとする。
そして、本実施形態では、かかるカメラ24によって撮像された正例となる撮像画像を用いた機械学習を実行することで、物流センター2における駐停車領域の状態判別モデルを生成することとした。そして、カメラ24によって撮像された判別対象分となる撮像画像を状態判別モデルへ入力することによって得られる出力値に基づいて、駐停車領域、たとえばスパン21それぞれの状態を判別することとした。
具体的には、図1Aに示すように、車両施設監視システム1は、物流センター2からは、インターネット等のネットワークNを介して周期的に、各カメラ24によって撮像された撮像画像を送信する(ステップS1)。
そして、サーバ装置10は、物流センター2から送信された各カメラ24の撮像画像を収集する(ステップS2)。なお、サーバ装置10は、たとえばクラウドコンピューティングにおけるクラウドサーバとして設けられる。
そして、サーバ装置10は、収集した撮像画像のうちの正例となる学習対象分を用いた機械学習により、状態判別モデルを生成する(ステップS3)。機械学習には、ディープラーニング等、公知のアルゴリズムを用いることができる。
そして、サーバ装置10は、生成した状態判別モデルにより、たとえば各スパン21の状態判別を行う(ステップS4)。具体的には、サーバ装置10は、収集した撮像画像のうちの判別対象分を状態判別モデルへ入力し、それによって得られる状態判別モデルからの出力値に基づいて、各スパン21の状態をリアルタイムに判別する。
たとえばサーバ装置10は、スパン21の「満空状態を判別」する。また、サーバ装置10は、たとえば「シャッター22の開閉状態を判別」する。本実施形態に係る車両施設監視システム1が判別可能な駐停車領域のこれら判別例については、図5A〜図5Eを用いた説明で後述する。
また、サーバ装置10は、スパン21に駐停車中の「車両を特定」する。すなわち、サーバ装置10は、物流センター2において、どのトラックTがどのスパン21に駐停車中かを判別する。
具体的には、まず、図1Bに示すように、実施形態に係る車両施設監視システム1は、トラックTの物流センター2への「入場時」および「退場時」において、高精細カメラ28によるナンバーおよびエンブレムの読み取りを行う(ステップS5)。
ここで、「ナンバー」は、ナンバープレートに記載された番号である(図中のM1部参照)。ナンバープレートは、登録自動車の自動車登録番号標、軽自動車や自動二輪車といった登録自動車以外の車両番号標、小型特殊自動車や原動機付自転車の標識を含む。
また、「エンブレム」は、トラックTの前面に取り付けられた、たとえば社章、ロゴタイプ、フードクレストマークなどである(図中のM2部参照)。ブランド名、車名、排気量、グレードを表す文字列を含んでもよい。
高精細カメラ28(「第2のカメラ」の一例に相当)は、前述のカメラ24より少なくとも解像度が高いカメラであり、物流センター2の入退場口にそれぞれ設けられる。かかる高精細カメラ28により、トラックTのナンバーおよびエンブレムを読み取ることによって、物流センター2内へ入場中のトラックTの識別情報を把握する。
一方で、実施形態に係る車両施設監視システム1は、サーバ装置10が、カメラ24から収集した撮像画像のうちの正例となる学習対象分を用いた機械学習により状態判別モデルを生成するが(図1AのステップS3)、かかる際に、図1Cに示すように、サーバ装置10は、あわせて学習対象分の撮像画像中における車両、ナンバーおよびエンブレムの該当領域(図中の領域FR1,FR2,R11,R12,R21,R22参照)を機械学習する(ステップS6)。
かかるステップS6における機械学習のアルゴリズムとしては、たとえば、ディープラーニングの一種である敵対的生成ネットワーク(GAN:Generative Adversarial Network)や、VAE(Variational Auto Encoder)、CNN(Convolutional Neural Network)、faster R−CNN(Region-based Convolutional Neural Networks)等を用いることができる。
なお、図1Cに示すように、機械学習を用いた画像判別において画像特徴量としてあらわれやすいエンブレムの該当領域(図中の領域R12,R22参照)を、ナンバーの該当領域(図中の領域R11,R21参照)に対し組み合わせることによって、判別精度を向上させるのに資することができる。
具体的には、エンブレムは、ナンバーの各文字よりも大きく映りやすいことから、ナンバーの各文字が見えにくい場合でも、少なくともナンバーよりは判別精度は高い。そこで、本実施形態では、ナンバーとエンブレムの両方を判別し、総合的なマッチング率を算出することで、ナンバーのいずれかの文字を誤判別したとしても、車両の判別精度は確保することができる。こうした点については、図3C〜図3Hや、図7A〜図8Dを用いた説明で後述する。
ステップS6の機械学習の結果、図1Dに示すように、サーバ装置10は、たとえば状態判別モデルの1つとして第3判別モデル13eを生成する。第3判別モデル13eは、複数の各種モデルを含む。サーバ装置10は、かかる第3判別モデル13eへ判別対象分となる各スパン21の画像を入力し、その結果、第3判別モデル13eの各種モデルから得られる出力値に基づいて、各スパン21に駐停車中のトラックTのナンバーおよびエンブレム(図中のM1,M2部参照)を判別する(ステップS7)。
そして、サーバ装置10は、ステップS7における判別結果を、高精細カメラ28による読み取り結果とマッチングすることによって(ステップS8)、車両停車位置を特定する(ステップS9)。すなわち、サーバ装置10は、どのトラックTが、どのスパン21のどのバースに駐停車中かを判別する。
そして、サーバ装置10は、かかるトラックTの特定を含む各スパン21の状態を、たとえばサーバ装置10が備えるディスプレイ等の監視画面へ表示させる。オペレータは、かかる監視画面を確認することによって各スパン21の状態を把握し、たとえばトラックTの配車や予約、スパン21のバースの予約、トラックTの呼び出し、バースの監視、トラックTの出庫確認といった物流センター2の運用業務を、効率よく円滑に遂行することができる。
監視画面の具体的な例については、図6A〜図6Dを用いた説明で後述する。また、監視画面の表示先は、たとえばオペレータが携帯する携帯情報端末等であってもよい。
このように、本実施形態に係る車両施設監視システム1は、カメラ24の撮像画像に基づいて生成された状態判別モデルにより、所定の駐停車領域の各状態をリアルタイムに判別することとしたので、駐停車領域の状態を精度よく判別することができる。また、判別される各状態は、前述の「車両を特定」する場合を含むので、たとえば物流センター2のどこのスパン21のどのバースにどのトラックTが駐停車中であるか等を把握することができ、物流センター2をより効率よく運用することが可能となる。
以下、上述した実施形態に係る車両施設監視システム1の構成例について、さらに具体的に説明する。
図2Aは、実施形態に係る車両施設監視システム1のブロック図である。また、図2Bは、実施形態に係るサーバ装置10のブロック図である。なお、図2Aおよび図2Bでは、本実施形態の特徴を説明するために必要な構成要素を機能ブロックで表しており、一般的な構成要素についての記載を省略している。
換言すれば、図2Aおよび図2Bに図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。
なお、図2Aおよび図2Bを用いた説明では、これまでに既に述べた構成要素については、説明を簡略化するか、省略する場合がある。
図2Aに示すように、車両施設監視システム1は、物流センター2と、サーバ装置10とを含む。物流センター2は、複数のスパン21と、待機場23と、中継装置25と、ゲートウェイ装置26と、入退場口27と、を有する。
中継装置25は、たとえば物流センター2の各フロアごとに設けられ、各スパン21のカメラ24の撮像画像を集約してたとえば同じく各フロアごとに設けられたゲートウェイ装置26へ送信する。また、中継装置25は、入退場口27の高精細カメラ28の撮像画像をゲートウェイ装置26へ送信する。
また、中継装置25は、たとえば物流センター2の敷地内で、待機場23のカメラ24とゲートウェイ装置26との間に設けられ、待機場23のカメラ24の撮像画像をゲートウェイ装置26へ装置する。中継装置25を設けることによって、物流センター2が大規模なものであったとしても、各スパン21、待機場23および入退場口27の撮像画像を集約して周期的に収集することが可能となる。
ゲートウェイ装置26は、物流センター2からネットワークNへの中継装置であって、たとえばフィールドバスネットワークで中継装置25と接続され、中継装置25から受信した撮像画像をネットワークNへ送信する。
次に、図2Bに示すように、サーバ装置10は、通信部11と、制御部12と、記憶部13とを有する。制御部12は、収集部12aと、抽出部12bと、生成部12cと、取得部12dと、判別部12eと、監視部12fとを有する。
通信部11は、たとえば、NIC(Network Interface Card)等によって実現される。通信部11は、ネットワークNと有線または無線で接続され、ネットワークNを介して物流センター2からカメラ24または高精細カメラ28の各撮像画像を受信し、制御部12へ渡す。
制御部12は、コントローラ(controller)であり、たとえば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、サーバ装置10内部の記憶装置に記憶されている各種プログラムがRAM(Random Access Memory)を作業領域として実行されることにより実現される。また、制御部12は、たとえば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
記憶部13は、たとえば、RAM、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現され、図2Bの例では、撮像画像DB(データベース)13aと、学習対象分データセット13bと、状態判別モデルとしての第1判別モデル13c,第2判別モデル13d,第3判別モデル13eと、入場車両リスト13fと、判別対象分データセット13gと、判別結果DB13hとを記憶する。
制御部12は、サーバ装置10の全体制御を行う。収集部12aは、通信部11を介し、物流センター2から各カメラ24の撮像画像を収集し、撮像画像DB13aへ格納する。
抽出部12bは、撮像画像DB13aから、機械学習に用いられる正例となる撮像画像、すなわち学習対象分を抽出し、学習対象分データセット13bへ格納する。また、撮像画像DB13aから、物流センター2の運用中において判別対象となる撮像画像、すなわち判別対象分を抽出し、判別対象分データセット13gへ格納する。
生成部12cは、学習対象分データセット13bを取得し、操作部20を介したユーザ(たとえばオペレータ)からの操作を適宜受け付けつつ、学習対象分データセット13bを用いた機械学習を実行して、状態判別モデルを生成する。
ここで、状態判別モデルの一例について、図3A〜図3Hを用いて説明する。図3Aは、第1判別モデル13cの一例を示す図である。また、図3Bは、第2判別モデル13dの一例を示す図である。また、図3C〜図3Hは、第3判別モデル13eの一例を示す図(その1)〜(その6)である。
図3Aに示すように、たとえば生成部12cは、学習対象分としてスパン21の完全空車状態の撮像画像を用いた機械学習を実行し(ステップS11)、第1判別モデル13cを生成する。
一方で、図3Bに示すように、たとえば生成部12cは、学習対象分としてスパン21の各状態パターンの撮像画像を用いた機械学習を実行し(ステップS12)、第2判別モデル13dを生成する。
ここで、「状態パターン」とは、物流センター2の運用においてスパン21に対し起こりうる各状態を指し、たとえば「トラック2台停車」や「トラック1台停車」、「大型・小型が混在」、「シャッターが閉状態」といった各種パターンごとでクラスタリングされている。かかる各状態パターンの学習対象分に基づいて生成される第2判別モデル13dにより、言わばスパン21が完全空車状態でない場合の状態パターンをモデル化することができる。
そして、図3Aに戻り、後述する判別部12eは、まず判別対象分の撮像画像を第1判別モデル13cへ入力し、その結果、第1判別モデル13cから得られる出力値に基づいて、学習済みクラスとの乖離度を算出する(ステップS13)。この乖離度がたとえば所定の閾値以下であるならば、入力した撮像画像が示すスパン21の状態は、完全空車状態であることを示す。また、乖離度が閾値を上回るならば、入力した撮像画像が示すスパン21の状態は、完全空車状態ではないことを示す。
そして、判別部12eは、図3Bに示すように、乖離度が大きかった判別対象分の撮像画像を第2判別モデル13dへ入力し、その結果得られる第2判別モデル13dの出力値(たとえば図中の「分類ID」)に基づいて、各スパン21の状態パターンを判別することとなる(ステップS14)。
また、生成部12cは、第3判別モデル13eを生成する。図3Cに示すように、たとえば第3判別モデル13eは、第1検知モデル13eaと、第2検知モデル13ebと、生成モデル13ecと、第3検知モデル13edとを含む。
第1検知モデル13eaは、車両領域(図1Cの領域FR1,FR2参照)を検知するモデルである。また、第2検知モデル13ebは、ナンバーおよびエンブレム領域(図1Cの領域R11,R12,R21,R22参照)を検知するモデルである。
また、生成モデル13ecは、ナンバー領域画像を高解像化させた高解像画像を生成するモデルである。また、第3検知モデル13edは、かかる高解像画像の各文字領域における文字を検知するモデルである。
具体的には、図3Dに示すように、まず生成部12cは、学習対象分となる各スパン21の撮像画像に対して、車両、ナンバーおよびエンブレムの各領域と分類クラスを設定したうえで、かかる学習対象分を用いた機械学習を実行し(ステップS15)、第1検知モデル13eaを生成する。
第1検知モデル13eaは、判別部12eが、判別対象分となる各スパン21の撮像画像を入力した場合に、かかる撮像画像中における車両領域(図中の領域FR1参照)を検知して(ステップS16)、出力する。
また、図3Eに示すように、生成部12cは、同じく学習対象分の各スパン21の撮像画像を用いた機械学習を実行し(ステップS17)、第2検知モデル13ebを生成する。
第2検知モデル13ebは、判別部12eが、同じく判別対象分の各スパン21の撮像画像を入力した場合に、かかる撮像画像中におけるナンバーおよびエンブレム領域(図中の領域R11,R12参照)を検知して(ステップS18)、出力する。あわせて、第2検知モデル13ebは、エンブレムの分類クラス(図中の「A社」参照)を出力する。
生成部12cは、第3判別モデル13eの生成過程において、これら第1検知モデル13eaおよび第2検知モデル13ebに対し判別対象分として学習対象分の各画像を入力し、その結果に基づいてナンバー領域の切り出しを行う(ステップS19)。そして、生成部12cは、切り出したナンバー領域画像の高解像化を行う(ステップS20)。
かかる高解像化は、ナンバー領域画像に対し公知の高解像化アルゴリズム(たとえば、GANによる「Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Networks」等)を用いた所定の高解像化処理を実行し、かかる高解像化処理後の画像をさらに鮮明にする加工を人手により施すことによって行われる。人手による加工は、操作部20を介したユーザの操作に基づいて行われる。
なお、人手を加えるのは、一般の高解像化処理では高解像化に限度があるためである。高解像画像を生成するための一般の高解像化処理では、鮮明な画像を一般的な画像処理(ぼかし)で劣化させ、その逆工程を学習することによって行われるが、画像処理によって作り出される劣化と実際の画像の劣化とが一致しないことも多い。このため、学習の結果、生成されるようになる高解像画像が、実はうまく高解像化されていないケースもある。そこで、本実施形態では、所定の高解像化処理によってナンバー領域画像をある程度鮮明にした後に、人手によりさらに鮮明にして高解像化画像とし、次のステップS21での教師データとしている。
人手による鮮明化は、図3Eの最下段の高解像画像中に破線の閉曲線で囲んだ各部分として示すように、文字が小さい部分や、輪郭がぼやけやすい部分などに対し施すと好適である。
そして、生成部12cは、図3Fに示すように、上述のステップS19で切り出したナンバー領域の切り出し画像、および、ステップS20でこれを高解像化させた高解像画像を学習対象分として用いた機械学習を実行し(ステップS21)、生成モデル13ecを生成する。
生成モデル13ecは、判別部12eが、判別対象分となるナンバー領域の切り出し画像を入力した場合に、かかる切り出し画像を高解像化させた高解像画像を出力する(ステップS22)。
また、生成部12cは、図3Gに領域C1〜C4ほか破線の矩形で囲んだ部分として示すように、図3Fで学習対象分となった高解像画像の各文字領域と分類クラスを設定する。
そして、そのうえで図3Fに示すように、これら高解像画像を学習対象分として用いた機械学習を実行し(ステップS23)、第3検知モデル13edを生成する。
第3検知モデル13edは、判別部12eが、判別対象分となるナンバー領域の高解像画像を入力した場合に、たとえば領域C1〜C4ごとの分類クラス、すなわち「8」、「5」、「1」、「9」といった、文字領域ごとの文字の判別結果を出力する(ステップS24)。
このように生成された第3判別モデル13eについては、判別部12eは、第2判別モデル13dによって判別された各スパン21の状態パターンがたとえばトラックTの駐停車中を示す場合、該当する判別対象分の撮像画像を第3判別モデル13eへ入力し、その結果得られる第3判別モデル13eの出力値に基づいて、各スパン21に駐停車中のトラックTのナンバーおよびエンブレムを判別し、トラックTを特定することとなる。
なお、図3A〜図3Hに示した状態判別モデル、および、これを用いた判別方法はあくまで一例であって、状態判別モデルを構成するモデルの数や、各モデルにおけるクラスタリング等を図3A〜図3Hに示した例に限定するものではない。たとえば、第1検知モデル13eaおよび第2検知モデル13ebは、1つのモデルとして生成され、かかるモデルへ判別対象分の各スパン21の撮像画像を入力した場合に、車両、ナンバーおよびエンブレムの各領域が一度に検知されるようにしてもよい。
図2Bの説明に戻る。取得部12dは、通信部11を介し、物流センター2から高精細カメラ28の撮像画像を取得し、撮像画像からトラックTのナンバーを読み取る。なお、取得部12dは、かかる読み取りに第3判別モデル13eを用いることができる。また、取得部12dは、入場口側の高精細カメラ28の撮像画像から読み取ったナンバーを入場車両リスト13fへ格納する。
ここで、入場車両リスト13fの一例について、図4を用いて説明しておく。図4は、入場車両リスト13fの一例を示す図である。入場車両リスト13fは、物流センター2へ入場中のトラックTに関する情報であり、たとえば図4に示すように、「入場日時」項目と、「エンブレム」項目と、「ナンバー」項目と、「バース割当」項目と、「バースID」項目とを含む。「エンブレム」項目は、たとえば「社名」項目を含む。
「入場日時」項目は、該当のトラックTの入場日時が格納される。入場日時は、たとえば入場口の高精細カメラ28による撮影日時である。「エンブレム」項目および「ナンバー」項目は、取得部12dによって読み取られたエンブレムおよびナンバーがそれぞれ格納される。
「バース割当」項目は、該当のトラックTにいずれかのバースが割り当てられているか否かを示す情報が格納される。たとえば、割り当て済みであれば「済」が、割り当て済みでなければ「未」が、それぞれ格納される。
ここで、割り当て済みとは、図1DのステップS8に示したマッチングにより、該当のトラックTが駐停車中のバースが特定されている状態を指す。「バースID」項目は、かかる特定されたバースの識別情報が格納される。
図2Bの説明に戻る。また、取得部12dは、退場口側の高精細カメラ28の撮像画像から読み取ったナンバーに該当するトラックTを入場車両リスト13fから削除する。なお、取得部12dは、かかる読み取りにおいても第3判別モデル13eを用いることができる。
判別部12eは、判別対象分データセット13gを取得し、これを第1判別モデル13cへ入力して、第1判別モデル13cによる出力値を受け取る。そして、判別部12eは、受け取った出力値に基づいて前述の乖離度を算出し、かかる乖離度が所定の閾値以下であれば、スパン21を完全空車状態であると判別し、判別結果を判別結果DB13hへ格納する。
また、判別部12eは、乖離度が閾値を上回るならば、該当する判別対象分の撮像画像を第2判別モデル13dへ入力する。そして、判別部12eは、その結果得られる第2判別モデル13dの出力値に基づいて、各スパン21の状態パターンを判別し、判別結果を判別結果DB13hへ格納する。
ここで、図5A〜図5Eを用いて、判別部12eが判別する状態パターンの各例について、さらに具体的に説明する。図5A〜図5Eは、スパン21の状態パターンの具体例を示す図(その1)〜(その5)である。
図5Aには、スパン21が完全空車状態である状態パターンを示している。なお、図5Aに示すように、同じ完全空車状態でも、照度が異なる撮像画像を用いた機械学習を実行することによって、時間帯等による明暗の差がある場合であっても、スパン21の状態を精度よく判別可能な状態判別モデルを生成することができる。かかる点は、図5B〜図5Eに示す状態パターンでも同様とする。
次に、図5Bには、スパン21に大型のトラックT1が2台駐停車中の状態を示している。かかる場合、いずれか一方のトラックT1が「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21にトラックT1が2台許容できる場合において、スパン21が満車状態であるのか、または、一方のバースが空いているのかを判別することが可能となる。
次に、図5Cには、スパン21に大型のトラックT1と小型のトラックT2とが混在している状態を示している。かかる場合、いずれか一方が「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21にトラックT1,T2が混在できる場合において、スパン21が満車状態であるのか、または、バースに空きがあるのかを判別することが可能となる。
なお、図5Cには、スパン21内のトラックT1,T2のサイズの相対的な大小を例に挙げたが、無論、車両寸法や最大積載量、車両総重量などによって分類される規格通りに「小型トラック」、「中型トラック」、「大型トラック」等をクラスタリングし、機械学習を実行するようにしてもよい。また、無論、メーカーや車種の異同に基づいて撮像画像をクラスタリングし、機械学習を実行するようにしてもよい。
次に、図5Dには、スパン21が具備するシャッター22の閉状態を示している。かかるシャッター22の閉状態を含めた機械学習を実行することによって、スパン21が戸締まり状態であるのかを判別することが可能となる。
なお、図5Eに示すように、シャッター22の閉状態の程度が異なる場合を含めた機械学習を実行することによって生成された状態判別モデルを用いて、スパン21の撮像画像の判定結果を時系列的に解析することによって、シャッター22が閉状態から開状態となったのか、開状態から閉状態となったのか、その途中であるのか、あるいは途中で止まっているのか等を判別することも可能である。
この他にも、車両以外の物体、たとえばコンテナや、作業者等の人間等が「存在する場合/しない場合」をそれぞれ含めた機械学習を実行することによって、スパン21に車両以外の物体が存在していることを判別することが可能となる。また、かかる場合において、スパン21がトラックTの進入できない状態であるのか、一方のバースが空いているのか、または、作業者がいるため注意を要するといった状態を判別することが可能となる。
図2Bの説明に戻る。また、判別部12eは、判別された各スパン21の状態パターンがたとえばトラックTの駐停車中を示す場合、該当する判別対象分の撮像画像を第3判別モデル13eへ入力する。そして、判別部12eは、その結果得られる第3判別モデル13eの出力値に基づいて、駐停車中のトラックTのナンバーおよびエンブレムを判別する。
また、判別部12eは、判別したトラックTのナンバーおよびエンブレムと、入場車両リスト13fとをマッチングし、該当するトラックTが入場車両リスト13fに存在すれば、バースを割り当てる。具体的には、判別部12eは、入場車両リスト13f中の該当するトラックTの「バース割当」項目へ「済」を設定するとともに、「バースID」項目へバースの識別情報を格納する。また、判別部12eは、バースの割り当て結果を判別結果DB13hへ反映する。
監視部12fは、判別部12eによって判別されたスパン21の状態を判別結果DB13hから取得し、所定の監視画面へ表示させる。監視画面は、たとえばサーバ装置10に接続されたディスプレイ等である表示部30へ表示される。
また、監視部12fは、少なくともスパン21ごとの満空状態およびスパン21のシャッター22の開閉状態を監視画面へ表示させる。また、監視部12fは、カメラ24によるスパン21または待機場23の最新の撮像画像を監視画面へ表示させる。撮像画像は、たとえば判別結果に対応付けられて判別結果DB13hへ格納されている。
また、監視部12fは、スパン21ごとの個別の監視画面において、バースが割り当て済みである、すなわち停車位置を特定済みであるトラックTの識別情報、たとえばナンバーを表示させる。
ここで、図6A〜図6Cを用いて、監視画面の具体例について説明する。図6Aは、全体監視画面の具体例を示す図である。また、図6Bおよび図6Cは、個別監視画面の具体例を示す図(その1)および(その2)である。
図6Aに示すように、物流センター2の全体を監視する全体監視画面は、たとえば少なくともスパン21ごとの満空状態およびスパン21のシャッター22の開閉状態を表示する。なお、図6Aには、1Fに「101」〜「105」、2Fに「201」〜「205」、3Fに「301」〜「305」、4Fに「401」〜「405」で示される各スパン21の状態を表示した場合を示しているが、フロア数、スパン数を限定するものではない。
具体的には、全体監視画面は、各フロアのスパン21を、たとえばそれぞれアイコン表示する。そして、かかる各アイコンに、それぞれ「満」、「0/2」や「1/2」といった分数、「閉」、「NG」等の、状態を端的に示す文言を表示することによって、各スパン21の状態をオペレータ等の視認者に視認させる。なお、たとえば「更新」ボタンを押すことによって、最新の状況を表示させることができる。「更新」ボタンは、「手動更新」および「自動更新」の切り替え機能を含んでいてもよい。
たとえば「満」は、そのスパン21が満車状態であることを示し、判別部12eによって、該当のスパン21が満車状態であると判別された場合に表示される。
また、たとえば「0/2」や「1/2」といった分数は、そのスパン21に空きバースがあることを示す。たとえば「0/2」は、判別部12eによって、該当のスパン21がトラックTを2台許容できる場合において、完全空車状態であると判別された場合に表示される。
また、たとえば「1/2」は、判別部12eによって、該当のスパン21がトラックTを2台許容できる場合において、空きバースが1つある状態であると判別された場合に表示される。
また、たとえば「閉」は、そのスパン21のシャッター22が閉状態であることを示し、判別部12eによって、該当のスパン21のシャッター22が閉状態であると判別された場合に表示される。図6Aに示す例では、4Fはすべてのスパン21が「閉」状態にあり、かかる場合において監視部12fは、たとえば4Fのフロアをセキュリティ管理することができる。
また、たとえば「NG」は、そのスパン21のシャッター22が異常状態であることを示し、判別部12eによって、たとえば該当のスパン21のシャッター22が故障中であると判別された場合等に表示される。判別部12eは、たとえばシャッター22が途中で止まったままの状態で所定時間が経過した場合等に、かかるシャッター22を故障中であると判別することができる。
また、図6Aに示すように、全体監視画面は、たとえば各フロアの空きバースの数を表示させることができる。また、全体監視画面は、待機場23の最新の撮像画像を表示させることができる。なお、たとえば「撮影」ボタンを押すことによって、さらに最新の撮像画像を表示させることもできる。
また、全体監視画面は、たとえば特定のスパン21を指定する操作を行うことによって、かかるスパン21の個別監視画面へと遷移することができる。ここで、1Fの「102」で示されるスパン21が指定されたものとする。
すると、図6Bに示すように、かかる「102」のスパン21の個別監視画面へと表示を遷移させることができる。個別監視画面では、たとえば指定されたスパン21における「バースID」ごとの「満空情報」と、各バースに割り当てられたトラックTの「ナンバー」と、「駐車時刻」とが表示される。なお、全体監視画面と同様に、たとえば「更新」ボタンを押すことによって、最新の状況を表示させることができる。
また、図6Bに示すように、個別監視画面は、該当のスパン21の最新の撮像画像を表示させることができる。また、たとえば「撮影」ボタンを押すことによって、さらに最新の撮像画像を表示させることもできる。
物流センター2のオペレータは、かかる個別監視画面を視認することによって、該当のスパン21の詳細な状況、たとえば「102」のスパン21の各バース102−01,102−02には、表示された駐車時刻から、表示されたナンバーの各トラックTがそれぞれ駐停車中であることを即座に確認することができる。
そして、オペレータは、このような全体監視画面および個別監視画面を視認することによって、空きバースのあるスパン21を特定し、かかるスパン21へ停車可能なトラックTを待機場23の最新画像を介して選定して、たとえば音声や誘導灯により、誘導することができる。なお、トラックTのドライバが携帯する携帯情報端末や、トラックTに搭載されたナビ等の車載装置へ、空きバースの情報を通知することによって誘導してもよい。
ところで、判別部12eがトラックTのナンバーおよびエンブレムの判別を試みたものの、判別対象分であるカメラ24の撮像画像の品質や外的要因等により、判別できなかった場合や、誤判別してしまった場合が起こりうる。誤判別してしまった場合、結果として、高精細カメラ28による読み取り結果とのマッチングにおいてマッチングエラーが生じることとなる。
かかる場合、実施形態に係る車両施設監視システム1は、オペレータによるバースの手動割り当てが可能となるようにしている。ここで、図6Cに示すように、たとえば「102」のスパン21のバース102−02について、前述のマッチングエラーが生じたものとする。
すると、かかる場合に、個別監視画面はたとえば、図6Cに示すようにマッチングエラーを示す「照合できません」のメッセージを表示させるとともに、「手動割当」ボタンを表示させる。個別監視画面は、オペレータがかかる「手動割当」ボタンを押下することにより、バースの手動割り当てを可能にする手動割り当て操作部を表示させることができる。
図6Dは、手動割り当て操作の一例を示す図である。手動割り当て操作部では、図6Dに示すように、GUIウィジェットのドロップダウンリストなどにより、入場車両リスト13fにおいて「バース割当」項目が「未」であるトラックTのナンバー、すなわち物流センター2へ入場したもののステータスが「バース未割当」であるトラックTのナンバーが選択可能となっている。
そして、オペレータが、たとえば個別監視画面に表示された該当のスパン21の撮像画像を視認しつつ、図6Dに示すように、特定のトラックTのナンバーを選択し、「設定」ボタンを押下すると設定内容が確定される。かかる確定により、たとえば判別部12eが、該当のトラックTにつき、入場車両リスト13fの「バース割当」項目を「済」とし、「バースID」項目にバースの識別情報を格納して、該当のトラックTのステータスを「バース割当済」とさせる。
これにより、物流センター2へ入場したものの、カメラ24の撮像画像の品質や外乱等の影響により、システム上バースが割り当てられていないトラックTが生じている場合に、容易な操作で、手動割り当てを行うことができる。また、これにより、物流センター2へ入場したトラックTと、かかるトラックTが駐停車中のバースとの関連付けの整合性を確保するのに資することができる。すなわち、物流センター2の運用の信頼性を保つのに資することができる。
なお、図6A〜図6Dに示した各種画面はあくまで一例であって、車両施設監視システム1において監視する内容や、画面レイアウト等を限定するものではない。
次に、実施形態に係る車両施設監視システム1が実行する処理手順について、図7A〜図8Dを用いて説明する。なお、図7Aおよび図7Bを用いては特に、生成部12cが第3判別モデル13eを生成し、判別部12eがこれを用いてナンバーおよびエンブレムを判別する場合の処理手順について説明する。また、図8A〜図8Dを用いては、トラックTの物流センター2への入場時から退場時までの一連の処理手順について説明する。
図7Aは、実施形態に係る生成部12cが実行する処理手順を示すフローチャートである。また、図7Bは、実施形態に係る判別部12eが実行する処理手順を示すフローチャートである。また、図8A〜図8Dは、実施形態に係る車両施設監視システム1が実行する処理手順を示すフローチャート(その1)〜(その4)である。
まず、生成部12cが第3判別モデル13eを生成する場合の処理手順から説明する。図7Aに示すように、かかる生成に先立って、収集部12aが、学習対象分となる撮像画像を収集する(ステップS101)。
そして、生成部12cが、かかる学習対象分に対して、車両、ナンバーおよびエンブレムの各領域と分類クラスを設定する(ステップS102)。そして、生成部12cは、かかる学習対象分および設定情報から、車両領域を検知する第1検知モデル13eaを機械学習により生成する(ステップS103)。
また、生成部12cは、同じく学習対象分および設定情報から、ナンバーおよびエンブレム領域を検知する第2検知モデル13ebを機械学習により生成する(ステップS104)。
そして、生成部12cは、学習対象分からナンバー領域を切り出す(ステップS105)。なお、このとき、第2検知モデル13ebの検知結果を利用してもよいし、利用しなくともよい。
そして、生成部12cは、切り出したナンバー領域画像から、上述したように所定の高解像化処理および人手により高解像画像を生成する(ステップS106)。
そして、生成部12cは、高解像化前のナンバー領域画像および高解像画像から、高解像画像の生成モデル13ecを機械学習により生成する(ステップS107)。また、生成部12cは、高解像画像に対して、文字領域と分類クラスを設定する(ステップS108)。
そして、生成部12cは、かかる設定情報と高解像画像から、各文字領域の文字を検知する第3検知モデル13edを機械学習により生成し(ステップS109)、処理を終了する。
次に、判別部12eが第3判別モデル13eを用いてナンバーおよびエンブレムを判別する場合の処理手順について説明する。図7Bに示すように、かかる判別に先立って、取得部12dが、判別対象分となる撮像画像を取得する(ステップS201)。
そして、判別部12eは、かかる判別対象分を第1検知モデル13eaへ入力し、第1検知モデル13eaが出力する車両領域を取得する(ステップS202)。また、判別部12eは、同じく判別対象分を第2検知モデル13ebへ入力し、第2検知モデル13ebが出力するナンバーおよびエンブレム領域を取得する(ステップS203)。また、このとき判別部12eは、エンブレムを判別する。
そして、判別部12eは、取得した車両領域にナンバー領域が含まれる場合、車両と判別する(ステップS204)。そして、判別部12eは、車両と判別した場合、判別対象分からナンバー領域を切り出す(ステップS205)。
そして、判別部12eは、切り出したナンバー領域画像を生成モデル13ecへ入力し、高解像画像を生成する(ステップS206)。そして、判別部12eは、生成した高解像画像を第3検知モデル13edへ入力し、第3検知モデル13edが出力する文字領域と分類クラスを取得する(ステップS207)。
そのうえで、判別部12eは、文字領域から位置関係を特定し、ナンバーを判別する(ステップS208)。そして、判別部12eは、判別したナンバーとエンブレムを入場車両リスト13fとマッチングして、車両を特定し(ステップS209)、処理を終了する。
ここで、判別したナンバーおよびエンブレムと、入場車両リスト13fとをマッチングする方法の一例について説明しておく。
判別部12eはたとえば、
上記式(1)により、ナンバーの正解率AccN(0.0〜1.0)を算出する。ここで、AccIiは、4桁のナンバーの各数字の正解値(0もしくは1、なおiはインデックス番号(1〜4))である。
AccCiは、運輸支局の地域名等、4桁のナンバー以外の各文字の正解値(0もしくは1、なおiはインデックス番号(1〜NC))である。NCは、かかる4桁のナンバー以外の文字の数である。αは、4桁のナンバーと、かかる4桁のナンバー以外の文字との結合係数である。運用上、4桁のナンバーを判別できれば十分であるならば、NC=0、α=0.0としてもよい。
そして、判別部12eは、上記式(1)による正解率AccNの算出結果に基づいて、
上記式(2)により、入場車両リスト13fの車両ごとのマッチング率AccT(0.0〜1.0)を算出する。ここで、AccEは、エンブレムの正解値(0もしくは1)である。βは、ナンバーとエンブレムとの結合係数である。
そして、判別部12eは、上記式(2)により算出したマッチング率AccTが最も大きい車両について、マッチングしたとして判定する。なお、マッチング率AccTが少なくとも所定の閾値を超える場合に限定してもよい。
次に、トラックTの物流センター2への入場時の処理手順について説明する。図8Aに示すように、高精細カメラ28の撮像画像に基づき、取得部12dが、入場車両のナンバーおよびエンブレムを読み取る(ステップS301)。
そして、読み取りが成功したならば(ステップS302,Yes)、取得部12dが、読み取ったナンバーおよびエンブレムを入場車両リスト13fへ追加し(ステップS303)、処理を終了する。また、読み取りが成功しなかったならば(ステップS102,No)、そのまま処理を終了する。
つづいて、トラックTが物流センター2へ入場してからの処理手順について説明する。図8Bに示すように、カメラ24がスパン21を撮像し(ステップS401)、判別部12eが、状態判別モデルを用い、かかる撮像画像からスパン21の状態を判別する(ステップS402)。
そして、スパン21に駐停車中のトラックTのナンバーおよびエンブレムが判別された場合(ステップS403,Yes)、かかるナンバーおよびエンブレムが入場車両リスト13fに存在するならば(ステップS404,Yes)、判別部12eは、入場車両リスト13fにバースを割り当てる(ステップS405)。
そして、監視部12fは、たとえばスパン21の個別監視画面に、満空状態やトラックTのナンバーを含むスパン21の状態を表示させて(ステップS406)、処理を終了する。
一方、判別されたナンバーおよびエンブレムが入場車両リスト13fに存在しないならば(ステップS404,No)、監視部12fは、マッチングエラーを表示させる(ステップS407)。そして、監視部12fは、たとえばスパン21の個別監視画面に、満空状態を含むスパン21の状態を表示させる(ステップS408)。また、監視部12fは、同個別監視画面に、手動割当ボタンを表示させて(ステップS409)、処理を終了する。
また、ステップS403でナンバーおよびエンブレムが判別されなかった場合(ステップS403,No)、監視部12fは、たとえばスパン21の個別監視画面に、満空状態やシャッター22の開閉状態を含むスパン21の状態を表示させる(ステップS410)。そして、監視部12fは、同個別監視画面に、手動割当ボタンを表示させて(ステップS411)、処理を終了する。
つづいて、手動割り当ての処理手順について説明する。図8Cに示すように、まず手動割当ボタンが押下されたか否かが判定される(ステップS501)。そして、手動割当ボタンが押下された場合(ステップS501、Yes)、入場車両リスト13fのうち、「バース未割当」の車両リストが表示される(ステップS502)。なお、手動割当ボタンが押下されない場合(ステップS501,No)、ステップS501が繰り返される。
そして、ステップS502で表示された車両リストから候補が選択され、設定ボタンによって確定がなされる(ステップS503)。すると、判別部12eが、選択された車両のステータスを「バース割当済」とする(ステップS504)。そして、処理を終了する。
つづいて、トラックTの物流センター2からの退場時の処理手順について説明する。図8Dに示すように、高精細カメラ28の撮像画像に基づき、取得部12dが、退場車両のナンバーを読み取る(ステップS601)。
そして、読み取りが成功したならば(ステップS602,Yes)、取得部12dが、読み取ったナンバーの該当車両を入場車両リスト13fから削除し(ステップS603)、処理を終了する。また、読み取りが成功しなかったならば(ステップS602,No)、そのまま処理を終了する。
ところで、上述してきた実施形態に係るサーバ装置10は、たとえば図9に示すような構成のコンピュータ60によって実現される。図9は、実施形態に係るサーバ装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ60は、CPU(Central Processing Unit)61、RAM(Random Access Memory)62、ROM(Read Only Memory)63、HDD(Hard Disk Drive)64、通信インタフェース(I/F)65、入出力インタフェース(I/F)66、およびメディアインタフェース(I/F)67を備える。
CPU61は、ROM63またはHDD64に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM63は、コンピュータ60の起動時にCPU61によって実行されるブートプログラムや、コンピュータ60のハードウェアに依存するプログラム等を格納する。
HDD64は、CPU61によって実行されるプログラムおよび当該プログラムによって使用されるデータ等を格納する。通信インタフェース65は、通信ネットワークを介して他の機器からデータを受信してCPU61へ送り、CPU61が生成したデータを、通信ネットワークを介して他の機器へ送信する。
CPU61は、入出力インタフェース66を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU61は、入出力インタフェース66を介して、入力装置からデータを取得する。また、CPU61は、生成したデータを、入出力インタフェース66を介して出力装置へ出力する。
メディアインタフェース67は、記録媒体68に格納されたプログラムまたはデータを読み取り、RAM62を介してCPU61に提供する。CPU61は、当該プログラムを、メディアインタフェース67を介して記録媒体68からRAM62上にロードし、ロードしたプログラムを実行する。記録媒体68は、たとえばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
たとえば、コンピュータ60が実施形態に係るサーバ装置10として機能する場合、コンピュータ60のCPU61は、RAM62上にロードされたプログラムを実行することにより、制御部12の各機能を実現する。また、HDD64には、記憶部13内のデータが記憶される。コンピュータ60のCPU61は、これらのプログラムを、記録媒体68から読み取って実行するが、他の例として、他の装置から、通信ネットワークを介してこれらのプログラムを取得してもよい。
上述してきたように、実施形態に係るサーバ装置10(「車両判別装置」の一例に相当)は、生成部12cと、判別部12eとを備える。生成部12cは、物流センター2(「車両施設」の一例に相当)におけるスパン21(「所定の駐停車領域」の一例に相当)ごとに設けられたカメラ24(「第1のカメラ」の一例に相当)によって撮像された正例となる撮像画像における車両のナンバーおよびエンブレムの該当領域が少なくとも特徴ベクトルに含まれるように機械学習を実行することによって、スパン21の状態判別モデルを生成する。判別部12eは、カメラ24によって撮像された判別対象分となる撮像画像を状態判別モデルへ入力することによって得られる出力値に基づいて、スパン21に駐停車中の車両のナンバーおよびエンブレムを判別する。
したがって、実施形態に係るサーバ装置10によれば、物流センター2におけるトラックTの状態を、トラックTを特定しつつ精度よく判別し、物流センター2を効率よく運用することができる。
なお、上述した実施形態では、「ナンバー」に、たとえば「大阪 XX と 12−34」のように地名、分類番号(XX)、1文字のひらがな文字またはアルファベット文字が含まれる場合を例に挙げたが、これに限られるものではない。たとえば、一連指定番号または車両番号に該当する「12−34」の部分だけを「ナンバー」としてもよい。かかる場合、機械学習時の領域R11,R21は、ナンバープレート全体ではなく、この数字4桁部分のみとしてもよい。
また、上述した実施形態では、入退場時にトラックTを撮像するカメラが高精細カメラ28であることとしたが、入退場時においてトラックTのナンバーが十分に読み取り可能であれば、カメラ24と同程度の解像度のカメラを用いてもよい。
また、上述した実施形態では、機械学習により、主にスパン21の状態を判別する場合を例に挙げたが、無論、待機場23の状態を判別するようにしてもよい。すなわち、待機場23の撮像画像に基づいて機械学習を実行し、生成された状態判別モデルによって、たとえば待機場23の各駐停車スペースの満空状態や、駐停車中のトラックTのサイズや、ナンバーおよびエンブレム等を判別するようにしてもよい。
このように、待機場23の状態を判別可能とすることにより、たとえばあるスパン21のバースが空いたと判別された場合に、かかるバースへ進入可能なサイズであり、かつ、より長く待機しているトラックTを自動的に選定して、音声や誘導灯により、システムが自動的に誘導することが可能となる。
また、トラックTの誘導業務については、他の車両誘導システムが導入され、これにより運用されている場合に、車両施設監視システム1は、スパン21および待機場23の状態の判別結果を、かかる他の車両誘導システムへ連携させるようにしてもよい。
これにより、物流センター2に複数のベンダによる複数のシステムが導入され、運用されている場合であっても、車両施設監視システム1の判別結果に基づいて、物流センター2を効率よく円滑に運用することが可能となる。
また、上述した実施形態では、車両前部のナンバーおよびエンブレムが撮像される場合を例に挙げたが、車両後部のナンバーおよびエンブレムが撮像される場合であってもよい。
また、上述した実施形態では、車両施設が物流センター2である場合を例に挙げたが、無論、車両施設を限定するものではない。たとえば、大型商業施設の駐車場などであってもよい。
また、上述した実施形態では、サーバ装置10が、収集部12aと、抽出部12bと、生成部12cと、取得部12dと、判別部12eと、監視部12fとを有する場合を例に挙げたが、たとえば収集部12aや、生成部12c、判別部12e、監視部12f等が、それぞれの機能に特化した個別の専用装置として構成され、ネットワークNを介して情報のやり取りを行いつつ、全体として車両施設監視システム1の機能を実現してもよい。
また、上述した実施形態では、機械学習のアルゴリズムとしてディープラーニングを用いるものとしたが、用いるアルゴリズムを限定するものではない。したがって、SVM(Support Vector Machine)のようなパターン識別器を用いたサポートベクタ回帰等の回帰分析手法により機械学習を実行し、状態判別モデルを生成してもよい。また、ここで、パターン識別器はSVMに限らず、たとえばアダブースト(AdaBoost)などであってもよい。また、ランダムフォレストなどを用いてもよい。
さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。
1 車両施設監視システム
2 物流センター
10 サーバ装置
12a 収集部
12b 抽出部
12c 生成部
12d 取得部
12e 判別部
12f 監視部
13b 学習対象分データセット
13c 第1判別モデル
13d 第2判別モデル
13e 第3判別モデル
13ea 第1検知モデル
13eb 第2検知モデル
13ec 生成モデル
13ed 第3検知モデル
13f 入場車両リスト
13g 判別対象分データセット
21 スパン
22 シャッター
23 待機場
24 カメラ
28 高精細カメラ

Claims (10)

  1. 車両施設の所定の駐停車領域ごとに設けられた第1のカメラによって撮像された正例となる撮像画像における車両のナンバーおよびエンブレムの該当領域が少なくとも特徴ベクトルに含まれるように機械学習を実行することによって、前記駐停車領域の状態判別モデルを生成する生成工程と、
    前記第1のカメラによって撮像された判別対象分となる撮像画像を前記状態判別モデルへ入力することによって得られる出力値に基づいて、前記駐停車領域に駐停車中の車両のナンバーおよびエンブレムを判別する判別工程と
    を含むことを特徴とする車両判別方法。
  2. 前記生成工程は、
    前記正例となる撮像画像に対して車両、ナンバーおよびエンブレムの該当領域、ならびに、分類クラスを設定し、前記正例となる撮像画像を用いた機械学習を実行することによって、前記判別対象分となる撮像画像が入力された場合に、該判別対象分における車両、ナンバーおよびエンブレムを検知する検知モデルを前記状態判別モデルの1つとして生成する
    ことを特徴とする請求項1に記載の車両判別方法。
  3. 前記生成工程は、
    前記検知モデルによって検知されたナンバーの該当領域を切り出して高解像化し、高解像化の前後の画像を用いた機械学習を実行することによって、前記検知モデルによって検知されたナンバーの該当領域が入力された場合に当該該当領域の高解像画像を生成する生成モデルを前記状態判別モデルの一つとして生成する
    ことを特徴とする請求項2に記載の車両判別方法。
  4. 前記生成工程は、
    切り出したナンバーの該当領域に対し所定の高解像化処理を実行し、該高解像化処理後の画像をさらに鮮明にする加工を人手により施した画像を、高解像化後の画像として機械学習を実行する
    ことを特徴とする請求項3に記載の車両判別方法。
  5. 前記生成工程は、
    前記生成モデルによって生成された前記高解像画像に対してナンバーの各文字の該当領域、および、分類クラスを設定し、前記高解像画像を用いた機械学習を実行することによって、前記判別対象分となる撮像画像におけるナンバーの該当領域を高解像化した前記高解像画像が入力された場合に、前記判別対象分におけるナンバーの各文字を検知する文字検知モデルを前記状態判別モデルの1つとして生成する
    ことを特徴とする請求項3または4に記載の車両判別方法。
  6. 前記判別工程は、
    前記文字検知モデルによって検知された各文字、および、各文字の該当領域の位置関係に基づいて、車両のナンバーを判別する
    ことを特徴とする請求項5に記載の車両判別方法。
  7. 前記判別工程は、
    前記車両施設の少なくとも入場口に設けられ、入場時における車両のナンバーおよびエンブレムを撮像可能に設けられた第2のカメラの撮像画像に基づいて取得された車両のリストと、前記出力値に基づいて判別された車両のナンバーおよびエンブレムとをマッチングし、マッチングが成立した場合に、車両を特定する
    ことを特徴とする請求項1〜6のいずれか一つに記載の車両判別方法。
  8. 前記判別工程は、
    少なくとも、前記出力値に基づいて判別された車両のナンバーの各文字と、前記リスト中の車両のナンバーの各文字との正解率に基づいて前記リスト中の車両ごとのマッチング率を算出し、当該マッチング率が最も大きい車両についてマッチングが成立したと判定する
    ことを特徴とする請求項7に記載の車両判別方法。
  9. 車両施設の所定の駐停車領域ごとに設けられた第1のカメラによって撮像された正例となる撮像画像における車両のナンバーおよびエンブレムの該当領域が少なくとも特徴ベクトルに含まれるように機械学習を実行することによって、前記駐停車領域の状態判別モデルを生成する生成部と、
    前記第1のカメラによって撮像された判別対象分となる撮像画像を前記状態判別モデルへ入力することによって得られる出力値に基づいて、前記駐停車領域に駐停車中の車両のナンバーおよびエンブレムを判別する判別部と
    を備えることを特徴とする車両判別装置。
  10. 車両施設の所定の駐停車領域ごとに設けられた第1のカメラによって撮像された正例となる撮像画像における車両のナンバーおよびエンブレムの該当領域が少なくとも特徴ベクトルに含まれるように機械学習を実行することによって、前記駐停車領域の状態判別モデルを生成する生成手順と、
    前記第1のカメラによって撮像された判別対象分となる撮像画像を前記状態判別モデルへ入力することによって得られる出力値に基づいて、前記駐停車領域に駐停車中の車両のナンバーおよびエンブレムを判別する判別手順と
    をコンピュータに実行させることを特徴とする車両判別プログラム。
JP2019029538A 2019-02-21 2019-02-21 車両判別方法、車両判別装置および車両判別プログラム Pending JP2020135535A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019029538A JP2020135535A (ja) 2019-02-21 2019-02-21 車両判別方法、車両判別装置および車両判別プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019029538A JP2020135535A (ja) 2019-02-21 2019-02-21 車両判別方法、車両判別装置および車両判別プログラム

Publications (1)

Publication Number Publication Date
JP2020135535A true JP2020135535A (ja) 2020-08-31

Family

ID=72278715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019029538A Pending JP2020135535A (ja) 2019-02-21 2019-02-21 車両判別方法、車両判別装置および車両判別プログラム

Country Status (1)

Country Link
JP (1) JP2020135535A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102487661B1 (ko) * 2022-06-28 2023-01-12 대한민국 차량의 번호판 인식률을 향상시키기 위한 방법 및 장치
JP7422342B1 (ja) 2023-04-14 2024-01-26 パナソニックIpマネジメント株式会社 文字認識装置、文字認識システムおよび文字認識方法
WO2024043485A1 (ko) * 2022-08-26 2024-02-29 삼성전자주식회사 텍스트를 포함하는 이미지를 처리하기 위한 전자 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108063A (ja) * 2006-10-25 2008-05-08 Hitachi Ltd 車両認識装置
JP2016184199A (ja) * 2015-03-25 2016-10-20 住友電気工業株式会社 駐車状況報知装置
JP2017045384A (ja) * 2015-08-28 2017-03-02 株式会社エスキュービズム・ホールディングス 駐車管理装置および駐車場システム
JP2017208050A (ja) * 2016-05-20 2017-11-24 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置
JP6389976B1 (ja) * 2018-03-20 2018-09-12 株式会社プロロジス 車両施設監視システム
JP2018151747A (ja) * 2017-03-10 2018-09-27 株式会社ツバサファクトリー 超解像度処理装置、超解像度処理方法およびコンピュータプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008108063A (ja) * 2006-10-25 2008-05-08 Hitachi Ltd 車両認識装置
JP2016184199A (ja) * 2015-03-25 2016-10-20 住友電気工業株式会社 駐車状況報知装置
JP2017045384A (ja) * 2015-08-28 2017-03-02 株式会社エスキュービズム・ホールディングス 駐車管理装置および駐車場システム
JP2017208050A (ja) * 2016-05-20 2017-11-24 富士通株式会社 画像処理プログラム、画像処理方法および画像処理装置
JP2018151747A (ja) * 2017-03-10 2018-09-27 株式会社ツバサファクトリー 超解像度処理装置、超解像度処理方法およびコンピュータプログラム
JP6389976B1 (ja) * 2018-03-20 2018-09-12 株式会社プロロジス 車両施設監視システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102487661B1 (ko) * 2022-06-28 2023-01-12 대한민국 차량의 번호판 인식률을 향상시키기 위한 방법 및 장치
WO2024043485A1 (ko) * 2022-08-26 2024-02-29 삼성전자주식회사 텍스트를 포함하는 이미지를 처리하기 위한 전자 장치 및 방법
JP7422342B1 (ja) 2023-04-14 2024-01-26 パナソニックIpマネジメント株式会社 文字認識装置、文字認識システムおよび文字認識方法

Similar Documents

Publication Publication Date Title
JP6389976B1 (ja) 車両施設監視システム
JP6890094B2 (ja) 合法な駐車のための方法とシステム
EP3657385B1 (en) Systems and methods of vehicle detection within a vehicle parking facility
JP2020135535A (ja) 車両判別方法、車両判別装置および車両判別プログラム
KR100796266B1 (ko) 주차 관제 시스템
CN113658450B (zh) 一种停车位管理方法、停车位管理装置、电子设备及计算机可读存储介质
JP5318584B2 (ja) エレベータ制御に用いるビデオ補助式システム
KR101343102B1 (ko) 지능형 주차장 관리 시스템 및 방법
JP6675860B2 (ja) データ処理方法およびデータ処理システム
DE102014209453A1 (de) Verfahren zum Vereinfachen der Suche nach einem freien Parkplatz
JP2019177760A (ja) 輸送機関混雑予測システム及び混雑予測方法
US10696274B1 (en) Automated system for car access in retail environment
CN114067295A (zh) 一种车辆装载率的确定方法、装置及车辆管理系统
KR101815472B1 (ko) 차량 출입에 따른 맞춤형 컨텐츠를 제공하는 서버 및 시스템
JP2019185463A (ja) 駐車管理システムおよび駐車管理方法
Awaisi et al. Deep reinforcement learning approach towards a smart parking architecture
US10682980B1 (en) Systems and methods for test driving cars with limited human interaction
US20170301149A1 (en) Parking assignment system with laser rangefinder and parking meter
JP7401292B2 (ja) 駐車場管制システム、駐車場管制方法、及びプログラム
WO2021130890A1 (ja) 管理システム、管理装置および管理方法
JP6539775B1 (ja) 車両施設監視システム
US20220005112A1 (en) Vehicle and method of managing cleanliness of interior of the same
US20210400469A1 (en) Interactive local information interface
JP4522716B2 (ja) 出入管理装置
CN113793525A (zh) 一种用于车辆停车的方法、装置和设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230912